lunes, 12 de noviembre de 2012


Menos conversación y más acción. 

Doers space en Argentina.

Dime si has hecho algo.-
Leonardo Da Vinci.

Siempre se dijo que en la Argentina tenemos una excelente calidad de profesionales, que somos creativos a la hora de buscar soluciones y de inventar nuevos productos. Sin caer en clichés como el colectivo y la birome, generalmente los ingenieros y diseñadores argentinos se destacan cuando interactúan en grupos de trabajo internacionales. Pero, ¿por qué eso no se traduce en, por ejemplo, cantidad de patentes registradas?

A diferencia de lo que sucede en otros lugares, en Argentina es muy complicado a acceder a capital para lograr pruebas de concepto y, mucho menos, a lugares donde dichas pruebas se puedan realizar. Es complejo para el inventor promedio invertir en maquinaria, moldería, diseño, etc., para materializar su idea.

Por otro lado, contrariamente a lo suponía, uno de las empresas que más me impactó en Silicon Valley, no fue de informática, sino un “doers space”. Techshop es una empresa que da lugar y maquinaria apta a lo que ellos llaman “hacedores”. Gente que se interesa por crear, materializar ideas, hacer que conceptos se conviertan en realidad. Desde inventores de garaje (concepto muy arraigado en EE.UU.) hasta artistas o estudiantes, todos interactuando en el mismo espacio físico, accediendo a maquinarias, asesoramiento y cursos para realizar su sueño. Todos interactuando y colaborando entre sí, potenciando el espíritu emprendedor y la innovación cruzada entre distintas áreas de conocimiento.

¿Qué pasaría si se establece un Techshop en Argentina? ¿Si unimos ese potencial creativo con las herramientas?¿Si creamos un espacio donde la diversión, el trabajo, los sueños y la innovación se junten? ¿Y si a ese espacio le sumamos un toque social, enseñando oficios, dando acceso a colegios técnicos y estudiantes universitarios a bajo costo? ¿Y si potenciamos interacciones entre artistas plásticos que quieran crear grandes obras sin depender de premios o subsidios?

Mi hipótesis es que podría ser un gran éxito, que en poco tiempo de establecido estaríamos generando patentes de nuevos productos, estaríamos cumpliendo un rol social dando oficios a personas que hoy no lo tienen, estaríamos innovando realmente.

Quizás la visión esté sesgada por mi profesión y mi fracasado espíritu de inventor (de vez en cuando abro la carpeta con “ideas geniales que nunca llevaré a cabo”). Por eso este es el primer test de concepto de la idea. ¿Les parece que puede funcionar acá un “doers space”? ¿Conocen gente que pagaría una cuota social (tipo club) para fabricar sus sueños? ¿Cuánto estarían dispuestos a pagar? ¿Les parece que puede ser una idea interesante para artistas?

Me interesaría de sobremanera escuchar sus opiniones, difundan la idea a sus amigos, compartan el link, comenten aquí o a mi casilla de mail ajmrepetto at gmail.com. 

Alejandro Repetto
@ajmrepetto

lunes, 24 de septiembre de 2012


Crowdfunding: El poder de las masas

Todos los que alguna vez emprendimos sabemos que uno de los punto críticos es el financiamiento. La paradoja de la economía es que para poder desarrollar una idea brillante se necesita dinero, pero las fuentes convencionales de financiamiento (bancos, gobiernos, etc.) no lo proveen a menos que muestres tu idea es brillante. Algo así como el “El huevo o la gallina?” de las finanzas. La pesadilla del emprendedor es poder demostrar que su idea es buena sin tener la suficiente espalda como para desarrollarla.

Este problema, por suerte, de a poco está desapareciendo. Las usinas de emprendedores se están deshaciendo de las fuentes de financiamiento convencionales, como ser bancos, inversores ángeles o capitales de riesgo (venture capitals), para comenzar a financiarse a través del denominado crowdfunding, o financiamiento masivo, para tratar de inventar un término en castellano.

Este tipo de financiamiento tiene mucho que ver con la psicología asociada a las redes sociales y comunidades virtuales, por lo que responde a un comportamiento exponencial. Básicamente, consiste en un grupo de personas con intereses comunes se juntan y deciden financiar proyectos, productos, eventos, que creen que pueden prosperar. Dos buenos ejemplos de crowdfunding son http://www.kickstarter.com  y http://www.kiva.org. El primero tiene fines netamente comerciales y el segundo fines sociales.

Kickstarter es una página web donde emprendedores presentan su proyecto/producto y lo venden inclusive antes de tener siquiera un prototipo funcional. Uno de los proyectos más renombrado en los últimos tiempos es Pebbels, una pequeña empresa que comenzó a fabricar relojes con pantallas de papel electrónico. Lo destacable de su campaña en Kickstarter, es que en las primeras 28hs. de publicado, su producto recaudó más de un millón de dólares, y cerró su campaña recaudando más de 10 millones. Todo esto en preórdenes. O sea, en personas que compraban relojes que todavía no estaban producidos, confiando en que la gente de Pebbels los iba a terminar y enviar en los próximos meses, tal como decía el contrato. Lo destacable de Kickstarter es que, para ser correctos, no financia emprendedores en el sentido convencional. Las personas no deben devolver el dinero, sino entregar el producto. Para ser claros, es como un Mercado Libre pero vendiendo cosas que todavía no se han fabricado.

Por otro lado, y creo yo el más interesante, Kiva es una organización sin fines de lucro que conecta emprendedores en países pobres con financistas. En este caso el emprendedor sí debe devolver el dinero. Pero, a diferencia de los bancos, las tasas son bajas o nulas, según el proyecto, los proyectos deben ser sociales y los prestamistas que lo financian pueden prestar hasta un mínimo de 25 dólares. Lo curioso es que es una red que se basa en la confianza, no existen contratos intermedios, y así logró desde su nacimiento en 2005, que 800.000 personas presten más de 330 millones de dólares con una efectividad de repago de del 99%. Muy lejano al mejor de los bancos, que con suerte llegan al 85%.


Intercontinental Ballistic Microfinance from Kiva on Vimeo.

Estos dos ejemplos muestran dos facetas más que interesantes marcando el rumbo de nuestra sociedad. Por un lado, pone de manifiesto el poder de las masas. La tecnología enfrenta de alguna manera a la burocracia financiera y estatal dándole poder a los individuos para organizarse. Por el otro, esta organización, contrariamente a lo que muchos suponían, lleva al liberalismo como bandera, donde cada individuo puede progresar por sí mismo, vendiendo su producto masivamente, sin necesidad de control, contratos y protección del estado.

Alejandro Repetto
@ajmrepetto

lunes, 3 de septiembre de 2012


Nos ignoran

Pasado el día de la industria, el país que soñaron Savio y Mosconi se quedó en esa época. Estancado en los 40’s. La última inversión industrial real llegó al país en los 90’s de la mano del, perdón por la palabra, liberalismo de aquellos muchachos de la escuela de Chicago. Desde hace más de una década que la industria argentina se limita a una decena de grandes fábricas que hacen productos de calidad, pero no son suficientes como para impulsar un país. Y, para peor, las políticas impredecibles hacen que hasta estas empresas sufran problemas a diario.

El bienestar provisto por la bonanza de la soja no hizo más que tapar la deficiencia productiva de un país que tiene todo para dar. Mientras nuestros vecinos reinvirtieron “el viento de cola” en innovación y producción, nuestra política (porque nos guste o no es nuestra) se limitó a repartirlo en el cortoplacismo busca-voto.

Hoy habla nuestra magmánima. Seguro repetirá una y otra vez los grandes logros de nuestra industria. Lanzará, quizás, un plan del tipo “tostadoras para todos” que nunca se llevará a cabo. Hará hincapié en lo estúpidos que son los españoles y hasta quizás haga algún chiste de mal gusto sobre el primer ministro Monti. Pero la realidad, fuera del frasco, más allá de las zonceras de Aníbal o la politiquería del Cuervo Larroque intentando lavar cabezas en los jardines de infantes, es que para el resto del mundo no existimos.

No existimos ni para bien ni para mal. Nos dieron por perdidos. No nos critican ni nos alagan. Pero, lo más triste, es que no piensan en nosotros como un país con una mínima probabilidad de prosperar. En el mundo hablan de hacer inversiones en Latinoamérica. Ven el potencial y los recursos. Cuando se refieren a Latinoamérica, sin embargo, la gran mayoría de los casos incluyen Uruguay, Chile, Perú y Brasil. Estos países pueden variar, pero nunca mencionan Argentina.

Las inversiones de las que hablan son en innovación, en tecnología de punta. Desde nanotecnología hasta bioingeniería. Inversiones que tienen la enorme ventaja que son 80% en entrenamiento de recursos humanos y un 20% en infraestructura. Es decir, inversiones que hacen crecer a la gente del país y ponen a las naciones en la vanguardia. Dan el poder a los estados de progresar de manera exponencial.

Ningún país progresó (ni probablemente vaya a progresar) usando economías lineares. Cultivar soja, producir autos, o sacar caños sin costura. Son todas industrias dignas y necesarias pero, salvo alguna hecatombe, no permitirán el despegue. Para avanzar no hay que separarse del mundo. Esa idea jamás funcionó y los estados que lo intentaron no hicieron más que pegarse la cabeza (la cabeza de todos sus habitantes) contra la pared. El camino es la innovación. Poner tecnología en manos de la gente y dejarla vivir libre.

Las personas libres son creativas y la creatividad es el mayor recurso de las sociedades prósperas. Limitar los recursos, querer organizar las agendas, las billeteras y las vidas de los individuos no hacen más que llevar a un país de zombies miserables. Miren Corea del Norte, miren Cuba, miren Venezuela. No lleguemos a eso. El mejor intento que podemos hacer es involucrarnos todos. Cuantos más seamos peleando desde adentro, comprometidos por un progreso real, más probabilidades de éxito tendremos.

Alejandro Repetto
@ajmrepetto

El otro relato

Europa está en banca rota. Las guerras están devastando la humanidad. El hambre y la miseria acechan. Las pestes como el cólera, el ébola y la tuberculosis son pandemias. El futuro es oscuro. ¿Alguien vio pasar a los cuatro jinetes del Apocalipsis?

Esto simplemente es mentira. Contrariamente a lo que la mayor parte de la gente piensa y siente, vivimos en un mundo cada vez más próspero y ordenado. Menos muertes por enfermedades, esperanza de vida infinitamente mayor a la de épocas anteriores. Mucha más gente con acceso a recursos básicos como el agua y la comida. Un tiempo paz inédito en la historia mundial. Pocas guerras y las que hay son menos cruentas que las anteriores, con muchísimo menos daño.

Entonces, ¿qué pasa? El problema es, en realidad el acceso a la información. Nuestros padres o, sin ir tan lejos, nosotros mismos, hace 20 años no nos enterábamos que un loco se puso a tirar tiros en Times Square sino hasta un par de días después, si es que tenía relevancia la noticia. Sabíamos poco y nada sobre enfermedades o niveles de pobreza que afectaban al África Subsahariana y, yendo un poco más atrás, mucho menos sobre lo que pasaba en los campos de concentración de la antigua URRS.

Hoy, el conocer la información nos horroriza. Pero la realidad es que deberíamos estar contentos de la evolución que tuvo la humanidad. En la mayoría de los espacios de las ciencias, tanto exactas como sociales, estamos superando el punto de inflexión de la curva exponencial que nos lleva hacia un futuro infinitamente mejor.

El modelo de la escasez de Malthus fue echado por tierra. La sábana no es corta como nos quieren hacer creer. No hay sábana de hecho. Las nuevas industrias, las nuevas empresas, las que de verdad triunfan, son las que crean nuevo valor no las que acumulan capital de otros. Se puede crear valor sin “robar” riqueza y sin generar inflación, está demostrado. La idea comunista de que si un tiene es porque al otro le falta, quedó en la cabeza de algunos melancólicos que siguen queriendo dividir al mundo.

El acceso a la información y las comunicaciones cambió la manera de ver el mundo. Para el año que viene se espera que haya un 70% de penetración en la telefonía móvil. Y, en poco tiempo más, una penetración equivalente de los smartphones. ¿Qué va a pasar cuando en el 2020 cerca del 90% de la población tenga Internet? 

La era de la micro-colaboración comenzó. Redes de inversión P2P, como Kiva, redes de promoción de productos como Kickstarter o redes de “hágalo usted mismo” (DIY) son el futuro del desarrollo humano. El poder está en manos de la multitud, el crowd sourcing, grupos de personas con pasiones compartidas que se ayudan para lograr objetivos realmente grandes son una realidad. La comunicación permitió que estos movimientos tengan alcance transnacional, que no sea una sociedad de fomento barrial. El modelo superador al capitalismo es el capitalismo mismo. Nadie reparte lo de otros, todos se ocupan de hacer lo que más les gusta y lo que mejor le sale y pueden vivir de ello.

Como humanidad, en promedio, estamos viviendo un período de abundancia. Lleno de libertades individuales que se ponen al servicio de todos. El liberalismo triunfa y nos ayuda a ser mejores, a vivir más cómodos y a ser más justos. Lástima que algunos aprovechen la información para contar una parte de la historia y justificar eventos locales. “El mundo se nos caen encima”, diría una primera mandataria, mientras se pisa los cordones y se tropieza.

Alejandro Repetto
@ajmrepetto

PS: Est post contiene mucho del optimismo de Peter Diamandis en Abundance. Aclaro que este optimismo es un optimismo con comprobación matemática.

viernes, 24 de agosto de 2012

El láser más potente del mundo

El futuro de la energía es uno de los temas que más preocupan a todos los gobiernos en el mundo. La energía que se consume en el mundo crece exponencialmente y de ella depende el sistema económico mundial. Sin energía no hay producción, sin producción no hay plata, así de fácil. El problema de la energía que producimos es que o es mala para el ambiente o es poco eficiente y no alcanza para alimentar los estómagos hambrientos de las ciudades.

Ante este panorama muchos están investigando la mejora de sistemas limpios, como ser los solares o eólicos. Estos, sin embargo, tiene todavía varios puntos flojos que no vamos a analizar ahora. Otra vertiente de investigación se vuelca hacia la disrupción del mercado energético trayendo innovación exponencial y no crecimiento lineal.

Dentro de esta última vertiente de investigación se encuentra la energía generada por fusión nuclear. Decir “nuclear” es mala palabra en los últimos tiempos, sobre todo para los que están lejos de la ingeniería y la ciencia. Sin embargo, cuando se habla de fusión en vez de fisión, lo más complicado que puede pasar ante una falla es la emisión de hidrógeno o helio, materiales totalmente inocuos.

El laboratorio más avanzado en investigaciones de fusión nuclear se encuentra en Livermore, California. Se llama National Ignition Facility (NIF) y para lograr fusiones nucleares poseen el menudo record de tener el láser más potente del mundo, pasando los 2M Joules. Con esa potencia logran realizar fusión nuclear y obtener energía, aunque aún el balance les da negativo (tienen que  poner más energía en el sistema que la que obtienen luego de la fusión).

Lo más interesante de la NIF no es el objetivo final de la fusión nuclear, sino todo lo que se generó en redor para logarlo. Por ejemplo, el sistema que genera el pulso láser final tiene el tamaño de tres campos de fútbol americano. Comienzan disparando 192 lásers comunes, en la frecuencia de un puntero como los que se compraban en los todos por dos pesos, pero de un tamaño de 30x15 cm. Este láser pasa por series interminables de amplificadores y concentradores que permiten alcanzar una potencia de unos 500 trillones de Watts -nenergía equivalente a mil veces lo que se consume en EE.UU. en el mismo lapso de tiempo-, concentrados todo sobre un objetivo del tamaño de un grano de arroz. El ataque del láser hace que se eleve la temperatura del objetivo a 3,3 millones de grados centígrados por 20 nanosegundos.

El NIF no es sólo un láser potente. El sistema en si es uno de los más complejos generados por el humano hasta el momento. Consta de 60.000 puntos de control - mucho más que los que tiene una nave espacial - y está conectado a la supercomputadora más veloz del mundo que analiza los datos que genera. A su vez, es una obra civil de lo más compleja, construido sobre tres cimientos distintos y complemente independientes asegurando la estabilidad. El NIF fue inaugurado hace 3 años y su construcción costó unos 2.500 millones de dólares. Barato considerando que el mercado energético mueve anualmente 1.000.000 millones de dólares.

La oportunidad de visitar el centro es increíble y la única manera de entrar es esponsoreado por el gobierno americano, luego de una verificación de seguridad que lleva más de dos meses. Pero, si quieren tener su primer contador Geiger colgado del pecho, les recomiendo buscar la manera de entrar. Vale la pena.

Alejandro Repetto
@ajmrepetto

miércoles, 22 de agosto de 2012


El backstage de la NASA

Mucha gente se pregunta qué hace la NASA mientras no manda robots propulsados con energía nuclear equipados con un láser que vaporiza rocas a Marte. Tuve la oportunidad de asistir a una visita guiada por algunos de los laboratorios dentro de NASA  Ames Research Park y les puedo contar algunas cosas interesantes al respecto. (Hay otras que no puedo contar por cuestiones de confidencialidad, pero eso no importa J).

Primero, para dar una idea de tamaño, trabajan en la actualidad cerca de 2.500 investigadores y maneja un presupuesto de más de 800 millones de dólares. Cuenta con un equipamiento valuado en unos 3.000 millones de dólares y es el centro de astrobiogía, exploración lunar y microsatélites de toda la NASA. Posee, entre otras cosas, el túnel de viento más grande del mundo (36m x 24m).

Parte del Hyperwall mostrando choque de galaxias.
La primera escala de la visita es en el centro de supercomputación. Ames tiene una supercomputadora con más de 91.000 procesadores, rankeada actualmente como número 11 en el mundo. Hace poco más de un año era la número tres, para dar una idea de la velocidad con la que crece la capacidad de cálculo en el mundo. Esta computadora, sin embargo, no es lo más importante desde el punto de vista del análisis de la información. Lo mejor es que, como se imaginarán, no está conectada a un monitor. Está conectada a lo que llaman Hyperwall. El Hyperwall es un arreglo de 8x16 monitores de 21 pulgadas de altísima definición -unos 256 Gigapixels - donde vuelcan los modelos matemáticos que procesan para poder visualizarlos y tomar decisiones de diseño. Entre otras cosas interesantes vimos las tensiones de un trasbordador espacial entrando a la atmósfera, la simulación de choque de dos galaxias, la simulación de choque de dos agujeros negros, una simulación del movimiento y la historia de las galaxias conocidas y los movimientos de vientos y mareas reproducidos con la historia de los últimos 50 años. Todo a todo color en altísima definición. Después de esto, ver una película en IMAX no será lo mismo.

Otra de las perlas de Ames es el simulador de torre de control. Una torre de control de aeropuerto tamaño real equipada con todos los elementos necesarios para operar pero, en vez de tener ventanas, tiene pantallas planas de alta definición que permiten simular cualquier aeropuerto del mundo. Así como lo leen. Tocando un botón pasan de Houston a Miami y de Miami a JFK. Con un nivel de realismo tal que permite al director del ejercicio de simulación generar llegadas de aviones de cualquier porte, de cualquier línea aérea en cualquier momento, generando congestiones, cambiando el clima, la luz ambiente, haciendo que nieve o que llueva. Para dar una idea del nivel de realismo, los gráficos no son sólo de aviones y aeropuertos, sino que se ve perfectamente la ciudad detrás del aeropuerto, tal como si fueran fotos interactivas. A modo de “broma”, también probamos la torre de control en Marte, utilizando imágenes tomadas por Opportunity, el robot que precedió a Curiosity.

Simulador de Vuelo VMS
Siguiendo en tono de simulación, Ames aloja el simulador de vuelo multiuso más real del mundo. Un simulador de seis grados de libertad (adelante/atrás, izquierda/derecha, pendiente adelante/pendiente atrás) que permite cambiar la cabina para simular aviones varios, helicópteros, transbordadores espaciales o cualquier otro objeto volador (identificado en este caso). El “Vertical Motion Simualtor” (VMS) permite movimientos de 12 metros en horiztontal y 20 metros en vertical y está conectado ubicado en un hangar digno de locación de escena final de película de James Bond.

Para cerrar, y saltando algunos pasos menos interesantes (si es que hay menos interesante en todo esto), visitamos el centro de control de tráfico aéreo de EE. UU. Es un laboratorio con nivel dos de seguridad (eso quiere decir que hay que pasar otro chequeo, no se puede sacar fotos y casi no podría hablar de ello – pero aprovecho que me estoy por ir para hacerlo-). Ahí se concentran todas las señales de tráfico aéreo de todas las subestaciones de EE.UU. contando los radares principales, intermedios y locales. En tiempo real muestra todos los aviones que están en el aire, si vienen atrasados, si hay congestión o si algo se salió de control en algún momento. Allí no sólo miran, sino que desarrollan sistemas de control. El sistema que están instalando ahora incluye una herramienta para controladores aéreos que permite organizar los vuelos para reducir el retraso al mínimo. Como anécdota al respecto, se dio una charla interesante con el director del laboratorio sobre el futuro del control de tráfico aéreo y los aviones no tripulados.

Si eso es lo que muestran, me cuesta imaginar lo que no vi. Para ser sincero, después de Singularity University no me cuesta mucho imaginarlo pero me encantaría verlo.

Alejandro Repetto
@ajmrepetto

lunes, 13 de agosto de 2012


CEO != Emprendedor

Dirigir negocios y crear negocios son cosas distintas. Los emprendedores suelen querer ser directores de sus propias compañías y la experiencia dice que eso pocas veces funciona bien. Un emprendedor es quién tiene ideas, visiones distintas, usualmente es observador e innovador. Los directores se dedican a otra cosa.

El director de la compañía debe focalizarse en dirigir el equipo que implementa la idea, no en innovar. Se pretende de un director de empresa que tenga aptitudes para vender, para hablar con inversionistas, para dirigir equipos multidisciplinarios (finanzas, contabilidad, RRHH, operaciones, etc.). Es decir, llevar adelante el negocio.

Para ser emprendedor se requiere muchísimo más: tener una idea. Esa idea tiene que crear algo nuevo, mejorar algo que existe o encontrar un nuevo nicho de negocios en un lugar donde no lo había. Decirlo es fácil, hacerlo no. La estadística a nivel mundial muestra que, en el mejor de los casos, sólo un 10% de las nuevas empresas pasan el primer año de vida.

El 90% restante, que muere en el camino, muchas veces lo hace no porque la idea no sirva, sino porque quién la implementa no sabe nada de negocios. El que tiene la idea no tiene por qué saber cómo dirigir una empresa. El mayor problema, sin embargo, es que es muy difícil hacerle entender a los inventores que alguien puede implementar su proyecto mejor que ellos mismos. Y, mucho más difícil aún convencerlos que dentro de su empresa ellos no son los que más ganan.

Lo que no ven, porque no entienden de negocios, es que lo que gana el CEO su sueldo. Lo que gana el dueño de la empresa (el emprendedor) depende de la cantidad de acciones que conserve (equity). Así, el consejo general para los emprendedores es que, cuando puedan, contraten a alguien que realmente sepa de negocios para llevar adelante su idea. ¿De dónde sacar la plata para hacerlo? Voy a dedicar alguna nota sobre a Venture Capitals, Crowdfunding y Angel Investors para dar ideas.

viernes, 10 de agosto de 2012


Museo de la Historia de la Computadora.

La experiencia empieza antes de llegar al museo: el camino más corto para ir es atravesar los cuarteles centrales de Microsoft. Una vez allí, al comprar la entrada, uno la paga con gusto. Tienen tres paquetes posibles: el normal, que incluye sólo la entrada, el Super Geek, que incluye la entrada, un pin y una remera, y el Total Geek, que agrega a este último un poster sobre la evolución de los lenguajes de programación. En ese momento uno deja de hacer cuentas con el dólar, oficial, el blu, el contado liqui o lo que sea, y paga el ultrageek con una sonrisa de oreja a oreja.

El circuito del museo está organizado como una línea temporal que lleva al visitante a entender que las computadoras están lejos de ser un fenómeno de los años 80’s. En la entrada al circuito se nota algo raro en la música funcional, prestando un poco de atención uno se da cuenta que es el ruido a los viejos módems telefónicos que retrotraen a los de más de 30 a las buenas épocas de los BBS (Basic Board Systems). Ese único detalle ya hace que la entrada se pague sola.

Huesos de Napier
Sin embargo, el museo tiene mucho más para dar. En las primeras muestras expone tablas de cálculo y máquinas mecánicas de lo más estrambóticas para optimizar su uso. Sigue así hasta llegar a una de las reliquias más interesantes: una tabla de “huesos de Napier” original. Con un método simple y una tabla bien diseñada permite hacer multiplicaciones enormes en muy poco tiempo y, por lo tanto, también facilita las divisiones, exponenciaciones y búsqueda de raíces. Para darse una idea temporal de la antigüedad de este método, Napier falleció en 1617.

Al lado, y casi sin respiro, salta a una máquina de Babbage original. Este buen hombre, en el s. XIX inventó un mecanismo para encontrar raíces de polinomios de alto grado usando un par de engranajes y mucha creatividad. Esta máquina, bautizada Máquina de Babbage, es reconocida como la primera computadora que existió ya que no requería intervención humana en las cuentas que hacía. Sólo requería mover una palanca para hacer funcionar los engranajes. Como si esto fuera poco, en el museo se hacen demostraciones mostrando como funciona y explicando al detalle los mecanismos internos.

Siguiendo con la historia se pasa por las viejas tarjetas perforadas, el inicio de IBM y algunas ideas más hasta llegar a la siguiente perla del museo: la máquina Enigma al lado de la máquina Colossus. Enigma es la máquina de cifrado del Ejército Alemán que dio tantos dolores de cabeza a la Armada Británica, mientras que Colussus es la primera computadora a válvula idea para el gran Alan Turing que logró romper el código de cifrado asegurando la victoria aliada.

Máquina Enigma
Más acá en el tiempo, se pueden ver máquinas de Atanasoff, circuitos de la serie MARK entre otras reliquias importantes. Otra parte interesante surge cuando empieza la era de las super computadoras, ya saltando a mediados de los 90’s. Lo más interesante es que muestra procesadores no impresos (en vez de chips, embrollos de cables) que en el 95 era parte de una supercomputadora, con un poder de cálculo de 1.5GHz. Casi lo que se puede encontrar en un teléfono celular de hoy en día.

Hay también stands dedicados a la era multimedia, a la era de las consolas de videojuegos (donde a los nostálgicos se les puede caer una lágrima viendo un Colleco Vision o un arcade con el PacMan),  otros dedicados a interfaces hombre-máquina, donde muestra al bisabuelo del mouse, de los años 60’s, entre un sinfín de hitos que marcaron el rumbo de la informática actual.

Más allá de las piezas de colección que, sin duda, son invaluables y dignas de ser conservadas, este museo muestra también la realidad de la ley de Moore, haciendo notar el aceleramiento en el que está inmersa la tecnología  de la información.

El museo termina con un gran cartel que dice "What's next?" (¿Qué sigue?). Nosotros seguimos, es mi respuesta.

Alejandro Repetto
@ajmrepetto

miércoles, 8 de agosto de 2012

Gobierno Electrónico y Gobierno Abierto en Argentina

Siguiendo con la nota anterior, donde se explica qué significan estos dos tipos de tecnología, analizaremos qué pasa en Argentina al respecto.

Por el lado del gobierno nacional las iniciativas de Datos Abiertos y de Gobierno Electrónico se limitan a títulos de poca aplicación. Accediendo a las páginas gubernamentales, poder ejecutivo, legislativo, judicial, a todo nivel, no se puede obtener información concreta sobre la gestión de gobierno. Si uno hace un posgrado en “búsqueda de Google” quizás tenga suerte y se tope con algún PDF ilegible al respecto de la administración actual. Por otro lado, lo que es gobierno electrónico pasa algo similar. No se encuentran páginas donde el ciudadano pueda interactuar con el gobierno federal de manera sencilla y parece que la burocracia es un aliado de nuestra administración.

Sin embargo, no todo está perdido. La Ciudad Autónoma de Buenos Aires está a la cabeza de las iniciativas de Gobierno Abierto y Gobierno Electrónico. Pone en manos de sus ciudadanos herramientas de fácil interacción con el gobierno como ser La guía de Trámites (con una distancia de un click desde la página principal – www.buenosaires.gov.ar) desde la cual se pueden realizar todos los trámites online o recibir información clara y precisa sobre los que no se pueden hacer todavía en la red. También la iniciativa “Mapa Interactivo” (mapa.buenosaires.gov.ar) dispone un mapa sumamente útil para la vida ciudadana, dando un sinfín de capas de información asociada a sus datos geográficos.

Por otro lado, a través de la iniciativa “Buenos Aires Data”, en data.buenosaires.gov.ar, habilita a los programadores una serie de fuentes de información abierta que se puede reutilizar y construir nuevas aplicaciones sobre ellas. Desde la ejecución presupuestaria hasta los distritos escolares, pasando por el sistema de bicicletas públicas o el estado del tránsito.

Además, el Gobierno de la Ciudad de Buenos Aires incentiva el uso de la información a través, por ejemplo, de hackatones (http://www.cimobsas.org/). Este tipo de eventos tiene como fin promover y premiar el uso de la información abierta para ponerla al servicio de la comunidad de manera gratuita.

Para sorpresa mía, como ciudadano de CABA, luego de hacer una revisión del estado de estas dos características en los niveles municipales, evaluando Londres, Amsterdam, Washington DC y San Pablo, Buenos Aires se pone al frente a nivel internacional proveyendo un nivel superior de calidad, simplicidad y accesibilidad al ciudadano, digno de ser destacado. Espermos que otras ciudades y, por qué no, el gobierno nacional se "contagie" y también promueva la transparencia y la participación ciudadana.

martes, 7 de agosto de 2012


Gobierno Electrónico y Gobierno Abierto

La dinámica entre las personas a través de las redes sociales no es el único resultado de la Internet 2.0. Esta tecnología, como toda innovación socio-técnica, tiene un impacto que trasciende a la persona. La interacción entre gobiernos y sus ciudadanos a través de la Internet va en ascenso y promete modificar la vida política de las grandes ciudades.

Se habla por lo general de dos estrategia: Gobierno Electrónico y Gobierno Abierto. Si bien están íntimamente relacionadas, no son lo mismo. El gobierno electrónico se refiere a la capacidad de un gobierno de extender su funcionalidad en la Web. Esto quiere decir que, a medida que pasa el tiempo, todo lo que hacíamos en el mundo físico se va ejecutando a través de tecnologías disponibles en la Internet. Por ejemplo hacer denuncias sobre problemas, cosas que no andan, baches, o trámites como obtener un registro de conducir. Esto facilita la vida del ciudadano ya que acorta la burocracia al mínimo, evitando largas pérdidas de tiempo.

Los intentos de gobierno electrónico presentan una gran desafío para los que lo quieren implementar ya que la digitalización de la burocracia conlleva a adaptación de procesos administrativos, validación de datos y, por sobre todas las cosas, una acción más directa del ciudadano. Esto último se refiere a que si antes se recibían diez denuncias diarias por problemas de bacheo, si se le da al ciudadano una manera rápida de realizar la denuncia se recibirán cien. Este crecimiento exponencial de denuncias presenta dos problemas para cualquier gobierno: por un lado deberá dar solución a muchísimos más casos, pues si no lo hace la gente no denunciará más y la iniciativa habrá fracasado; por otro lado es de esperarse que las métricas de gobierno empeoren notablemente por el nivel de acceso otorgado a través del cambio tecnológico.

Por otro lado, las iniciativas de Gobierno Abierto, relacionadas sobre todo a datos abiertos (open data en inglés), se refieren a la capacidad de los gobiernos de exponer de manera electrónica la ejecución de su administración. Esto se realiza mediante exposición de información con formatos estándar (Excel, PDFs, TXT, CVS, etc.) de manera que los ciudadanos puedan acceder a través de la red para ver cómo marchan las gestiones. Esta información normalmente está orientada a dos tipos de usuario: programadores y ciudadanos.

Al exponer la información de manera abierta en formatos estándar, los que se dan un poco de maña programando pueden realizar aplicaciones para poder explotar la información para distintos fines, como por ejemplo difundir información, mejorar la participación ciudadana o, inclusive, realizar investigaciones abiertas sobre el gobierno a través de búsqueda de patrones de corrupción. Desde la vista del ciudadano, el desafío más grande de los gobiernos es que esa información sea legible. Muchos gobiernos hacen bandera de sus capacidades de gobierno abierto y no pasan de dar archivos PDF de quinientas páginas, con números y cuadros ilegibles inclusive para expertos.

En resumen, estas dos visiones suman compromiso por parte del gobierno, participación ciudadana y, por lo tanto, transparencia a los gobierno generando un círculo virtuoso.

Comentario del autor: Espero sus comentarios, dudas y sugerencias al respecto. En este momento me encuentro trabajando en el tema y el feedback me será de gran utilidad. Gracias.

Alejandro Repetto
@ajmrepetto

lunes, 6 de agosto de 2012


El Curiosity llegó a Marte

Como estaba previsto y sin mayores inconvenientes, ayer cerca de las 22:30 hs. horario de California, el robot Curiosity hizo pie en Marte. La evento, sin embargo, comenzó mucho antes. El centro de investigación y desarrollo más grande de la NASA, en Moffet Field, abrió sus puertas a las 17:00hs . El centro dispuso en su plaza central dos pantallas gigantes, un escenario y stands con demostraciones para que la gente tome conocimiento de lo que iba a pasar.

Por cada pieza clave que lleva el Curiosity se armó un puesto con expertos explicando qué tecnologías usaban, cómo se usaban y qué intentaban descubrir. Entre los más importantes había puestos de astro geólogos, astro biólogos y de técnicos explicando el sistema de protección y aterrizaje y los dos laboratorios más importantes que carga este robot: el de química y el de geología.

El sistema de protección y aterrizaje de esta misión era la pieza clave. En ocasiones anteriores se habían utilizado sistemas más simples, pero dado el peso del robot que amartizó en el día de ayer, debió ser rediseñado. La innovación más importante es un paracaídas supersónico, hecho de nylon y keblar (material que se usa en los chalecos antibalas). Al entrar en la atmósfera marciana, el Curiosity tenía una velocidad de 21.000 kmh y debía frenar a cero en poco menos de 7 minutos. Para eso, este paracaídas debía desplegarse en el momento exacto y resistir las tensiones y las temperaturas extremas a las que estaría expuesto.

Siguiendo con las innovaciones, el nuevo laboratorio de química que porta permitirá reconocer cadenas de carbono, nitrógeno y oxígeno que demostrarían que hay o hubo algún tipo de vida en el planeta rojo. Este laboratorio tiene la capacidad de reconocer moléculas orgánicas y, a diferencia de sus antecesores, puede diferenciar si dichas moléculas se deben a actividades biológicas o no.
Finalmente, el laboratorio de geología porta un avanzado y potente láser que puede vaporizar rocas para luego analizar la energía emitida a través de un espectrómetro que permitirá dar datos precisos sobre el tipo de minerales que forman el suelo marciano.

Más allá de lo técnico, lo importante de ayer fue el evento en sí al que concurrieron miles de personas de todas las edades. Familias enteras, científicos, estudiantes, todos esperando ver en vivo las novedades que llegaban desde el centro de control. Cerca de las 22:00hs. fijaron la cámara en el puesto de control y prendieron los contadores. El primer aplauso fue cuando se confirmó que el sistema de comunicaciones, que había tenido un problema hacía dos semanas, estaba de nuevo funcionando. Minutos más tarde, cuando se confirmó que la nave estaba en posición para atravesar la atmósfera se vivió el primer minuto de tensión ya que cuando esto sucede se cortan las comunicaciones.

Finalmente, luego de esperar en silencio y viendo la cara de los técnicos totalmente estresados en pantalla, comenzaron los aplausos. Se confirmaba que se había abierto el paracaídas supersónico, que estaba frenando como se había supuesto, que se había separado el robot guía de aterrizaje, que el Curiosity estaba en tierra y, la ovación final llegó cuando se mostró en pantalla la primera imagen tomada desde este nuevo robot. Muchos de los técnicos explotaron en lágrimas de la alegría al ver su sueño cumplido. Automáticamente y como marca la tradición de la NASA, todos comenzaron a comer maníes para festejar. Como dijo el jefe de la misión "Let the science begin" (dejemos que la ciencia comience).

domingo, 5 de agosto de 2012


Los 7 minutos de Terror

En algunas horas comenzarán los “7 minutos de terror”, a las 22:31 hs, horario de la costa oeste de EE.UU., se esperan señales del Curiosity. Estos serán los 7 minutos claves durante los cuales el Curiosity intentará amartizar sano y salvo. Las señales desde Marte tardan 14 minutos en ir y volver de la Tierra, eso quiere decir que cuando los científicos de la NASA reciban la señal del Curiosity avisando que está entrando en órbita marciana en realidad ya habrá amartizado y no podrán hacer nada para corregir su ruta. Durante esos 7 minutos se espera gran tensión pero, inmediatamente después, cuando llegue la señal de OK, comenzará una gran fiesta.

Curiosity Rover
Esta es la tercera misión a Marte. Sus antecesores, el Spirit y el Opportunity, han logrado grandes avances en la investigación del suelo marciano. Se obtuvieron gran cantidad de muestras de geológicas que proveyeron a los científicos información para develar algunos misterios del planeta rojo. Se sabe que hubo agua, se detectó gas metano, se aprendió sobre su geografía y geología, entre otro sinfín de avances. Estos avances, aunque suenen poco útiles a primera vista, muestran, por ejemplo, la factibilidad de la vida extraterrestre (ver Dos gotas de Carl Sagan y una de Fabio Zerpa). Suponiendo tanto que hubo vida en un momento pasado o que la podría haber si vamos a por la conquista. (ver Hasta el infinito y más allá)

Los principales avances que presenta el Curiosity por sobre sus modelos anteriores es que lleva un completo laboratorio de avanzada que permite realizar análisis más complejos. Lleva cámaras de alta definición, navegadores con inteligencia artificial para evitar problemas (como el Google Self-Driving Car), detectores de radicación, analizadores de carbono, entre otros. Otra característica especial del Curiosity es que está propulsado por energía nuclear, usando radioisótopos de plutonio y no por energía solar como sus antecesores. Todo eso compactado en un vehículo del tamaño de una camioneta urbana (tipo SUV), de 900kg de peso.

Haciendo un poco de memoria, la vieja publicidad de Ford, donde tiraban una F-100 desde un avión Hércules, en este caso tirarán un artefacto de dimensiones similares desde los límites de la atmósfera marciana. Tendrá una velocidad de entrada de unos 21.000Km/h y deberá posarse de manera suave sobre tierra firme. Para ello se ejecutarán una secuencia de frenos, incluyendo un robot que se desplegará 1.6km antes de amartizar sobre el cual se balanceará el explorador que disparará una serie de airbags segundos antes de hacer Tierra (o Marte en este caso).

El costo final del proyecto ronda los 2.500 millones de dólares y la atención de toda la NASA está puesta allí. Su éxito será determinante para continuar logrando financiación del gobierno de los EE. UU. Toda la operación será controlada desde Houston como de costumbre, pero será seguida de cerca desde Moffet Field, California, donde se construyeron todas las piezas y se diseñó la misión. Hoy se esperan más de 15.000 personas para vivir los “7 minutos de terror” junto a los científicos de la NASA, que abrieron las puertas del Ames NASA Research Center, en Moffet Field, California, en una suerte de festival del espacio.

sábado, 4 de agosto de 2012


El fin de la Ley de Moore

"There is no reason anyone would want a computer in their home." Ken Olson, president, chairman and founder of Digital Equipment Corp..
Según la ley de Moore, y perdón por repetirla, la cantidad de transistores por unidad de superficie se suplica cada 18 meses. La cantidad de transistores es proporcional a la velocidad de procesasmiento por lo que el poder computacional se duplica cada ese período de tiempo.
Esto fue verdad hasta hace unos 4 años. Hace 4 o 5 años la velocidad de los microprocesadores se estancó rondando los 3.5GHz. Entonces, ¿lo exponencial de la tecnología, sobre la que está planteado todo el concepto de la singularidad muere acá? ¿En vez de una curva exponencial no era más que una miserable curva “S”?
Ley de Moore vs. Velocidad de Procesamiento

La verdad es que el límite no lo están poniendo los transistores, el límite a la velocidad lo está poniendo la termodinámica. Nos tenemos que deshacer de la enorme cantidad de calor que generan los circuitos y, con las arquitecturas que usamos ahora, no se puede. Se necesita un salto de tecnología para poder seguir mejorando las velocidades.

Mientras tanto, los productores de microprocesadores estuvieron escondiendo el problema de una manera elegante. Pusieron primero dos, después cuatro, ahora ocho núcleos por pastilla. Pero cada núcleo sigue rondando los 3.5GHz.

Ante este problema surgen dos horizontes posibles: la computación cuántica y la computación reversible. La primera, para los que estamos en el tema, se torna algo místico. Pretende usar las propiedades cuánticas de los fotones dejando de usar bits normales para usar qbits, que en vez de calóricos pulsos eléctricos usa rápidos pulsos lumínicos que, aprovechando su capacidad de polarización puede procesarse una cantidad de información nunca antes vista.

Hace una década (si no más) que los principales laboratorios se devanan los sesos pensando cómo implementarla. La arquitectura es realmente diferente y se encuentran cosas “extrañas” como la capacidad de solapamiento de los bits. Un qbit puede ser 0, 1 o una mezcla de ambos. Esto permitiría con una máquina de 16 qbits, por ejemplo, probar todas las combinaciones posibles en un sólo ciclo de reloj. O sea, rompeería una clave de 16 bits en 1/3.500.000.000 segundos (algo así como un 3 en la décima posición después de la coma decimal).

Otra opción que se baraja, aunque a mi criterio como solución intermedia hasta llegar a la otra, es la computación reversible. Agregando un poco de circuitería y mucho de imaginación se pueden hacer operaciones reversibles a nivel electrónico. Haciendo las cuentas para atrás, una vez hechas para adelante, se entregaría energía de nuevo al sistema manteniendo un poco más controlada la termodinámica general del cálculo. Es decir, al devolver energía “deshaciendo” las cuentas, enfriaríamos el sistema con una pequeña perdida total.

La computación reversible también requiere un rediseño profundo de la lógica aritmética de los procesadores actuales, que ningún fabricante parece estar dispuesto a pagar. Aplicando esto se iría algún paso para atrás para dar dos para adelante, según indican estudios que se vienen haciendo desde la década del 70.

Necesitamos computadoras más rápidas. Cinco años de estancamiento son siglos medidos en la velocidad actual del mundo. Veremos quién se anima y quién gana en la carrera por los ciclos de procesador.

martes, 31 de julio de 2012

El futuro de la seguridad

(Resumen de la clase dada por Marc Goodman en Singularity University)

"Control the Code, Control de World" 
Marc Goodman

Cuando se habla de seguridad en el futuro lo primero que viene en mente es la seguridad informática. Sin embargo existen un lista amplia y diversa sobre crímenes que se vienen con el avance de la tecnología que no están vinculados solamente con la computación o que usan la computadora como herramienta y no como fin.

En el año 2011 el crimen organizado movió 2 trillones de dólares (eso es 2 seguidos de 12 ceros), lo que representó un total porcentual del 15% del producto bruto mundial. Cada 100 dólares comercializados en el mundo, 15 fueron gastados en operaciones ilegales. Semejante mercado hace que crear nuevas aplicaciones sea demasiado tentador.

Los crímenes más obvios son los relacionados con la información. Cuando le preguntaron a Willie Sutton por qué robaba bancos dijo “Porque ahí está la plata”. Hoy la plata está en la información. Perfiles, cuentas de banco, tarjetas de crédito, gustos, propiedades, etc. Información que después es comercializada. Un buen ejemplo de esto es el hackeo que sufrió Xbox, donde robaron 10 millones de números de tarjetas de crédito. Lo mejor es que el mercado de tarjetas robadas respondió elásticamente y bajó considerablemente el precio de este “bien”.

Moviéndonos un poco de mercado de la información, está el mercado de la computadora como herramienta social para el crimen. En los últimos dos o tres años se comenzó con el concepto de Crime as a Service (CaaS). Para los que estamos en informática el concepto de Software as a Services (SaaS) nos suena conocido. SaaS es cuando se hacen distintos programas orientados a resolver problemas específicos que luego se pueden combinar para resolver problemas más complejos. Bueno, se pone el mismo concepto en CaaS. Existen organizaciones criminales que venden servicios, como envío de spam, denegación de servicio, robo de claves, robo de identidad, entre otros. No sólo eso, sino que se encontró una organización de estas que tenía un 0800 de soporte telefónico para el crimen y ofrecía Acuerdos de Nivel de Servicio (SLAs) para asegurar la calidad de su criminalidad. Se pueden encontrar también desde aplicaciones sociales como mapas para comprar distintos tipos de droga hasta sitios web que ofrecen sicarios (hitmanforhire.net), pasando por sitios que hacen inteligencia sobre redes sociales y, por ejemplo, detectan cuándo te vas de vacaciones y marcan tu casa para robar (robme.com).



En el mundo físico, podemos ver el impacto de los drones en el mundo criminal. Hoy por un par de cientos de dólares tenemos un cuadricóptero con un par de kilómetros de autonómica. Es más, si uno googlea "Drone DIY" encontrará un sinfín de planos de como armar uno en su casa sin siquiera tener que comprarlo. Esta herramienta fácilmente salta cercos y puede pasar, por ejemplo, drogas y armas dentro de cárceles. Otra linda aplicación de estas herramientas es cargarlos de antenas y bloquear o extender redes celulares privadas para dar infraestructura de comunicación segura con fines non sanctos.

Esto, de todos modos, no es nada al lado de la idea de hackear autos a través de torrents. Todos hemos bajado mp3 de algún torrent. Imaginen que el torrent está infectado y lo copiamos a un CD y lo ponemos en el estéreo del auto. Ahora imaginemos que es mp3 ejecuta una sentencia que modifica los parámetros del airbag o del ABS. Bueno, esto ya existe. (Mi teoría es que las discográficas lo están distribuyendo, para agregar más conspiranoia al asunto)

¿Sorprendidos? ¿No? Probemos con crímenes biológicos. ¿Qué puede pasar si nuestro ADN cae en las manos incorrectas? Imaginen que están sentados en un bar tomando un café y al levantarse pasa uno de los amigos criminales y se roba la taza obteniendo nuestra secuencia genética. Este buen hombre vende nuestra secuencia al crimen organizado de nuestra ciudad quien, a su vez, asesina a alguien y planta nuestro ADN por toda la escena del crimen. Con la legislación de hoy, ¿qué probabilidad tenemos de quedar libres con semejante prueba?

Ahora supongamos que alguna persona no los quiere mucho y nos roba de alguna manera su secuencia genética. Y supongamos que implanta su secuencia en un óvulo de una mujer. Y que esta lo obliga a asumir la paternidad o, peor, lo acusa de violación. Este tipo de escenarios se están planteando hoy en día como muy posibles en campañas políticas o campañas contra gente famosa. Imagínense si un candidato a presidente tiene este problema o si un actor famoso es acosado por alguna loca y se hace hacer una criatura a partir de una taza de café…

Bueno, estimados, vayan armando sus gorros de papel aluminio y encerrándose en sus sótanos. Todo esto es realidad hoy.

Más que interesante, para los que quieren escuchar el TED Talk the Marc, les dejo el link

viernes, 27 de julio de 2012

Hasta el infinito y más allá.

"Now it's time to live the capsule, if you dare!."
David Bowie, Space Odity

En los últimos tiempos se frenó considerablemente la inversión en la exploración del espacio. Parece que una vez que los norteamericanos les ganaron a los rusos en su carrera por la Luna, se perdió todo interés en las ciencias espaciales. Se siguieron mandando algunas misiones, poniendo humanos en órbita, pero la tecnología no evolucionó demasiado desde aquellas épocas.
El espacio pasó a ser relacionado con satélites de comunicaciones o telescopios de alta definición para fines científicos, con el sólo objetivo del conocimiento, sin mayor aplicación real.
Se podría decir que el proyecto de la Estación Espacial Internacional (ISS) es un gran proyecto, pero, a pesar de haber logrado casi doce años consecutivos e ininterrumpidos de presencia humana fuera de la tierra, no deja de ser con el fin del conocimiento. No se entiende muy bien qué están haciendo ahí.

Indagando un poco a los expertos en el tema exploración espacial, se surgen un par de aplicaciones que quizás no son tan inmediatas para los que tenemos los pies en la Tierra y no hemos estado más allá de los 10.000 mts de altura alguna vez en algún avión.

Si hacemos un ranking de las posibles funciones del humano fuera de la Tierra, creo que gana la idea de una colonia extraterrestre con dos fines: expandir el espacio “vivible” o escapar de un planeta que está por colapsar. Los optimistas piensan que el lugar en la Tierra se está acabando y que no sería descabellado pensar Marte como el sexto continente habitable, por ejemplo. Los pesimistas, por otro lado, condenan que la Tierra va a colapsar bajo un montón de smog, basura y calentamiento global y que Marte no será el sexto continente sino será el planeta donde nos deberemos apilar todos para empezar de nuevo.

En este camino, uno de los esfuerzos más importantes los está llevando adelante DARPA, y es el 100 years starship que tiene como objetivo construir un sistema de viaje interestelar para colonizar el espacio en los próximos 100 años. Este proyecto está coordinado por la agencia de gobierno pero se apoya sobre privados y fundaciones que trabajan en conjunto.

Otras visiones menos apocalípticas (también, quizás, más aburridas) hablan de ir a otros planetas o satélites a explotar recursos. El inmediato es el agua. Sabemos que en la Luna y que en Marte hay agua, en estado sólido, pero agua al fin. Algunos laboratorios piensan en extraer el agua fresca de esos lugares y quizás solucionar escasez acá. También, muchos esfuerzos se están poniendo en tecnologías para minar asteroides. Extraer recursos minerales de los asteroides sería una tarea limpia, no afectaría ningún ambiente y traería riqueza y nuevos materiales a la Tierra.

Una opción que no es para descartar, y que es una de las más originales que escuché, es poblar planetas por temas médicos. Imaginemos que una persona tiene dificultades para moverse, algún mal en sus músculos o en sus huesos. Claramente la gravedad le juega una mala pasada, ¿qué pasa si se va a vivir a la Luna, donde su peso sería del 17% de su peso en la Tierra?

Establecer comunicación con otra raza extraterrestre una vez que se haya concretado la comunicación electromagenética, vía radio (ver el post anterior sobre vida ET) es otro motivo fuerte para mover humanos hacia otros sistemas planetarios. Sin embargo, la mayoría concuerda que al menos al principio, esto se hará utilizando telepresencia. Esperemos que para esa época Skype ande y que la no se pierda la mitad de la comunicación diciendo “¿me escuchás?” o “¿seguís conectado?”.

Para cerrar, no puedo evitar dejar la historia del Major Tom. 

lunes, 23 de julio de 2012

Fallar y volver a intentar

"Ever try ever fail. Try again. Fail again. Fail better". Samuel Beckett
La tecnología por sí sola no hace nada. Hay que implementarla en un contexto de negocio que sea sostenible y viable. Sea para el fin que sea, la pata de negocios es fundamental. Los tecnólogos en general se olvidan o reducen este punto que es, a fin de cuentas, el que ocasiona la mayor cantidad de problemas.

El saber popular, que no es tal, dice que no hay un método para hacer empresas exitosas. Eric Ries, no está de acuerdo con ello y propone unas cuantas herramientas para transformar al emprendedurismo en una ciencia.

La prueba y error no deja de ser un camino para el método científico clásico. Ries propone fallar rápido y fallar mucho. Uno de sus puntos más fuertes es que las ideas se deben poner el mercado lo más rápido posible, inclusive antes de estar terminadas. Se deben probar conceptos y dejar que los clientes decidan. Si falla, cambiar, o, como dice él, pivotear, con velocidad hacia otra idea que puede o no estar en el mismo espacio problema/solución. De este concepto surge la idea del MVP (Minimum Viable Product).
MVP es el producto que tiene un nivel de construcción que permite validar la hipótesis de negocio pero está lejos de tener todas las funcionalidades. Ries dice que si el MVP no te da vergüenza, estás haciendo algo mal. Este producto sirve sólo para continuar o eliminar la idea principal. Si bien el concepto no aplica para el resto del mundo conocido, en Silicon Valley, tener un producto con el estado de avance propuesto aseguraría unos cuantos de cientos de miles de dólares de Venture Capitals (VCs) para seguir el desarrollo. Para el resto del mundo, serviría como para venderlo a bajo costo a un primer cliente y esperar el feedback.

Pero, antes de comenzar con el MVP, para reducir aún más la incertidumbre de la hipótesis, su propuesta es comentar la “gran idea” a la mayor cantidad de gente posible y medir el nivel de interés que se genera. Si menos de un 30% no se interesa por el producto, no vale la pena probar. Descartar la idea y pivotear es la solución. Esto va contra el temor del emprendedor que cree que tiene la idea del billón de dólares (millón ya no se usa más porque es poco) y que todos la van a querer robar. La realidad es que los VCs escuchan ideas repetidas todo el tiempo y nadie le roba a nadie, la originalidad de la idea no asegura el éxito. Cómo plantees el problema sí.

Una vez superada la prueba del 30%, hay que ir por el MVP. El liberar rápido el producto al mercado permite reducir al mínimo el nivel de incertidumbre y, por lo tanto, reducir el riesgo en el capital que se invierte. Toda la información que se pueda obtener en el campo, hay que obtenerla. No vale la pena realizar progresiones o extrapolaciones basadas en históricos. La tecnología cambia rápido por lo que la previsibilidad baja fuertemente. Si se tiene una duda sobre el producto, hay que ir al mercado a probarlo.

Una vez puesto el producto en un cliente (recordar que es un producto atado con alambre), es fundamental realizar el seguimiento del mismo. Acá viene otro de los puntos controversiales de Ries: si el cliente no te insulta, estás haciendo algo mal. Lo peor que puede pasar es que la gente sea indiferente. Si te insultan porque no funciona, quiere decir que imagina que cuando funcione le va a solucionar algún problema de su negocio y, por lo tanto, la hipótesis es valida.

Así que, ahora que saben el secreto, piensen muchas ideas, fallen rápido, preparen sus oídos para los insultos de los clientes y sean exitosos.

viernes, 20 de julio de 2012


Dos gotas de Carl Sagan y una de Fabio Zerpa.

"Somewhere, something incredible is waiting to be known." Carl Sagan
Creer que en un universo infinito somos la única raza inteligente es, por lo menos, prepotente. En el universo visible para nosotros podemos encontrar 10^22, de las cuales el 8% tienen planetas orbitando. Eso es un poco menos de 10^21 estrellas con planetas (1 seguido de 21 ceros). Lo que hace que la cantidad de planetas en la Vía Láctea se estimen en el trillón. De ese trillón, siendo pesimista, un par de cientos de millones son compatibles con la Tierra en tipo de atmósfera y contenido de agua.

Si nuestro origen se encuentra en el azar, con digamos una probabilidad de 10^-50 (cincuenta ceros decimales), dada la infinidad del universo debería haber también infinitas formas de vida poblándolo. El problema es que, de nuevo por su infinidad, la distancia entre estas formas de vida pude ser tan lejana como imaginemos. En otras palabras, matemáticamente hablando, la probabilidad de que exista vida, más allá del Planeta Tierra, de cualquier tipo en el universo es 1, o sea, certeza absoluta. El problema es la distancia que las separa.


Ahora, usando la misma matemática, seguro que dentro de esos tipos de vida que existen hay seres con tecnologías más avanzadas que la nuestra. Sería ilógico pensar que nosotros somos los primeros y más avanzados en un universo infinito poblado por infinitas formas de vida.

Matemáticamente debería existir vida más allá de la tierra, queda preguntarse por qué no sabemos de ella, por qué nunca nos han visitado. En este punto dos escenarios son posibles. Uno es que sí nos hayan visitado y no lo sepamos, salvo Fabio Zerpa, claro. Otra es que las leyes de la física que rigen el universo pongan un límite insuperable a la velocidad de la luz y, dada la distancia que existe entre las formas de vida inteligente nunca nos lleguemos a encontrar.

Hoy los esfuerzos para buscar/encontrar vida extra terrestre están direccionados en dos campos complementarios. Uno busca vida estúpida (Seth Shostak dixit), mientras los otros se focalizan en vida inteligente. La vida estúpida se refiere a encontrar formas de vida cerca de la Tierra, donde pueden encontrarse bacterias o cosas por el estilo. Dos ejemplos de esto es la existencia de metano en Marte, que da una idea de vida bacteriana, o la detección de lagos en Titán, que abren el juego para investigar qué está pasando dentro de esos espejos de agua.

Ahora, la búsqueda de vida inteligente es un poco más interesante pero, obviamente, mucho más incierta. Los proyectos de SETI (Search for ExtraTerristrial Intelligence) se centran en buscar señales de banda angosta. Puntos del espectro electromagnético donde se concentra gran cantidad de energía. Si se encuentra un punto de este tipo, se puede decir que alguien (o algo) está transmitiendo, sino es ruido blanco. Para esto hay unas cuantas (42 por ahora) antenas especiales escuchando y procesando toneladas de información. Por ahora no encontraron anda. El espacio de búsqueda es gigantesco y la cantidad de información es grande inclusive para la tecnología que tenemos hoy en día.

Hoy los proyectos SETI están explorando unas 1.000 estrellas en paralelo pero el análisis se torna exponencial. Es probable que en los próximos dos o tres años sean más de 10.000 y así sigan aumentando rápidamente. (si quieren aportar su granito de arena, recomiendo unirse a SETI@home)

Los expertos en el área que creen que un día van a encontrar algo, nunca dicen una fecha cierta sobre cuándo ocurrirá el primer contacto. En algunas de las charlas de Singularity University dejan entrever que, si es que es posible esta comunicación, pasará dentro de los próximos 30 años, especulando con el avance de la tecnología que permitirá barrer más rápido las bandas posibles y procesar la información recibida. Y, basándose en las matemáticas del principio, estiman que la comunicación es probable que se realizada desde un sistema avanzado de comunicaciones (una computadora) y no desde una radio. Además agregan que, con alta probabilidad, la señal que recibamos sea análoga a la que estamos buscando. Es decir que sea una señal de ellos buscando vida en nuestro planeta.

Sacando del medio las matemáticas y las probabilidades, se podría decir entonces que estamos cerca de encontrar vida estúpida extraplenetaria pero falta un salto en la ciencia para poder pensar en vida inteligente.

Si somos una singularidad inteligente en todo el universo, somos realmente un milagro.

Apéndice conspiranóico ¿Y qué pasó con Fabio Zerpa?

Una de las mejores charlas que presencié hasta el momento fue la de Seth Shostak, uno de los más reconocidos investigadores de SETI. Dedicó el principio de su charla a reírse un poco de las teorías del ocultismo ET. Alguna de sus observaciones al respecto:
  • “Suena un poco raro que una civilización avanzada viaje miles de años luz con una tecnología de punta y en los últimos 50 kilómetros cometa un error y se estrelle al aterrizar”, hablando sobre Roswell. Fernando Bravo estaría decepcionado al leer esto.
  • “Me llama la atención que las figuras en los campos en Inglaterra aparezcan durante la noche y con mayor frecuencia los fines de semana. Parece que a los ET usan su tiempo libre entre semana para divertirse dibujando en campos de maíz en la Tierra”, sobre las figuras circulares en los campos.
  • “Creo poco probable que el mismo gobierno que maneja el servicio postal sea capaz de esconder durante años la presencia extraterrestre. Y, si es posible, me preguntaría por qué los ET vienen sólo a USA, o los gobiernos de Bolivia, México, Angola o Indonesia también esconden ETs cuando llegan a sus países?”, sobre la teoría que el gobierno esconde la presencia ET.

miércoles, 18 de julio de 2012


Business model de las redes sociales

Los avances disruptivos son los que logran convertir algo caro y escaso en algo abundante y barato. En la vieja Web 1.0 la gente (usuarios) eran cara y escasa, hasta que llegaron las redes sociales y explotaron los vínculos entre las personas y se revirtió la situación.
Acaparar gente ahora es posible, y hacerlo no cuesta dinero en términos reales. Una plataforma 2.0 puede ser hasta gratuita y el costo de ponerla online es cero. El único detalle es que hay que crear el producto que no es más que una idea.

¿Cómo hacerlo? Primero hay que comprender que los humanos estamos programados para preocuparnos por otros humanos. Queremos saber dónde están, con quién están, quiénes son sus amigos y cuáles son sus relaciones. Las redes sociales exitosas explotan esta necesidad desde distintos puntos de vista, trabajo (linkedin), amistades (facebook), fotos (instangram), etc. Nada tiene que ver la tecnología con esto, por eso la tecnología en sí es gratis.

Según Adam Nash (ex VP de Linkedin), la semilla del éxito de la Web 2.0 no es la plataforma, son las identidades, las relaciones y las actividades. Las identidades son las personas en sí, responden a qué faceta de la persona queremos explotar. Las relaciones responden a qué tipo de unión existe entre las personas de la red social. Y las actividades se refieren a lo que las personas quieren compartir en esa red. Este flujo debe retroalmientarse de modo que una persona (identidad) publique información de interés (actividad) para un tercero e incentive a ese tercero a asociarse a la red social a través de un vínculo (relación) con el primero. A través de este sencillo modelo la tecnología se vuelve rápidamente exponencial, logrando que un usuario arrastre a otros y esos otros a otros y así sucesivamente.

Aplicando esta plantilla a varias redes sociales veremos que funcionan así. Y gracias a la alta penetración de la Web 2.0 a través de celulares, el loop se aceleró aún más. Por ejemplo, Linkedin estuvo online 16 meses antes de alcanzar el primer millón de usuarios, Instagram estuvo online sólo 10 semanas.

Malas noticias para los tecnólogos, buenas noticias para los sociólogos. Los que entiendan de qué parte de la vida las personas necesitan alardear serán los que tengan del próximo facebook.  

domingo, 15 de julio de 2012


Del arte de curar a la medicina como ciencia

El arte de la medicina dejó de ser un arte. La tecnología de la salud no sufrió grandes cambios en el siglo pasado, en los últimos 20 años se invirtió el 80% del dinero invertido en los anteriores 100. Esto augura un futuro exponencial para el viejo arte de curar.
Los primeros avances que indican que estamos en el “codo de la curva”* pueden verse por dos frentes: el secuenciamiento del genoma humano y la penetración de la tecnología informática en todos los pasos del proceso médico. Estos dos hechos están cambiando de manera disruptiva la visión de la salud tal como la conocemos.

Si dividimos el proceso médico en pasos sucesivos, podríamos decir que primero se detecta el problema, vía una consulta o algún otro método, luego se hace el diagnóstico y se sigue con el tratamiento y el seguimiento hasta lograr la cura.

La tecnología en la detección del problema cumple un rol primario. Gracias a la alta dispersión de la tecnología celular, ya hay aplicaciones en el mercado que permiten consultas y asistencia remota para personas que no tienen acceso directo a los médicos. Estos sistemas están abriendo paso a la llamada telemedicina que, explotando sistemas multimedia, facilita a los médicos atender consultas remotas con medios gráficos o sensores. Estos sistemas están siendo probados en África y la India, aunque se espera que lleguen a todo el mundo y así poder consultar a expertos en cada tipo de enfermedad sea donde fuere.

Siguiendo con el proceso médico, para el diagnóstico se pueden ver dos grandes avances: el análisis genético y las herramientas de medición y diagnóstico. El análisis genético logra de manera rápida detectar anomalías en la secuencia sana pudiendo ver rápidamente una lista importante de enfermedades. Los análisis genéticos son cada vez más rápidos y económicos, utilizando crowdsourcing (colaboración) para decodificar e interpretar secuencias genéticas.
Por otro lado, en los últimos 2 años comenzó una avalancha de aplicaciones y extensiones para teléfonos celulares (Android y iPhone mayormente) que transforman los smartphones en un estetoscopio, en un medidor de glucosa, en un medidor de presión, en un equipo de RX o en cualquier otro elemento que facilita el medición de parámetros vitales.
Además, las herramientas de diagnóstico conocidas toman otras formas y mejoran su rendimiento, permitiendo hacer escaneos 3D de cualquier órgano o a través de la iPills que incorporan nanotecnología en pastillas que filman el interior del cuerpo. A estas tecnologías se le suma una gran cantidad de sensores de uso personal orientadas a realizar seguimiento de la actividad corporal (quantified-self), llevando un recuento de horas de sueño, calidad de actividad, tiempo de reposo, etc. Sumando estas dos tecnologías, y procesando la información de manera inteligente se logra una herramienta de valor agregado que permite al profesional médico lograr un rápido diagnóstico.

Una vez detectado el problema hay que curarlo. Pero, como dicen un conocido médico “no existen las enfermedades, existen los enfermos”, la tendencia es la medicina personalizada. En el futuro no muy lejano (de hecho ya existen para casos puntuales), los medicamentos serán a medida acordes a las formas genómicas de los individuos, optimizando la efectividad de los mismos. Otra tendencia en la industria farmacéutica son los medicamentos que vienen asociados con una aplicación celular que optimiza su uso chequeando los parámetros de quién toma la medicina.
Por otro lado, si hay que operar, la tecnología también se está encargado de eso. Un ejemplo de esto es Da Vinci un robot que facilita realizar cirugías de modo preciso y menos invasivo. Esta tecnología se está probando también para realizar operaciones remotas, donde el paciente y el médico están físicamente distantes, unidos sólo través de redes información de alta confiabilidad.

Estos avances son sólo una muestra de lo que viene en el ámbito de la salud, que sustentan la teoría del británico Aubrey de Grey quien postula que en el futuro vamos a vivir tanto como queramos. Para que esto suceda, sin embargo, se requerirá un cambio radical en la manera en que se estudia medicina hoy en día. La universidad de medicina de Singapur está haciendo punta, incorporando tecnología como parte de la formación médica, incluyendo temáticas de manejo de grandes volúmenes de dato, explotación de información, inteligencia artificial y sensores, que serán fundamentales para el futuro.

En el futuro la medicina irá perdiendo lo artístico para volcarse a lo científico.

miércoles, 27 de junio de 2012


¿China potencia?, Meh...

El modelo actual de producción e intercambio de bienes está a días de morir. La impresión 3D va a cambiar la vida más aún que la máquina de vapor, el fuego o, inclusive, la invención del transistor. Imaginen un mundo donde la producción de cualquier pieza se haga en el lugar que se va a utilizar, no importa el material, no importa el diseño.

Las impresoras 3D son un hecho. La tecnología de impresión en tres dimensiones, que permite producir cualquier pieza en los materiales más variados no sólo ya están en el mercado, sino que hay instructivos de código abierto que permiten armar la impresora en casa con piezas que se pueden comprar en cualquier casa de electrónica (http://www.fabathome.org/?q=node/1). Sólo hace falta el plano digital de la pieza a construir, el material básico (plástico, vidrio, madera, concreto, metal, etc.) y apretar el botón “Imprimir”. Luego de un par de horas tendrán la pieza hecha, fresca, recién salida del horno, para ser usada.

Hoy existen impresoras 3D con resoluciones de hasta 10 micrones (una décima de milímetro), que pueden fabricar desde las piezas más pequeñas que podamos usar en la vida diaria hasta paredes de edificios. Es factible (y hay empresas que lo están tratando de poner en el mercado) imprimir casa, imprimir piezas de autos, piezas de arte, souvenires y hasta órganos humanos.

La popularización de esta tecnología va a llevar, sin lugar a dudas, a una nueva revolución industrial. Será suficiente con poner impresoras 3D cerca de los centros de consumo y sólo mandar los planos para que la pieza se haga realidad.

Las fábricas como las conocemos desaparecerán. El trabajo esclavo, muy competitivo hoy en día, quedará demodé. Quién quiere un esclavo si las impresoras son multipropósito (fabrican cualquier pieza), trabajan todo el día sin cansarse, y su costo es mínimo. China, la actual fábrica del mundo, deberá dedicarse a otra cosa. ¿Para qué voy a producir un juguete en China si lo puedo imprimir a la vuelta de mi casa?

Esto tendrá consecuencias severas para varias industrias. La producción de bienes en general es obvia. Pero también morirá el negocio de la logística. ¿Grandes barcos llenos de containers moviendo bienes de una punta del mundo a la otra, gastando combustible y generando un enorme impacto ambiental? Eso es tan siglo XX...

Otra cuestión importante que se avecina con esta tecnología es el tiro de gracia al copy-right. Ahora no sólo podremos piratear música, video y software. Podremos piratear cualquier diseño que se nos venga en mente. La red se plagará de torrents con planos para construir cosas.

Hasta acá los cambios positivos. Pero no todo es color de rosas. ¿Qué pasa si imprimimos una pistola Glock magnum .45 en la impresora de casa? Lo más llamativo es que ya lo probaron y funcionó perfectamente. ¿Qué pasa si imprimimos una pieza para arreglar el auto, se rompe y provoca un accidente? Está claro que hay un vacío legal al respecto y, como siempre, los abogados llegarán tarde para legislarlo.

Esta tecnología cambiará el mundo. Se deberá diseñar un nuevo modelo de intercambio de bienes a nivel mundial. No habrá más exportación/importación de bienes con valor agregado. Se intercambiaran planos en el mejor de los casos, si es que se respetan los copy-rights. Sin embargo esto es poco probable. Mi predicción, jugando a hacer un poco de futurología, es que el único intercambio, por ahora, será de materiales de producción para alimentar las impresoras – plástico, vidrio, madera, concreto, etc-. Y, enfatizo el “por ahora”, porque jugando un poco con nanotecnología, también se podrá imprimir el material crudo.

El hecho es que la tecnología no para. Chau China, chau empresas de logística, chau producción en masa. La próxima era, es la era de la impresora 3D.

AR