viernes, 24 de agosto de 2012

El láser más potente del mundo

El futuro de la energía es uno de los temas que más preocupan a todos los gobiernos en el mundo. La energía que se consume en el mundo crece exponencialmente y de ella depende el sistema económico mundial. Sin energía no hay producción, sin producción no hay plata, así de fácil. El problema de la energía que producimos es que o es mala para el ambiente o es poco eficiente y no alcanza para alimentar los estómagos hambrientos de las ciudades.

Ante este panorama muchos están investigando la mejora de sistemas limpios, como ser los solares o eólicos. Estos, sin embargo, tiene todavía varios puntos flojos que no vamos a analizar ahora. Otra vertiente de investigación se vuelca hacia la disrupción del mercado energético trayendo innovación exponencial y no crecimiento lineal.

Dentro de esta última vertiente de investigación se encuentra la energía generada por fusión nuclear. Decir “nuclear” es mala palabra en los últimos tiempos, sobre todo para los que están lejos de la ingeniería y la ciencia. Sin embargo, cuando se habla de fusión en vez de fisión, lo más complicado que puede pasar ante una falla es la emisión de hidrógeno o helio, materiales totalmente inocuos.

El laboratorio más avanzado en investigaciones de fusión nuclear se encuentra en Livermore, California. Se llama National Ignition Facility (NIF) y para lograr fusiones nucleares poseen el menudo record de tener el láser más potente del mundo, pasando los 2M Joules. Con esa potencia logran realizar fusión nuclear y obtener energía, aunque aún el balance les da negativo (tienen que  poner más energía en el sistema que la que obtienen luego de la fusión).

Lo más interesante de la NIF no es el objetivo final de la fusión nuclear, sino todo lo que se generó en redor para logarlo. Por ejemplo, el sistema que genera el pulso láser final tiene el tamaño de tres campos de fútbol americano. Comienzan disparando 192 lásers comunes, en la frecuencia de un puntero como los que se compraban en los todos por dos pesos, pero de un tamaño de 30x15 cm. Este láser pasa por series interminables de amplificadores y concentradores que permiten alcanzar una potencia de unos 500 trillones de Watts -nenergía equivalente a mil veces lo que se consume en EE.UU. en el mismo lapso de tiempo-, concentrados todo sobre un objetivo del tamaño de un grano de arroz. El ataque del láser hace que se eleve la temperatura del objetivo a 3,3 millones de grados centígrados por 20 nanosegundos.

El NIF no es sólo un láser potente. El sistema en si es uno de los más complejos generados por el humano hasta el momento. Consta de 60.000 puntos de control - mucho más que los que tiene una nave espacial - y está conectado a la supercomputadora más veloz del mundo que analiza los datos que genera. A su vez, es una obra civil de lo más compleja, construido sobre tres cimientos distintos y complemente independientes asegurando la estabilidad. El NIF fue inaugurado hace 3 años y su construcción costó unos 2.500 millones de dólares. Barato considerando que el mercado energético mueve anualmente 1.000.000 millones de dólares.

La oportunidad de visitar el centro es increíble y la única manera de entrar es esponsoreado por el gobierno americano, luego de una verificación de seguridad que lleva más de dos meses. Pero, si quieren tener su primer contador Geiger colgado del pecho, les recomiendo buscar la manera de entrar. Vale la pena.

Alejandro Repetto
@ajmrepetto

miércoles, 22 de agosto de 2012


El backstage de la NASA

Mucha gente se pregunta qué hace la NASA mientras no manda robots propulsados con energía nuclear equipados con un láser que vaporiza rocas a Marte. Tuve la oportunidad de asistir a una visita guiada por algunos de los laboratorios dentro de NASA  Ames Research Park y les puedo contar algunas cosas interesantes al respecto. (Hay otras que no puedo contar por cuestiones de confidencialidad, pero eso no importa J).

Primero, para dar una idea de tamaño, trabajan en la actualidad cerca de 2.500 investigadores y maneja un presupuesto de más de 800 millones de dólares. Cuenta con un equipamiento valuado en unos 3.000 millones de dólares y es el centro de astrobiogía, exploración lunar y microsatélites de toda la NASA. Posee, entre otras cosas, el túnel de viento más grande del mundo (36m x 24m).

Parte del Hyperwall mostrando choque de galaxias.
La primera escala de la visita es en el centro de supercomputación. Ames tiene una supercomputadora con más de 91.000 procesadores, rankeada actualmente como número 11 en el mundo. Hace poco más de un año era la número tres, para dar una idea de la velocidad con la que crece la capacidad de cálculo en el mundo. Esta computadora, sin embargo, no es lo más importante desde el punto de vista del análisis de la información. Lo mejor es que, como se imaginarán, no está conectada a un monitor. Está conectada a lo que llaman Hyperwall. El Hyperwall es un arreglo de 8x16 monitores de 21 pulgadas de altísima definición -unos 256 Gigapixels - donde vuelcan los modelos matemáticos que procesan para poder visualizarlos y tomar decisiones de diseño. Entre otras cosas interesantes vimos las tensiones de un trasbordador espacial entrando a la atmósfera, la simulación de choque de dos galaxias, la simulación de choque de dos agujeros negros, una simulación del movimiento y la historia de las galaxias conocidas y los movimientos de vientos y mareas reproducidos con la historia de los últimos 50 años. Todo a todo color en altísima definición. Después de esto, ver una película en IMAX no será lo mismo.

Otra de las perlas de Ames es el simulador de torre de control. Una torre de control de aeropuerto tamaño real equipada con todos los elementos necesarios para operar pero, en vez de tener ventanas, tiene pantallas planas de alta definición que permiten simular cualquier aeropuerto del mundo. Así como lo leen. Tocando un botón pasan de Houston a Miami y de Miami a JFK. Con un nivel de realismo tal que permite al director del ejercicio de simulación generar llegadas de aviones de cualquier porte, de cualquier línea aérea en cualquier momento, generando congestiones, cambiando el clima, la luz ambiente, haciendo que nieve o que llueva. Para dar una idea del nivel de realismo, los gráficos no son sólo de aviones y aeropuertos, sino que se ve perfectamente la ciudad detrás del aeropuerto, tal como si fueran fotos interactivas. A modo de “broma”, también probamos la torre de control en Marte, utilizando imágenes tomadas por Opportunity, el robot que precedió a Curiosity.

Simulador de Vuelo VMS
Siguiendo en tono de simulación, Ames aloja el simulador de vuelo multiuso más real del mundo. Un simulador de seis grados de libertad (adelante/atrás, izquierda/derecha, pendiente adelante/pendiente atrás) que permite cambiar la cabina para simular aviones varios, helicópteros, transbordadores espaciales o cualquier otro objeto volador (identificado en este caso). El “Vertical Motion Simualtor” (VMS) permite movimientos de 12 metros en horiztontal y 20 metros en vertical y está conectado ubicado en un hangar digno de locación de escena final de película de James Bond.

Para cerrar, y saltando algunos pasos menos interesantes (si es que hay menos interesante en todo esto), visitamos el centro de control de tráfico aéreo de EE. UU. Es un laboratorio con nivel dos de seguridad (eso quiere decir que hay que pasar otro chequeo, no se puede sacar fotos y casi no podría hablar de ello – pero aprovecho que me estoy por ir para hacerlo-). Ahí se concentran todas las señales de tráfico aéreo de todas las subestaciones de EE.UU. contando los radares principales, intermedios y locales. En tiempo real muestra todos los aviones que están en el aire, si vienen atrasados, si hay congestión o si algo se salió de control en algún momento. Allí no sólo miran, sino que desarrollan sistemas de control. El sistema que están instalando ahora incluye una herramienta para controladores aéreos que permite organizar los vuelos para reducir el retraso al mínimo. Como anécdota al respecto, se dio una charla interesante con el director del laboratorio sobre el futuro del control de tráfico aéreo y los aviones no tripulados.

Si eso es lo que muestran, me cuesta imaginar lo que no vi. Para ser sincero, después de Singularity University no me cuesta mucho imaginarlo pero me encantaría verlo.

Alejandro Repetto
@ajmrepetto

lunes, 13 de agosto de 2012


CEO != Emprendedor

Dirigir negocios y crear negocios son cosas distintas. Los emprendedores suelen querer ser directores de sus propias compañías y la experiencia dice que eso pocas veces funciona bien. Un emprendedor es quién tiene ideas, visiones distintas, usualmente es observador e innovador. Los directores se dedican a otra cosa.

El director de la compañía debe focalizarse en dirigir el equipo que implementa la idea, no en innovar. Se pretende de un director de empresa que tenga aptitudes para vender, para hablar con inversionistas, para dirigir equipos multidisciplinarios (finanzas, contabilidad, RRHH, operaciones, etc.). Es decir, llevar adelante el negocio.

Para ser emprendedor se requiere muchísimo más: tener una idea. Esa idea tiene que crear algo nuevo, mejorar algo que existe o encontrar un nuevo nicho de negocios en un lugar donde no lo había. Decirlo es fácil, hacerlo no. La estadística a nivel mundial muestra que, en el mejor de los casos, sólo un 10% de las nuevas empresas pasan el primer año de vida.

El 90% restante, que muere en el camino, muchas veces lo hace no porque la idea no sirva, sino porque quién la implementa no sabe nada de negocios. El que tiene la idea no tiene por qué saber cómo dirigir una empresa. El mayor problema, sin embargo, es que es muy difícil hacerle entender a los inventores que alguien puede implementar su proyecto mejor que ellos mismos. Y, mucho más difícil aún convencerlos que dentro de su empresa ellos no son los que más ganan.

Lo que no ven, porque no entienden de negocios, es que lo que gana el CEO su sueldo. Lo que gana el dueño de la empresa (el emprendedor) depende de la cantidad de acciones que conserve (equity). Así, el consejo general para los emprendedores es que, cuando puedan, contraten a alguien que realmente sepa de negocios para llevar adelante su idea. ¿De dónde sacar la plata para hacerlo? Voy a dedicar alguna nota sobre a Venture Capitals, Crowdfunding y Angel Investors para dar ideas.

viernes, 10 de agosto de 2012


Museo de la Historia de la Computadora.

La experiencia empieza antes de llegar al museo: el camino más corto para ir es atravesar los cuarteles centrales de Microsoft. Una vez allí, al comprar la entrada, uno la paga con gusto. Tienen tres paquetes posibles: el normal, que incluye sólo la entrada, el Super Geek, que incluye la entrada, un pin y una remera, y el Total Geek, que agrega a este último un poster sobre la evolución de los lenguajes de programación. En ese momento uno deja de hacer cuentas con el dólar, oficial, el blu, el contado liqui o lo que sea, y paga el ultrageek con una sonrisa de oreja a oreja.

El circuito del museo está organizado como una línea temporal que lleva al visitante a entender que las computadoras están lejos de ser un fenómeno de los años 80’s. En la entrada al circuito se nota algo raro en la música funcional, prestando un poco de atención uno se da cuenta que es el ruido a los viejos módems telefónicos que retrotraen a los de más de 30 a las buenas épocas de los BBS (Basic Board Systems). Ese único detalle ya hace que la entrada se pague sola.

Huesos de Napier
Sin embargo, el museo tiene mucho más para dar. En las primeras muestras expone tablas de cálculo y máquinas mecánicas de lo más estrambóticas para optimizar su uso. Sigue así hasta llegar a una de las reliquias más interesantes: una tabla de “huesos de Napier” original. Con un método simple y una tabla bien diseñada permite hacer multiplicaciones enormes en muy poco tiempo y, por lo tanto, también facilita las divisiones, exponenciaciones y búsqueda de raíces. Para darse una idea temporal de la antigüedad de este método, Napier falleció en 1617.

Al lado, y casi sin respiro, salta a una máquina de Babbage original. Este buen hombre, en el s. XIX inventó un mecanismo para encontrar raíces de polinomios de alto grado usando un par de engranajes y mucha creatividad. Esta máquina, bautizada Máquina de Babbage, es reconocida como la primera computadora que existió ya que no requería intervención humana en las cuentas que hacía. Sólo requería mover una palanca para hacer funcionar los engranajes. Como si esto fuera poco, en el museo se hacen demostraciones mostrando como funciona y explicando al detalle los mecanismos internos.

Siguiendo con la historia se pasa por las viejas tarjetas perforadas, el inicio de IBM y algunas ideas más hasta llegar a la siguiente perla del museo: la máquina Enigma al lado de la máquina Colossus. Enigma es la máquina de cifrado del Ejército Alemán que dio tantos dolores de cabeza a la Armada Británica, mientras que Colussus es la primera computadora a válvula idea para el gran Alan Turing que logró romper el código de cifrado asegurando la victoria aliada.

Máquina Enigma
Más acá en el tiempo, se pueden ver máquinas de Atanasoff, circuitos de la serie MARK entre otras reliquias importantes. Otra parte interesante surge cuando empieza la era de las super computadoras, ya saltando a mediados de los 90’s. Lo más interesante es que muestra procesadores no impresos (en vez de chips, embrollos de cables) que en el 95 era parte de una supercomputadora, con un poder de cálculo de 1.5GHz. Casi lo que se puede encontrar en un teléfono celular de hoy en día.

Hay también stands dedicados a la era multimedia, a la era de las consolas de videojuegos (donde a los nostálgicos se les puede caer una lágrima viendo un Colleco Vision o un arcade con el PacMan),  otros dedicados a interfaces hombre-máquina, donde muestra al bisabuelo del mouse, de los años 60’s, entre un sinfín de hitos que marcaron el rumbo de la informática actual.

Más allá de las piezas de colección que, sin duda, son invaluables y dignas de ser conservadas, este museo muestra también la realidad de la ley de Moore, haciendo notar el aceleramiento en el que está inmersa la tecnología  de la información.

El museo termina con un gran cartel que dice "What's next?" (¿Qué sigue?). Nosotros seguimos, es mi respuesta.

Alejandro Repetto
@ajmrepetto

miércoles, 8 de agosto de 2012

Gobierno Electrónico y Gobierno Abierto en Argentina

Siguiendo con la nota anterior, donde se explica qué significan estos dos tipos de tecnología, analizaremos qué pasa en Argentina al respecto.

Por el lado del gobierno nacional las iniciativas de Datos Abiertos y de Gobierno Electrónico se limitan a títulos de poca aplicación. Accediendo a las páginas gubernamentales, poder ejecutivo, legislativo, judicial, a todo nivel, no se puede obtener información concreta sobre la gestión de gobierno. Si uno hace un posgrado en “búsqueda de Google” quizás tenga suerte y se tope con algún PDF ilegible al respecto de la administración actual. Por otro lado, lo que es gobierno electrónico pasa algo similar. No se encuentran páginas donde el ciudadano pueda interactuar con el gobierno federal de manera sencilla y parece que la burocracia es un aliado de nuestra administración.

Sin embargo, no todo está perdido. La Ciudad Autónoma de Buenos Aires está a la cabeza de las iniciativas de Gobierno Abierto y Gobierno Electrónico. Pone en manos de sus ciudadanos herramientas de fácil interacción con el gobierno como ser La guía de Trámites (con una distancia de un click desde la página principal – www.buenosaires.gov.ar) desde la cual se pueden realizar todos los trámites online o recibir información clara y precisa sobre los que no se pueden hacer todavía en la red. También la iniciativa “Mapa Interactivo” (mapa.buenosaires.gov.ar) dispone un mapa sumamente útil para la vida ciudadana, dando un sinfín de capas de información asociada a sus datos geográficos.

Por otro lado, a través de la iniciativa “Buenos Aires Data”, en data.buenosaires.gov.ar, habilita a los programadores una serie de fuentes de información abierta que se puede reutilizar y construir nuevas aplicaciones sobre ellas. Desde la ejecución presupuestaria hasta los distritos escolares, pasando por el sistema de bicicletas públicas o el estado del tránsito.

Además, el Gobierno de la Ciudad de Buenos Aires incentiva el uso de la información a través, por ejemplo, de hackatones (http://www.cimobsas.org/). Este tipo de eventos tiene como fin promover y premiar el uso de la información abierta para ponerla al servicio de la comunidad de manera gratuita.

Para sorpresa mía, como ciudadano de CABA, luego de hacer una revisión del estado de estas dos características en los niveles municipales, evaluando Londres, Amsterdam, Washington DC y San Pablo, Buenos Aires se pone al frente a nivel internacional proveyendo un nivel superior de calidad, simplicidad y accesibilidad al ciudadano, digno de ser destacado. Espermos que otras ciudades y, por qué no, el gobierno nacional se "contagie" y también promueva la transparencia y la participación ciudadana.

martes, 7 de agosto de 2012


Gobierno Electrónico y Gobierno Abierto

La dinámica entre las personas a través de las redes sociales no es el único resultado de la Internet 2.0. Esta tecnología, como toda innovación socio-técnica, tiene un impacto que trasciende a la persona. La interacción entre gobiernos y sus ciudadanos a través de la Internet va en ascenso y promete modificar la vida política de las grandes ciudades.

Se habla por lo general de dos estrategia: Gobierno Electrónico y Gobierno Abierto. Si bien están íntimamente relacionadas, no son lo mismo. El gobierno electrónico se refiere a la capacidad de un gobierno de extender su funcionalidad en la Web. Esto quiere decir que, a medida que pasa el tiempo, todo lo que hacíamos en el mundo físico se va ejecutando a través de tecnologías disponibles en la Internet. Por ejemplo hacer denuncias sobre problemas, cosas que no andan, baches, o trámites como obtener un registro de conducir. Esto facilita la vida del ciudadano ya que acorta la burocracia al mínimo, evitando largas pérdidas de tiempo.

Los intentos de gobierno electrónico presentan una gran desafío para los que lo quieren implementar ya que la digitalización de la burocracia conlleva a adaptación de procesos administrativos, validación de datos y, por sobre todas las cosas, una acción más directa del ciudadano. Esto último se refiere a que si antes se recibían diez denuncias diarias por problemas de bacheo, si se le da al ciudadano una manera rápida de realizar la denuncia se recibirán cien. Este crecimiento exponencial de denuncias presenta dos problemas para cualquier gobierno: por un lado deberá dar solución a muchísimos más casos, pues si no lo hace la gente no denunciará más y la iniciativa habrá fracasado; por otro lado es de esperarse que las métricas de gobierno empeoren notablemente por el nivel de acceso otorgado a través del cambio tecnológico.

Por otro lado, las iniciativas de Gobierno Abierto, relacionadas sobre todo a datos abiertos (open data en inglés), se refieren a la capacidad de los gobiernos de exponer de manera electrónica la ejecución de su administración. Esto se realiza mediante exposición de información con formatos estándar (Excel, PDFs, TXT, CVS, etc.) de manera que los ciudadanos puedan acceder a través de la red para ver cómo marchan las gestiones. Esta información normalmente está orientada a dos tipos de usuario: programadores y ciudadanos.

Al exponer la información de manera abierta en formatos estándar, los que se dan un poco de maña programando pueden realizar aplicaciones para poder explotar la información para distintos fines, como por ejemplo difundir información, mejorar la participación ciudadana o, inclusive, realizar investigaciones abiertas sobre el gobierno a través de búsqueda de patrones de corrupción. Desde la vista del ciudadano, el desafío más grande de los gobiernos es que esa información sea legible. Muchos gobiernos hacen bandera de sus capacidades de gobierno abierto y no pasan de dar archivos PDF de quinientas páginas, con números y cuadros ilegibles inclusive para expertos.

En resumen, estas dos visiones suman compromiso por parte del gobierno, participación ciudadana y, por lo tanto, transparencia a los gobierno generando un círculo virtuoso.

Comentario del autor: Espero sus comentarios, dudas y sugerencias al respecto. En este momento me encuentro trabajando en el tema y el feedback me será de gran utilidad. Gracias.

Alejandro Repetto
@ajmrepetto

lunes, 6 de agosto de 2012


El Curiosity llegó a Marte

Como estaba previsto y sin mayores inconvenientes, ayer cerca de las 22:30 hs. horario de California, el robot Curiosity hizo pie en Marte. La evento, sin embargo, comenzó mucho antes. El centro de investigación y desarrollo más grande de la NASA, en Moffet Field, abrió sus puertas a las 17:00hs . El centro dispuso en su plaza central dos pantallas gigantes, un escenario y stands con demostraciones para que la gente tome conocimiento de lo que iba a pasar.

Por cada pieza clave que lleva el Curiosity se armó un puesto con expertos explicando qué tecnologías usaban, cómo se usaban y qué intentaban descubrir. Entre los más importantes había puestos de astro geólogos, astro biólogos y de técnicos explicando el sistema de protección y aterrizaje y los dos laboratorios más importantes que carga este robot: el de química y el de geología.

El sistema de protección y aterrizaje de esta misión era la pieza clave. En ocasiones anteriores se habían utilizado sistemas más simples, pero dado el peso del robot que amartizó en el día de ayer, debió ser rediseñado. La innovación más importante es un paracaídas supersónico, hecho de nylon y keblar (material que se usa en los chalecos antibalas). Al entrar en la atmósfera marciana, el Curiosity tenía una velocidad de 21.000 kmh y debía frenar a cero en poco menos de 7 minutos. Para eso, este paracaídas debía desplegarse en el momento exacto y resistir las tensiones y las temperaturas extremas a las que estaría expuesto.

Siguiendo con las innovaciones, el nuevo laboratorio de química que porta permitirá reconocer cadenas de carbono, nitrógeno y oxígeno que demostrarían que hay o hubo algún tipo de vida en el planeta rojo. Este laboratorio tiene la capacidad de reconocer moléculas orgánicas y, a diferencia de sus antecesores, puede diferenciar si dichas moléculas se deben a actividades biológicas o no.
Finalmente, el laboratorio de geología porta un avanzado y potente láser que puede vaporizar rocas para luego analizar la energía emitida a través de un espectrómetro que permitirá dar datos precisos sobre el tipo de minerales que forman el suelo marciano.

Más allá de lo técnico, lo importante de ayer fue el evento en sí al que concurrieron miles de personas de todas las edades. Familias enteras, científicos, estudiantes, todos esperando ver en vivo las novedades que llegaban desde el centro de control. Cerca de las 22:00hs. fijaron la cámara en el puesto de control y prendieron los contadores. El primer aplauso fue cuando se confirmó que el sistema de comunicaciones, que había tenido un problema hacía dos semanas, estaba de nuevo funcionando. Minutos más tarde, cuando se confirmó que la nave estaba en posición para atravesar la atmósfera se vivió el primer minuto de tensión ya que cuando esto sucede se cortan las comunicaciones.

Finalmente, luego de esperar en silencio y viendo la cara de los técnicos totalmente estresados en pantalla, comenzaron los aplausos. Se confirmaba que se había abierto el paracaídas supersónico, que estaba frenando como se había supuesto, que se había separado el robot guía de aterrizaje, que el Curiosity estaba en tierra y, la ovación final llegó cuando se mostró en pantalla la primera imagen tomada desde este nuevo robot. Muchos de los técnicos explotaron en lágrimas de la alegría al ver su sueño cumplido. Automáticamente y como marca la tradición de la NASA, todos comenzaron a comer maníes para festejar. Como dijo el jefe de la misión "Let the science begin" (dejemos que la ciencia comience).

domingo, 5 de agosto de 2012


Los 7 minutos de Terror

En algunas horas comenzarán los “7 minutos de terror”, a las 22:31 hs, horario de la costa oeste de EE.UU., se esperan señales del Curiosity. Estos serán los 7 minutos claves durante los cuales el Curiosity intentará amartizar sano y salvo. Las señales desde Marte tardan 14 minutos en ir y volver de la Tierra, eso quiere decir que cuando los científicos de la NASA reciban la señal del Curiosity avisando que está entrando en órbita marciana en realidad ya habrá amartizado y no podrán hacer nada para corregir su ruta. Durante esos 7 minutos se espera gran tensión pero, inmediatamente después, cuando llegue la señal de OK, comenzará una gran fiesta.

Curiosity Rover
Esta es la tercera misión a Marte. Sus antecesores, el Spirit y el Opportunity, han logrado grandes avances en la investigación del suelo marciano. Se obtuvieron gran cantidad de muestras de geológicas que proveyeron a los científicos información para develar algunos misterios del planeta rojo. Se sabe que hubo agua, se detectó gas metano, se aprendió sobre su geografía y geología, entre otro sinfín de avances. Estos avances, aunque suenen poco útiles a primera vista, muestran, por ejemplo, la factibilidad de la vida extraterrestre (ver Dos gotas de Carl Sagan y una de Fabio Zerpa). Suponiendo tanto que hubo vida en un momento pasado o que la podría haber si vamos a por la conquista. (ver Hasta el infinito y más allá)

Los principales avances que presenta el Curiosity por sobre sus modelos anteriores es que lleva un completo laboratorio de avanzada que permite realizar análisis más complejos. Lleva cámaras de alta definición, navegadores con inteligencia artificial para evitar problemas (como el Google Self-Driving Car), detectores de radicación, analizadores de carbono, entre otros. Otra característica especial del Curiosity es que está propulsado por energía nuclear, usando radioisótopos de plutonio y no por energía solar como sus antecesores. Todo eso compactado en un vehículo del tamaño de una camioneta urbana (tipo SUV), de 900kg de peso.

Haciendo un poco de memoria, la vieja publicidad de Ford, donde tiraban una F-100 desde un avión Hércules, en este caso tirarán un artefacto de dimensiones similares desde los límites de la atmósfera marciana. Tendrá una velocidad de entrada de unos 21.000Km/h y deberá posarse de manera suave sobre tierra firme. Para ello se ejecutarán una secuencia de frenos, incluyendo un robot que se desplegará 1.6km antes de amartizar sobre el cual se balanceará el explorador que disparará una serie de airbags segundos antes de hacer Tierra (o Marte en este caso).

El costo final del proyecto ronda los 2.500 millones de dólares y la atención de toda la NASA está puesta allí. Su éxito será determinante para continuar logrando financiación del gobierno de los EE. UU. Toda la operación será controlada desde Houston como de costumbre, pero será seguida de cerca desde Moffet Field, California, donde se construyeron todas las piezas y se diseñó la misión. Hoy se esperan más de 15.000 personas para vivir los “7 minutos de terror” junto a los científicos de la NASA, que abrieron las puertas del Ames NASA Research Center, en Moffet Field, California, en una suerte de festival del espacio.

sábado, 4 de agosto de 2012


El fin de la Ley de Moore

"There is no reason anyone would want a computer in their home." Ken Olson, president, chairman and founder of Digital Equipment Corp..
Según la ley de Moore, y perdón por repetirla, la cantidad de transistores por unidad de superficie se suplica cada 18 meses. La cantidad de transistores es proporcional a la velocidad de procesasmiento por lo que el poder computacional se duplica cada ese período de tiempo.
Esto fue verdad hasta hace unos 4 años. Hace 4 o 5 años la velocidad de los microprocesadores se estancó rondando los 3.5GHz. Entonces, ¿lo exponencial de la tecnología, sobre la que está planteado todo el concepto de la singularidad muere acá? ¿En vez de una curva exponencial no era más que una miserable curva “S”?
Ley de Moore vs. Velocidad de Procesamiento

La verdad es que el límite no lo están poniendo los transistores, el límite a la velocidad lo está poniendo la termodinámica. Nos tenemos que deshacer de la enorme cantidad de calor que generan los circuitos y, con las arquitecturas que usamos ahora, no se puede. Se necesita un salto de tecnología para poder seguir mejorando las velocidades.

Mientras tanto, los productores de microprocesadores estuvieron escondiendo el problema de una manera elegante. Pusieron primero dos, después cuatro, ahora ocho núcleos por pastilla. Pero cada núcleo sigue rondando los 3.5GHz.

Ante este problema surgen dos horizontes posibles: la computación cuántica y la computación reversible. La primera, para los que estamos en el tema, se torna algo místico. Pretende usar las propiedades cuánticas de los fotones dejando de usar bits normales para usar qbits, que en vez de calóricos pulsos eléctricos usa rápidos pulsos lumínicos que, aprovechando su capacidad de polarización puede procesarse una cantidad de información nunca antes vista.

Hace una década (si no más) que los principales laboratorios se devanan los sesos pensando cómo implementarla. La arquitectura es realmente diferente y se encuentran cosas “extrañas” como la capacidad de solapamiento de los bits. Un qbit puede ser 0, 1 o una mezcla de ambos. Esto permitiría con una máquina de 16 qbits, por ejemplo, probar todas las combinaciones posibles en un sólo ciclo de reloj. O sea, rompeería una clave de 16 bits en 1/3.500.000.000 segundos (algo así como un 3 en la décima posición después de la coma decimal).

Otra opción que se baraja, aunque a mi criterio como solución intermedia hasta llegar a la otra, es la computación reversible. Agregando un poco de circuitería y mucho de imaginación se pueden hacer operaciones reversibles a nivel electrónico. Haciendo las cuentas para atrás, una vez hechas para adelante, se entregaría energía de nuevo al sistema manteniendo un poco más controlada la termodinámica general del cálculo. Es decir, al devolver energía “deshaciendo” las cuentas, enfriaríamos el sistema con una pequeña perdida total.

La computación reversible también requiere un rediseño profundo de la lógica aritmética de los procesadores actuales, que ningún fabricante parece estar dispuesto a pagar. Aplicando esto se iría algún paso para atrás para dar dos para adelante, según indican estudios que se vienen haciendo desde la década del 70.

Necesitamos computadoras más rápidas. Cinco años de estancamiento son siglos medidos en la velocidad actual del mundo. Veremos quién se anima y quién gana en la carrera por los ciclos de procesador.