El fin de la Ley de Moore
"There is no reason anyone would want a computer in their home." Ken Olson, president, chairman and founder of Digital Equipment Corp..
Según la ley de Moore, y perdón por
repetirla, la cantidad de transistores por unidad de superficie se
suplica cada 18 meses. La cantidad de transistores es proporcional a
la velocidad de procesasmiento por lo que el poder computacional se
duplica cada ese período de tiempo.
Esto fue verdad hasta hace unos 4 años.
Hace 4 o 5 años la velocidad de los microprocesadores se estancó
rondando los 3.5GHz. Entonces, ¿lo exponencial de la tecnología, sobre
la que está planteado todo el concepto de la singularidad muere acá? ¿En vez de una curva exponencial no era más que una miserable curva
“S”?
![]() |
Ley de Moore vs. Velocidad de Procesamiento |
La verdad es que el límite no lo están
poniendo los transistores, el límite a la velocidad lo está
poniendo la termodinámica. Nos tenemos que deshacer de la enorme
cantidad de calor que generan los circuitos y, con las arquitecturas
que usamos ahora, no se puede. Se necesita un salto de tecnología
para poder seguir mejorando las velocidades.
Mientras tanto, los productores de
microprocesadores estuvieron escondiendo el problema de una manera
elegante. Pusieron primero dos, después cuatro, ahora ocho
núcleos por pastilla. Pero cada núcleo sigue rondando los 3.5GHz.
Ante este problema surgen dos
horizontes posibles: la computación cuántica y la computación
reversible. La primera, para los que estamos en el tema, se torna
algo místico. Pretende usar las propiedades cuánticas de los fotones dejando de usar bits normales para usar qbits, que en vez de
calóricos pulsos eléctricos usa rápidos pulsos lumínicos que,
aprovechando su capacidad de polarización puede procesarse una
cantidad de información nunca antes vista.
Hace una década (si no más) que los
principales laboratorios se devanan los sesos pensando cómo
implementarla. La arquitectura es realmente diferente y se encuentran
cosas “extrañas” como la capacidad de solapamiento de los bits.
Un qbit puede ser 0, 1 o una mezcla de ambos. Esto permitiría con
una máquina de 16 qbits, por ejemplo, probar todas las combinaciones
posibles en un sólo ciclo de reloj. O sea, rompeería una clave de
16 bits en 1/3.500.000.000 segundos (algo así como un 3 en la décima posición después de la coma decimal).
Otra opción que se baraja, aunque a mi
criterio como solución intermedia hasta llegar a la otra, es la
computación reversible. Agregando un poco de circuitería y mucho de
imaginación se pueden hacer operaciones reversibles a nivel
electrónico. Haciendo las cuentas para atrás, una vez hechas para
adelante, se entregaría energía de nuevo al sistema manteniendo un
poco más controlada la termodinámica general del cálculo. Es
decir, al devolver energía “deshaciendo” las cuentas,
enfriaríamos el sistema con una pequeña perdida total.
La computación reversible también
requiere un rediseño profundo de la lógica aritmética de los
procesadores actuales, que ningún fabricante parece estar dispuesto
a pagar. Aplicando esto se iría algún paso para atrás para dar dos
para adelante, según indican estudios que se vienen haciendo desde
la década del 70.
Necesitamos computadoras más rápidas. Cinco años de estancamiento
son siglos medidos en la velocidad actual del mundo. Veremos quién
se anima y quién gana en la carrera por los ciclos de procesador.
Guau. No entendí nada. Quiero más historias de extraterrestres!
ResponderEliminar