Elaborado por Materia para OpenMind Recomendado por Materia
4
Inicio Computación óptica: resolver problemas a la velocidad de la luz
06 febrero 2020

Computación óptica: resolver problemas a la velocidad de la luz

Tiempo estimado de lectura Tiempo 4 de lectura

Según la ley de Moore —más bien una previsión, formulada en 1965 por el cofundador de Intel Gordon Moore—, el número de transistores en un microprocesador se duplica cada dos años, lo que aumenta la potencia de los chips sin elevar el consumo de energía. Durante medio siglo, la acertada visión de Moore ha presidido el espectacular progreso de la computación. Sin embargo, en 2015 el propio ingeniero predijo que estamos llegando a la saturación de la tecnología actual. Hoy la computación cuántica centra para muchos las esperanzas de un nuevo gran salto tecnológico, pero existe otra opción en la que están depositadas no pocas esperanzas: la computación óptica, que sustituye la electrónica por luz (o dicho de otra manera, los electrones por fotones).

El fin de la ley de Moore es una consecuencia natural de la física: para empaquetar más transistores en el mismo espacio, estos tienen que reducirse, lo que al mismo tiempo aumenta su velocidad y reduce su consumo energético. La miniaturización de los transistores de silicio ha logrado romper la barrera de los 7 nanómetros, que solía considerarse el límite; pero esta reducción no podrá continuar indefinidamente. Y aunque para tener sistemas más potentes siempre puede incrementarse el número de transistores, entonces disminuirá la velocidad de procesamiento y aumentará el calentamiento de los chips. De ahí la promesa de la computación óptica: los fotones se mueven a la velocidad de la luz, más deprisa que los electrones en un cable.

La hibridación de electrónica y óptica

La tecnología óptica tampoco es una recién llegada a nuestras vidas: el inmenso tráfico global de las autopistas de la información viaja hoy por canales de fibra óptica, y durante años hemos utilizado los lectores ópticos para grabar y leer nuestros CD, DVD y Blu-Ray. Sin embargo, en las tripas de nuestros sistemas, los fotones que llegan por la fibra deben convertirse a electrones en los microchips, y a su vez estos electrones deben transformarse en fotones en los lectores ópticos, ralentizando el proceso.

Un nuevo divisor de haz para chips fotónicos de silicio, del tamaño de una quincuagésima parte del ancho de un cabello humano. Crédito: Dan Hixson/University of Utah College of Engineering

Así, puede decirse que nuestra tecnología actual ya es una hibridación de electrónica y óptica. “A corto plazo, está claro que los sistemas híbridos óptico-electrónicos van a dominar”, expone a OpenMind el ingeniero de computación de la Universidad de Utah Rajesh Menon. “Por ejemplo, la gran mayoría de los datos de las comunicaciones se canalizan por fotones, mientras que casi toda la computación y la lógica se hacen por electrones”. Y según Menon, “hay razones fundamentales para esta división del trabajo”, ya que si bien se necesita menos energía para transmitir información en forma de fotones, las ondas asociadas a los electrones son más pequeñas; es decir, que la mayor velocidad de los dispositivos fotónicos tiene como contrapartida un tamaño más grande.

Es por ello que algunos expertos ven limitaciones en la penetración de la óptica en la computación. Para Caroline Ross, ingeniera de ciencias de materiales del Instituto Tecnológico de Massachusetts (MIT), “la aplicación más importante a corto plazo [de la óptica] son las comunicaciones, gestionar el flujo de datos ópticos de la fibra a la electrónica”. La ingeniera, cuyas investigaciones produjeron un diodo óptico que facilita esta tarea, cuenta a OpenMind que “el uso de luz para el propio procesamiento de datos aún se ve lejano”.

El láser transistor

Pero aunque aún estemos lejos del microchip cien por cien óptico —un sistema práctico capaz de computar únicamente a través de fotones—, los avances están logrando aumentar la intervención de la fotónica en los computadores. En 2004, los investigadores de la Universidad de Illinois Milton Feng y Nick Holonyak Jr. desarrollaron el concepto del láser transistor, que sustituye una de las dos salidas eléctricas de los transistores normales por una señal de luz en forma de láser, lo que proporciona una mayor velocidad de transmisión de datos.

Por ejemplo, hoy no es posible emplear luz para la comunicación interna entre los distintos componentes de un ordenador, debido al equipo que sería necesario para convertir la señal eléctrica a óptica y viceversa; el láser transistor lo haría posible. “De modo similar a los circuitos integrados de transistores, esperamos que el láser transistor aporte circuitos integrados electro-ópticos para la computación óptica”, apunta Feng a OpenMind. El coautor de este avance apuesta por la computación óptica frente a la cuántica, ya que no requiere las temperaturas gélidas a las que deben operar los superconductores cuánticos.

El profesor Milton Feng y los estudiantes Junyi Wu y Curtis Wang descubrieron que la luz estimula la velocidad de conmutación en el láser transistor. Crédito: L. Brian Stauffer

Prueba del interés en este tipo de sistemas es la intensa investigación en este campo, lo que incluye los nuevos materiales capaces de sostener la computación basada en fotones. Entre los retos aún pendientes para obtener chips ópticos, Menon destaca la densidad de integración de los componentes que permita reducir el tamaño, un área en la que su laboratorio es pionero, así como “una mejor comprensión de las interacciones entre luz y materia a nanoescala”.

Pese a todo ello, no confiemos demasiado en que un ordenador portátil fotónico pueda llegar un día a nuestras manos. “No esperamos que la computación óptica suplante a la computación electrónica de uso general a corto plazo”, precisa a OpenMind Mo Steinman, vicepresidente de Ingeniería de Lightelligence, una startup surgida del laboratorio de Fotónica que dirige Marin Soljačić en el MIT.

Presente y futuro de la fotónica

Lo cierto, sin embargo, es que este tipo de computación ya tiene hoy sus propios nichos. “La fotónica en ciertas aplicaciones específicas ya está aquí, sobre todo en centros de datos y más recientemente en aprendizaje de máquinas”, dice Menon. De hecho, las redes neuronales de Inteligencia Artificial (IA) se postulan como una de sus grandes aplicaciones, con la posibilidad de alcanzar una eficiencia 10 millones de veces mayor que los sistemas electrónicos. “Los trabajos estadísticos como los empleados en algoritmos de IA se ajustan perfectamente a la computación óptica”, señala Steinman.

Así, la computación óptica puede resolver problemas muy complejos de optimización de redes que llevarían siglos a los ordenadores clásicos. En Japón, la compañía NTT construye una enorme computadora óptica que encierra 5 kilómetros de fibra en una caja del tamaño de una habitación, y que se aplicará a tareas complicadas de mejora de redes de energía o comunicaciones.

Un circuito integrado fotónico. Crédito: JonathanMarks

“Mirando al futuro, creemos que podremos aprovechar el ecosistema creado por las telecomunicaciones ópticas para el diseño, fabricación y empaquetamiento de los circuitos integrados, y optimizarlos específicamente para la computación óptica”, predice Steinman. Sin embargo, admite que pasar del prototipo a la fabricación a gran escala será un difícil reto.

En resumen, hay razones para el optimismo respecto al desarrollo de la computación óptica, pero sin sobreestimar sus posibilidades: cuando en 1988 el científico computacional Dror Feitelson publicó su libro Optical Computing (MIT Press), se hablaba de un nuevo campo que ya comenzaba a alcanzar su madurez. Más de 30 años después, “la computación óptica aún es más una promesa que una tecnología mainstream”, dice el autor a OpenMind. Y es que a los desafíos aún por superar se une otro escollo: la inercia tecnológica. Feitelson recuerda la advertencia lanzada ya en aquellos días por el investigador de IBM Robert Keyes: con la enorme experiencia y la inversión acumulada en la electrónica que ya conocemos, “prácticamente cualquier otra tecnología sería incapaz de alcanzarla”.

Javier Yanes

@yanes68

Comentarios sobre esta publicación

El nombre no debe estar vacío
Escribe un comentario aquí…* (Máximo de 500 palabras)
El comentario no puede estar vacío
*Tu comentario será revisado antes de ser publicado
La comprobación captcha debe estar aprobada