Uno de los aspectos en los que más se diferencia la arquitectura de los ordenadores del cerebro humano es en el reconocimiento de patrones. Cuando nosotros vemos las características de una cara, somos capaces de decidir quién es la persona que estamos viendo. Sin embargo, los ordenadores lo tienen que ir comparando con una representación previa digital de dicha cara buscando la mayor similitud. Esto quiere decir que no hay proceso de aprendizaje detrás, simplemente información que se coteja. Cuanto más rápido se coteje, más “inteligente” parecerá el proceso, pero al precio de la fuerza bruta y el consumo de recursos que ello supone.
La búsqueda de ordenadores con arquitectura neuronal está muy álgida y ha habido incluso anuncios de grandes fabricantes de chips como Qualcomm referenciando el 2014 como el año de obtener ciertos frutos.
Se empieza a hablar de hardware neuromórfico, es decir, que no respeta la arquitectura estándar que conocemos hasta la fecha en el campo de los ordenadores (la conocida como Von Neumann), sino que introduce una arquitectura con alto nivel de paralelismo y reprogramación de las unidades lógicas de la arquitectura, en línea con los niveles de especialización (o mejor dicho, ausencia de ella) de los elementos de procesamiento del cerebro.
Una nueva arquitectura requiere también una nueva forma de darle instrucciones para que aprenda. Esta nueva arquitectura eliminaría la forma en la que se “educa” (programa) la computadora, no sirviendo ya la programación actual, sino más bien una retroalimentación de si se está o no consiguiendo el objetivo esperado. Más en línea con el aprendizaje de los seres humanos.
Las ventajas de conseguir éxitos en este campo se encuentran en dos vertientes principales:
– La más obvia es la realización de tareas demasiado complejas para las arquitecturas actuales. La gestión de Big Data (cantidades masivas de datos) no está resuelta en la actualidad, ni siquiera a base de fuerza bruta (capacidad de procesado).
– Pero un tema menos obvio pero igual o más importante es la poca energía que consumo el cerebro humano para procesar millones y millones de datos. Un ejemplo puede ser el ojo humano: Es capaz de procesar el equivalente de 1TB de información al día, pero con un consumo varios órdenes de magnitud menores que realizar el mismo procesado en una arquitectura actual. En este sentido, uno de los elementos que se quiere replicar en estos nuevos chips es la forma de alimentación del cerebro, que no es basado en una alimentación continua, sino en impulsos eléctricos puntuales. Sólo este hecho prometería enormes reducciones de consumo.
Esperemos a ver si realmente 2014 va a ser un año de despegue comercial de algunos chips basados en el cerebro. Los usos pueden ser masivos y aplicarse prácticamente muy pronto a nuestras vidas, incluso a nuestros Smartphones.
Noticias relacionadas
-
¿España?: El país de nadie es profeta en su tierra.
-
¿Será 2019 un buen año para vender tu empresa?
-
Por qué la experiencia del cliente se ha convertido en una prioridad para los CIOs