BAQUIA

Inteligencia Artificial

AlphaGo 3 – 1 Humanos. No todo está perdido… ¿O sí?

Así es. El mejor jugador (humano) del mundo de Go, Lee Sedol, ha protagonizado una inesperada remontada en el penúltimo enfrentamiento contra el sistema DeepMind de Google entrenado para ganar al milenario juego de mesa.

Imagen: Google

Imagen: Google

Desde que el pasado AlphaGo inaugurara el marcador con una victoria sobre el actual campeón del mundo, la expectativa ha ido en aumento y no hay medio internacional que no esté siguiendo el Google DeepMind Challenge como si de una final de Rolland Garros entre Nadal y Djokovich se tratara.

Esta pasada madrugada se ha producido una victoria que tal vez pocos contaran con ella y que puede que sea tanto o más importante que las tres anteriores por parte del algoritmo cognitivo de Google.

Demis Hassabis, fundador de DeepMind ha reconocido por Twitter que esta primera derrota de AlphaGo ha sido debida a la pericia de Sedol en el movimiento 78 que ha forzado al sistema a cometer un error fatal en el 70, lo que ha llevado a la victoria del asiático y que parece haber producido una enorme alegría en el propio Hassabis.

Tal vez Hassabis tenga el corazón dividido, y aún albergue alguna esperanza para la raza humana, a sabiendas de que su algoritmo ha hecho ya historia de cualquier forma. Al igual que la victoria de Deep Blue de IBM sobre el mejor jugador del mundo de ajedrez, Garry Kasparov, supuso en 1997 un hito en el desarrollo de la computación cognitiva, AlphaGo da un paso aún mayor, ya que demuestra la capacidad de autoaprendizaje, explotación aleatoria de posibilidades y toma de decisiones de estas nuevas máquinas.

El juego de origen asiático, cuenta con unas reglas sencillas que sin embargo deja un alto margen de acción a la intuición. Los mejores jugadores de Go se convierten en expertos con el paso de los años, aprendiendo a reconocer patrones de jugadas, lo que le convierte en uno de los deportes mentales más estimulantes del mundo. Este es precisamente el gran reto de DeepMind: crear sus propios patrones de conocimiento, más allá de la programación.

¿Cómo funciona DeepMind?

AlphaGo diseñado como los circuitos de neuronas humanas, utiliza básicamente el denominado ‘deep learning’ para enseñarse a sí mismo. Del mismo modo que al buscar en Google imágenes de ‘perros’ el buscador encuentra, de entre su inmensa memoria de fotografías, todas las que han sido procesadas con la aparición de canes, la inteligencia de AlphaGo se basa en los millones de posiciones de Go y movimientos de jugadores humanos que ha registrado.

El verdadero avance de DeepMind reside en que el sistema mejora sus habilidades jugando contra sí mismo millones de partidas. Así genera una red de ‘reglas’ que le ayudan a generar un patrón de predicción de las siguientes jugadas, entrenando así una red de ‘valor’ que evalúa esas opciones.

La combinación de ambas redes neuronales le evite a la máquina trabajar en exceso, mientras una reduce las posibilidades de elección, la otra evalúa las probabilidades de éxito de cada una de las opciones. Esta es la clave: antes de ejecutar un movimiento, AlphaGo evalúa todas las posiciones y cambios posibles, seleccionando el que es más probable que suceda.

Aún queda una última partida por seguir, el próximo martes (horario coreano), aunque poco o nada vaya a cambiar. El hecho de que la inteligencia artificial avance hacia máquinas que cada vez son menos algoritmo y más neurona, y que se esté llegando a resultados más pronto de lo esperado, abre la caja de pandora entre quienes temen una revolución de las máquinas, antes o después, y quienes sueñan con las infinitas posibilidades de un mundo donde máquinas aleccionadas mejoren el día a día de la humanidad.


Compartir en :


Noticias relacionadas

Recomendamos




Comentarios