AlphaGo
es la inteligencia artificial (IA) que Google adquirió en 2014, además de ser la primera inteligencia artificial en derrotar a los mejores contrincantes de Go , un milenario juego de mesa de origen chino.
Se cree que tiene cerca de 4,000 años y se estima también que hay más posiciones posibles de este juego que átomos en el universo. ¡Increíble! ¿No?
Ya sabiendo por qué Google eligió este juego y no otro para experimentar con la inteligencia artificial , les informamos que se ha presentado a dos torneos de Go en el The Future of Go Summit , una cumbre reservada específicamente para este juego, y en ambos ha ganado: en 2016 ganó 4 a 1 a Lee Sedol , el mejor jugador en aquel momento; y en 2017 ganó 3 a 0 a Ke Jie , el nuevo mejor jugador de este año.
En ambos torneos ganó de forma muy reñida, pero es porque está programada para ganar precisamente con la mínima diferencia posible, realizando el mínimo trabajo posible.
Nueva versión: AlphaGo Zero
El programa acaba de recibir una actualización, ahora puede dominar el juego por sí sola. Significa que es capaz de aprender y de superarse a sí misma sin ninguna necesidad y ayuda de un humano.
AlphaGo Zero
derrotó al AlphaGo normal por la friolera de 100 juegos a 0, lo que significa un gran avance en este campo.
Por si fuera poco, AlphaGo Zero (AGZ) tardó sólo tres días en entrenarse desde cero: adquirió literalmente miles de años de conocimiento humano jugando contra sí misma.
La única información que tenía era qué hacían las posiciones de las piezas blancas y negras en el tablero, además de diseñar estrategias completamente frescas, el nuevo sistema es considerablemente más fuerte que la AlphaGo original.
AlphaGo original
tuvo la ventaja de aprender de miles de juegos de Go previos, incluidos los jugados por aficionados y profesionales humanos.
AlphaGo Zer
o no recibió ayuda de sus creadores humanos y no tuvo acceso a absolutamente nada, bueno sí, sólo a las reglas del juego.
Usando “aprendizaje por refuerzo”, AGZ jugó contra sí misma una y otra vez, “empezando por jugar al azar y sin ninguna supervisión ni uso de datos humanos”, según el estudio de los investigadores de DeepMind , propiedad de Google . Esto permitió que el sistema mejorara y perfeccionara su cerebro digital, conocido como red neuronal, ya que aprendía continuamente de la experiencia. Se podría decir que AlphaGo Zero fue su propia maestra.
El funcionamiento de AlphaGo necesitaba 48 TPUs, mientras que AGZ su función es con cuatro unidades de procesamiento de tensor (TPUS) y chips especializados en el entrenamiento de redes neuronales.
“Como era de esperar (y desear), nos estamos alejando del patrón clásico de obtener un grupo de datos etiquetados por humanos y entrenar un modelo para imitarlo. Lo que estamos viendo aquí es un modelo libre de prejuicios y asunciones humanas: puede aprender lo que determina que es óptimo, lo que puede tener un matiz distinto a nuestras propias concepciones de lo mismo. Es como una civilización alienígena inventando su propia matemática que le permite hacer cosas como viajar en el tiempo. Aunque todavía estamos lejos de ‘La Singularidad’, definitivamente vamos en esa dirección”, dijo Nick Hynes, un estudiante de posgrado del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT a Gizmodo.
Los investigadores dicen que ya han entrado en la era de la superinteligencia y este último avance es el más mínimo indicio de lo que está por venir.