Si la inteligencia artificial fuera la historia de la aeronáutica, podría decirse que estamos en los años 30: ya pasamos por el parto del primer dirigible y el vuelo motorizado de los hermanos Wright; ya fundamos la primera aerolínea y circunnavegamos el globo. Pronto romperemos la barrera de la velocidad del sonido y tendremos el primer ‘jet’ de pasajeros.

En otras palabras, de momento hemos creado máquinas con objetivos específicos que comienzan a asimilar información a partir de datos crudos, de la misma forma en que un niño humano aprende acerca del mundo que lo rodea.

“Desde el punto de vista de la inteligencia artificial, o IA, estamos ante el amanecer de nuestro futuro posbiológico”, dice Rodney Brooks, profesor emérito del Laboratorio de Computación e Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT) y presidente de la empresa iRobot.

El experto se refiere al futuro en el que las máquinas, los sistemas que consideramos como ‘no vivos’, se comportarán como entidades biológicas y conscientes, tal como profetizó el matemático inglés Alan Turing, padre de la computación moderna.

Tras décadas de tropiezos y avances, por fin empezamos a entender los retos de este campo, donde convergen la computación, la ingeniería mecánica, la psicología, la anatomía, la biomimética (tecnología inspirada en la naturaleza) y la neurología. En especial esta última.

La IA ya tiene capacidades que quizás no esperábamos lograr tan pronto. No pasará mucho tiempo antes de que las máquinas comiencen a pensar por sí mismas, en forma creativa. Y entonces todo será diferente.

De hecho, durante los últimos cinco años se han hecho más progresos en inteligencia artificial que en los anteriores 50.

Tantos, que los gurús de la tecnología empiezan a preguntarse cuál será la jerarquía entre humanos y humanoides en el futuro. Y algunos de ellos, como Bill Gates y Elon Musk, incluso han manifestado su preocupación por que nuestras creaciones lleguen a convertirse en una amenaza.

Hollywood también ha puesto su parte para alimentar la visión de un futuro peligroso, con entidades artificiales que nos ven como nosotros nos aproximamos a los fósiles de los dinosaurios: una especie que dominó el mundo pero cuya falta de adaptación la condenó a la extinción. Para la muestra, Terminator, ExMachina, Her y The Matrix, por citar solo un puñado de películas.

En esa misma línea, el físico inglés Stephen Hawking, uno de los mayores divulgadores científicos de nuestro tiempo, se refiere a la IA como “el mayor suceso de la historia humana”, pero advierte que, al mismo tiempo, “podría ser nuestro peor error”.

Aprendizaje profundo

Mientras tanto, el área más caliente de la inteligencia artificial sigue siendo el llamado aprendizaje profundo. No es nada nuevo, pues hay investigadores metiéndole cabeza a este tema desde los años 70. Pero ahora, con el desarrollo de las unidades de procesamiento gráfico (GPU, por su sigla en inglés), que optimizan el rendimiento de los computadores, el aprendizaje profundo está renaciendo. Especialmente desde hace un par de años, cuando Google compró el grupo de investigaciones DeepMind.

El aprendizaje profundo, también llamado aprendizaje de las máquinas o creación de redes neuronales artificiales, consiste en desarrollar algoritmos capaces de descifrar un lenguaje natural.

La idea básica es tomar un modelo computacional y alimentarlo con información. Por ejemplo, meterle todo lo que existe en Wikipedia, o las noticias de CNN de los últimos meses. Luego se le hacen exámenes de selección múltiple o de completar la información (“en la siguientes frase, diga a qué palabra corresponde la X”, por ejemplo), como los que presentan los estudiantes. Es en ese proceso de ser evaluado donde el sistema ‘aprende’ a partir de su experiencia, como un niño cuando empieza a comunicarse.

Mustafa Suleyman, cofundador de DeepMind, cuenta que uno de estos sistemas fue puesto a prueba usando un videojuego de Atari, de los años 70, que consistía en una raqueta y una bola (el famoso ‘telebolito’). Al sistema no se le programó ninguna instrucción sobre cómo jugar. “Solamente se le dan pixeles crudos, y él debe pasar por la experiencia frustrante de que lo ‘maten’ varias veces, sin tener ninguna guía o elemento de comparación –explica Suleyman–. Eventualmente, el sistema le pega a una bola por accidente y aprende que esa acción le trae una recompensa”. Es algo muy similar a lo que hace un ratón de laboratorio cuando se da cuenta de que halar una palanca le representa acceder a comida.

El año pasado, DeepMind publicó los resultados de su última investigación en la revista Nature, según los cuales un algoritmo, después de 500 juegos, ganó la partida. “Este nuevo agente artificial sobrepasó el desempeño de los algoritmos previos y logró un nivel comparable al de un jugador humano profesional, capaz de sobresalir en una diversa gama de tareas difíciles”, concluyeron los científicos.

Todo esto podría traducirse para Google y sus usuarios en servicios que van desde la eficiente identificación de imágenes, textos y voces hasta la detección de fraudes y ‘spam’.

Pero llegar allá no es una tarea fácil. Durante este largo proceso de entrenamiento, los algoritmos de Google han hecho pasar a la empresa por momentos vergonzosos, como cuando clasificaron a una mujer negra como un gorila en Google Photos.

Otra cara de la moneda es la plataforma de computación cognitiva Watson, de IBM. Los programadores le enseñaron a leer literatura médica y ahora la supercomputadora es capaz de evaluar millones de investigaciones sobre cualquier enfermedad e identificar en pocos días tratamientos que les tomarían meses a los mejores médicos.

IA fuerte y débil

Aunque el trabajo de todos estos algoritmos es notable, surge la pregunta de qué tan similar a un cerebro humano es una red neuronal artificial. “Por ahora, es como comparar un sistema de cables y poleas con un músculo: tienen una relación, pero uno no diría que son la misma cosa”, dice Tomaso Poggio, director del Centro para Cerebros, Mentes y Máquinas, de MIT, cuyo trabajo complementa el esfuerzo del Gobierno estadounidense –mediante The Brain Initiative– para mapear la actividad de cada neurona del cerebro humano.

“Entender cómo crea inteligencia el cerebro es el mayor problema de la ciencia y la tecnología –añade Tomaso–. Para tener un entendimiento computacional de lo que significa la inteligencia, nuestro centro hace énfasis en cuatro áreas de investigación interdisciplinaria: la integración de la inteligencia, incluyendo visión, lenguaje y destrezas motrices; los circuitos para la inteligencia, que necesitarán investigaciones en neurobiología e ingeniería eléctrica; el desarrollo de la inteligencia en niños y, finalmente, el estudio de la inteligencia social”.

Para Patrick Winston, de MIT, lo que hace que la inteligencia humana se destaque sobre la artificial y la animal es nuestra habilidad de contar y entender historias. Por eso, lleva años trabajando en el programa Génesis, que intenta copiar esa cualidad.

Al dársele un corto recuento sobre un conflicto entre dos países, el programa intenta concluir por qué sucedieron las cosas y su significado. Génesis es capaz de detectar conceptos como la venganza y evaluar el carácter de un personaje. “Lo que buscamos es crear una inteligencia artificial que, por ejemplo, entre a un restaurante donde la gente esté conversando y comiendo, y pueda describir, con palabras, lo que está sucediendo en detalle. Y que pueda sentarse a la mesa sin volcar las sillas o romper las copas. Eso es difícil”, admite Winston.

De ahí el término de ‘robótica suave’ para agrupar a los robots capaces de interactuar con los humanos, comenta el experto David Hanson, de Hanson Robotics, en Hong Kong. Robots sociales como Sophie, muy populares en Japón y Corea, tienen la misión de inspirar a la gente a relacionarse con ellos y ayudarles a aprender.

Pero una cosa es crear máquinas inteligentes, sociables, capaces de entender nuestro tono de voz y reaccionar a ello –como el famoso robot Kismet, del MIT– y otra muy diferente crear máquinas conscientes.

Es decir, una cosa es la inteligencia artificial ‘débil’ y otra, la ‘fuerte’. La IA débil supone una máquina capaz de simular el comportamiento de la cognición humana (Kismet), pero incapaz de experimentar ese estado mental. Por el contrario, la inteligencia artificial fuerte implica desarrollar máquinas capaces de tener estados mentales cognitivos.

Sus promotores quieren hacer máquinas conscientes de sí mismas, con emociones y una conciencia verdadera: una superinteligencia artificial.“Cuando lleguemos a esa singularidad, el paisaje va a ser tan inimaginable que hoy es difícil decir cosas al respecto que tengan sentido”, asegura Rodney Brooks.

Entonces, plantea el presidente de iRobot, estará sobre la mesa el tema ético: “¿Estaría bien construir deliberadamente máquinas subhumanas? ¿Esclavizarlas? Ya Turing pensaba en eso. Hoy pensamos que está bien porque no sentimos empatía por las máquinas, pero eso puede cambiar”.

Algunos insistirán en que el problema no es la esclavización de nuestras máquinas conscientes sino la posibilidad de que ellas acaben con nosotros, pero la mayoría de especialistas en robótica creen que no será así. Más bien, adelantan, nos fundiremos con ellas. Vamos a injertar la conciencia humana en máquinas extraordinariamente durables y eficientes. En otras palabras, el ‘homo sapiens’ se desvanecerá como especie biológica, reemplazándose a sí misma por el ‘robo sapiens’.

jpe

Google News

TEMAS RELACIONADOS

Noticias según tus intereses