Techbit

Elon Musk y expertos en IA piden pausar su desarrollo

Varios ejecutivos de tecnología y los principales investigadores de inteligencia artificial, incluyendo a Elon Musk están pidiendo una pausa en el desarrollo vertiginoso de nuevas y poderosas herramientas de IA

30/03/2023 |14:23Redacción / Juan Carlos Peña |

Un grupo de investigadores destacados en IA, junto con el magnate y CEO de Twitter, Elon Musk, firmaron una carta abierta a los laboratorios de inteligencia artificial en todo el mundo, instándolos a detener el desarrollo de sistemas de IA a gran escala debido a los "profundos riesgos para la sociedad y la humanidad".

Expertos en IA hacen llamado a pausar el entrenamiento de sistemas de IA

La carta, publicada por el Future of Life Institute, destaca que actualmente hay una "" en los laboratorios de IA para desarrollar e implementar sistemas de aprendizaje automático que son demasiado complejos para ser entendidos, predichos o controlados incluso por sus creadores.

“Por lo tanto, hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos 6 meses el entrenamiento de los sistemas de IA más potentes que GPT-4”, dice la carta.

Newsletter
Recibe en tu correo las noticias más destacadas para viajar, trabajar y vivir en EU

Leer también: 

“Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.

Personalidades de la Inteligencia Artificial firman carta

Entre los firmantes se encuentran personalidades destacadas como el autor Yuval Noah Harari, el cofundador de Apple , el cofundador de Skype Jaan Tallinn, el político Andrew Yang, además de varios reconocidos investigadores y directores ejecutivos en el campo de la inteligencia artificial, como Stuart Russell, Yoshua Bengio, Gary Marcus y Emad Mostaque.

Preocupación por las IA aumenta

Aunque es poco probable que la carta tenga impacto en el actual clima de investigación en inteligencia artificial, donde compañías como Google y Microsoft han lanzado nuevos productos que han cambiado el escenario tecnológico actual, el documento sirve como una señal del creciente rechazo a esta mentalidad de "enviar ahora y arreglar después". Este rechazo podría eventualmente influir en la esfera política y ser considerado por los legisladores en Estados Unidos.

Tal como se indica en la carta, incluso OpenAI ha reconocido la necesidad de una "evaluación independiente" de los próximos sistemas de inteligencia artificial, con el fin de garantizar que se adhieran a los estándares de seguridad necesarios. Los que han firmado la carta sostienen que ese momento ha llegado.

“Los laboratorios de IA y los expertos independientes deberían usar esta pausa para desarrollar e implementar conjuntamente un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzado de IA que son rigurosamente auditados y supervisados por expertos externos independientes”, indica el documento.

“Estos protocolos deberían garantizar que los sistemas que se adhieren a ellos estén seguros más allá de toda duda razonable”.

Leer también: 

Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: