Más Información
Pifia ortográfica se cuela en transmisión del debate sobre CNDH; “Dictamen a discución” pasa desapercibido en Canal del Congreso
Delegación mexicana va a la COP29 en Azerbaiyán; promoverá “política ecológica y ambiental humanista” de Sheinbaum
Piden a Sheinbaum estrategia contra promesas de campaña de Trump; “lo va a cumplir”, advierten académicos de la UNAM
Investigadores del Instituto Tecnológico de Massachusetts piensan que los robots del futuro pueden aprender una o dos cosas de Steve Carell y de otros comediantes de televisión.
El MIT dice que una computadora que observó durante mucho tiempo videos de YouTube y programas de televisión como "The Office", "Big Bang Theory" y "Desperate Housewives" aprendió cómo predecir si los actores estaban a punto de abrazarse, besarse o saludarse de manos, avances que podrían ayudar a que la siguiente generación de inteligencia artificial funcione menos torpemente.
"Podría ayudar a un robot a moverse más fluidamente por una vivienda", dijo el investigador líder Carl Vondrick a The Associated Press en una entrevista "El robot no va a comenzar a servir leche si piensa que uno está a punto de retirar el vaso".
Vondrick ve además potenciales aplicaciones en atención médica. "Si se puede predecir que alguien está a punto de caer o de iniciar un incendio o de herirse a sí mismo, podría proporcionar una ventaja de unos segundos para intervenir".
Los hallazgos, tras dos años de investigación en el Laboratorio de Informática e Inteligencia Artificial del MIT, serán presentados la próxima semana en la Conferencia Internacional sobre Visión Artificial y Reconocimiento de Modelos, en Las Vegas.
Vondrick, un candidato a doctorado enfocado en visión artificial y aprendizaje de máquinas, y quien tiene subvenciones de Google y de la Fundación Nacional para la Ciencia, trabajó con el profesor del MIT Antonio Torralba y con Hamed Pirsiavash, quien ahora está en la Universidad de Maryland. El trío quería ver si podía crear un algoritmo que pudiera imitar la intuición de un ser humano y prever qué sucederá después que dos personas se encuentran.
Para refinar lo que existe ahora en estudios de inteligencia artificial como "visión de predicción", expusieron su sistema de aprendizaje para máquinas a videos que mostraban a humanos saludándose, y videos al azar de YouTube; "600 horas de ellos, para ser precisos", dijo Vondrick.
Los investigadores descargaron los videos y los convirtieron en representaciones visuales, una especie de interpretación numérica de pixeles sobre una pantalla que el algoritmo pudiera leer y buscar modelos complejos.
Luego mostraron a la computadora fragmentos de programas de comedia de televisión que nunca había visto —interacciones entre los protagonistas de la serie "Big Bang Theory" Jim Parsons (Sheldon Cooper) y Kaley Cuoco (Penny), por ejemplo— y pedían al algoritmo que predijera un segundo después si los dos se iban a abrazar, besar, saludar de mano o golpear las palmas de sus manos con el brazo levantado.
La computadora acertó más de 43% de las veces. La cifra podría no sonar alta, pero es mejor que algoritmos existentes con una tasa de éxito de 36%. Los humanos aciertan un 71% de las veces.
jpe