Más Información
Elección judicial: Aspirantes a cargos comparten carta de motivos y hasta currículum; “Justicia no debe ser inaccesible”, afirman
Niño de 3 años toca “la campana de la victoria” por vencer al cáncer; recibió quimioterapias en el IMSS
Tres de cada 10 estudiantes es víctima de violencia en planteles; exigen reforzar medidas de seguridad
Unión Nacional de Padres urge a acabar con clima de inseguridad en Sinaloa; exigen esclarecer asesinato de su líder
“Aún hay tiempo”: Inai lamenta extinción aprobada por Diputados; pide al Senado reconsiderar reforma
Tareas tan sencillas para el ojo humano como reconocer un número invertido, diferenciar un perro de un gato o identificar entre miles de imágenes sólo las de niños de carne y hueso son desafíos complejos para las máquinas pero se está avanzando mucho tecnológicamente para superarlos.
A una computadora hay que explicarle todos los datos del problema de reconocimiento de imágenes en un idioma de "bits" y algoritmos para que los comprenda y de forma algo torpe, explicó Enrique Solano, director del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la Universidad del País Vasco en Bilbao.
Esa particularidad complica mucho a las máquinas el procedimiento de identificación de contenidos, que se han disparado en el mundo digital, añadió este experto, cuyo equipo ha participado en un experimento pionero para digitalizar de forma universal la computación cuántica analógica en un "chip" superconductor.
Un reto logrado en colaboración con los laboratorios de Google de computación cuántica, y que se ha publicado recientemente en la revista Nature.
Hasta el momento, explica este doctor en física, los sistemas de inteligencia "artificial" para reconocimiento de imágenes no ofrecen resultados absolutamente fiables aunque las tecnologías son cada vez más sofisticadas.
En los últimos cinco años, con el desarrollo del llamado "deep learning" que permite a las máquinas aprender por sí mismas de sus propios errores, se ha avanzado mucho en reconocimiento de datos incluso de los no estructurados y especialmente en las áreas de imágenes, voz y vídeo, precisó por su parte la experta Nuria Oliver, directora científica de Telefónica I+D.
Aunque ya existen máquinas que procesan millones de datos en segundos con resultados incluso más exactos que los de los humanos, ordenadores que compiten y vencen en juegos contra las personas y sistemas informáticos que componen música o analizan imágenes para determinar diagnósticos médicos complicados, todavía les resulta muy complejo interpretar el contenido de imágenes y vídeos, insisten los expertos.
Según Solano, hasta el momento, ninguna máquina puede distinguir imágenes con un margen de error cero de un gato o de un perro a partir del análisis de sus características morfológicas traducidas a números.
Tampoco parece posible a día de hoy que un sistema informático identifique, por ejemplo, qué imágenes de entre todas las existentes en la red son exclusivamente del pintor Pablo Picasso conversando con el expresidente estadounidense John F. Kennedy o en cuáles aparecen madres reales con niños de carne y hueso y no adolescentes.
Los resultados en la identificación de este tipo de datos son precarios en fiabilidad. "Entiendo que decisiones judiciales, comerciales o educativas serían muy polémicas hoy en día si se basaran únicamente en el reconocimiento de imágenes por una máquina automática sin intervención humana", según el responsable del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la universidad vasca, pionero en digitalización cuántica de algoritmos.
La computación cuántica podría resolver el problema, explica el experto. De hecho, Google ha invertido cien millones de dólares en el ordenador cuántico que se construye en la Universidad de Santa Bárbara para resolver diversos problemas importantes, entre ellos el de reconocimiento de imágenes, que es "uno de los retos computacionales actualmente más complejos", aseguró Solano.
jpe