Más Información
Osiel Cárdenas, exlíder del Cártel del Golfo, recibe auto de formal prisión; enfrentará juicio por homicidio
Jóvenes mexicanos pasan más de 2 mil horas al año en el teléfono; OCDE alerta sobre su impacto en la salud mental
Sergio Gutiérrez Luna destaca aprobación de 25 reformas en la 66 Legislatura; "Un logro histórico para la 4T", señala
Secretario de Agricultura reafirma defensa del maíz blanco; "Seguiremos apoyando la producción nacional no transgénica", afirma
¿Maíz transgénero? Rubén Rocha corrige desliz durante discurso en Sinaloa; destaca importancia del maíz blanco
Sheinbaum asegura apoyo total a Sinaloa para enfrentar violencia; "Nunca los vamos a dejar solos, aquí está la presidenta"
Tareas tan sencillas para el ojo humano como reconocer un número invertido, diferenciar un perro de un gato o identificar entre miles de imágenes sólo las de niños de carne y hueso son desafíos complejos para las máquinas pero se está avanzando mucho tecnológicamente para superarlos.
A una computadora hay que explicarle todos los datos del problema de reconocimiento de imágenes en un idioma de "bits" y algoritmos para que los comprenda y de forma algo torpe, explicó Enrique Solano, director del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la Universidad del País Vasco en Bilbao.
Esa particularidad complica mucho a las máquinas el procedimiento de identificación de contenidos, que se han disparado en el mundo digital, añadió este experto, cuyo equipo ha participado en un experimento pionero para digitalizar de forma universal la computación cuántica analógica en un "chip" superconductor.
Un reto logrado en colaboración con los laboratorios de Google de computación cuántica, y que se ha publicado recientemente en la revista Nature.
Hasta el momento, explica este doctor en física, los sistemas de inteligencia "artificial" para reconocimiento de imágenes no ofrecen resultados absolutamente fiables aunque las tecnologías son cada vez más sofisticadas.
En los últimos cinco años, con el desarrollo del llamado "deep learning" que permite a las máquinas aprender por sí mismas de sus propios errores, se ha avanzado mucho en reconocimiento de datos incluso de los no estructurados y especialmente en las áreas de imágenes, voz y vídeo, precisó por su parte la experta Nuria Oliver, directora científica de Telefónica I+D.
Aunque ya existen máquinas que procesan millones de datos en segundos con resultados incluso más exactos que los de los humanos, ordenadores que compiten y vencen en juegos contra las personas y sistemas informáticos que componen música o analizan imágenes para determinar diagnósticos médicos complicados, todavía les resulta muy complejo interpretar el contenido de imágenes y vídeos, insisten los expertos.
Según Solano, hasta el momento, ninguna máquina puede distinguir imágenes con un margen de error cero de un gato o de un perro a partir del análisis de sus características morfológicas traducidas a números.
Tampoco parece posible a día de hoy que un sistema informático identifique, por ejemplo, qué imágenes de entre todas las existentes en la red son exclusivamente del pintor Pablo Picasso conversando con el expresidente estadounidense John F. Kennedy o en cuáles aparecen madres reales con niños de carne y hueso y no adolescentes.
Los resultados en la identificación de este tipo de datos son precarios en fiabilidad. "Entiendo que decisiones judiciales, comerciales o educativas serían muy polémicas hoy en día si se basaran únicamente en el reconocimiento de imágenes por una máquina automática sin intervención humana", según el responsable del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la universidad vasca, pionero en digitalización cuántica de algoritmos.
La computación cuántica podría resolver el problema, explica el experto. De hecho, Google ha invertido cien millones de dólares en el ordenador cuántico que se construye en la Universidad de Santa Bárbara para resolver diversos problemas importantes, entre ellos el de reconocimiento de imágenes, que es "uno de los retos computacionales actualmente más complejos", aseguró Solano.
jpe