La posibilidad de recrear artificialmente la imagen de cualquier persona, ya sea el nude de una cantante o el rostro de un presunto delincuente, implica riesgos. Deben atenderse.

Ahora hay falsas fotografías como aquellas denunciadas por la española Rosalía o las de una presentadora de la televisión costarricense desnudas. También recreaciones de la imagen de quien con indecible crueldad provocó la muerte de un perro.

Las imágenes creadas por medio de la Inteligencia Artificial nos reiteran la inquietante pregunta: ¿cuánta confianza podemos conceder a las miles de imágenes a nuestra disposición diariamente respecto de su verosimilitud? De fuente artificial proviene la duda de la evidencia material.

En el mundo real, el pasado 28 de mayo —irónicamente la fecha en que se conmemora el Día del Perro Sin Raza—, en la mexiquense Tecámac, un hombre al salir de una carnicería tomó a Scooby, un perro criollo que esperaba a su dueño, y lo aventó a un cazo con aceite hirviendo. El crimen fatal contra el animal levantó una indignada ola ciudadana.

El video se viralizó y desde un sitio de IA fue creada la fotografía del responsable. Circuló por redes sociales. El sospechoso fue detenido, pero al compararlo con la foto las diferencias resultaron significativas; la imagen del detenido nada tenía que ver con la creada de manera virtual. Sin embargo, ya existe la probabilidad de parecidos e identidades que sin observación minuciosa hagan parecer al gato por liebre.

Difundir un rostro y atribuirle un delito a la persona pseudo representada por él, sin una validación policial o judicial, puede conducir a la persecución y eventual captura de un inocente, tan solo por su parecido con la verdadera imagen de una falsa identidad.

Por la experiencia de usuarios de Lens, por ejemplo, ahora sabemos que el algoritmo es capaz de generar fotos por medio de IA, aunque en el caso de personas afroamericanas se ven más pálidas o quienes presentan obesidad aparecen más delgadas.

Investigadores de MIT Artificial Intelligence diseñaron el rostro de un individuo a partir de la grabación de su voz. Un codificador extrae y guarda el espectrograma de las ondas de audio y reconoce características de la persona, y un decodificador genera una imagen. Sin embargo, aunque escuche la voz en chino interpreta a la persona como anglosajona.

Hace unos días se viralizó una foto de la cantante Rosalía, manipulada por IA para presentarla desnuda; la “motomami” respondió que el cuerpo de una mujer no es propiedad pública, ni mercancía ni estrategia de marketing.

Una periodista de Costa Rica, Johanna Villalobos, fue víctima de un ataque similar, por el cual padeció ansiedad, miedo, vergüenza y humillación.

Los riesgos de la Inteligencia Artificial están ahí. Este texto no fue generado más que por nuestra preocupación, sin responsabilidad de alguna IA… no mucha.

@guerrerochipres

Suscríbete aquí para recibir directo en tu correo nuestras newsletters sobre noticias del día, opinión, y muchas opciones más.
Google News

TEMAS RELACIONADOS