Más Información
Extinción del Inai; Adrián Alcalá pide a legisladores garantizar protección de datos y acceso a información
FOTOS: “Estábamos abriendo la bodega cuando nos sacaron los militares"; trabajadores narran operativo en plaza de izazaga
“Vamos por todos los peces corruptos”; Raquel Buenrostro rinde protesta como secretaria de Función Pública
Taddei insiste a Morena que se necesitan 13 mmdp para elección judicial; acuerda revisar presupuesto de nueva cuenta
artifice and therefore intelligence.” —Jean Baudrillard
#LaVozDeLosExpertos
Conforme mejoran las redes neuronales y la facilidad para acceder a unidades de procesamiento gráfico (GPU) más avanzadas para cualquier persona interesada, hay ciertas líneas que se van a ir borrando. Si combinamos el poder detrás de la investigación y los trabajos alrededor de las redes neurales que hacen la inteligencia artificial, con nuestra habilidad para discernir la verdad de las noticias falsas (la cual se va erosionando rápidamente), con la forma en la que diseminamos las noticias a través de medios conocidos como redes sociales, podemos ver claramente que nos estamos tendiendo una trampa con consecuencias importantes.
Hay una tendencia que ha venido creciendo de forma exponencial desde mediados de diciembre, aproximadamente, que podríamos llamar “DeepFake” (profundamente falso) por el usuario de reddit “deepfakes” que tranquilamente se dedicaba a su hobby de subir videos, o gifs animados, en los que intercambiaba la cara de una artista famosa con el cuerpo de una estrella porno. Sus videos tienen la característica de estar muy bien hechos, pero los hacía en realidad utilizando algoritmos para entrenar a computadoras (machine learning), la computadora de casa, videos disponibles públicamente, y algo de tiempo libre (para entrenar a la máquina). Pero este hobby ha tomado más adeptos, y quién sabe si ya hasta se ha vuelto el trabajo de algunos.
De diciembre para acá los usuarios de reddit (un sitio web de marcadores sociales y agregador de noticias donde los usuarios pueden dejar enlaces a contenidos web), haciendo este tipo de videos falsos pero de aspecto muy real han aumentado. No sólo han aumentado los usuarios, sino que también, como toda tecnología exponencial, ha crecido la oferta para hacerlos más rápidos o de forma más sencilla. Claramente ya hay alguien ofreciendo una aplicación web para hacerlos.
Conforme crece la demanda y las redes neurales van obteniendo más conocimiento estas van a ir disminuyendo sus errores al hacer este tipo de videos y se va a ir difuminando la línea entre falso y verdadero. Las consecuencias se empiezan a ver en el tema de venganza pornográfica, en figuras políticas y pronto en otros temas que busquen distraer a la gente del video real al video que parece real.
La tecnología de millones de dólares con la que trajeron nuevamente a Carrie Fischer a la pantalla, ahora, gracias a la inteligencia artificial, se vuelve accesible para casi cualquiera. Esto implica que también empecemos a ver “deep fakes” de otros temas como falsos políticos, y realmente no podamos distinguir si es falso o verdadero. Seamos inteligentes, ya que esos videos “profundamente falsos” saldrán de su caja de contención como lo es un subreddit sobre “deepfakes” y pasará a cadenas de whatsapp, y se mezclará con el #ruidoblanco que tanto le gusta a las guerras sucias en la política, y otros lamentables usos.
Gfycat, uno de los sitios para hospedar gifs animados más compartido en reddit, ya empezó a eliminar imágenes falsas, especialmente de pornografía de venganza y el de algunas figuras públicas. Pero esta decisión ética es de la empresa que hospeda, dudo que algo así sea retirado de cadenas de Whatsapp por su Sheriff: facebook, en el futuro cercano.