Más Información

VIDEO: Reportan que piloto "secuestró" avión en el AICM para exigir que le pagaran; autoridades inician investigación

New York Times destaca rol de Harfuch en el combate del narco; resalta intercambio de inteligencia con EU

Acusan a Citlalli Hernández de llamar a boicotear Totalplay de Salinas Pliego; "hablé de activismo frente a injusticias", revira

En operativo, cae secuestrador "El Chuleta" en Morelos; detienen a otros 38 generadores de violencia

EU lanza ataque contra objetivos del Estado Islámico en Siria; Trump dice que es "represalia muy seria"

Clinton, Jagger y Michael Jackson aparecen en archivos de Epstein; pesquisa no es sobre el exmandatario, dice vocero

Corte Interamericana responsabiliza a México por feminicidio de Lilia Alejandra García Andrade; su madre ha luchado desde 2001

"Queremos cerrar este capítulo", dice Salinas Pliego al SAT; esperarán a enero a conocer fundamentos legales de adeudo fiscal

Marco Rubio destaca labor de seguridad de México; "están haciendo más que nunca en su historia", afirma
Nueva York.- Las imágenes creadas con inteligencia artificial se pueden utilizar para crear arte, probarse ropa en probadores virtuales o ayudar a diseñar campañas publicitarias.
Pero los expertos temen que el lado más oscuro de estas herramientas de fácil acceso pueda empeorar algo que daña principalmente a las mujeres: la pornografía deepfake no consensuada.
Las imágenes deepfake son aquellas que se han creado o alterado digitalmente con inteligencia artificial. La pornografía creada con esta tecnología comenzó a difundirse por internet hace varios años cuando un usuario de Reddit compartió clips donde se colocaban rostros de celebridades femeninas sobre los hombros de actores porno.
Desde entonces, los creadores de deepfakes han difundido videos e imágenes similares dirigidos a personas influyentes en línea, periodistas y otras personas con un perfil público. Existen miles de videos en una gran cantidad de sitios web. Y algunos han estado ofreciendo a los usuarios la oportunidad de crear sus propias imágenes, esencialmente permitiendo que cualquiera convierta a quien desee en fantasías sexuales sin su consentimiento, o use la tecnología para dañar a sus exparejas.
El problema, dicen los expertos, creció a medida que se hizo más fácil hacer deepfakes sofisticados y visualmente atractivos. Y dicen que podría empeorar con el desarrollo de herramientas de inteligencia artificial generativa que se entrenan en miles de millones de imágenes de internet y arrojan contenido novedoso utilizando datos existentes.
Lee también: China toma medidas contra los videos falsos "deepfake"
Modelos de IA inician restricciones en imágenes explícitas
“La realidad es que la tecnología continuará proliferando, continuará desarrollándose y seguirá siendo tan fácil como presionar un botón”, dijo Adam Dodge, fundador de EndTAB, un grupo que brinda capacitación sobre abusos habilitado por la tecnología.
Mientras tanto, algunos modelos de inteligencia artificial dicen que ya están restringiendo el acceso a imágenes explícitas.
Lee también: Deepfake: "Pusieron mi cara en un video porno"
OpenAI dice que eliminó el contenido explícito de los datos utilizados para entrenar la herramienta de generación de imágenes DALL-E, lo que limita la capacidad de los usuarios para crear ese tipo de imágenes. La compañía también filtra las solicitudes y dice que bloquea a los usuarios para que no creen imágenes de inteligencia artificial de celebridades y políticos prominentes. Midjourney, otro modelo, bloquea el uso de ciertas palabras clave y alienta a los usuarios a señalar las imágenes problemáticas a los moderadores.
Mientras tanto, la startup Stability AI lanzó una actualización en noviembre que elimina la capacidad de crear imágenes explícitas utilizando su generador de imágenes Stable Diffusion. Esos cambios se produjeron después de los informes de que algunos usuarios estaban creando imágenes de desnudos inspiradas en celebridades utilizando la tecnología.
vare
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]














