Más Información
Debate sobre enmienda a la reforma del Poder Judicial; sigue aquí lo más relevante de la discusión en la SCJN
Convocatoria a la elección judicial continúa sin aspirantes; nadie se ha registrado, pero siguen las declinaciones
Elecciones Estados Unidos 2024; sigue minuto a minuto el proceso electoral entre Donald Trump y Kamala Harris
A partir de hoy y hasta noviembre de 2025 podrán importarse autos usados; aplica solo para modelos de 8 a 9 años anteriores
Monreal: “Nos tiene sin cuidado resolución de la SCJN"; asegura se tiene una respuesta ante posible invalidación
Google anunció que interrumpía un servicio para crear imágenes de personas mediante la inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.
El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá "solucionar reciente problemas" con la función de generación de imágenes.
"Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada", dijo la empresa en un comunicado.
Hace dos días un usuario de X, antes Twitter, publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para "generar una imagen de un soldado alemán de 1943".
La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.
Lee también Google lanza Gemini 1.5 Pro, inteligencia artificial que puede procesar textos, vídeos y audios largos
¿Inteligencia artificial perpetúa prejuicios raciales?
Las empresas tecnológicas ven la inteligencia artificial como el futuro para todo, desde motores de búsqueda hasta cámaras de teléfonos inteligentes.
Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.
"@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó", escribió John L en X.
Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente; Google tiene un historial irregular en el lanzamiento de productos de IA.
La empresa ofreció disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.
Lee también Alphabet, matriz de Google, ganó más de 73 mil mdd en 2023
mcc