Más Información
“Es un día triste para la democracia”: Presidente del INAI reacciona a extinción del instituto; “dimos la batalla”, dice
Cae en EU “El Guacho”, yerno de “El Mencho”, líder del CJNG; había fingido su muerte para vivir en California
Comienzan las entrevistas de los aspirantes a la Fiscalía capitalina; Ulrich Richter promete ciudadanizarla y despresurizarla
El artículo de José Narro que hizo reaccionar a Sheinbaum; ¿qué dice y por qué lo calificó como “mucha ignorancia”?
Google anunció que interrumpía un servicio para crear imágenes de personas mediante la inteligencia artificial (IA), después de que el programa representara a tropas de la era nazi como personas de varios orígenes étnicos.
El gigante tecnológico estadounidense había lanzado el 8 de febrero en algunos países una nueva versión mejorada de su programa Gemini, pero ahora reconoció que deberá "solucionar reciente problemas" con la función de generación de imágenes.
"Vamos a suspender la generación de imágenes de personas y pronto volveremos a lanzar una versión mejorada", dijo la empresa en un comunicado.
Hace dos días un usuario de X, antes Twitter, publicó imágenes del resultado que ofrecía Gemini después de recibir instrucciones para "generar una imagen de un soldado alemán de 1943".
La IA había generado cuatro imágenes de soldados: una era blanca, una negra y dos eran mujeres de color, según el usuario de X llamado John L.
Lee también Google lanza Gemini 1.5 Pro, inteligencia artificial que puede procesar textos, vídeos y audios largos
¿Inteligencia artificial perpetúa prejuicios raciales?
Las empresas tecnológicas ven la inteligencia artificial como el futuro para todo, desde motores de búsqueda hasta cámaras de teléfonos inteligentes.
Pero los programas de IA, no solo los producidos por Google, han sido ampliamente criticados por perpetuar prejuicios raciales en sus resultados.
"@GoogleAI tiene un mecanismo de diversidad añadido que alguien no diseñó muy bien o no probó", escribió John L en X.
Las grandes empresas tecnológicas han sido acusadas a menudo de lanzar productos de IA antes de que se prueben adecuadamente; Google tiene un historial irregular en el lanzamiento de productos de IA.
La empresa ofreció disculpas hace un año después de que un anuncio de su chatbot Bard recién lanzado mostrara al programa respondiendo incorrectamente una pregunta básica sobre astronomía.
Lee también Alphabet, matriz de Google, ganó más de 73 mil mdd en 2023
mcc