"Una computadora nunca puede ser considerada responsable." ~1979 IBM presentation

Desde que ChatGPT empezó a surgir como el referente de IA se incomodaron muchos en el mundo de la tecnología. Solo Huawei se había atrevido a tanto y vimos lo que pasó con un bloqueo a Android que lamentablemente nos dejó sin poder disfrutar los avances de Mate y P. La empresa más incómoda, incluso un poco señalada, fue Google de Alphabet por su importancia y trayectoria. Como siempre, Meta (antes Facebook) quería llamar la atención metiéndose también en esta historia, sin mucho éxito.

No es hasta principios de diciembre, tras la debacle del consejo de administración de OpenAI (propietaria de ChatGPT) que Google se siente cómoda, ya más bajo control de su narrativa de inteligencia artificial generativa. Es aquí que nos traen la Era Géminis (como le llamaron) con lo que no gastaron en dejarnos claro el avance, seriedad y enfoque que le pusieron. Muy al estilo Google, sintiéndose muy orgullosos de poder decir “hecho en casa”.

Pero falta mucho para la novela de la inteligencia artificial generativa. Ha sido un año en el que va demostrando la impresionante capacidad de aprendizaje exponencial mayor al de cualquiera otro visto entre generaciones de humanos en el pasado. Sin embargo, el #ruidoblanco alrededor de a qué intereses va a satisfacer y si es siquiera posible pensar en regular algo que “mejora” tan rápido está por ser visto.

Mientras tanto, regreso a esta afirmación con la que iniciaba el texto supuestamente de una presentación de 1979 (44 años atrás) en IBM: “Una computadora nunca puede ser considerada responsable. Por lo tanto, una computadora nunca debe tomar decisiones de gestión” misma que ha sido objeto de debate durante décadas, generando preocupaciones sobre los posibles peligros de la IA en los procesos de toma de decisiones.

Si bien la afirmación destaca el papel crucial de la responsabilidad humana en las decisiones de gestión, es importante considerar los matices del tema.

Argumentos a favor de la declaración:

Falta de marco legal o ético: Actualmente, no existe un marco legal o ético claro para responsabilizar a la IA por sus acciones. Esto dificulta asignar la responsabilidad de las decisiones tomadas por los sistemas de IA, especialmente cuando tienen consecuencias negativas.

Transparencia y contexto: Muchos sistemas de IA son complejos y opacos, lo que dificulta comprender cómo toman decisiones. Esta falta de transparencia puede socavar la confianza en la IA y dificultar los esfuerzos para responsabilizarla.

Potencial de sesgo y discriminación: Los algoritmos de IA pueden ser sesgados, lo que lleva a resultados injustos y discriminatorios. Esto es especialmente preocupante en el contexto de las decisiones de gestión, donde la IA podría usarse para tomar decisiones que afecten de manera desproporcionada a ciertos grupos de personas.

Argumentos en contra de la declaración:

Papel complementario de la IA: La inteligencia artificial puede ser una herramienta esencial para respaldar la toma de decisiones de forma efectiva al brindar información y análisis. En este escenario, la responsabilidad humana sigue siendo central, y la IA sirve como un recurso informativo.

Panorama cambiante de la IA: Los progresos en la inteligencia artificial, tales como la capacidad de explicar la IA y las estrategias responsables de desarrollo de la inteligencia artificial, están abordando las interrogantes concernientes a la responsabilidad y la transparencia. A medida que la tecnología de IA continúe evolucionando, puede ser posible crear sistemas de IA que puedan ser considerados responsables de sus acciones.

Limitaciones de la responsabilidad humana: Los humanos también cometen errores y no siempre se les responsabiliza por sus decisiones. Transferir la responsabilidad únicamente a los humanos puede no ser una solución sostenible.

La afirmación “Una computadora nunca puede ser considerada responsable. Por lo tanto, una computadora nunca debe tomar decisiones de gestión” es un tema complejo sin una respuesta fácil. Si bien las preocupaciones sobre la responsabilidad son válidas, es importante considerar los beneficios potenciales de la IA en la toma de decisiones. La finalidad radica en desarrollar la inteligencia artificial de forma responsable, con un enfoque en la transparencia, la explicación, contexto e ideación mesurada junto a la equidad, mientras se garantiza que la supervisión y la responsabilidad humanas siguen siendo fundamentales en el proceso.

La presencia de competidores como Grok, Claude, lo que salga de China y otros, complica aún más la cuestión de la responsabilidad. Cada IA opera con diferentes algoritmos y conjuntos de datos, lo que conduce a diversos procesos de toma de decisiones y resultados. Esta falta de estandarización y transparencia hace que sea difícil responsabilizar a cualquier IA por sus acciones, lo que podría conducir a una situación en la que los sistemas de IA operen en una zona gris

Foto: Especial
Foto: Especial

Nota: La opinión de Ricardo Blanco es personal y no refleja la del medio ni la de la empresa para la que trabaja.

ricardo [at]

Google News

TEMAS RELACIONADOS