Samsung prohibió el uso de herramientas de inteligencia artificial generativa como ChatGPT en sus redes internas y dispositivos propiedad de la empresa por temor a que cargar información confidencial en estas plataformas represente un riesgo de seguridad, según señaló el medio especializado Bloomberg.
Samsung informó a su personal, a través de un memorando, que se implementó una restricción temporal en el uso de herramientas generativas de inteligencia artificial, con el fin de crear un entorno seguro para su uso.
Leer también: Cómo escribir con letras de colores en WhatsApp
El chatbot ChatGPT de OpenAI se considera el mayor factor de riesgo, ya que se ha utilizado no solo para el entretenimiento, sino también para trabajos serios como resumir informes o escribir respuestas a correos electrónicos, lo que podría resultar en la exposición de información confidencial, a la que OpenAI podría tener acceso.
El uso de ChatGPT presenta diferentes riesgos de privacidad dependiendo del método de acceso al servicio. Si una empresa utiliza la API de ChatGPT, las conversaciones con el chatbot no son visibles para el equipo de soporte de OpenAI y no se utilizan para entrenar los modelos de la empresa.
Sin embargo, esto no es válido para el texto ingresado a través de la interfaz web general con su configuración predeterminada.
Según una pregunta frecuente en el sitio web de la compañía, OpenAI revisa las conversaciones de los usuarios con ChatGPT para mejorar sus sistemas y garantizar el cumplimiento de sus políticas y requisitos de seguridad. La empresa aconseja a los usuarios que no compartan información confidencial en sus conversaciones y señala que cualquier conversación también puede utilizarse para entrenar versiones futuras de ChatGPT.
Según informó el medio The Verge, la compañía ha implementado una función similar al "modo incógnito" de un navegador que no guarda los historiales de chat y evita que se utilicen para capacitación.
Es evidente que a Samsung le preocupa que sus empleados utilicen la herramienta de manera inadecuada y no se den cuenta del riesgo potencial para la seguridad.
Según informó Bloomberg, el memorando interno de la compañía indica que la sede está revisando las medidas de seguridad para crear un entorno seguro y permitir el uso seguro de la inteligencia artificial generativa con el fin de mejorar la productividad y eficiencia de los empleados.
Sin embargo, mientras estas medidas son preparadas, Samsung ha restringido temporalmente el uso de la inteligencia artificial generativa en las computadoras, teléfonos y tabletas de la empresa. Además, se ha pedido al personal que no cargue información comercial confidencial a través de sus máquinas personales.
“Le pedimos que se adhiera diligentemente a nuestra pauta de seguridad y, de no hacerlo, puede resultar en una violación o compromiso de la información de la compañía que resulte en una acción disciplinaria que puede incluir la terminación del empleo”, decía el memorando de Samsung. El gigante tecnológico de Corea del Sur confirmó la autenticidad del memorando a Bloomberg.
De acuerdo con Bloomberg, la prohibición de Samsung se debe a que parte de su personal filtró el código fuente interno al subirlo a ChatGPT.
La preocupación radica en el hecho de que cargar información confidencial de la empresa en servidores externos operados por proveedores de inteligencia artificial podría exponerla públicamente y limitar la capacidad de Samsung para eliminarla después del hecho.
Esta noticia surge poco más de un mes después de que ChatGPT experimentara un error que expuso temporalmente algunos historiales de chat y potencialmente información de pago a otros usuarios del servicio.
Leer también: Si abriste tu Facebook en estos años puedes pedir una indemnización
Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: https://www.eluniversal.com.mx/newsletters