Estafadores y extorsionistas siempre están a la vanguardia, con lo último de la tecnología e inventando modalidades para hacer caer a sus víctimas. Desde la falsa encomienda, los falsos servicios o el "tío, tío, me capturaron", los delincuentes se aprovechan de la buena fe de las personas y hoy, hasta de la tecnología, en este caso la inteligencia artificial.
La inteligencia artificial ha permitido avances muy importantes pero paralelo a ellos, los delincuentes han sabido utilizar esta herramienta para sofisticarse en estafas y modalidades de hurto.
De acuerdo con la Policía Nacional, enviar mensajes de voz a través de redes sociales abre una "posibilidad" a que ese mensaje salga de la esfera de la persona a quien va dirigido y llegue a terceros que puedan hacer mal uso del mismo.
Lee también: Qué es el inquietante “modo abuela” de ChatGPT
"Las plataformas sociales son accesibles a personas con conocimientos en tecnología y hackers que aprovechan la información que se publica - fotos, historias, videos, mensajes de voz - para hacer lo que llamamos ingeniería o perfilamiento social", dijo a El Tiempo un oficial de telemática.
Con la entrada a la vida cotidiana de la inteligencia artificial se abre un nuevo espacio y es que se copie la voz de un ser humano.
Lee también: ¿Llegó demasiado lejos? Influencer se hace pasar por Ibai Llanos y Leo Messi con ayuda de la IA
"Copiar y lograr reproducir el tono de voz de una persona no es tan fácil y para lograrlo se necesitan varios espacios para obtener los vibratos y modismos que marcan el tono", dijo el oficial, quien añadió que la inteligencia artificial necesita varias horas de grabación para aproximar una voz.
Pero, señaló que con el tiempo y los avances de la tecnología el proceso será más fácil. "Hoy clonan la voz de una persona grabando las llamadas telefónicas, el decir sí abre un sinnúmero de posibilidades a compras con tarjeta. Queda la aprobación", explicó.
El funcionario señaló que se debe tener mucho "cuidado" con la información que se pública en redes y frente a la posibilidad de clonar la voz dio las siguientes recomendaciones.
El oficial afirmó que hasta el momento en Colombia no se han recibido denuncias de este tipo, que la voz haya sido clonada para aprobar compras u otro tipo de situaciones.
Pero afirmó, que es importante no enviar mensajes de voz por redes abiertas - en especial de mensajería por plataforma - ya que los hackers pueden acceder fácilmente a ellas.
A lo que se suma, que los mensajes de voz solo se deben enviar a personas conocidas.
"Evitar que tengan una duración larga, porque así la inteligencia artificial (a futuro) tendría un espectro más amplio para obtener tonos y medir las emociones que marcan cada tono", puntualizó.
* El Grupo de Diarios América (GDA), al cual pertenece EL UNIVERSAL, es una red de medios líderes fundada en 1991, que promueve los valores democráticos, la prensa independiente y la libertad de expresión en América Latina a través del periodismo de calidad para nuestras audiencias.
Suscríbete aquí para recibir directo en tu correo nuestras newsletters sobre noticias del día, opinión, planes para el fin de semana y muchas opciones más.
vare