La Inteligencia Artificial (IA) está revolucionando varias tareas diarias que se tenían hasta ahora. Aunque en su mayoría ha beneficiado actividades laborales, lo cierto es que también tiene su lado oscuro y presenta otras dificultades para el ser humano. Tal es el caso de las videollamadas de fraude que últimamente son una constante en temas de ciberseguridad.
El machine learning es una rama de la Inteligencia Artificial en la cual se busca, a través de la recopilación de datos, el procesamiento de información para que la máquina la analice y pueda aprender de ella. Su desarrollo tiene fines positivos, pero los ciberdelincuentes están encontrando cómo usarla para cometer estafas.
Y es que si bien la IA es utilizada en el sector empresarial, legal, logístico, educativo, entre otros, con la finalidad de automatizar procesos, reducir tiempos y aminorar el margen de error humano, la implementación de nuevas herramientas tecnológicas también está dando espacio a nuevas modalidades de fraude, muchas de ellas tan modernas y precisas que son mucho más difíciles de detectar.
Así, el aprendizaje continuo, y en ocasiones acelerado de la Inteligencia Artificial, propició que los delincuentes vieran beneficio en ella, no solo haciendo actos fraudulentos, sino volviéndose unos expertos en el tema.
Leer también: Yahoo estuvo cerca de comprar Netflix
Aunque parezca difícil de creer, la próxima vez que respondas a una videollamada de un conocido puede ser que no estés hablando realmente con esa persona, sino con una máquina, no importa si ves su imagen y escuchas su voz, una Inteligencia Artificial podría estar detrás.
No todos saben que la IA permite replicar voces reales. Actúa a través de un ejemplo auditivo que quiere imitar, buscando en algoritmos tonos similares para detectar patrones y encontrar los más parecidos a la voz original. Una vez logrado, la tecnología crea una nueva voz y con ella, la ejecución de frases breves sin mucha complejidad.
En el caso de la imagen, el proceso es similar. Luego de una recopilación de imágenes reales puede formular una representación muy precisa de la apariencia real de una persona.
A partir de ambos casos, ejemplos de fraudes con videollamadas ya han sido documentados en diversos países. Uno de ellos fue el de un empresario chino que resultó estafado por una suma aproximada de 600 mil dólares pues confió en que la persona con la que se comunicaba era real.
Ante ese tipo de situaciones, China, al ser un país de vanguardia en tecnología, lanzó recientemente una ley para regular el uso de la IA.
En el caso de México, se implementó una ley de Regulación Ética de la Inteligencia Artificial, la cual busca poner un lineamiento más claro sobre esta tecnología para evitar su utilización indebida.
Para aminorar las posibilidades de caer en un fraude por videollamada, algunas recomendaciones a seguir son:
Es necesario implementar leyes para regular el uso de IA y concientizar a la población respecto a su alcance y poder hacer uso apropiado de estas nuevas tecnologías.
Leer también: Expertos señalan que la IA representa un riesgo de “extinción” para la humanidad
Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: https://www.eluniversal.com.mx/newsletters