Más Información
Sheinbaum presenta el Plan México; “el objetivo es seguir haciendo de México el mejor país del mundo”, dice
No habrá conteos rápidos para elección judicial; resultados se darán hasta contabilizar todos los votos
Reforma al Infonavit va, pero con modificaciones: Monreal; inician mesas de trabajo a partir del 14 de enero
Detienen a 5 generadores de violencia en Sinaloa; García Harfuch destaca rescate de dos personas privadas de su libertad
Detienen a indocumentado en Los Ángeles, señalado de intentar causar un incendio; medios dicen que es mexicano
INE aprueba micrositio para conocer candidatos de elección judicial; serán los responsables de cargar su propia información
Gobierno construirá 20 nuevos planteles de bachillerato y ampliará 30 más; usarán secundarias sin turno vespertino
Esteban Moctezuma confirma invitación a toma de posesión de Trump; se convocó a todo el cuerpo diplomático, afirma
Washington. La plataforma de videos YouTube se vio este jueves inundada de cuentas falsas en las que ciberdelincuentes utilizaban una voz con rasgos muy similares a la de Elon Musk, dueño de SpaceX, para pedir donaciones en criptomonedas supuestamente destinadas a hacer "accesibles a todos" los viajes espaciales en el futuro.
Según la web Popular Science, se registró un aumento notable de estos videos engañosos en la popular plataforma de videos aprovechando el exitoso despegue desde Boca Chica, en Texas, de Starship, la gigantesca y potente nave de SpaceX que aspira a alcanzar el espacio exterior.
En uno de esos videos que retransmitía en directo el lanzamiento, se escuchaba una voz que imitaba la de Musk haciendo una sorpresiva aparición en Boca Chica para instar al público presente y a los espectadores en internet a participar en un supuesto programa de donaciones con criptomonedas.
Esa voz afirmaba que la iniciativa buscaba "democratizar" la exploración espacial y prometía duplicar las inversiones en bitcoin a aquellos que participaran en dicho programa de donaciones.
Todo ello era una burda estafa. Sin embargo, aún no se ha determinado si el audio era una clonación vocal con inteligencia artificial o una simple imitación humana.
YouTube no se ha pronunciado al respecto, pese a que ha sido objeto de críticas anteriormente por albergar contenido falso o engañoso, y por las dificultades de los usuarios para distinguir fuentes legítimas de potenciales fraudes como este.
Lee también: Hackers usan "amor falso" para estafar con criptomonedas a mujeres en EU
mgm