El desarrollo de los asistentes virtuales observa una estrecha relación con el desarrollo de la inteligencia artificial (IA).
Los asistentes virtuales son agentes de software que ayudan a los usuarios de sistemas computacionales; automatizan y realizan tareas con la mínima interacción hombre-máquina.
El principio básico es el siguiente: las personas se comunican con el asistente virtual a través de la voz. El asistente virtual procesa, interpreta y responde.
La primera computadora capaz de realizar operaciones de reconocimiento de voz fue la IBM Shoebox, desarrollada en 1961 por William C. Dersch en el Laboratorio de la División de Desarrollo de Sistemas Avanzados de la empresa.
La IBM Shoebox, además de realizar determinadas operaciones matemáticas, era capaz de reconocer hasta16 palabras habladas, incluidos los dígitos del 0 al 9.
El desarrollo de los asistentes personales formalmente arrancó a partir de un proyecto de inteligencia militar artificial del gobierno de Estados Unidos, llamado CALO ―Cognitive Assistant that Learns and Organizes―; asistente cognitivo que aprende y organiza, en español.
CALO se desprendió de la iniciativa PAL (Personal Assistant that Learns) de DARPA y fue dirigido por SRI International (Stanford Research Institute), organismo creado en 1946.
PAL respondió al propósito de impulsar “el uso de sistemas cognitivos que trabajan junto a los humanos, al aprender de la experiencia y aplicar la lógica y la razón a las órdenes de los operadores humanos”.
En el desarrollo de CALO participaron más de 300 investigadores de 22 instituciones de primer nivel, como la Universidad Carnegie Mellon, la Universidad de Massachusetts y el Instituto para la Cognición Humana y Artificial. El proyecto dio inicio en 2003 y se extendió durante los cinco años siguientes.
CALO demostró ser capaz de organizar y gestionar la información, definir tareas, programar y organizar tareas en el tiempo, preparar productos de información, adquirir y asignar recursos, y observar y mediar en las interacciones.
En la década de los 90 irrumpieron los chatterbots o agentes conversacionales, asistentes virtuales presentes en algunas páginas web, los cuales simulaban mantener una conversación con el usuario, al responder a determinadas peticiones de información de forma automatizada.
Uno de los científicos que participaron en CALO, Adam Cheyer, formó un equipo dedicado a la creación de Siri, cuyo lanzamiento oficial se registró el 14 de octubre de 2011.
Tres años después fueron lanzados otros asistentes virtuales: Cortana (Microsoft), 2 de abril de 2014; Alexa (Amazon), noviembre de 2014, y Google Assistant (Google), el 18 de mayo de 2016.
El formidable desarrollo de la inteligencia artificial generativa incidió directamente en la revolución de los asistentes virtuales.
En noviembre de 2023, Bill Gates, en su blog Gates Notes, destacó la importancia de los asistentes virtuales personalizados, los cuales reemplazarán a los simples bots.
Los agentes de IA personalizados ―señaló Gates― “no se limitarán a aplicaciones específicas, sino que tendrán la capacidad de comunicarse de manera natural. Al obtener los permisos necesarios, entenderán profundamente a los usuarios, permitiéndoles tomar decisiones basadas en sus preferencias individuales”.
Los agentes de IA impondrán profundos cambios en la educación, la salud, los servicios, el entretenimiento, las compras y, en general, la productividad de las personas. Gates considera que los agentes de IA se convertirán en compañeros versátiles en áreas fundamentales en nuestras vidas.
Esta semana Emily Mullin refirió en Wired como Mark, un hombre de 64 años con esclerosis lateral amiotrófica (ELA), puede controlar un asistente virtual ―Amazon Alexa― con la mente. Los asistentes virtuales observan un rol muy importante en la industria de la neurotecnología.
En agosto de 2023, en el marco de un ensayo clínico, Mark recibió una interfaz cerebro-ordenador (BCI) fabricada por la empresa Synchron.
“Con la BCI, Mark ya podía manejar un iPhone, una iPad y un ordenador con el pensamiento para navegar por internet o redactar correos electrónicos. Con la integración de Amazon, puede controlar a Alexa con una tableta Fire para encender y apagar las luces de su casa, ver la televisión, hacer videollamadas, reproducir música, controlar su cámara de seguridad Ring, leer libros en Kindle y comprar en Amazon”.
BCI podrían representar un auténtico parteaguas en la vida de millones de personas con capacidades diferentes y movilidad reducida
Synchron ―destaca Mullin― está desarrollando una BCI que descodifica señales cerebrales para permitir a las personas con parálisis la capacidad de controlar dispositivos digitales solo con sus pensamientos. El lunes, la empresa anunció que su BCI ya se puede utilizar con Alexa sin necesidad de voz o interacción física con una pantalla táctil. Synchron dice que Mark es la primera persona en usar Alexa con un BCI implantado”.
Synchron además “ha conectado la BCI de Mark al ChatGPT de OpenAI y las Vision Pro de Apple, un casco de realidad mixta. Lanzado a principios de este año, Vision Pro requiere gestos de la mano para seleccionar artículos. Tras la integración de Synchron, Mark pudo utilizar sus pensamientos para controlar el cursor del Vision Pro y jugar al solitario, ver Apple TV y enviar mensajes de texto. Además de Mark, uno de los participantes en la prueba de Synchron en Australia también utiliza ahora estas aplicaciones”.
Synchron es una de varias empresas, como Neuralink, de Elon Musk, que aspiran a comercializar ICB.
El martes 17 de septiembre, Musk, entusiasta promotor y propagandista de Donald Trump, dio a conocer que un chip desarrollado por Neuralink, su empresa de neurotecnología especializada en el desarrollo de interfaces cerebro-computadora, “permitirá que los ciegos de nacimiento puedan ver”.
Mediante un aparato denominado Blindsight, Musk asegura que permitirá ver incluso a quienes hayan perdido los dos ojos y el nervio óptico.
Los beneficios que podría reportar la neurotecnología a millones de personas con capacidades diferentes y movilidad reducida son impresionantes. Sin embargo, debemos tener muy presente que en Estados Unidos el sector militar aporta gran parte del financiamiento a las principales empresas del sector, y los resultados que espera de la neurotecnología de ninguna manera se limitan a los beneficios que ésta reporta a personas con capacidades diferentes y movilidad reducida.
Las aplicaciones de la neurotecnología en el imaginario militar seguramente resultarán muy preocupantes.