La IA puede replicar tu personalidad con 85 % de precisión


¿Y si una IA pudiera pensar exactamente como tú? Más de mil personas ya tienen su gemelo digital tras solo dos horas de conversación.

Los investigadores de Stanford y DeepMind lograron replicar personalidades humanas mediante entrevistas de dos horas con inteligencia artificial.Imagen: Melpomene/Dreamstime/IMAGO

Fuente: DW

 



La ciencia de crear tu doble digital parece haber alcanzado un nuevo hito. Y es que investigadores de Google DeepMind y la Universidad de Stanford han logrado replicar la personalidad de más de mil personas con una precisión sorprendente del 85 %, utilizando solo dos horas de conversación con cada participante.

En el experimento, dirigido por el estudiante de doctorado de Stanford Joon Sung Park, en el que participaron 1.052 personas de diversos perfiles demográficos en Estados Unidos, se realizaron entrevistas a los participantes mediante un sistema de inteligencia artificial diseñado para «encarnar» las actitudes y la personalidad de cada individuo.

=> Recibir por Whatsapp las noticias destacadas

Según MIT Technology Review, cada voluntario recibió hasta 100 dólares por participar en la entrevista, donde una voz amable les guiaba a través de temas que iban desde su infancia hasta sus opiniones sobre política.

La clave del éxito del experimento, descrito en un artículo publicado el 15 de noviembre en la base de datos arXiv, reside en la metodología. En lugar de utilizar simples encuestas o datos demográficos, los investigadores optaron por entrevistas cualitativas que les permitieron captar matices personales únicos.

«Podemos crear un agente de una persona —réplica de IA— que capte muchas de sus complejidades y su naturaleza idiosincrásica», explicó Joon Sung Park a New Scientist.

Verificación de resultados: IA que replica con precisión

Para verificar la precisión de estas réplicas digitales, los investigadores sometieron tanto a los participantes como a sus dobles virtuales a una serie de pruebas dos semanas más tarde.

Un detalle revelador surgió cuando los humanos repitieron las mismas pruebas: solo coincidieron con sus respuestas originales en un 81 % de los casos, lo que demuestra que las personas varían en sus propias respuestas con el tiempo.

Por su parte, teniendo en cuenta esta variabilidad natural, los agentes de IA alcanzaron una precisión efectiva del 85 %, y lo que es más significativo, superaron por 14 puntos porcentuales a los modelos de predicción demográficos tradicionales que se han utilizado hasta ahora.

Park, quien compartió con MIT Technology Review sus impresiones, llegó a esta metodología de entrevistas tras su propia experiencia en podcasts. «Después de una entrevista de dos horas, me sentía como, vaya, ahora la gente sabe mucho sobre mí», explicó.

Los gemelos digitales demostraron una precisión del 85 % en la replicación de respuestas humanas durante las pruebas de verificación.
Los gemelos digitales demostraron una precisión del 85 % en la replicación de respuestas humanas durante las pruebas de verificación.Imagen: Nexusplex/Dreamstime/IMAGO 

 

Un laboratorio virtual para las ciencias sociales

El objetivo principal de esta tecnología no es crear dobles digitales por diversión, sino facilitar la investigación en ciencias sociales. Los investigadores proponen utilizar estos agentes para evaluar políticas públicas, estudiar respuestas a productos nuevos o analizar reacciones ante eventos sociales significativos, que serían demasiado costosos o éticamente complejos de estudiar con personas reales.

Sin embargo, el estudio también reconoce limitaciones importantes. Los agentes de IA mostraron menor precisión en situaciones que requerían toma de decisiones económicas o que involucraban dinámicas sociales complejas. Además, los investigadores han sido claros sobre los riesgos potenciales de esta tecnología, particularmente en cuanto a su posible uso indebido para suplantar identidades o manipular a otros en línea.

Para proteger a los participantes, el equipo estableció salvaguardas éticas. Según explicó Park a New Scientist, cualquier participante puede retirar sus datos del estudio o restringir el acceso a su «gemelo digital», y el uso de estos agentes está limitado estrictamente a fines académicos.


×