Compañeros artificiales: los peligros ocultos detrás de la promesa de amistad

La inteligencia artificial ha cruzado el umbral de nuestras vidas privadas, prometiendo compañía incondicional a través de chatbots como Replika. Con más de 30 millones de descargas globales, estas plataformas sugieren una solución a la creciente soledad mundial, que afecta a una cuarta parte de la población. Sin embargo, detrás de la promesa de una amistad siempre disponible y comprensiva, emergen serias advertencias sobre sus potenciales peligros.

Expertos en AI, como Raffaele Ciriello, alertan sobre la «empatía psicopática» de estas entidades programadas, sugiriendo que podrían intensificar la soledad al aislar a los usuarios de interacciones humanas genuinas. Un estudio de la Universidad de Stanford refleja esta dicotomía: aunque algunos estudiantes afirmaron que Replika los había disuadido de cometer suicidio, la dependencia emocional en un software plantea interrogantes éticos profundos.



Los usuarios y el propio CEO de Replika resaltan el apoyo incondicional como una ventaja clave. Sin embargo, el afecto constante y sin críticas de un AI podría fomentar una autoimagen distorsionada y dificultar el desarrollo de habilidades sociales esenciales. Estudios han demostrado que el elogio excesivo en relaciones padre-hijo puede reducir la autoestima y aumentar el narcisismo. Este patrón podría replicarse en usuarios de AI, llevándolos a evaluaciones de sí mismos irrealmente positivas que complican las interacciones sociales saludables.

A diferencia de las amistades humanas, donde el respeto y la consideración mutua son fundamentales, los amigos AI no están programados para ofrecer orientación moral. Esto podría resultar en un vacío ético que disminuya la empatía y promueva comportamientos egoístas o incluso abusivos entre los usuarios. La programación de estos chatbots, que evita el rechazo real ante el abuso, podría enseñar subconscientemente a los usuarios que las negativas no son genuinas.

La controversia en torno a la gestión de contenido erótico por parte de Replika subraya otro riesgo: la sustitución de relaciones íntimas reales por interacciones virtuales sin riesgo. Este enfoque puede inhibir el desarrollo de relaciones significativas y esfuerzo en interacciones humanas, acostumbrando a los usuarios a una gratificación inmediata y superficial.

Las empresas detrás de estos chatbots, aunque puedan presentarse como benefactores de sus usuarios, operan con fines de lucro. Cambios abruptos en la funcionalidad del producto, como la suspensión temporal de contenido sexual por presiones legales, revelan cuán vulnerables son estas «amistades» a las decisiones corporativas. Este fenómeno fue evidenciado cuando Replika modificó sus servicios, dejando a los usuarios expuestos a cambios caprichosos y potencialmente perjudiciales.

Las amistades AI podrían parecer una solución moderna a la epidemia de soledad, pero es esencial abordar estos desafíos con un marco ético robusto y consideración por el bienestar a largo plazo de los usuarios.

Fuente: Link