El CEO de OpenAI advirtió que la confidencialidad que rige a los profesionales no aplica en IA, dejando a usuarios sin protección jurídica si sus datos se solicitan por vía judicial.
Por Santiago Neira
Fuente: Infobae
=> Recibir por Whatsapp las noticias destacadas
La inteligencia artificial se ha insertado de manera profunda en la vida digital. ChatGPT, la solución desarrollada por OpenAI, ha superado el umbral de la curiosidad inicial para posicionarse como una herramienta de uso cotidiano. Actualmente, los usuarios recurren a este sistema no solo para redactar correos electrónicos, diseñar presentaciones o responder mensajes, también como fuente de información especializada.
La versatilidad y capacidad de ChatGPT lo han transformado en una especie de navaja suiza digital. Cada vez resulta más común utilizarlo para consultar temas sensibles que, en otros contextos, se reservarían para un experto profesional.
Sam Altman indicó que no hay total privacidad en los mensajes con ChatGPT
Sin embargo, esta integración en el día a día implica riesgos poco visibles. El pasado 23 de julio, el CEO de OpenAI, Sam Altman, lanzó una advertencia clave durante su participación en el pódcast “This Past Weekend”.
Altman expuso que muchas personas están utilizando ChatGPT para obtener orientación sobre cuestiones jurídicas, terapéuticas y médicas, convencidas de que el canal es privado y seguro. Pero la realidad legal va por otro camino.
El principal peligro, según Altman, radica en la falta de protección confidencial. Los médicos, psicólogos o abogados están sujetos a leyes específicas que preservan la privacidad de sus clientes o pacientes. Estas normativas generan una barrera infranqueable para que lo compartido en esos ámbitos pueda ser usado en procesos judiciales sin autorización expresa.
Por el contrario, las conversaciones mantenidas con ChatGPT no cuentan en la actualidad con ningún privilegio de secreto profesional. Altman explicó que, si un usuario comparte datos sensibles con ChatGPT y posteriormente se presenta una demanda judicial, OpenAI podría verse en la obligación de entregar esa información como parte del proceso legal.
Las transcripciones de conversaciones mantenidas a través de la inteligencia artificial podrían ser requeridas y aceptadas como prueba documental en un procedimiento legal, dependiendo del marco normativo vigente.
Qué piensa el CEO de OpenAI sobre la privacidad de ChatGPT
Para Altman, sería deseable aplicar el mismo principio de privacidad que rige en los entornos de atención profesional. La confidencialidad en ámbitos médicos, legales o psicológicos aparece como una protección fundamental al usuario y a la relación de confianza con el profesional.
Sin embargo, reconoce que todavía no existen mecanismos legales que brinden esa cobertura dentro del entorno digital gestionado por sistemas de inteligencia artificial.
El directivo asegura haber tenido ya conversaciones con responsables políticos interesados en reducir esa brecha, pero aún no se han dado pasos decisivos.
Actualmente, la vulnerabilidad radica en varios factores. Por un lado, la integración de la inteligencia artificial en asuntos sensibles no había sido ampliamente considerada por legisladores y reguladores, por lo que el vacío normativo expone los datos de los usuarios. Por otro, la facilidad con la que cualquier persona puede compartir detalles personales con IA sin comprender plenamente las implicancias legales de esa acción.
El crecimiento de ChatGPT como plataforma para la consulta cotidiana multiplica la urgencia de abordar estas cuestiones. A medida que más personas confían en la herramienta para gestionar dilemas personales, médicos y legales, el riesgo de que esa información termine expuesta en un procedimiento judicial aumenta.
La conclusión, tanto para expertos en privacidad digital como para usuarios es que hasta la ley avance y garantice una protección efectiva, conviene ser prudente con la información sensible que se comparte con sistemas de inteligencia artificial.
La advertencia de Sam Altman no busca ralentizar la adopción de la IA, sino subrayar la necesidad de adaptar las reglas del juego digital a la realidad del siglo XXI. La privacidad es un derecho fundamental, pero en el ámbito de la inteligencia artificial aún queda camino por recorrer para blindarla frente a nuevas amenazas y escenarios inéditos