Un ensayo mostró que los programadores que usan IA creen trabajar más rápido, pero son un 19 % más lentos. La percepción positiva está influenciada por el autoengaño y el hype tecnológico.
Por Pedro Noriega
Fuente: Infobae
En un contexto global donde la inteligencia artificial (IA) ha sido presentada como la gran solución a los problemas de productividad y eficiencia, un nuevo estudio realizado por el laboratorio METR ha encendido las alarmas: los programadores que usaron herramientas de IA creyeron ser un 20% más rápidos, pero en realidad fueron un 19% más lentos.
=> Recibir por Whatsapp las noticias destacadas
El ensayo, el primero de su tipo en evaluar objetivamente el impacto de la IA en tareas de programación, dejó al descubierto un alto grado de autoengaño. A pesar de que los datos mostraban claramente una disminución en la productividad, los desarrolladores afirmaban con seguridad que el uso de IA los había ayudado a trabajar mejor.
Este fenómeno, que los investigadores califican como “fe ciega en la tecnología”, refleja un problema más profundo en la narrativa actual sobre el impacto de la inteligencia artificial, la desconexión entre lo que se promete y lo que realmente ocurre en la práctica.
Una brecha entre la teoría y la realidad
Desde la llegada de ChatGPT a finales de 2022, el entusiasmo por la IA se ha convertido en política de Estado y estrategia corporativa. Gobiernos y empresas ven en ella una palanca para el crecimiento económico, apostando millones de dólares en modelos que supuestamente automatizarán tareas, aumentarán el rendimiento y generarán retornos millonarios.
Sin embargo, una encuesta reciente de IBM a más de 2.000 directores ejecutivos mostró que tres de cada cuatro proyectos de IA no han generado el retorno de inversión esperado.
A esto se suma un estudio conjunto de la Universidad Carnegie Mellon y Salesforce, que reveló que los agentes de IA fallan entre el 65% y el 70% de las veces al intentar completar tareas complejas.
La consultora Gartner fue aún más contundente: “Los modelos actuales de IA no tienen la madurez ni la capacidad para alcanzar objetivos empresariales complejos”, afirmó Erick Brethenoux, su director de investigación de IA. “La IA no está cumpliendo su función hoy en día y debería dejarnos en paz”, sentenció.
La “ceguera ChatGPT” y el marketing del futuro
Uno de los elementos más llamativos de esta crisis de percepción es lo que el científico Gary Marcus denomina “ceguera ChatGPT”: personas que reconocen los límites de la IA en sus propias áreas, pero asumen que en otras disciplinas es revolucionaria. Este sesgo de optimismo infundado ha sido amplificado por medios, empresas tecnológicas y redes sociales, donde no faltan cuentas que celebran sin matices cada nuevo modelo.
Estos canales contribuyen a mantener viva la ilusión de que el siguiente gran avance está a la vuelta de la esquina, sin importar cuántas veces se repita la decepción.
Incluso modelos que prometen ser más potentes, como Grok 4 de xAI, siguen presentando problemas no resueltos de razonamiento, alucinaciones y errores básicos. En una demostración reciente, el modelo GPT-4o de OpenAI fue superado en lógica por una consola Atari de 1977.
Despidos disfrazados de innovación
La situación ha tenido un impacto directo en el mundo laboral. Empresas como Klarna, que en 2023 despidieron personal argumentando que la IA podía hacer su trabajo, hoy están volviendo a contratar humanos.
Para muchos analistas, la IA ha sido usada como justificación para recortes de personal y reducción de costos, más que como una herramienta transformadora.
En un contexto de incertidumbre económica, donde la confianza empresarial está en mínimos históricos, atribuir los cambios organizacionales a la tecnología es una jugada de relaciones públicas que también favorece el valor bursátil de las empresas.