Hoy en día, la inteligencia artificial va camino de convertirse en una herramienta omnipresente en el ámbito laboral, en todo tipo de tareas… incluyendo (dada la importancia del trabajo remoto), la supervisión automatizada de los trabajadores. Sin embargo, investigaciones recientes de la Universidad de Cornell sugieren que el uso de la IA para supervisar el comportamiento y la productividad de los empleados puede traducirse en inesperadas consecuencias adversas para las compañías que apuesten por ello.
Los sistemas de supervisión basados en IA suelen estar diseñados para monitorizar una amplia gama de actividades, desde la interacción con clientes hasta el cumplimiento de tareas diarias. Estas herramientas, que pueden analizar expresiones faciales, tono de voz y comunicaciones escritas, pretenden asegurar que los empleados mantengan altos niveles de productividad.
=> Recibir por Whatsapp las noticias destacadas
No obstante, los hallazgos de los investigadores de Cornell indican que este tipo de supervisión puede generar resistencia y disminución del rendimiento entre los empleados, así como hacer que sean más proclives a presentar su renuncia.
La resistencia contra la IA (y no, no la lidera John Connor)
El estudio, titulado «Algorithmic Versus Human Surveillance Leads to Lower Perceptions of Autonomy and Increased Resistance», revela que los empleados sienten una mayor pérdida de autonomía cuando son supervisados por IA en comparación con la supervisión humana. Esta percepción de pérdida de control de su propio tiempo de trabajo se traduce en una serie de comportamientos de resistencia (quejas) y una disminución en el rendimiento.
En uno de los experimentos del estudio, se pidió a los participantes que generaran ideas para un parque temático mientras eran supervisados por un asistente de investigación humano o por un sistema de IA. Aquellos supervisados por IA no solo criticaron más la vigilancia, sino que también produjeron menos ideas, evidenciando un impacto negativo en su creatividad y desempeño.
La supervisión algorítmica ya ha provocado reacciones negativas en varios contextos. En 2020, un banco de inversión abandonó rápidamente un programa piloto que monitorizaba la actividad de los empleados, incluyendo alertas por tomar demasiados descansos. Durante la pandemia, la vigilancia en exámenes virtuales también generó protestas: numerosos estudiantes dijeron estar preocupados porque se interpretasen erróneamente sus movimientos como trampas.
La importancia de cambiar el enfoque
A pesar de los desafíos, la investigación sugiere que es posible mitigar estos efectos negativos… si se cambia el enfoque de la supervisión algorítmica. Cuando los participantes fueron informados de que la IA se usaría para proporcionar retroalimentación (en lugar de para ‘juzgar’), no dieron a entender que percibieran una pérdida significativa de autonomía ni que les generase un aumento en la intención de renunciar.
Emily Zitek, coautora del estudio, afirma:
«Cuando la inteligencia artificial y otras tecnologías avanzadas se implementan con fines de desarrollo, a las personas les gusta aprender de ellas y mejorar su desempeño. El problema surge cuando sienten que se está realizando una evaluación automática directamente desde los datos, sin poder contextualizarla de ninguna manera.»
Resumiendo: la supervisión algorítmica es una espada de doble filo en la que, mientras se promete eficiencia y objetividad, una implementación sin la adecuada consideración de los aspectos humanos puede resultar contraproducente.
Imagen | Marcos Merino mediante IA
Fuente: Link