Por falta de rigor científico, Microsoft Azure retira su sistema de reconocimiento de emociones

Microsoft anunció la gradual remoción del acceso público a una serie de herramientas de análisis facial impulsadas por inteligencia artificial de su plataforma Azure, incluida una con la que aseguraban identificar la emoción de una persona a partir de vídeos e imágenes.

Tales herramientas de «reconocimiento de emociones» han sido criticadas por expertos. Más allá del hecho de que las expresiones faciales consideradas como “universales” difieren entre las diferentes poblaciones, al responder a factores culturales; sobre esta propuesta se critica además que no responde a criterios científicos el ejercicio de equiparar las manifestaciones externas de emoción con los sentimientos internos.



Microsoft retirará polémica herramienta de reconocimiento facial que «identifica emociones» mediante inteligencia artificial

Microsoft limitará el acceso a algunas funciones de sus servicios de reconocimiento facial (denominados como Azure Face) y eliminará otras por completo, en concordancia con los Estándares de IA Responsable actualizados de la compañía, que ponen énfasis en la responsabilidad para averiguar quién usa sus servicios y en una mayor supervisión humana sobre dónde se aplican estas herramientas.

Las políticas de ética de IA de Microsoft fueron puestas en marcha en 2019 y esta medida en concreto, responde a una revisión más amplia de su aplicación.

Bajo las nuevas reglas impuestas, los usuarios deberán solicitar el uso de Azure Face para la identificación facial, por ejemplo, señalando a Microsoft exactamente cómo y dónde implementarán sus sistemas. 

Junto con remover del acceso público su herramienta de reconocimiento de emociones, Microsoft también retirará la capacidad de Azure Face para identificar «atributos como género, edad, sonrisa, vello facial, cabello y maquillaje». Herramientas que se excluyen de la categoría aludida, con un potencial menos dañino, como el desenfoque automático de rostros en imágenes y videos, permanecerán disponibles abiertamente.

Natasha Crampton, directora responsable de IA en Microsoft, comentó en el blog de la compañía cómo se gestó esta determinación. “Expertos dentro y fuera de la empresa han resaltado la falta de consenso científico sobre la definición de ‘emociones’, los desafíos en cómo las inferencias se generalizan entre casos de uso, regiones y datos demográficos, y la mayor preocupación por la privacidad en torno a este tipo de capacidad”, escribió. 

Si bien, el enfoque con el que fue presentado inicialmente este recurso fue lo que despertó los reparos de la comunidad científica, la utilidad práctica de este recurso puede seguir siendo aprovechada bajo otros contextos. Por ejemplo, la aplicación llamada Seeing AI, también de Microsoft, utiliza estas funciones de “visión artificial” para describir elementos del entorno a personas con discapacidad visual.

Sarah Bird, gerente principal de productos del grupo de Microsoft para Azure AI, señaló que herramientas como el reconocimiento de emociones «pueden ser valiosas cuando se usan para un conjunto de escenarios de accesibilidad controlada». Si bien, la ejecutiva reconoce que “es fácil imaginar cómo podría usarse para hacerse pasar por oradores de manera inapropiada y engañar a los oyentes», también enfatiza que este recurso «tiene un potencial emocionante en educación, accesibilidad y entretenimiento».

La aplicación de las restricciones anunciadas ya aplica para los nuevos clientes de Azure, mientras que a los usuarios existentes se les revocará el acceso el 30 de junio de 2023.

Fuente: Link