Investigadores están desarrollando método para enseñar nociones de justicia a la IA

Aunque se puede llegar a un acuerdo sobre una definición de la justicia como palabra, en lo concreto, su aplicación concreta puede ser objeto de análisis más profundos.

Así como la definición de lo que es justo o no puede ser un verdadero dilema para las personas, para la inteligencia artificial también es un desafío, el cual busca facilitarse gracias a una nueva iniciativa surgida en la Universidad Estatal de Michigan.



Clases de imparcialidad para algoritmos de IA

Considerando que los sistemas de inteligencia artificial están cada vez más presentes en actividades y servicios del día a día, es necesario dotar de la imparcialidad suficiente a las plataformas involucradas en la decisión de quién recibe la atención médica adecuada, quién es elegible para un préstamo bancario o a quién se le asigna un trabajo.

Con fondos de Amazon y la National Science Foundation, Pang-Ning Tan, investigador y profesor del Departamento de Ciencias de la Computación e Ingeniería de la citada casa de estudios norteamericana, dedicó el último año al entrenamiento de algoritmos de inteligencia artificial, para ayudarlos a discernir entre la justicia e injusticia de sus propios actos.

«Estamos tratando de diseñar sistemas de IA que no son solo para ciencias de la computación, sino que también aportan valor y beneficios a la sociedad. Así que empecé a pensar en cuáles son las áreas que realmente son desafiantes para la sociedad en este momento», señaló el investigador sobre los fundamentos de su iniciativa.

Este proyecto plantea la necesidad de desarrollar iniciativas con un impacto directo en sus usuarios. Desarrollando este mismo punto, Tan comentó también que «la equidad es un tema muy grande, especialmente a medida que nos volvemos más dependientes de la IA para las necesidades cotidianas, como la atención médica, pero también cosas que parecen mundanas, como el filtrado de spam o poner historias en su sección de noticias.»

Aún tratándose de sistemas automatizados, los algoritmos de IA pueden transmitir ciertos sesgos heredados desde los datos usados en su entrenamiento o incluso, transmitidos directamente por sus creadores. Por ejemplo, según un sondeo realizado por el mismo equipo de investigación de Tan, hay casos de sistemas de IA que discriminan racialmente al momento de gestionar una atención médica y de segregación sexual contra mujeres en sistemas de solicitud de empleo.

Sobre esta realidad, Abdol-Hossein Esfahanian, miembro del equipo de investigación de Tan, comentó que «los algoritmos son creados por personas y la gente normalmente tiene sesgos, por lo que esos sesgos se filtran (…) queremos tener justicia en todas partes, y queremos tener una mejor comprensión de cómo evaluarla»

Con el apoyo de teorías provenientes desde las ciencias sociales, Tan y su equipo buscan aproximarse a la noción más universal de equidad posible. Para cumplir con este fin, los principios de justicia transmitidos al algoritmo no provendrán de una visión única, planteándole como desafío decidir entre posturas contrapuestas o contradictorias.

«Estamos tratando de hacer que la IA sea consciente de la justicia y para hacer eso, tienes que decirle lo que es justo. Pero, ¿cómo diseñas una medida de equidad que sea aceptable para todos?», señaló Tan, agregando que «estamos viendo cómo afecta una decisión no sólo a las personas, sino también a sus comunidades y círculos sociales».

El trabajo es ambicioso y a pesar de los avances, está recién comenzando. «Esta es una investigación muy continua. Hay muchos problemas y desafíos. ¿Cómo se define la equidad? ¿Cómo puedes ayudar a las personas a confiar en estos sistemas que usamos todos los días?», reflexionó Tan, agregando que «nuestro trabajo como investigadores es encontrar soluciones a estos problemas».

El reporte completo de esta investigación puede consultarse en el sitio de la Universidad Estatal de Michigan.

Fuente: Link