¿Cómo crear inteligencia artificial de forma ética?

Opinión

La inteligencia artificial es entendida como un habilitador para que otras tecnologías y máquinas ganen autonomía (Archivo)

La inteligencia artificial es entendida como un habilitador para que otras tecnologías y máquinas ganen autonomía (Archivo)

Google decidió, después de una reacción violenta de los empleados durante este verano, que ya no quería ayudar a la inteligencia artificial (IA) de los militares de Estados Unidos para ayudar a analizar el metraje de los drones. Ahora, el ejército está invitando a compañías e investigadores de todo el país a involucrarse más en el aprendizaje automático. Las empresas deben aceptar la invitación.



La Agencia de Proyectos de Investigación Avanzada de Defensa del Departamento de Defensa (DARPA por sus siglas en inglés) de Estados Unidos invertirá USD 2 mil millones en inteligencia artificial durante los próximos cinco años, un aumento significativo para la oficina cuyo objetivo es promover la investigación innovadora. Este escenario sugiere que Estados Unidos se está preparando para impulsar una carrera armamentística contra China. Ofrece a las empresas no solo contribuir a la seguridad nacional sino también garantizar un futuro más ético para la inteligencia artificial.

Los contratos de DARPA se enfocarán en ayudar a las máquinas a operar en escenarios complejos del mundo real. También abordarán uno de los enigmas centrales de la inteligencia artificial: a algunos expertos les gusta hablar de la «explicabilidad». Se trata de la caja negra que contienen los algoritmos y las decisiones que se toman. Eso es lo suficientemente preocupante cuando se trata de vigilar las publicaciones en una plataforma de redes sociales, pero es mucho más aterrador cuando hay vidas en juego. Es más probable que los comandantes militares confíen en la inteligencia artificial si saben lo que está «pensando» y cuanto mejor comprendamos la tecnología, de forma más responsable podremos usarla.

Existe un fuerte imperativo para hacer que la IA sea lo mejor posible, ya sea para disuadir a otros países de utilizar sus propias capacidades de aprendizaje automático para apuntar a Estados Unidos, como para asegurar que Estados Unidos pueda contrarrestarlos eficazmente cuando lo hagan. Las tecnologías más inteligentes, como el reconocimiento mejorado de objetivos, pueden salvar vidas civiles, y permitir que las máquinas realicen algunas tareas en vez de que la hagan los humanos, y eso puede proteger a los miembros del equipo.

Pero el patriotismo no es la única razón por la que las empresas deberían querer participar. Saben mejor que la mayoría de los miembros del gobierno acerca del potencial que tienen estas tecnologías para ayudar y perjudicar, y pueden aprovechar ese conocimiento para maximizar el primero y minimizar el segundo. Los empleados, conscientes de en qué están trabajando sus compañías, pueden ejercer influencia sobre cómo se usan esas innovaciones y el público, por su parte, también puede intervenir.

Es probable que los contratistas de DARPA desarrollen productos con aplicaciones no letales, como automóviles autopropulsados mejorados para convoyes y programas de piloto automático para aeronaves. Pero los robots asesinos que tienen a muchas personas preocupadas no están fuera del ámbito de la posibilidad tecnológica. El futuro de la IA requerirá delinear principios que expliquen que lo que es posible puede diferir de lo que es correcto. Si las mejores mentes se niegan a contribuir, las peores sí lo harán.

Fuente: infobae.com