El Consejo de Estado (máxima instancia judicial) acaba de validar el sistema informático de ayuda a la decisión DataJust, que permite a los tribunales establecer las indemnizaciones a las que tienen derecho las víctimas de daños personales. Las asociaciones de defensa de las libertades fundamentales denuncian el uso de datos personales sin el consentimiento previo de los litigantes.
Por Dominique Desaunay
El objetivo del programa DataJust es ayudar a los jueces a evaluar, por ejemplo, la cuantía de la indemnización a la que tienen derecho las víctimas de agresiones físicas o accidentes de tráfico. La puesta en marcha de este experimento, que se anunció por decreto el 27 de marzo de 2020, «tiene como objetivo desarrollar un algoritmo, encargado de extraer y explotar automáticamente los datos contenidos en las resoluciones judiciales relativas a las indemnizaciones por daños personales», tal y como indica el Ministerio de Justicia en su página web.
=> Recibir por Whatsapp las noticias destacadas
Para «entrenarse» este sistema, que se basa en programas de inteligencia artificial, recurre a un archivo que contiene miles de datos sensibles. Esto incluye los nombres de las víctimas, así como información relacionada con las posibles lesiones, la experiencia médica, pero también su situación profesional o financiera. Aunque la mayor parte de esta información se ha hecho anónima, algunos datos identificativos, como la fecha de nacimiento o los posibles vínculos familiares entre las víctimas y sus parientes, son claramente visibles en la base de datos.
Asociaciones de defensa de las libertades fundamentales protestan
Según varios abogados, este método de tratamiento informático contraviene el RGPD, el sistema europeo de protección de datos personales y la Ley de Protección de Datos. Las asociaciones hicieron la misma observación. «Con este experimento de justicia algorítmica, el Estado se desprende de las leyes que protegen los datos personales y la privacidad», afirma Bastien Le Querrec, abogado y miembro del grupo de litigios de la Quadrature du Net, una asociación que defiende las libertades fundamentales en los entornos digitales.
«Esta metodología, que consiste en aplicar una etiqueta experimental para autorizar la extracción de aún más información personal, nos perturba. Cada vez, decimos que es experimental, no te preocupes, comprobaremos si el resultado propuesto por el algoritmo es proporcional, cuando en realidad estamos jugando al aprendiz de brujo. Esta creencia de que un algoritmo puede tomar mejores decisiones que un ser humano se está generalizando, lo vemos en el sector policial, ahora en el sector de la justicia, en el control social en los sistemas de la Caisse d’allocations familiales (caja de subsidios familiares)… vemos que estos algoritmos interfieren cada vez más en la vida cotidiana de los ciudadanos y esto es realmente una elección de sociedad. En la Quadrature du Net, intentamos luchar contra los sesgos que generan estos programas automáticos, porque la tecnología a veces puede dar lugar a abusos, como ocurre hoy con el sistema DataJust», lamenta Bastien Le Querrec.
El algoritmo DataJust validado por el más alto tribunal
El Consejo de Estado, al que se remitió la Quadrature du Net, afirma en sus conclusiones que, al tratarse de un proyecto de interés público, no es necesario el consentimiento de las personas del fichero para el tratamiento de sus datos personales. El sistema DataJust, cuya eficacia aún no ha sido revelada, debería estar operativo a finales de marzo de 2022, según el Ministerio de Justicia.
Fuente:Radio Francia Internacional