El reconocimiento facial, utilizado en sistemas de seguridad, tanto pública como privada, se alimenta con gran cantidad de imágenes. Foto: Shutterstock.
Por Javier Valls Prieto / The Conversation | El Economista | Sábado 06 de Enero de 2024 - 20:30
El primer acuerdo en el mundo para una ley que regule la inteligencia artificial se alcanzó en Europa. Al ser pionera, podría tener influencia en otras regulaciones internacionales, como ha ocurrido con el Reglamento General de Protección de Datos. Por eso está en el punto central de la mira. El proyecto de ley se ha desarrollado en torno a los riesgos que puede generar. En el nivel más alto están los considerados «riesgos inadmisibles».
Aunque habrá que esperar al texto final, de momento el acuerdo diferencia tres tipos de riesgo: riesgo inadmisible, cuando considera que su uso compromete seriamente los derechos de la persona; riesgo alto, si afecta a los derechos fundamentales pero se puede entender su uso en ciertos contextos; y riesgo leve.
Prohibido clasificar por creencias, raza o identidad sexual
¿Qué le parecería que, en el proceso de selección para un puesto de trabajo, le descartaran como candidato porque un sistema de IA ha identificado su tendencia sexual y a su potencial jefe eso le disgusta? Podrían hacerlo sin ni siquiera convocarle para la entrevista, sin conocerle.
Se trata de uno de los llamados «riesgos inadmisibles» derivados del uso de la inteligencia artificial. Se basa en la categorización biométrica que tiene el potencial de detectar la ideología política, creencias religiosas o filosóficas y también la raza y la orientación sexual.
El reconocimiento facial, utilizado en sistemas de seguridad pública y privada, se alimenta con gran cantidad de imágenes. Éstas se pueden recolectar de internet o de la ingente cantidad de cámaras de videovigilancia que existen en lugares públicos. Es el caso de la aplicación ClearviewAI, un software de reconocimiento facial que suministra su producto a gobiernos y agencias policiales para la detección de personas. Pues bien, esa forma de recolección de imágenes automatizada va a ser prohibida.
¿Por qué? Primero por la intromisión en la privacidad, pero también porque tienen un gran margen de error al identificar a la persona. Si se admite en juicios, por ejemplo, no tendría sentido usar un sistema que falla para identificar a sujetos en procesos que pueden derivar en sanciones penales. Además, ese sistema permite controlar a las personas en los espacios públicos.
También se prohíben los sistemas de reconocimiento de emociones que controlan a los individuos todo el tiempo en el ámbito educativo o laboral para evitar, entre otras temas, que se duerman, pierdan la concentración o muestren apatía. También aquí la ley habla de «riesgo inadmisible».
Vigilancia en el trabajo
Cuando se han implantado en entornos laborales, los trabajadores han descrito experimentar una incomodidad extrema al sentirse vigilados todo el tiempo. Pero el problema va más allá de la incomodidad: las empresas podrían imponer medidas cuando detectan esas emociones para aumentar la productividad del trabajador si no rinde como se espera. Es más, una mala noche puede ser suficiente para que un sistema de esas características alerte de nuestra “baja productividad”.
Sin duda, puede tener sentido usar el reconocimiento facial y el control de las emociones con un fin claramente positivo para la sociedad, como evitar que una persona se quede dormida conduciendo un coche y provoque un accidente. Lo polémico es que se permita utilizar estas tecnologías con fines como el control de la inmigración o como justificación de la actuación policial.
Comportamiento controlado
No hace mucho tiempo, el gobierno neerlandés decidió echar mano de un sistema de inteligencia artificial para organizar un reparto de ayudas sociales entre los más desfavorecidos ¿Cuál era el problema? Que discriminaba a inmigrantes y personas negras, dos grupos vulnerables que se vieron excluidos en la obtención de esas ayudas. Tan graves fueron las consecuencias que el ministro que implementó el sistema tuvo que dimitir al poco tiempo.
En China han ido aún más lejos. El gobierno ha establecido un sistema de puntos para evaluar a sus ciudadanos. Obtener una baja evaluación puede acarrear restricciones para viajar, o impedir el acceso a un crédito bancario o a un empleo.
Para evitar esas consecuencias, la nueva regulación propone abolir los usos dedicados a explotar vulnerabilidades de las personas como la edad, la discapacidad o el nivel social y económico.
Otro modelo no permitido son los sistemas de inteligencia que manipulan el comportamiento humano para constreñir su albedrío. Son sistemas que se emplean, por ejemplo, para hacer que los usuarios se enganchen más tiempo a las redes sociales, para fomentar que se compren determinados productos o para evitar que las personas tomen ciertas decisiones con libertad.
Los usos policiales no se prohíben, pero se consideran de alto riesgo
Sin embargo, la ley no prohíbe que las fuerzas y cuerpos de seguridad recurran a sistemas de identificación biométrica en espacios abiertos al público con fines policiales. En estos casos, se requiere autorización judicial para poder usarlos y sólo pueden utilizarse por un tiempo y espacio limitado.
Supuestos usos de alto riesto
Búsqueda de víctimas concretas, por ejemplo, en secuestros, tráfico y explotación sexual.
Prevención de amenazas específicas y actuales de terrorismo.
Localización o identificación de una persona que haya cometido un delito grave de terrorismo, tráfico y explotación sexual, asesinato, secuestro, violación, robo con armas, participación en un grupo organizado y delitos medioambientales.
El escepticismo de determinados grupos ante esas aplicaciones es comprensible si se toma en cuenta el gran número de falsos positivos que se dan en identificación facial en vivo. Si a eso le le añade la cantidad de delitos recogidos en el tercer punto, casi parece que se da luz verde en general a cualquier uso en investigaciones policiales.
El esfuerzo que han hecho los Estados para evitar que se prohíba la IA en investigaciones policiales ha sido más que notable. Quizás para esos usos en materia penal se debería articular una legislación concreta, como ocurre con el uso de datos personales.
Sea como fuere, podemos considerar el acuerdo como un gran éxito, porque los derechos fundamentales siguen considerados obligado por cumplimiento. Y los ciudadanos, independientes del que su uso esté prohibido o no, podrán recurrir a los tribunales cuando se sientan desprotegidos. The Conversation
Javier Valls Prieto, Prof. en Derecho Penal especializado en regulación ética y jurídica de la inteligencia artificial y la robótica, Universidad de Granada, España.
Este artículo fue publicado originalmente en The Conversation. Lea el original.
Fuente: El Economista
Comentarios