Los expertos apoyan el veto al reconocimiento facial en los espacios públicos

La decisión de la Comisión Europea de limitar el uso de sistemas de inteligencia artificial de alto riesgo (como identificación facial) la apoyaron los expertos. Quienes a su vez, alertan que aunque estas tecnologías pueden proporcionar beneficios, pueden atentar contra derechos de los ciudadanos.

Aunque el reglamento, aprobado el 21 de abril, no prohíbe directamente la vigilancia masiva de personas en tiempo real en lugares públicos, limita su uso a determinadas circunstancias (previamente autorizadas por un juez). Por ejemplo: buscar a un niño desaparecido, prevenir una amenaza terrorista específica e inminente o detectar, localizar, identificar o enjuiciar al sospechoso de un delito grave.

Por ende, Europa quiere permitir que se utilice el reconocimiento facial pero solo bajo orden judicial, nunca como rutina.

Para la directora de la Agencia Española de Protección de Datos, Mar España, el nuevo reglamento permitirá crear un «entorno tecnológico sostenible a largo plazo» con relación a la Inteligencia Artificial (IA).

«Con un desarrollo tecnológico armonizado, en particular con los derechos y libertades de las personas, tendremos más oportunidades de que la sociedad que estamos construyendo sea sostenible en todas las dimensiones, desde la social a la personal», explica España a Efe.

Una tecnología en desarrollo

La IA es una tecnología en pleno desarrollo que tiene sesgos y fallos importantes, además de ser muy intrusiva con la privacidad de las personas.

Por ello, permitir la videovigilancia con cámaras de reconocimiento facial en espacios públicos, puede vulnerar el derecho de las personas a la privacidad, según declaraciones (al medio EFE) de la experta en Ética y miembro del Observatorio de Inteligencia Artificial del Parlamento Europeo, Idoia Salazar.

De hecho, en algunos países, como China, usan esta tecnología «para vigilar y puntuar a sus ciudadanos en los semáforos y otros espacios públicos», y otros, como la Policía de Londres que utilizan la videovigilancia para combatir el crimen, recuerda Salazar.

Unión Europea y su empleo

En la Unión Europea el empleo de videovigilancia en lugares públicos, que incluye sistemas de tratamiento biométrico, está regulado por el Reglamento General de Protección de Datos. Pues su función es la de impedir el uso indiscriminado de los datos privados con fines lucrativos.

En España, cuando se aprobó la Ley de Seguridad Privada, la Agencia Española de Protección de Datos mostró su preocupación por la posibilidad de que permitiera usar reconocimiento facial; mientras que advirtió los riesgos que implicaba contra los derechos y libertades fundamentales.

Los errores cometidos por los sistemas biométricos podían tener «graves consecuencias» para una persona, según apuntó dicha Agencia.

Mediante un software informático, esta tecnología compara los rasgos faciales y la «actitud» corporal de una persona con una base de datos previamente programada, es decir, podría buscar nuestra imagen en una base de datos de delincuentes comunes. Si nos confunde, puede identificarnos como un criminal.

«El problema está en que esta tecnología aún no es perfecta y tiene sesgos que hay que controlar», lo que significa que una determinada alerta por parte del sistema de IA «puede ser real» o puede que se base en prejuicios (de raza o de clase, por ejemplo) adquiridos durante el entrenamiento del algoritmo, reconoce Salazar.

«Aún estamos aprendiendo el impacto que tienen estos algoritmos y, en ningún caso, deberíamos dejar a estos sistemas sin supervisión humana», advierte.

¿Una normativa suficiente?

Para la agencia española el enemigo no es la IA, que proporciona grandes beneficios, sino las malas praxis que pueden atentar contra los derechos y libertades o conducir a situaciones de abuso.

De momento, las empresas y organizaciones que usan estas tecnologías se están rigiendo por la normativa vigente y códigos de conducta y ética, pero hay determinadas cuestiones que deben de quedar «muy claras» (no solo sujetas a la ética) y ser reguladas con penas o multas: «Todas aquellas que puedan vulnerar, de una manera u otra, los derechos fundamentales», subraya Salazar.

Y ya que Europa perdió el tren para competir en desarrollo tecnológico de IA frente a los líderes actuales como China y Estados Unidos, es bueno que, a cambio, apueste por avanzar en este sector «de una manera ética y responsable, sin tanto impulso pero con más cabeza», razona la experta. 

Notiespartano/EFE

Compruebe también

Jarra de propinas: la función de Twitter para donar dinero a usuarios influyentes

La red social Twitter anunció este jueves la creación de un nuevo icono en el …