Una agencia de la UE determina que la normativa comunitaria no protege suficientemente a la ciudadanía y que la industria no sabe cómo analizar los riesgos de sus aplicaciones

Los mecanismos de control impuestos por Bruselas a las herramientas de inteligencia artificial (IA) no son suficientes para garantizar que respeten los derechos fundamentales. Así lo cree la Agencia de la UE para los Derechos Fundamentales (FRA), que ha analizado la incidencia de la IA en cinco áreas consideradas de alto riesgo: asilo, educación, laboral, aplicación de la ley y beneficios sociales.

El informe que publica este jueves el FRA supone un revés para la Comisión, que hace tan solo dos semanas concedió a las tecnológicas 16 meses adicionales para que puedan adaptar sus herramientas de IA de “alto riesgo” a la normativa europea. Para esta agencia independiente de la UE, la normativa europea no tiene bien resuelto cómo abordar los sistemas de alto riesgo. Es más: las propias empresas que los desarrollaron tampoco saben cómo prevenir su posible vulneración de derechos fundamentales.

Los casos revisados incluyen el uso de IA en solicitudes de empleo; más concretamente, en herramientas que filtran y ponderan currículos. También analizan mecanismos automáticos para determinar si alguien puede o no recibir una ayuda por discapacidad, así como herramientas de vigilancia de exámenes o de medición de la capacidad lectora de los niños. “Estos sistemas deben de ser confiables, en tanto que pueden moldear decisiones importantes que afectan a la vida diaria de la gente”, señala el informe.