La brecha entre voluntad legislativa y realidad técnica indica que no basta con hacer leyes bienintencionadas
La inclusión de soluciones basadas en inteligencia artificial (IA) en nuestra vida cotidiana está generando una tormenta social, plagada de temores —en su mayoría legítimos— a los que las instituciones públicas intentan dar respuesta desde la regulación. En su afán por proteger al ciudadano de los impactos más nocivos de ...
la IA, los reguladores públicos suelen pasar por alto un punto de partida fundamental: entendemos poco sobre la forma en que operan estas tecnologías. Tenemos límites cognitivos reales, muy serios, que nos lastran frente a la comprensión de los sistemas matemáticos hipercomplejos que caracterizan a la IA. Por ende, si no admitimos nuestras limitaciones y aceptamos que somos incapaces de comprender estas herramientas en su totalidad, vamos a seguir diseñando normativas que imponen exigencias inalcanzables y que son imposibles de aplicar de manera efectiva.
Esta es precisamente la situación en la que se encuentran marcos regulatorios pioneros —y muy ambiciosos— como la Ley de Inteligencia Artificial de la UE, el texto que establece las reglas del juego generales para los próximos años en el territorio comunitario. En España, la situación también se extiende a la Carta de Derechos Digitales, aprobada en 2021, en la que se incluyen epígrafes concretos sobre la regulación de la IA. En estos dos documentos, concebidos como brújula para futuras normativas, se incluye la “explicabilidad” como un requisito clave dentro de los derechos de los ciudadanos ante las respuestas que produce la IA.







