La responsable legal de la organización advierte de la “devastación generalizada e indiscriminada” que pueden traer consigo las aplicaciones militares de esta tecnología
El uso de sistemas de inteligencia artificial (IA) en las guerras es una realidad. Mientras que sus promotores las venden esta tecnología como un método para aumentar la precisión de los ataques y reducir su letalidad, la realidad es más bien la contraria. “Si analizamos los conflictos armados
-se-lanzan-al-negocio-de-la-guerra-asi-se-militariza-silicon-valley.html" target="_self" rel="" title="https://elpais.com/tecnologia/2025-07-21/las-grandes-tecnologicas-se-lanzan-al-negocio-de-la-guerra-asi-se-militariza-silicon-valley.html" data-link-track-dtm="">más tecnológicamente sofisticados de la actualidad, no hemos visto que la población civil salga mejor parada, sino más bien una devastación generalizada e indiscriminada”, dijo el mes pasado Cordula Droege, responsable legal del Comité Internacional de la Cruz Roja (CICR), ante el Consejo de Seguridad de Naciones Unidas.
Esta jurista alemana de 52 años habló allí de las tres aplicaciones de IA en el ámbito militar que, desde el punto de vista de su organización, plantean “riesgos significativos”: los sistemas de armas autónomas, como los drones no pilotados por control remoto; los programas de apoyo en la toma de decisiones militares y las capacidades cibernéticas. Cerró su intervención pidiendo la prohibición y restricción de los sistemas de armas autónomas, una empresa que reconoce complicada, dada la carrera armamentística en torno a la IA. “Ya lo hemos conseguido antes con las armas químicas o biológicas”, cuenta a EL PAÍS por videoconferencia desde la sede central del CICR, en Ginebra.






