Edición

Borrar
«No debemos confundir la guerra con un videojuego»

Mariarosaria Taddeo

Experta en Ética y Tecnologías de Defensa

«No debemos confundir la guerra con un videojuego»

No falta mucho para que los drones puedan seleccionar ellos mismos, sin intervención humana, quiénes son sus enemigos. ¿Debemos permitirlo? Hablamos con una experta, la profesora de Ética y Tecnologías de Defensa de Oxford y miembro del Consejo Asesor de Ética del Ministerio de Defensa británico.

Viernes, 03 de Octubre 2025, 11:50h

Tiempo de lectura: 1 min

XLSemanal. ¿Qué pasa cuando un piloto de drones controla misiones desde un ordenador lejos del frente?

Mariarosaria Taddeo. ¿Se refiere a cuando mata a un enemigo a kilómetros de distancia, desconecta de la pantalla tras el trabajo y luego recoge a los niños del cole? Eso crea una distancia emocional con la guerra y conduce a la matanza a sangre fría.

XL. Pues los ejércitos están reclutando a personas del mundo de los videojuegos para pilotar drones.

M.T. No debemos confundir la guerra con un videojuego. Cualquiera que pilote drones debe recibir entre-namiento militar. 

XL. Los drones siguen siendo pilotados mayori-tariamente por humanos, pero eso podría cambiar.  ¿Qué consecuencias éticas tendría?

M.T. Antes debemos señalar que no existe una definición universalmente aceptada de qué es un arma autónoma. Tampoco una regulación sobre cómo se utilizan.

«Cuando un piloto mata a través de una pantalla a miles de kilómetros, eso crea una distancia emocional que conduce a la matanza a sangre fría»

XL. ¿La Convención de Ginebra ya no sirve? 

M.T. Los principios del derecho internacional humanitario siguen siendo válidos, pero las normas derivadas de ellos deben desarrollarse. 

XL. Los que se oponen a las armas autónomas defienden que es inmoral dejar la decisión sobre la vida o la muerte en manos de la IA. Sus defensores, en cambio, creen que son más éticas porque carecen de deseo de venganza.

M.T. Es moralmente inaceptable dejar la decisión de matar personas en una máquina. Pero los argumentos de ambos bandos son perjudiciales.

XL. ¿Por qué?

M.T. Este discurso polarizado crea un vacío. Y es en ese vacío donde se están desplegando los sistemas autónomos. En lugar de discutir principios, debe-ríamos abordar los problemas concretos que implican estos sistemas.

XL. ¿Que son...?

M.T. La IA puede desarrollar y aplicar patrones en la toma de decisiones que no teníamos previstos. Imagine que las armas autónomas identifiquen obje-tivos que no estaban contemplados por los mandos militares. Como sociedad debemos decidir cuánta autonomía quere-mos otorgar a estos sistemas en la selección de objetivos y qué margen de error sería aceptable. ¿El 10 por ciento?

XL. ¿El 10 por ciento estaría bien?

M.T. No, pero como sociedad debemos aclararlo. Mencioné el 10 por ciento como ejemplo porque supuestamente esa es la tasa de error de los sistemas de IA que usa Israel en Gaza.

XL. ¿Qué especificaciones deberíamos establecer para las armas de IA?

M.T. Que el daño no debe superar el beneficio y debe minimizarse. Que nunca se debe atacar intencio-nalmente a no combatientes. Y que los procesos de toma de decisiones deben ser posteriormente rastreables para garantizar la rendición de cuentas.

XL. ¿Pero está bien permitir la selección automática de objetivos o no?

M.T. Es inaceptable permitir que una máquina tome esas decisiones, pero puede complementar el proceso de toma de decisiones humano.

XL. No sería mejor prohibir las armas de IA y ya está.

M.T. Absurdo. Se producirán y usarán en todo el mundo. 

XL. O que los ejércitos acordaran involucrar siempre a los humanos en la toma de decisiones.

M.T. Eso es política de fachada. El humano involucrado no tiene tiempo para comprender las decisiones rápidas de la máquina y, en su caso, detenerlas. El control real solo existe si a un humano se le otorgan amplios derechos de intervención para finalizar una acción en cualquier momento. La pregunta crucial es: ¿pueden los humanos desactivar estos sistemas si detectan errores? ¿Y hay suficiente personal capacitado para supervisar los sistemas? Necesitamos establecer normas ya.

XL. ¿Deberían las Naciones Unidas crear una convención de la IA? 

M.T. Las Naciones Unidas llevan trece años debatiendo sobre armas autónomas letales y no han llegado a ninguna parte. Sería fantástico que la UE liderara este debate, como lo ha hecho con la regulación de otras tecnologías digitales. Eso podría conducir a un acuerdo global. Nuestra sociedad necesita valores cuando debate cuestiones como el cambio climático. Y también los necesita en el caso de guerra. Pero hay un gran elefante en la habitación.

XL. ¿Cuál es? 

M.T. Podemos establecer tantas normas como queramos, pero serán irrelevantes si el derecho internacional humanitario no se cumple, como parece ser el caso en la actualidad. Si llegamos a eso, estaríamos echando a perder 80 años de historia y todas las lecciones de la Segunda Guerra Mundial.