www.onemagazine.es
Inteligencia artificial en conflictos armados: la ONU quiere una legislación más dura sobre los robots en combate
(Foto: eliax)

Inteligencia artificial en conflictos armados: la ONU quiere una legislación más dura sobre los robots en combate

Los estados miembro han acordado debatir nuevas regulaciones internacionales para las armas con sistemas autónomos.

Los países miembros de la ONU quieren debatir una posible prohibición de los conocidos como 'robots asesinos' en la intervención de conflictos armados. Human Rights Watch, así como numerosos países, incluso China, temen que el desarrollo de armas que no necesiten intervención humana se vaya de las manos.

Los 'robots asesinos', armas con completa autonomía, crean numerosas dudas sobre su desarrollo y el cumplimiento de los estándares internacionales de derechos humanos. Human Rights Watch, creador de la campaña 'Stop Killer Robots', asegura que supondrían una amenaza para el derecho fundamental a la vida y la dignidad humana.

Tras la convección sobre armas convencionales en Ginebra la semana pasada, los 123 países acordaron centrar esfuerzos en combatir los retos que plantean estos sistemas de armamento que podrían atacar objetivos sin ningún control humano. También aseguraron estar dispuestos a negociar regulaciones internacionales sobre armas incendiarias, utilizadas en exceso en Siria.

¿Se saltan la primera regla de la robótica?

No hay tiempo que perder. Steve Goose, de Human Rights Watch, pide que los miembros se den prisa y busquen soluciones cuanto antes. "Hay que actuar antes de qeu terminen de estar desarrollados del todo. Sólo así podremos pararlos," insistió.

Tanques como el ruso Uran-9, que solo necesita a los humanos para que aprieten el gatillo remotamente, son claros ejemplos de lo que podría llegar si otras armas autónomas terminaran haciendose realidad. ¿Cómo decidirían quién vive y quién no? ¿Y si se equivocan de objetivo?

China, que aplaude la inteligencia artificial tanto para la vida diaria como para conflictos armados, también ha insistido en la necesidad de encontrar nuevos controles sobre las armas autónomas.

La primera regla de la robótica es que ningún robot debe dañar a un ser humano o dejar que un ser humano sufra daño sin hacer nada. Sin embargo, el sector ya se ha saltado el manual de Asimov: diseñar inteligencias artificiales con la intención de causar el mayor daño o destrucción posible.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)


Normas de uso

Esta es la opinión de los internautas, no de Desarrollo Editmaker

No está permitido verter comentarios contrarios a la ley o injuriantes.

La dirección de email solicitada en ningún caso será utilizada con fines comerciales.

Tu dirección de email no será publicada.

Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.