Elon Musk quiere prohibir ‘robots asesinos’ con inteligencia artificial

(Clipset) – Una carta abierta escrita por 116 especialistas en diferentes campos de la ciencia y la informática, pide a la ONU que se pongan límites a las empresas de todo el mundo para evitar que se construyan robots con inteligencia artificial que puedan acabar en los campos de batalla.

La carta está liderada por Elon Musk, CEO de SpaceX y Tesla, y Mustafa Suleyman, jefe de la división de inteligencia artificial de Google.

La ONU ha decidido hace poco empezar a un debate formal acerca del uso e las armas de nueva generación, que incluyen drones, tanques y armas automatizadas. Pero el grupo de expertos y expertas, quiere que la ONU incluya la inteligencia artificial en esta lista de armas, ya que su uso podría causar más problemas que soluciones en el caso de que un bando de un conflicto lo use.

“Una vez desarrolladas, armas letales autónomas permitirían que los conflictos armados se libren a una escala mayor, y a intervalos de tiempo mayores que los humanos podrían. Éstas podrían ser armas de terror, armas que los déspotas y terroristas usan contra poblaciones inocentes y armas para comportarse de manera indeseada”, comentan los expertos en la carta a la ONU.

“No tenemos mucho tiempo de actuación. Una vez se abra la caja de Pandora, será difícil cerrarla.”

El problema de las armas que usen inteligencia artificial es que no disponen de los mismos reflejos y estándares que las humanos, con una capacidad para decidir que existe un problema mayor al atacar a un enemigo por los daños colaterales, que atacarlos pese a lo que se lleve por delante.

Aunque en un futuro los robots y drones podrían luchar las guerras venideras, existe un problema generalizado con la inteligencia artificial y su uso en armas de guerra. ¿Veremos armas que usan la IA para mejorar su puntería o no dañar a personas inocentes o estructuras? Sí. ¿Veremos robots capaces de tomar la decisión de cuando disparar a una persona o tomar una decisión de vida-muerte? A día de hoy, los sistemas de IA están a años luz de ser capaces de tomar una decisión como esta.

De la misma forma que las leyes de la robótica de Asimov no funcionan, las reglas que se impongan a la inteligencia artificial tampoco lo harán mientras exista un mercado que lo demande. Como indica el profesor Toby Walsh de la Universidad de Nueva Gales del Sur, “Casi todas las tecnologías pueden utilizarse para el bien y el mal, la inteligencia artificial no es diferente. […] Sim embargo, la misma tecnología también puede utilizarse en armas autónomas para industrializar la guerra”.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

w

Conectando a %s