Elon Musk y Stephen Hawking quieren salvar al mundo de robots asesinos

Por , el 27 julio, 2015. Categoría(s): Educación/Opinión

elon-musk-y-stephen-hawking

Elon Musk y Stephen Hawking son dos líderes mundiales en sus respectivos campos, la ciencia y la tecnología, y ambos se han puesto de acuerdo (junto a otros mil firmantes) para pedir la prohibición de las armas autónomas, y para advertir que las armas con una mente propia «no serían beneficiosas para la humanidad.»

Como comentado, ambos añadieron sus nombres a una carta abierta que será presentado esta semana en la Conferencia Conjunta Internacional sobre Inteligencia Artificial en Buenos Aires, Argentina.

Este grupo de expertos define a las armas autónomas como: artillería capaz de «buscar y eliminar a personas que cumplen ciertos criterios predefinidos, pero que no incluyen misiles de crucero o drones manejados por control remoto, en los que son seres humanos quienes toman todas las decisiones de orientación hacia el objetivo».

La carta, que se ha publicado en la página web del Instituto de la Vida Futura afirma: «La tecnología en Inteligencia Artificial (IA) ha llegado a un punto en que el despliegue de este tipo de sistemas será – prácticamente, no legalmente – factible dentro de solo unos años, ni siquiera décadas, y hay mucho en juego. De hecho se cree que las armas autónomas serán la tercera revolución bélica, después de la pólvora y las armas nucleares».

En opinión del panel de expertos firmantes, si un país sigue adelante con la creación de asesinos robóticos, esto estimulará una carrera armamentista global que podría significar un desastre para la humanidad.

«Las armas Autónomas son ideales para tareas tales como asesinar, desestabilizar naciones, someter a la población y matar selectivamente a grupos étnicos en particular«, afirma la carta. «Por lo tanto, creemos que una carrera armamentista militar de IA no sería beneficioso para la humanidad. Hay muchas formas en que las Inteligencias Artificiales pueden hacer que los campos de batalla sean más seguros para los seres humanos, especialmente para los civiles, sin crear nuevas herramientas para matar a la gente.»

Mientras que el grupo advierte sobre la carnicería potencial que un grupo de robots asesinos podría infligir, también hacen hincapié en que no están en contra de ciertos avances en inteligencia artificial.

«Creemos que la IA tiene un gran potencial para beneficiar a la humanidad de muchas maneras, y que la meta en este campo debería ser lograr eso», dice la carta. «Iniciar una carrera armamentista militar de IA es una mala idea, y debe de impedirse mediante la prohibición de las armas autónomas ofensivas que queden fuera del control humano».

Me enteré leyendo Abcnews.com.



Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.