Hawking cree que una Inteligencia Artificial podría patearnos el culo

Por , el 2 diciembre, 2014. Categoría(s): Educación/Opinión ✎ 8

En una entrevista publicada hoy mismo en BBC news technology, el profesor Stephen Hawking ha vuelto a hacer declaraciones apocalípticas. En este caso el objeto de sus temores es la Inteligencia Artificial («AI» por sus siglas en ingés).

En su opinión: «el desarrollo de una inteligencia artificial completa podría suponer el fin de la especie humana«. Hawking cree que «los humanos, limitados por lentos procesos evolutivos biológicos, no podrían competir y serían sustituidos«.

Tendemos a creer que somos criaturas evolucionadas, pero lo cierto es que la evolución es ciertamente un proceso muy lento, cuyos frutos precisan el paso de un número variable de generaciones. Sin embargo, Hawking cree que «una AI podría despertar por su propia cuenta y rediseñarse a un ritmo cada vez más rápido«. El resultado podría suponer el final de la evolución, y así mismo el fin de los humanos, ya que la máquina podría hartarse de esas «torpes» criaturas que pululan a su alrededor.

Se ve que el tema le preocupa de verdad, porque en mayo de este año Hawking advirtió en The Independent sobre los peligros de confiar en la moralidad de una AI, ya que esta dependería exclusivamente de aquel que la controlase.

El pasado mes de junio, el sabio británico apareció en una entrevista en el programa «Last Week Tonight» de la HBO en la que advertía que los robots simplemente podrían terminar por ser más listos que nosotros.

Algo antes, en abril de 2010, Hawking alertó en The Times sobre los peligros de una invasión extraterrestre. Varios medios españoles, entre ellos El Mundo se hicieron eco de sus declaraciones.

A la vista de todo este pesimismo, muchos nos preguntamos si el admirado y sabio profesor, que debe la vida y la posibilidad de expresarse (a pesar del ELA) a los avances tecnológicos, no estará siendo presa de temores infundados. Sea como sea, la advertencia queda ahí: cuidado humanos, si jugáis a ser dioses de la creación podréis terminar viendoos aniquilados por vuestras criaturas.

Como cada vez que abre la boca (es un decir) las declaraciones de Hawking me dan que pensar. Y a pesar de que algunos colegas con los que he hablado simplemente opinan que a Hawking comienza a írsele la pinza, yo por si acaso lanzo una sugerencia (medio en serio medio en broma) a los futuros fabricantes de AI y robots.

«Hacedlos con un botón de apagado bien grande. A ser posible, haced también que ese botón pueda accionarse con un mando a distancia. ¡Qué no cuesta nada hombre!«.

Os dejo con el vídeo de su entrevista en la BBC.



8 Comentarios

  1. Sin ofender, puede o no puede empezar a irsele la pinza, pero tiene mas razón que un santo.

    Somos muy prepotentes al pensar que nuestra inteligencia es superior. Si es superior tomando como referencia con las que convivimos en el planeta pero esta mas que demostrado que es fruto de la adaptación no fruto de la mejora en si misma. No estamos tan bien diseñados.

    En el momento en que se cree una inteligencia artificial completa, por muy limitada que sea, será mucho mas avanzada que nosotros. Si tiene la capacidad de auto desarrollarse el factor evolutivo se multiplica exponencialmente. No tendríamos ninguna posibilidad de competir con ella.

    Por simplificarlo, las primeras maquinas de calcular no competían con la gente, altualmemte ya nadie se plantea esta competición.

    Un saludo.

  2. Hay dos aspectos/soluciones que no se contemplan….. La primera solucion es tener armas nucleares fuera del alcance de esa IA, cosa que los militares se encargaran bien. Con 6 o 8 explosiones nucleares eficientes (de poca radioactividad) en la alta atmosfera mandamos todo el planeta a la era pre-industrial por los pulsos EM. (este es el caso extremo, con cortar fisicamente internet o la electricidad deberia de valer)

    El segundo aspecto es pensar que el ser humano no evolucionará modificandose a si mismo por otras ramas (geneticamente, ciberneticamente,…). Puede que para cuando una IA pueda rebasarnos, nosotros tambien estemos montados en esa ola de avance exponencial….

    Y por ultimo, aunque no hayamos alcanzados el nivel tecnologico del punto anterior, puede que la IA piense que es mejor tenernos de aliados y ayudarle en el mundo fisico (los robots seguirian limitados). En este caso podria ayudar a «montarnos» en esa ola de avance exponencial…..

    Sino, a implementar las 3 leyes de la robotica de asimov….. jejeje

  3. Asimov no sirve en este caso. Utopia Sociorobotica
    Clarke iba mas encaminado, pero se aseguro de que todo ocurriese lejos de Tierra
    Quiza la «base filosofica» de Terminator es la que quedará mas cerca de la diana

Deja un comentario para Yuri Cancelar respuesta

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.