Anuncios
U.S. markets closed
  • F S&P 500

    5,124.00
    +41.75 (+0.82%)
     
  • F Dow Jones

    38,331.00
    +43.00 (+0.11%)
     
  • F Nasdaq

    17,771.75
    +204.25 (+1.16%)
     
  • E-mini Russell 2000 Index Futur

    1,988.90
    -4.30 (-0.22%)
     
  • Petróleo

    83.85
    +0.28 (+0.34%)
     
  • Oro

    2,347.60
    +5.10 (+0.22%)
     
  • Plata

    27.49
    +0.14 (+0.50%)
     
  • dólar/euro

    1.0728
    -0.0005 (-0.04%)
     
  • Bono a 10 años

    4.7060
    +0.0540 (+1.16%)
     
  • Volatilidad

    15.37
    -0.60 (-3.76%)
     
  • dólar/libra

    1.2505
    -0.0006 (-0.05%)
     
  • yen/dólar

    155.5990
    +0.0190 (+0.01%)
     
  • Bitcoin USD

    64,506.68
    +242.34 (+0.38%)
     
  • CMC Crypto 200

    1,392.42
    +9.85 (+0.71%)
     
  • FTSE 100

    8,078.86
    +38.48 (+0.48%)
     
  • Nikkei 225

    37,783.97
    +155.49 (+0.41%)
     

"Una inteligencia artificial 'rebelde' podría matar a todo el mundo", advierten los expertos

La IA es cada día más inteligente, más capaz y más transformadora del mundo. Pero a lo mejor eso no es bueno...

Cada vez más expertos avisan del peligro que puede conllevar una Inteligencia Artificial más inteligente que los humanos. Foto: Getty Images.
Cada vez más expertos avisan del peligro que puede conllevar una Inteligencia Artificial más inteligente que los humanos. Foto: Getty Images. (tampatra via Getty Images)

Un sistema de inteligencia artificial malintencionado podría matar a todo el mundo, por lo que esta tecnología debe regularse de forma similar a las armas nucleares. Investigadores de la Universidad de Oxford declararon ante la Comisión de Ciencia y Tecnología del Reino Unido que la IA podría llegar a suponer una "amenaza existencial" para la humanidad. Al igual que los humanos acabaron con el dodo, las máquinas podrían erradicarnos, afirmaron según recoge The New York Post.

Michael Cohen, estudiante de doctorado, asegura que "Con la IA sobrehumana existe un riesgo particular que es de una clase diferente, que es que... podría matar a todo el mundo". Un peligro, explicó, podría ser pedir a una IA que alcance un objetivo sin poner límites suficientes a las tácticas que utiliza.

Imaginemos entrenar a un perro con premios: aprenderá a elegir acciones que le lleven a conseguir golosinas, pero si el perro encuentra el armario de las golosinas, puede conseguirlas por sí mismo sin hacer lo que queríamos que hiciera.

PUBLICIDAD

"Si tuviéramos algo mucho más inteligente que nosotros tratando obsesivamente de obtener esta retroalimentación positiva, y se hubiera apoderado del mundo para conseguirlo, dirigiría toda la energía que pudiera a asegurar su dominio sobre ello, y eso nos dejaría sin energía para nosotros mismos", revela Cohen en declaraciones que recoge el mismo medio estadounidense.

El miedo es compartido

Muchos científicos que trabajan con IA parecen compartir preocupaciones similares. Una encuesta realizada en septiembre por un equipo de la Universidad de Nueva York reveló que un tercio de los 327 investigadores cree que la IA podría causar un desastre similar a un apocalipsis nuclear.

El 36% de ellos estaba de acuerdo en que era "plausible que las decisiones tomadas por la IA o los sistemas de aprendizaje automático puedan causar una catástrofe este siglo que sea al menos tan grave como una guerra nuclear total".

La carrera por crear la Inteligencia Artificial más potente está olvidándose de parámetros tan importantes como la seguridad. Foto: Getty Images.
La carrera por crear la Inteligencia Artificial más potente está olvidándose de parámetros tan importantes como la seguridad. Foto: Getty Images. (Colin Anderson Productions pty ltd via Getty Images)

Estos temores se repitieron ayer, cuando se informó a los diputados de que la industria mundial de la IA ya se ha convertido en una "carrera armamentística literal", con Estados rivales que se apresuran a desarrollar aplicaciones para uso militar y civil.

Michael Osborne, catedrático de Aprendizaje Automático de la Universidad de Oxford, afirmó en dicho estudio lo siguiente: "Creo que el escenario más sombrío es el de una guerra civil: "Creo que el sombrío escenario es realista porque la IA está intentando embotellar lo que hace especiales a los humanos; esa [cualidad] ha llevado a los humanos a cambiar por completo la faz de la Tierra".

"Si somos capaces de capturar eso en la tecnología, entonces, por supuesto, va a suponer tanto riesgo para nosotros como el que hemos supuesto para otras especies: el dodo es un ejemplo".

"Creo que estamos inmersos en una carrera armamentística masiva por la IA, geopolíticamente con EE.UU. frente a China, y entre las empresas tecnológicas parece existir esta voluntad de tirar la seguridad y la precaución por la ventana y correr lo más rápido posible hacia la IA más avanzada".

Y añadió: "Los sistemas artificiales podrían llegar a ser tan buenos en superarnos geopolíticamente como lo son en los entornos sencillos de los juegos". Aún así, añade lo siguiente: "Hay motivos para la esperanza, ya que hemos regulado bastante bien el uso de las armas nucleares. La IA es un peligro comparable a las armas nucleares".

Los expertos en IA temen cada vez más lo que están creando

En 2018, en el Foro Económico Mundial de Davos, el CEO de Google, Sundar Pichai, dijo algo: "La IA es probablemente lo más importante en lo que ha trabajado la humanidad. Pienso en ella como algo más profundo que la electricidad o el fuego". El comentario de Pichai fue recibido con una saludable dosis de escepticismo. Pero casi cinco años después, parece cada vez más acertado.

La traducción automática está tan avanzada que está a punto de eliminar las barreras lingüísticas en Internet entre los idiomas más hablados. Los profesores universitarios se rasgan las vestiduras porque los generadores de texto de IA pueden escribir redacciones tan bien como un estudiante universitario normal, lo que facilita hacer trampas que ningún detector de plagio puede detectar.

Las obras de arte generadas por IA están ganando incluso las ferias estatales. Una nueva herramienta llamada Copilot utiliza el aprendizaje automático para predecir y completar líneas de código informático, acercando un paso más la posibilidad de un sistema de inteligencia artificial capaz de escribirse a sí mismo.

Los sistemas que diseñamos son cada vez más potentes y generales, y muchas empresas tecnológicas han declarado explícitamente que su objetivo es la inteligencia artificial general (IAG), es decir, sistemas que puedan hacer todo lo que hace un ser humano. Pero crear algo más inteligente que nosotros, que puede ser capaz de engañarnos y confundirnos, y luego esperar que no quiera hacernos daño, es un plan terrible. Tenemos que diseñar sistemas cuyas interioridades comprendamos y cuyos objetivos seamos capaces de moldear para que sean seguros. Sin embargo, en la actualidad no entendemos los sistemas que estamos construyendo lo suficientemente bien como para saber si los hemos diseñado de forma segura antes de que sea demasiado tarde.

Hay personas trabajando en el desarrollo de técnicas para comprender los potentes sistemas de IA y garantizar que sea seguro trabajar con ellos, pero ahora mismo, el estado del campo de la seguridad está muy por detrás de la vertiginosa inversión en hacer que los sistemas de IA sean más potentes, más capaces... y más peligrosos.

Más noticias que te pueden interesar:

EN VIDEO | Así será la sociedad con el desarrollo de la inteligencia artificial