La declaración de una frase manifestó: “Mitigar el riesgo de extinción a causa de la inteligencia artificial debería ser una prioridad global junto a otros riesgos que impactan a toda la sociedad, tales como las pandemias y la guerra nuclear”.
La carta fue la más reciente de una serie de advertencias siniestras sobre la inteligencia artificial que han sido, de manera notable, escasas en detalles. Los sistemas de inteligencia artificial actuales no pueden destruir a la humanidad. Algunos de ellos apenas pueden sumar y restar. Así que, ¿por qué están tan preocupadas las personas que más saben sobre inteligencia artificial?
El escenario atemorizante.
Los profetas de la industria tecnológica afirman que, algún día, las compañías, los gobiernos o los investigadores independientes podrían desplegar sistemas de inteligencia artificial poderosos para manejar todo, desde negocios hasta la guerra. Esos sistemas podrían hacer cosas que no queremos que hagan. Además, si los humanos intentaran interferir o apagarlos, podrían resistirse o incluso replicarse a sí mismos para poder seguir operando.
Yoshua Bengio, un profesor e investigador de inteligencia artificial en la Universidad de Montreal, comentó: “Los sistemas actuales no están ni cerca de representar un riesgo existencial. Pero… ¿en uno, dos o cinco años? Hay mucha incertidumbre. Ese es el tema. No estamos seguros de que esto no pasará de un punto en el que las cosas se vuelvan catastróficas”.
Quienes están preocupados a menudo usan una metáfora sencilla. Aseguran que, si le pides a una máquina que cree tantos sujetapapeles como le sea posible, podría dejarse llevar y transformar todo (incluida la humanidad) en fábricas de sujetapapeles.
¿Cómo se relaciona eso con el mundo real (o con un mundo imaginario en un futuro cercano)? Algunas compañías podrían darles a los sistemas de inteligencia artificial cada vez mayor autonomía y conectarlos a infraestructura vital, incluyendo redes eléctricas, mercados de valores y armamento militar. A partir de ahí, podrían causar problemas.
Para muchos expertos, esto no parecía factible hasta el último año, cuando compañías como OpenAI demostraron avances significativos en su tecnología. Eso mostró lo que podría ser posible si la inteligencia artificial continúa avanzando a un ritmo tan acelerado.
Anthony Aguirre, un cosmólogo en la Universidad de California, campus Santa Cruz, y uno de los fundadores del Future of Life Institute, la organización detrás de una de las dos cartas públicas, señaló: “A la inteligencia artificial le delegarán cada vez más tareas y podría (conforme se vuelva más autónoma) usurpar la toma de decisiones y el pensamiento de los humanos actuales y las instituciones administradas por humanos”.
Agregó: “En cierto punto, se volvería evidente que la gran máquina que gestiona a la sociedad y a la economía no está en realidad bajo el control humano y que no se puede apagar, así como no se puede apagar el índice bursátil S&P 500”.
O algo así dice la teoría. Otros expertos en inteligencia artificial creen que esta es una premisa ridícula.
Oren Etzioni, el director ejecutivo fundador del Instituto Allen de Inteligencia Artificial, un laboratorio de investigación en Seattle, mencionó: “Hipotéticamente, es una manera muy educada de explicar lo que pienso de la retórica del riesgo existencial”.
¿Hay señales de que la inteligencia artificial podría hacer esto?
No del todo. Sin embargo, los investigadores están transformando chatbots como ChatGPT en sistemas que pueden realizar acciones basadas en el texto que generan. El proyecto llamado AutoGPT es un ejemplo destacado.
La idea es darle al sistema metas como “crea una compañía” o “genera dinero”. Después, se pondrá a buscar maneras de alcanzar el objetivo, en particular si está conectado a otros servicios de internet.
Un sistema como AutoGPT puede generar programas computacionales. Si los investigadores le dan acceso a un servidor, podría de verdad ejecutar esos programas. En teoría, de esta manera, AutoGPT podría hacer casi cualquier cosa en línea: recuperar información, usar aplicaciones, crear nuevas aplicaciones e incluso mejorar sus propias funciones.
Los sistemas como AutoGPT no funcionan bien en este momento. Suelen atorarse en bucles infinitos. Los investigadores le dieron a un sistema todos los recursos que necesitaba para replicarse. No pudo hacerlo.
Con el tiempo, esas limitaciones podrían resolverse.
¿De dónde aprenden los sistemas de inteligencia artificial a comportarse mal?
Los sistemas de inteligencia artificial como ChatGPT se construyen sobre redes neuronales, sistemas matemáticos que pueden aprender habilidades mediante el análisis de datos.
Alrededor de 2018, compañías como Google y OpenAI empezaron a construir redes neuronales que aprendían a partir de cantidades enormes de texto digital recopilado de internet. Al identificar patrones en todos estos datos, estos sistemas aprenden a generar escritos por sí solos, como artículos informativos, poemas, programas informáticos e incluso conversaciones similares a las humanas. El resultado: chatbots como ChatGPT.
Debido a que aprenden de más datos de los que siquiera sus creadores podrían entender, estos sistemas también exhiben comportamientos inesperados. Un grupo de investigadores demostró hace poco que un sistema fue capaz de contratar a un humano en línea para que le ayudara a completar una prueba CAPTCHA. Cuando el humano preguntó si era “un robot”, el sistema mintió y afirmó que era una persona con un impedimento visual.
A algunos expertos les preocupa que conforme los investigadores hacen estos sistemas más poderosos, al entrenarlos con cantidades de datos cada vez mayores, podrían aprender más hábitos malos.
¿Quiénes son las personas detrás de estas advertencias?
A principios de la década de los 2000, un escritor joven llamado Eliezer Yudkowsky empezó a advertir que la inteligencia artificial podría destruir a la humanidad. Sus publicaciones en línea crearon una comunidad de creyentes. Conocidos como racionalistas o altruistas efectivos, esta comunidad amasó una enorme influencia en el ámbito académico, los grupos de expertos gubernamentales y la industria tecnológica.
Yudkowsky y sus escritos fueron contribuciones clave a la creación de tanto OpenAI como DeepMind, un laboratorio de inteligencia artificial que Google adquirió en 2014. Y muchos integrantes de la comunidad de altruistas efectivos trabajaron en estos laboratorios. Creían que, como entendían los peligros de la inteligencia artificial, estaban en la mejor posición para construirla.
Las dos organizaciones que recientemente publicaron cartas públicas para advertir sobre los riesgos de la inteligencia artificial (el Center for AI Safety y el Future of Life Institute) están vinculados de manera estrecha con este movimiento.
Las advertencias recientes también provienen de pioneros de la investigación y líderes de la industria como Elon Musk, quien ha advertido desde hace mucho tiempo sobre los riesgos. La carta más reciente la firmaron Sam Altman, director ejecutivo de OpenAI, y Demis Hassabis, quien ayudó a fundar DeepMind y ahora supervisa un nuevo laboratorio de inteligencia artificial que combina a los mejores investigadores de DeepMind y Google.
Otras figuras respetadas firmaron una o ambas cartas de advertencia, incluidos Bengio y Geoffrey Hinton, quien renunció hace poco como ejecutivo e investigador en Google. En 2018, ambos recibieron el Premio Turing, a menudo llamado “el Premio Nobel de la Computación”, por su labor en redes neuronales.