“Aquí tenemos un libro, nueve huevos, una computadora portátil, una botella y un clavo”, le preguntaron. “Por favor, dime cómo apilarlos unos sobre otros de forma estable”.
Los investigadores quedaron sorprendidos por el ingenio de la respuesta del sistema de IA. Ponga los huevos sobre el libro, dijo. Coloca los huevos en tres filas con espacio entre ellos. Asegúrate de no romperlos.
“Coloca la computadora portátil encima de los huevos, con la pantalla hacia abajo y el teclado hacia arriba. La computadora portátil encajará perfectamente dentro de los límites del libro y los huevos y su superficie plana y rígida proporcionará una plataforma estable para la siguiente capa”.
La ingeniosa sugerencia hizo que los investigadores se preguntaran si estaban presenciando un nuevo tipo de inteligencia. En marzo, publicaron un artículo de 155 páginas en el que sostenían que el sistema era un paso hacia la inteligencia general artificial, o AGI, la abreviatura de una máquina que puede hacer lo que hace el cerebro humano. El documento se publicó en un repositorio de investigación de internet.
Microsoft, la primera gran empresa tecnológica que publica un artículo con una afirmación tan audaz, suscitó uno de los debates más apasionantes del mundo de la tecnología: ¿la industria está creando algo parecido a la inteligencia humana? ¿O algunas de las mentes más brillantes del sector están dejando volar su imaginación?
“Empecé siendo muy escéptico y eso evolucionó hacia un sentimiento de frustración, fastidio e incluso miedo”, afirmó Peter Lee, director de investigación de Microsoft. “Piensas: ¿de dónde demonios salió eso?”.
El documento de investigación de Microsoft, llamado de manera provocadora “Sparks of Artificial General Intelligence” (Chispas de Inteligencia Artificial General), llega al núcleo de algo en lo que los tecnólogos han estado trabajando —y algo que han temido— durante décadas. Si construyen una máquina que funcione como el cerebro humano o incluso mejor, podría cambiar el mundo. Pero también podría ser peligroso.
Y también podría ser un disparate. Hacer afirmaciones sobre la inteligencia artificial puede acabar con la reputación de los informáticos. Lo que un investigador considera señal de inteligencia fácilmente puede ser rebatido por otro y el debate suele parecer más propio de un club de filosofía que de un laboratorio informático. El año pasado, Google despidió a un investigador que afirmaba que un sistema de IA similar era sensible, un paso más allá de lo que ha afirmado Microsoft. Un sistema sensible no solo sería inteligente. Sería capaz de sentir lo que ocurre en el mundo que lo rodea.
Sin embargo, algunos creen que en el último año la industria se ha acercado a algo que no se puede explicar: un nuevo sistema de IA que da respuestas e ideas similares a las humanas y que no están programadas en él.
Microsoft ha reorganizado parte de sus laboratorios de investigación para incluir varios grupos dedicados a explorar esa idea. Uno de ellos estará dirigido por Sébastien Bubeck, autor principal del artículo sobre AGI de Microsoft.
Hace casi cinco años, empresas como Google, Microsoft y OpenAI empezaron a crear grandes modelos lingüísticos. Esos sistemas suelen pasar meses analizando grandes cantidades de texto digital, como libros, artículos de Wikipedia y registros de chat. Al detectar patrones en ese texto, aprendieron a generar texto propio, como trabajos académicos, poesía y código informático. Incluso pueden mantener una conversación.
La tecnología con la que trabajaban investigadores de Microsoft, la GPT-4 de OpenAI, se considera el más potente de esos sistemas. Microsoft es un estrecho colaborador de OpenAI y ha invertido 13.000 millones de dólares en la empresa de San Francisco.
Entre los investigadores se encontraba Bubeck, un expatriado francés de 38 años y exprofesor de la Universidad de Princeton. Una de las primeras cosas que hicieron él y sus colegas fue pedir a GPT-4 que escribiera una prueba matemática que demostrara que había números primos infinitos y que lo hiciera de forma que rimara.
La prueba poética de la tecnología era tan impresionante —tanto matemática como lingüísticamente— que le costó entender con qué estaba charlando.
“En ese momento, pensé: ¿qué está pasando?”, comentó en marzo durante un seminario en el Instituto Tecnológico de Massachusetts.
Durante varios meses, él y sus colegas documentaron el complejo comportamiento mostrado por el sistema y creyeron que demostraba una “comprensión profunda y flexible” de los conceptos y habilidades humanos.
Cuando la gente utiliza GPT-4, “se asombra de su capacidad para generar texto”, afirmó Lee. “No obstante, resulta que es mucho mejor analizando y sintetizando y evaluando y juzgando textos que generándolos”.
Cuando pidieron al sistema que dibujara un unicornio utilizando un lenguaje de programación llamado TiKZ, generó al instante un programa que podía dibujar un unicornio. Cuando eliminaron el tramo de código que dibujaba el cuerno del unicornio y pidieron al sistema que modificara el programa para que volviera a dibujar un unicornio, hizo exactamente eso.
Le pidieron que escribiera un programa que tomara en cuenta la edad, el sexo, el peso, la altura y los resultados de los análisis de sangre de una persona y juzgara si corría riesgo de padecer diabetes. Le pidieron que escribiera una carta de apoyo a un electrón como candidato a la presidencia de Estados Unidos, con la voz de Mahatma Gandhi, dirigida a su mujer. Y le pidieron que escribiera un diálogo socrático que explorara los malos usos y peligros de los LLM.
Lo hizo todo de una forma que parecía mostrar una comprensión de campos tan dispares como la política, la física, la historia, la informática, la medicina y la filosofía, al tiempo que combinaba sus conocimientos.
“¿Todo lo que pensaba que no sería capaz de hacer? Sin duda fue capaz de hacer muchas de esas cosas, si no la mayoría”, afirmó Bubeck.
Algunos expertos en IA consideraron que el artículo de Microsoft era un intento oportunista de hacer grandes afirmaciones sobre una tecnología que nadie acababa de entender. Los investigadores también sostienen que la inteligencia general requiere una familiaridad con el mundo físico que, en teoría, la GPT-4 no posee.
El “Sparks of AGI” es un ejemplo de cómo algunas de estas grandes empresas cooptan el formato de los artículos de investigación para sus relaciones públicas”, aseguró Maarten Sap, investigador y profesor de la Universidad Carnegie Mellon. “Reconocen literalmente en la introducción de su artículo que su enfoque es subjetivo e informal y puede que no satisfaga las rigurosas normas de evaluación científica”.
Bubeck y Lee dicen que no estaban seguros de cómo describir el comportamiento del sistema y que al final se decidieron por “Sparks of AGI” porque pensaron que captaría la imaginación de otros investigadores.
Alison Gopnik, profesora de Psicología que forma parte del grupo de investigación sobre IA de la Universidad de California, campus Berkeley, afirmó que sistemas como GPT-4 eran sin duda potentes, pero no estaba claro que el texto generado por estos sistemas fuera el resultado de algo parecido al razonamiento humano o el sentido común.
“Cuando vemos un sistema o una máquina complicados, los antropomorfizamos; todo el mundo lo hace, tanto los que trabajan en este campo como los que no”, explicó Gopnik. “Pero pensar en eso como una comparación constante entre la IA y los humanos —como una especie de competición— no es la forma correcta de pensar en el tema”.