Como director de Inteligencia Artificial (IA) del gigante tecnológico, Dean no solo es responsable de liderar un departamento que es crucial para el futuro de Google.
BBC NEWS MUNDO
¿Qué hace el “equipo de cerebros” de Google?
Para ser alguien que está a cargo del avance de una tecnología que, en palabras del director ejecutivo de Google, tiene implicaciones más profundas que la electricidad y el fuego, Jeff Dean es un hombre notablemente tranquilo.
Una de las primeras tareas que Jeff Dean tuvo que resolver en Google fue el problema que representaba para las máquinas el cambio de siglo (GETTY IMAGES)
Su trabajo es crucial para el futuro de la actividad humana en la Tierra.
- Por qué la inteligencia artificial puede ser racista y machista y cómo puede evitarse
- Qué habilidades deberían enseñar a los niños para llegar a ser CEO de Google (y no son las que crees)
Que semejante tarea cósmica no perturbe a Dean, que se mantiene zen incluso en medio del furor del Foro Económico Mundial en Davos, es quizá poco sorprendente.
Una de sus primeras intervenciones en Google implicó lidiar con una amenaza que, “con toda probabilidad”, se originaba en el espacio.
Rayos del espacio
En ese entonces, con el cambio de siglo, el motor de búsqueda de Google empezó a funcionar mal y el pequeño grupo de codificadores que entonces la integraban no lograba hallar la causa.
Fue Dean, junto con su amigo cercano Sanjay Ghemawat, quien diagnosticó el problema extraterrestre.
Google estaba utilizando hardware barato, explica Dean. “Todo estaba como atado con alambre y pegado con chicle”, y por eso era susceptible a sufrir un “evento de pocas probabilidades”.
“Un rayo en particular, proveniente del espacio, podía llegar e impactar en una de las células de memoria que guarda un bit -un cero o un uno- y cambiarlo a un uno o a un cero”.
“Esto es muy malo si estás manipulando mucha información, porque de repente, unos pocos bits pueden cambiar de forma aleatoria y corromper la data”, agrega.
“La mayoría de las máquinas hoy día tienen hardware para protegerse ante esta situación. Pero las primeras máquinas que estaba usando Google no lo tenían”.
Hoy, en cambio, son las máquinas de última tecnología de Google las que preocupan a Dean y, en particular, una que utiliza el Brain Team (o “equipo de cerebros”).
Su misión (“hacer que las máquinas sean inteligentes y mejorar la vida de la gente”) no puede ser más ambiciosa, aunque las aplicaciones actuales de IA en Google sean un poco más mundanas.
Es el aprendizaje que hacen las máquinas lo que le permite a los usuarios de Google encontrar sus fotos buscando los objetos que aparecen en ellas (escribiendo “casa” o “gato”, por ejemplo), y lo que está detrás de las herramientas para el reconocimiento de voz, que pueden transformar un audio en distintos idiomas en texto.
La herramienta de traducción de Google es otro de los triunfos del equipo de IA, así como también un ejemplo de la forma en que los algoritmos pueden “aprender del mundo tal y como es, y no de la manera en que nos gustaría que fuera”.
Batalla contra la desigualdad de género
Cuando un algoritmo recibe una gran cantidad de texto, explica Dean, se enseña a sí mismo a reconocer las palabras que normalmente suelen ir juntas.
“Así puedes reconocer, por ejemplo, una connotación desafortunada, que es que la palabra ‘doctor’ está más asociada con ‘él’ que con ‘ella'”.
“Pero también aprendes que ‘cirujano’ está asociado con ‘escalpelo’ y que ‘carpintero’ está asociado con ‘martillo’. Gran parte de la fortaleza de estos algoritmos es que pueden aprender este tipo de patrones y correlaciones”.
La tarea, dice Dean, es entender qué sesgos quieres que reconozca un algoritmo. Y esto es precisamente lo que están tratando de hacer quienes trabajan en el área de la IA.
“Es muy difícil decir que vamos a crear una versión perfecta de un algoritmo sin sesgos”.
La lucha de LinkedIn
Un ejemplo sorprendente de una empresa que lucha con estos problemas es la red de profesionales LinkedIn.
Cuando sus 562 millones de usuarios ingresan a sus cuentas, ven recomendaciones para puestos de trabajos y conexiones laborales diseñadas exclusivamente para ellos (generadas gracias a la IA).
Algo más importante aún es que los encargados de selección de personal que usan LinkedIn ven una lista de candidatos ideales, filtrados por los procesos de aprendizaje de la máquina.
Sin embargo, el cofundador del sitio, Allen Blue, identificó rápidamente un problema con este proceso: en las listas, en la parte superior de las mismas no aparecían muchas mujeres.
“Lo que pudimos hacer fue decir: vamos a corregir el algoritmo“, dice Blue, “para que nos muestre en igual proporción, hombres y mujeres que responden al criterio de búsqueda, y que los ordene de forma tal que las mujeres no queden accidentalmente debajo”.
Más diversidad
Pero arreglar este problema de IA fue solo la punta del iceberg, agrega.
“Solo ahora estamos llegando a un lugar en el que entendemos cómo es posible construir un algoritmo de aprendizaje automático con las mejores intenciones posibles, pero que sigue introduciendo sin querer un sesgo en los resultados”, explica Blue.
Su ejemplo favorito es el del reconocimiento facial.
“Las primeras versiones del reconocimiento facial se entrenaron con fotos de famosos que son mayormente blancos y hombres, y eso quiere decir que hay un 97% de precisión con hombres blancos pero un 3% de precisión con mujeres africanas”.
No se puede remediar si no se aumenta la diversidad de aquellos que construyen los algoritmos de IA, argumenta.
“Cuando miramos gente (en LinkedIn), que de hecho tiene conocimiento de IA, solo el 22% son mujeres”, señala Blue.
Lo que es peor, añade, es que “las mujeres tienden a ejercer roles que están más orientados hacia la investigación y la enseñanza, mientras que los hombres tienden a ocupar roles más orientados hacia el liderazgo”.
A pesar de la prevalencia de este sesgo, Blue y Dean muestran gran entusiasmo cuando se centran en las características positivas de la IA.
Cuando se trata de reclutar, dice Blue, las computadoras pueden incluso enseñarnos a eliminar los errores humanos.
Sistemas para prevenir inundaciones
“Cuando vas y hablas con alguien cara a cara, puedes leer a la otra persona, notar su energía o lo que sea, a partir de tu propia idiosincrasia (que por lo tanto, es sesgada) y de tu propia visión de qué hace que una persona sea buena para tu compañía.
“La inteligencia artificial puede ayudarte a separar esta sensación buena que tienes, desde un punto de vista que elimina el prejuicio“.
Para Dean su gran logro es el trabajo que los equipos de IA de Google han estado haciendo en temas humanitarios en el mundo, por ejemplo, el trabajo sobre sistemas que pueden predecir inundaciones y réplicas tras un terremoto.
Un área en la que están trabajando es la de salud y biociencias. Esto ha llevado a la creación de herramientas que permiten diagnosticar una enfermedad llamada retinopatía diabética, sin necesidad de recurrir a un oftalmólogo.
Estas aplicaciones de la IA son las que Dean ha tratado de destacar en el Foro Económico Mundial, donde sesión tras sesión se discutía sobre la privacidad de los datos y las preocupaciones sobre la gobernabilidad en torno a esta tecnología.
Dean asegura que los principios internos de Google ayudarán a evitar que se haga un uso malintencionado de la IA y reveló, además, que su equipo “decidió no publicar algunos trabajos que podrían tener implicaciones negativas”.
Pero dice que la forma de protegerse contra el uso malintencionado de la IA es consiguiendo al tipo adecuado de seres humanos inteligentes para trabajar en este sector.
“Necesitamos más gente trabajando en esta clase de áreas y más gente entusiasmada con ello”, dice.
“Porque así es como se progresa y se resuelven muchos de los problemas en la sociedad”.