Geoffrey Hinton contó que había renunciado a su puesto en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre riesgos de IA.
TORONTO — Geoffrey Hinton fue pionero de la inteligencia artificial. En 2012, Hinton y dos de sus estudiantes de posgrado de la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de IA que las empresas más grandes del sector tecnológico consideran clave para su futuro.
Sin embargo, el lunes se unió de manera oficial a un creciente coro de críticos que afirman que esas empresas están corriendo hacia el peligro con su agresiva campaña para crear productos basados en la IA generativa, la tecnología que impulsa chatbots populares como ChatGPT.
Hinton contó que había renunciado a su puesto en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre los riesgos de la IA. Una parte de él, afirmó, lamenta ahora el trabajo de su vida.
“Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más”, comentó Hinton durante una larga entrevista la semana pasada en el comedor de su casa de Toronto, a poca distancia del lugar donde él y sus estudiantes hicieron su gran avance.
El paso de Hinton de pionero de la IA a agorero marca un momento extraordinario para la industria tecnológica, quizá en su punto de inflexión más importante en décadas. Los líderes del sector creen que los sistemas nuevos de IA podrían ser tan importantes como la introducción del navegador web a principios de la década de 1990 y podrían suponer avances en ámbitos que van desde la investigación de fármacos hasta la educación.
Sin embargo, muchas personas del sector temen que estén liberando algo peligroso. La IA generativa ya puede ser una herramienta para la desinformación. Pronto, podría ser un riesgo para el empleo. En algún momento, dicen los más preocupados por la tecnología, podría ser un riesgo para la humanidad.
“Es difícil evitar que los malos la utilicen para cosas malas”, expresó Hinton.
Después de que la empresa emergente OpenAI de San Francisco lanzó una nueva versión de ChatGPT en marzo, más de mil líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean “profundos riesgos para la sociedad y la humanidad”.
Varios días después, diecinueve líderes actuales y antiguos de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica con 40 años de antigüedad, publicaron su propia carta con el fin de advertir sobre los riesgos de la IA. En ese grupo figuraba Eric Horvitz, director científico de Microsoft, que ha desplegado la tecnología de OpenAI en una amplia gama de productos, incluyendo su motor de búsqueda Bing.
Hinton, a menudo llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar de manera pública a Google o a otras empresas hasta que hubiera dejado su trabajo. El mes pasado notificó a la empresa que dimitía y el jueves habló por teléfono con Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet. Se negó a comentar públicamente los detalles de su conversación con Pichai.
El científico jefe de Google, Jeff Dean, afirmó mediante un comunicado: “Seguimos comprometidos con un enfoque responsable de la IA. Aprendemos continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia”.
Hinton, británico expatriado de 75 años, es un académico de toda la vida cuya carrera se vio impulsada por convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidades analizando datos. En aquella época, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.
En la década de 1980, Hinton era profesor de Informática en la Universidad Carnegie Mellon, pero abandonó la universidad para irse a Canadá porque dijo que se mostraba reacio a aceptar financiamiento del Pentágono. En aquella época, la mayor parte de la investigación sobre IA en Estados Unidos estaba financiada por el Departamento de Defensa. Hinton se opone de manera profunda al uso de la IA en el campo de batalla, lo que él llama “soldados robot”.
En 2012, Hinton y dos de sus estudiantes en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotografías y enseñarse a identificar objetos comunes, como flores, perros y autos.
Google gastó 44 millones de dólares en adquirir la empresa creada por Hinton y sus dos estudiantes. Además, su sistema condujo a la creación de tecnologías cada vez más potentes, incluyendo nuevos chatbots como ChatGPT y Google Bard. Sutskever pasó a ser científico jefe de OpenAI. En 2018, Hinton y otros dos antiguos colaboradores recibieron el Premio Turing, a menudo llamado “el Premio Nobel de la informática”, por su trabajo en redes neuronales.
Más o menos al mismo tiempo, Google, OpenAI y otras empresas comenzaron a construir redes neuronales que aprendían de enormes cantidades de texto digital. Hinton pensaba que era una forma muy potente de que las máquinas entendieran y generaran lenguaje, pero inferior a la forma en que lo hacían los humanos.
El año pasado, cuando Google y OpenAI crearon sistemas que utilizaban cantidades mucho más grandes de datos, su opinión cambió. Seguía creyendo que los sistemas eran inferiores al cerebro humano en algunos aspectos, pero pensaba que estaban eclipsando la inteligencia humana en otros. “Quizá lo que ocurre en estos sistemas es en realidad mucho mejor que lo que ocurre en el cerebro”, supuso.
A medida que las empresas mejoran sus sistemas de IA, él cree que se vuelven cada vez más peligrosos. “Recordemos cómo era hace cinco años y veamos cómo es ahora”, propuso sobre la tecnología de IA. “Tomemos esa diferencia y pensemos en lo que podría pasar más adelante. Eso da miedo”.
Hinton dijo que, cuando la gente solía preguntarle cómo podía trabajar en una tecnología que posiblemente era peligrosa, parafraseaba a Robert Oppenheimer, que dirigió las iniciativas de Estados Unidos para construir la bomba atómica: “Cuando ves algo que es técnicamente grandioso, sigues adelante y lo llevas a cabo”.
Ya no dice lo mismo.