El “padrino” de la Inteligencia Artificial abandona Google y advierte sobre un peligro inminente. Durante medio siglo, Geoffrey Hinton alimentó la tecnología que hoy está detrás de ChatGPT y otros bots conversacionales; ahora le preocupa que esa tecnología cause serios problemas.
Geoffrey Hinton fue pionero en inteligencia artificial. En 2012, junto a dos de sus alumnos de posgrado de la Universidad de Toronto, Hinton inventó una tecnología que se convirtió en el basamento intelectual de los sistemas de inteligencia artificial (IA) que hoy las grandes empresas tecnológicas consideran claves para su futuro.
El lunes, sin embargo, Hinton se sumó al creciente coro de voces críticas que acusan a las gigantes tecnológicas de correr hacia el abismo, con su agresivo impulso al desarrollo de productos de consumo basados en IA generativa, la tecnología que alimenta los populares bots conversacionales como ChatGPT.
Hinton dice haber renunciado a su cargo en Google —donde trabajó por más de una década hasta convertirse en una de las voces más respetadas de su profesión—, para poder hablar con libertad sobre los riesgos que entraña la IA. “Hay una parte de mí que lamenta el trabajo de toda mi vida”, reconoce Hinton.
“Me consuelo a mí mismo con la excusa habitual: de no haber sido yo, lo habría hecho otro”, dice Hinton durante una larga entrevista en el comedor de su hogar en Toronto, a pocas cuadras de donde él y sus alumnos hicieron aquel trascendental descubrimiento.
El giro de Hinton, de pionero de la IA a profeta del Apocalipsis, es un evento notable para la industria tecnológica, que enfrenta el punto de inflexión más importante en décadas. Los líderes del sector creen que los nuevos sistemas de IA podrían ser tan cruciales como la llegada de los navegadores web a principios de la década de 1990, y desencadenar un efecto dominó de drásticos avances en todos los ámbitos, desde el desarrollo de medicamentos hasta la educación.
Pero dentro del sector también a muchos los corroe el temor de estar liberando una fiera peligrosa. De hecho, la IA generativa ya está siendo una herramienta de desinformación. Y pronto podría poner en riesgo muchos puestos de trabajo. Y si seguimos por esa línea, hasta podría ser un peligro para la humanidad, apuntan los más preocupados.
“No veo la forma de prevenir que actores malintencionados lo usen para hacer daño”, señala Hinton.
Una nueva generación de bots conversacionales
En marzo, cuando la startup OpenAI de San Francisco lanzó una nueva versión de ChatGPT, más de 1000 directivos e investigadores de la industria tecnológica, entre ellos Elon Musk, firmaron una carta abierta reclamando frenar durante seis meses el desarrollo de nuevos sistemas, “por los profundos riesgos que las tecnologías de IA entrañan para la humanidad”.
Varios días después, 19 actuales y ex dirigentes de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica internacional de 40 años de existencia, difundió su propia carta abierta con advertencias sobre los peligros de la IA. Entre los firmantes está Eric Horvitz, jefe científico de Microsoft, que ha inoculado la tecnología desarrollada por OpenAI en varios de sus productos y servicios, incluido su motor de búsqueda Bing.
ChatGPT, es un bot creado por OpenAI que interactúa con humanos y escribe historias; usa inteligencia artificial, como las plataformas que crean imágenes, pero con funciones de texto. Responde preguntas, cuenta chistes y hasta puede crear cuentos interactivos
Hinton, a quien suelen llamar “el Padrino de Inteligencia Artificial”, no firmó ninguna de esas cartas porque no quería salir a criticar públicamente a Google y demás empresas antes de renunciar a su trabajo. El mes pasado notificó a Google de su apartamiento y el jueves pasado habló por teléfono con Sundar Pichai, CEO de Alphabet, la empresa madre de Google. Hinton prefirió no revelar los detalles de su conversación con el directivo.
El jefe científico de Google, Jeff Dean, dijo a través de un comunicado que “seguimos comprometidos con un abordaje responsable de la IA, y seguimos estudiando para entender los riesgos que surgen sin abandonar la audacia innovadora”.
Hinton, un expatriado británico que actualmente tiene 75 años, es un académico de toda la vida, con una carrera profesional impulsada por sus convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó el concepto de “red neuronal”, un sistema matemático que aprende habilidades mediante el análisis de datos. Pocos investigadores creyeron en su idea, pero Hinton la convirtió en el trabajo de su vida.
En la década de 1980, Hinton enseñaba ciencias de la computación en la Universidad Carnegie Mellon, pero dejó su cargo y se fue a Canadá porque no estaba dispuesto a recibir fondos del Pentágono: en aquel entonces, la mayor parte de la investigación en IA en Estados Unidos era financiada por el Departamento de Defensa. Y Hinton se opone tajantemente al uso de iA en el campo de batalla: lo que él llama “soldados robot”.
En 2012, Hinton y dos de sus estudiantes de posgrado en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotos y aprender a identificar objetos comunes, como flores, perros y automóviles.
Google pagó 44 millones de dólares para comprar la empresa fundada por Hinton y sus dos alumnos, y el sistema que habían creado condujo al descubrimiento de tecnologías cada vez más poderosas, incluidos los nuevos bots conversacionales. Sutskever pasó a ser jefe científico de OpenAI. En 2018, Hinton y otros de sus dos colaboradores históricos recibieron el Premio Turing, “el Nobel de la computación”, por su trabajo en redes neuronales.
Casi al mismo tiempo, Google, OpenAI y otras empresas empezaron a construir redes neuronales capaces de aprender a partir del procesamiento de grandes cantidades de texto digital. A Hinton le pareció que era un poderoso mecanismo para que las máquinas entendieran y generaran lenguaje, pero que era inferior a la forma en que los humanos manejaban el lenguaje.
Pero el año pasado, cuando Google y OpenAI crearon sistemas utilizando cantidades de datos mucho mayores, su opinión cambió. Seguía creyendo que en algunos aspectos los sistemas eran inferiores al cerebro humano, pero se dio cuenta de que en otros aspectos estaban dejando atrás a la inteligencia humana. “Tal vez lo que sucede en esos sistemas es mucho mejor que lo que sucede en el cerebro”.
Cuanto más mejoran los sistemas, más peligrosos de vuelven. “Basta recordar cómo era hace apenas hace cinco años y cómo es ahora”, dice Hinton. “Si tomás ese lapso de tiempo y proyectás esa aceleración hacia adelante, mete miedo”.
Hasta el año pasado Google actuó como un “custodio adecuado” de esa tecnología, con cuidado de no liberar algo que pudiera causar daño, apunta Hinton. Pero ahora que su Microsoft potenció su motor de búsqueda Bing con un bot coversacional, en abierto desafío al principal negocio de Google, Google está en competencia para implementar el mismo tipo de tecnología. Los gigantes tecnológicos están lanzados a una carrera que podría ser imposible de parar, advierte Hinton.
Su preocupación inmediata es que Internet se inunde con fotos, videos y textos falsos, y que la persona promedio “ya no pueda saber lo que es verdad”.
También le preocupa que con el tiempo la IA revolucione el mercado laboral. Hoy en día, los bots como ChatGPT suelen complementar el trabajo humano, pero pueden llegar a reemplazar a los empleados administrativos y a quienes realizan tareas rutinarias de escritorio. “Te quita el trabajo pesado pero te puede terminar quitando todo”, señala Hinton.
A Hinton le preocupa que las versiones futuras de esta tecnología se conviertan en una amenaza para la humanidad, porque de la gran cantidad de datos que analizan muchas veces aprenden comportamientos inesperados . Y eso es un verdadero problema, dice Hinton, ya que las empresas y los usuarios permiten que los sistemas de IA no solo generen su propio código de computadora, sino también que lo ejecuten por su cuenta. Hinton teme que un día las armas verdaderamente autónomas, esos robots asesinos, se hagan realidad.
“Eran muy pocos los que pensaban que estas cosas realmente podían volverse más inteligentes que las personas”, dice Hinton. “La mayoría, entre los que me incluyo, pensamos que todavía eso estaba muy lejos. Yo creía que faltaban 30 o 50 años más. Obviamente ya no pienso lo mismo”.
Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que la amenaza es hipotética, pero Hinton cree que la carrera entre Google y Microsoft y otros se convertirá en una carrera global que no se detendrá hasta que no exista algún tipo de regulación global.
Lamentablemente, dice Hinton, eso tal vez sea imposible, porque a diferencia de las armas nucleares, no hay forma de saber si las empresas o los países están desarrollando esa tecnología en secreto. La mejor esperanza es que los principales científicos del mundo colaboren con diversas formas de controlar la tecnología. “No creo que deban avanzar más hasta que hayan entendido si pueden controlarlo”, apunta.
Antes, cuando le preguntaban cómo podía trabajar en el desarrollo de una tecnología potencialmente peligrosa, Hinton solía responder parafraseando a Robert Oppenheimer, que dirigió el proyecto de construcción de la bomba atómica en Estados Unidos: “Cuando uno encuentra algo que es técnicamente irresistible, va para adelante y lo hace”.
Hoy ya no dice lo mismo. Fuente:
The New York Times y www.lanacion.com.ar