El historiador israelí Yuval Noah Harari —experto en macrohistoria— ya lo alertó en su best-seller mundial “Sapiens: de monos a dioses”: el peligro de la humanidad cuando juega a ser Dios es crear una inteligencia superior que se vuelva en su contra.
Más de una década después, el antropólogo más célebre del mundo se unió al millar de personalidades —científicos, expertos, empresarios y analistas— que estamparon su firma en una carta publicada este miércoles, en la que se solicita que se suspendan durante seis meses los experimentos con inteligencia artificial (IA), ya que consideran que «su carrera sin control puede plantear profundos riesgos».
«Pausa veraniega de la IA»
«La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados», dice la carta abierta publicada por la organización Future of Life Institute.
Entre los firmantes se encuentran el nuevo dueño de Twitter, Elon Musk, fundador de las compañías Tesla y SpaceX. Paradójicamente, Musk está detrás de ChatGPT, el primer “chatbot” lanzado al mercado, con el que el público puede comunicarse con un robot programado para dar una enorme variedad de respuestas “inteligentes”, adelantándose a los gigantes tecnológicos Google y Meta, que también están desarrollando sus propios chatbots.
Otro de los firmantes es Steve Wozniak, cofundador de Apple; Jaan Tallinn, cofundador de Skype; o el canadiense Yoshua Bengio, considerado uno de los tres “padrinos de la Inteligencia Artificial” (los otros dos son Geoffrey Hinton y Yann LeCun) y ganador del premio Turing (el equivalente a lo que sería el Nobel de la Informática) por su aportación a las redes neuronales profundas.
Precisamente hace unos días, el canal CBS formuló a Hinton la siguiente pregunta: ¿Existe la probabilidad de que la Inteligencia Artificial acabe con la humanidad?
A lo que respondió: “No es inconcebible; es todo lo que diré”.
Las palabras de Hinton podrán sonar apocalípticas, pero sabe de lo que habla: él fue quien hace unas décadas dijo (y muchos se mofaron por irrealizable) que “el camino a la inteligencia artificial no era enseñar a un robot a imitar a un humano, sino dotarlo de redes neuronales para que el robot aprenda a hacer cosas por sí mismo”.
Desde luego, los firmantes de la carta recién publicada no tienen ningún motivo para la risa, por lo que advierten lo siguiente: «Los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas. Nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable estas mentes digitales”.
300 millones de empleos en riesgo
Los firmantes lanzan la siguiente pregunta: «¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?”.
Y señalan que, «tales decisiones no deben delegarse en líderes tecnológicos no electos».
Por lo pronto, la inteligencia artificial podría reemplazar el equivalente a 300 millones de empleos, como alertó un informe reciente del banco de inversión Goldman Sachs.
Por todo ello, los firmantes hacen un llamado a los laboratorios de IA para que suspendan “de inmediato” durante al menos seis meses el desarrollo de los sistemas de IA más potentes de GPT-4.
Aunque el laboratorio OpenAI, creador del polémico ChatGPT, definió el GPT-4 (siglas en inglés de la cuarta generación de Transformadores Preentrenados Generativos) como el «último hito en el esfuerzo para ampliar el aprendizaje profundo» y presume que la inteligencia de esta máquina está a la altura de “académicos y científicos”, el propio Musk teme que su laboratorio o el de las empresas rivales se les escape de las manos.
“Los sistemas potentes de inteligencia artificial podrían representar un cambio profundo en la historia de la vida en la tierra, por lo que únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables”, advierten los firmantes, quienes consideran esta amenaza tan seria que exigen la “intervención de los Gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones”.
La carta abierta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes «desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes».
Todo con tal de evitar a Hal 9000, la computadora que acabó desobedeciendo a los humanos y tomando el control de la nave espacial de “2001: Odisea en el Espacio”, la distopía que Stanley Kubrick convirtió en película de ciencia ficción y que podría convertirse en realidad, en un futuro no tan lejano a ese año.