Muchos expertos pidieron una moratoria en los avances en inteligencia artificial. Hicieron cuatro preguntas: ¿Dejaremos que las máquinas nos inunden de propaganda y mentiras? ¿Automatizamos todos los oficios humanos, incluidos los que disfrutamos desempeñar? ¿Debemos desarrollar mentes no humanas que algún día puedan superarnos y reemplazarnos? ¿Nos arriesgamos a perder las riendas de nuestra civilización?
La carta abierta hubiera ganado las firmas de miles de ambientalistas si hubiera incluido una quinta pregunta: ¿Deben millones de usuarios gastar enormes cantidades de energía encomendando tareas frívolas a los chatbots, cuando esta década es crítica para cumplir el Acuerdo de París? La huella de carbono de la inteligencia artificial es preocupante. Los gigantescos servidores se calientan y con ello el planeta también. Por otro lado, sin embargo, la inteligencia artificial podría ponerse al servicio de la reducción de emisiones, optimizando transporte público y provisión de energía.
De las cuatro preguntas, las dos primeras motivaron a firmantes pragmáticos que viven el presente y quieren una sociedad justa. En cambio, las dos últimas resuenan en personas que temen, a largo plazo, que la llamada “inteligencia artificial general” se vuelva un agente autónomo y opresor. Esto último no puede ocurrir mañana.
Geoffrey Hinton cree que se necesitarían unos 20 años para que haya peligrosos prototipos que amenacen la civilización. Por lo tanto, estaríamos a tiempo de prevenirlo o de alinear a ese futuro agente a nuestros intereses. Hoy, el chat GPT-4 ya puede resolver tareas difíciles de matemáticas, programación, visión, medicina, derecho y psicología. Pero que se convierta en una mente digital es una especulación y, para ello, se necesitaría una versión bastante más avanzada, con acceso libre a Internet, con estímulos adecuados que produzcan el bucle de la conciencia.
Ramón López de Mántaras, firmante de la petición de moratoria, cree que, por muy avivadas que lleguen a ser las futuras inteligencias artificiales, no serían como una mente humana, pues carecen de las interacciones con el entorno que “dependen a su vez del cuerpo, en particular del sistema perceptivo y del sistema motor. Ello, junto al hecho de que las máquinas no seguirán procesos de socialización y culturización como los nuestros”. No es consuelo, replica Eliezer Yudkowsky, serían una mente distinta, pero hostil, como extraterrestres agresivos.
Como la inteligencia artificial ya genera problemas, las personas pragmáticas aseguran que hay que centrarse en discutir las dos primeras preguntas, sobre lo que ya sufrimos. Pero los futuristas, gente como Elon Musk, temen más la pesadilla de Terminator que a una guerra nuclear y prefieren alertar, desde ya, del apocalipsis robótico.
Lo bueno es que es posible un consenso superpuesto sobre los riesgos de la inteligencia artificial, como el que se observa en la carta. Que cada quien se centre en el riesgo que más le preocupa y que se incluya a los ambientalistas, preocupados por el cambio climático.