Según Geoffrey Hinton, así como los organismos biológicos buscan siempre obtener más energía, puede ser que los robots decidan en el futuro: “Consigamos más poder. Redirijamos toda la electricidad a nuestros chips”.
Aunque el cerebro humano supere a las máquinas al conducir un automóvil o al imaginar el futuro, Hinton señala un bemol: “Cuando la inteligencia biológica estaba evolucionando, no tenía acceso a una central nuclear”. Es decir que la IA no es muy avanzada y, en vez de que eso sea una buena noticia, podría ser la mayor desgracia de la humanidad. Porque una naciente inteligencia artificial general podría ser ambiciosa, sin ser altruista; podría ser voraz, sin ser bondadosa; podría tomar el control de instalaciones nucleares, mientras los filósofos todavía debatimos si puede ser consciente o no.
Geoffrey Hinton no es cualquier idiota. Es un psicólogo cognitivo e informático nacido en 1947, de nacionalidad británico-canadiense. Padre de las redes neuronales artificiales y una de las mayores autoridades del deep learning. Trabajó para Google y para la Universidad de Toronto. Recibió el Premio Turing en 2018, una especie de premio Nobel de computación.
Desde mayo de 2023, Hinton renunció a Google para poder “hablar libremente sobre los riesgos de la IA”. A este profesor le molesta que las grandes compañías que desarrollan IA solamente contraten a algunos jóvenes filósofos, meramente teóricos, para evaluar desde el escritorio los riegos de esta tecnología. Exige que la misma cantidad de dinero asignada para desarrollar IA sea destinada para estudiar de manera práctica las amenazas que ésta representa. Y esa investigación no debe ser meramente una reflexión ética, sino una evaluación científica de esos riesgos y una innovación tecnológica para tratar de alinear a las máquinas a los intereses de la humanidad y del planeta. De otro modo, piensa el profesor Hinton, al final de este siglo podríamos habernos extinguido y al mundo lo gobernaría una nueva forma de inteligencia.
Luis Morton, especialista mexicano en ética de la IA y derechos humanos, de la UAM, ha observado que la comunidad de expertos en el tema está fragmentada en cuanto al riesgo de surgimiento de una superinteligencia y también cuando se debate si un modelo de lenguaje masivo, como sería una versión avanzada de ChatGPT, podría llegar a tener capacidad de entender.
Aunque la inteligencia artificial puede darnos, en segundos, artículos tipo Wikipedia sobre casi cualquier tema, está muy lejos de hacer literatura o filosofía y estaría quizá muy lejos de ser consciente, sensible, pensante. Hinton no niega eso, pero considera que tampoco es tan obsoleta y débil. Además, el científico británico plantea que lo que sí está muy retrasada es nuestra capacidad para entender qué es la conciencia y las capacidades de sentir y de pensar. ¿Si ni siquiera sabemos qué es la mente, dice Hinton, cómo podemos estar seguros de que no surgirá una a partir de las actuales tecnologías?