TEATRO DE SOMBRAS

¿Puede haber una ética de los robots?

Guillermo Hurtado
*Esta columna expresa el punto de vista de su autor, no necesariamente de La Razón.
Guillermo Hurtado *Esta columna expresa el punto de vista de su autor, no necesariamente de La Razón. Foto: larazondemexico

En su libro Bioética de la inteligencia artificial (Universidad Pontificia de Comillas, 2023) los filósofos José Sols Lucia y María Elizabeth de los Ríos Uriarte (de la Universidad Iberoamericana, el primero, y de la Universidad Anáhuac, la segunda) se han planteado la intrigante pregunta del título de este artículo.

La respuesta no es sencilla. Si la ética es una norma de conducta válida para los seres humanos, entonces, no puede haber una ética para los robots, a menos que humanicemos a los robots a un grado peligroso. Lo que se entiende, entonces, por una ética de los robots es una serie de principios que los fabricantes y los usuarios de los robots deben seguir para que el funcionamiento de éstos no cruce ciertas líneas rojas que nosotros, los seres humanos, podríamos calificar, si bien de manera laxa, como moralmente incorrectas. La incorreción en este caso no sólo concierne a las relaciones que pueda haber entre los robots y los seres humanos, sino también a las relaciones que se den entre un robot y otro e incluso de un robot consigo mismo.

Los autores del libro citado examinan de manera crítica varias éticas para los robots. La primera de ellas es de Isaac Asimov, quien en 1942 planteó las siguientes tres leyes de la robótica: 1) Un robot nunca podrá causar daño a un ser humano, 2) Un robot obedecerá siempre a un ser humano, a menos que este principio colisione con el primero, en cuyo caso seguirá el primero y no el segundo, 3) Un robot tendrá derecho a autoprotegerse, a menos que este principio colisione con el segundo, en cuyo caso seguirá el segundo y no el tercero.

Estas tres leyes han sido muy discutidas por otros autores. Algunos han añadido principios adicionales y otros han rechazado alguna de sus normas. Por ejemplo, la regla 1 se ha ajustado para permitir que un robot cumpla con una función policiaca o militar. Y la regla 2 también se ha modificado para que un robot pueda cumplir con una tarea de vigilancia o supervisión de un ser humano, por ejemplo, en una cárcel o en un hospital.

En una dirección completamente opuesta, Mark Tilden propuso un triálogo que otorga a los robots los mismos derechos que los animales salvajes. Las normas son las siguientes: 1) Un robot debe proteger su existencia a toda costa, 2) Un robot debe obtener y mantener el acceso a su fuente de energía, 3) Un robot debe buscar continuamente mejores fuentes de energía.

El contraste entre la ética de Tilden y la de Asimov es impresionante, lo que muestra que nuestras intuiciones acerca de lo que deben o no deben hacer los robots todavía no son del todo claras. Recomiendo a quienes quieran seguir pensando sobre este tema que lean el libro de Sols y Los Ríos.

Temas: