Fuente: iStock.
'Blade Runner' nos enseñó que podía ser peligroso eso de que los humanoides tuvieran conciencia, pero quizá sería más útil de lo que pensamos
"Yo he visto cosas que vosotros no creeríais. Atacar naves en llamas más allá de Orión. He visto rayos-C brillar en la oscuridad cerca de la Puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo, como lágrimas en la lluvia. Es hora de morir". Cuentan que, cuando Rutger Hauer escribió, y posteriormente recitó, el que es probablemente el monólogo más famoso de la historia del cine (el final de 'Blade Runner'), todo el equipo se quedó en silencio y algunos incluso se echaron a llorar. Unas simples frases guardan la mayor verdad del mundo: la desesperación de saber que todas nuestras vivencias y recuerdos se apagarán cuando nos hayamos ido.
Es 'Blade Runner' (1982), basada en '¿Sueñan los androides con ovejas eléctricas?' esa obra distópica de la que se ha hablado y estudiado durante años, por su complejidad y metáforas filosóficas. La trama es ampliamente conocida: un grupo de replicantes, (robots humanoides creados por los humanos "y aún más humanos que ellos") desarrollan sentimientos y saben que van a morir en un plazo corto de tiempo, por lo que el líder de ellos (interpretado por el mencionado Rutger Hauer), decide rebelarse y acudir a su creador para pedir explicaciones acerca de ello, como Augusto Pérez en la novela 'Niebla' acude a Miguel de Unamuno con un propósito parecido.
El miedo hacia los robots suele estar relacionado con el hecho de que acaben yendo contra nosotros
Pero la historia no solo se centra en los robots que buscan, como los humanos, a su creador para entender las grandes respuestas de la vida acerca de nuestra mortalidad o el motivo por el que estamos aquí. También es una historia sobre el poder de los humanos para crear vida (y esclavizarla). El mito de Prometeo, repetido en la historia durante siglos (con 'Frankenstein' como uno de los Prometeos más famosos), viene a ser una moraleja de lo que sucede cuando jugamos a ser Dios. El titán Prometeo dotó de fuego a los hombres y luego fue castigado, al doctor Frankenstein tampoco le salió muy bien eso de crear vida.
Siempre ha sido un tema tabú y polémico, destinado especialmente a la literatura fantástica. Que se lo digan, si no, a la oveja Dolly. Aunque, en un mundo donde se profetiza sobre el transhumanismo (el desarrollo y fabricación de tecnologías ampliamente disponibles, que mejoren las capacidades humanas, tanto a nivel físico como psicológico o intelectual. O, lo que es lo mismo para muchos, acabar de alguna manera convirtiéndonos en humanoides), todo parece cada vez menos utópico y más realista.
El miedo principal y, quizá ancestral, a la creación de robots y vida es, justamente, que acaben atacándonos. Isaac Asimov estableció con sus tres leyes de la robótica que un robot nunca podría hacer daño a un humano, debería cumplir siempre sus órdenes (a no ser que entren en conflicto con esa primera ley) y proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley. Pero, ¿y si como en el caso de 'Blade Runner' desarrollara sentimientos como los seres humanos?
Si tuvieran emociones, podría mejorar la comprensión, empatía y cuidado de las personas
En realidad, los robots con emociones pueden tener sentido en muchas ocasiones. Por ejemplo, si necesitásemos que cuidaran seres humanos, algo que empieza a ser común en Japón. Si tuvieran emociones, podría mejorar la comprensión y cuidado de dichas personas. La cuestión sería, cómo podrían llegar a desarrollar sentimientos los androides.
Según cuenta Paul Thagard en 'Psychology Today', hay tres teorías predominantes acerca de cómo surgen las emociones: la primera, es que se trata de juicios sobre situaciones actuales para los objetivos de las personas en cuestión. La segunda las vincula con cambios fisiológicos (latidos del corazón, frecuencia respiratoria, niveles de hormonas...). Una última habla de construcciones sociales que dependen del lenguaje y otras instituciones culturales. Viene a decir con todo ello que quizá podrían fabricarse robots que tuvieran emociones, pero emociones éticas que sirvieran para comportarse mejor con nosotros (en lugar de intentar matarnos).
Las emociones humanas dependen de nuestra percepción del mundo externo a través de nuestros sentidos, y la percepción del mundo interno a través de la cognición
El robot Octavia, que apaga fuegos para la Armada estadounidense, tiene un rango increíble de emociones faciales, lo que puede hacernos creer que realmente se sorprende al ver a un compañero o se pone triste en determinados momentos. Sin embargo, esto es engañoso. Octavia está programada con modelos emociones y su teoría de la mente es un patrón cognitivo. De hecho, funciona de una manera muy parecida a lo que podría considerarse la empatía, pero es muy diferente que muestre determinadas emociones a que las sienta. El problema radica en que, aunque hay teorías como las señaladas anteriormente, todavía no sabemos en qué se basa sentir emociones.
Y, de cualquier manera, en determinados momentos, programar humanoides que pudieran sentir sería incluso cruel. Piensa en esos robots militares preparados para la lucha: ¿No sería sádico crearlos para que sintieran emociones como el miedo o el terror antes de una batalla? Pero, claro, ¿podrían ser buenos soldados sin tener emociones? Y, algo más, ¿podríamos desarrollar vínculos emocionales con ellos hasta el punto de sentir sus pérdidas? Son todas preguntas éticas de difícil solución, que muestran lo complicado de la creación y de nuestro papel como dioses.
Los robots preparados para una batalla, ¿podrían ser buenos soldados si careciesen de emociones? ¿Podríamos desarrollar vínculos emocionales con ellos hasta el punto de sentir sus pérdidas?
¿Es fácil que los robots acaben desarrollando sentimientos? Probablemente no, pues, como vemos, las emociones humanas también dependen de nuestra percepción del mundo externo a través de nuestros sentidos, y la percepción del mundo interno de una manera más compleja, a través de la cognición. ¿Sería útil que desarrollaran sentimientos? Para algunas cosas, probablemente sí, aunque volvemos al dilema del principio. Algunos creen que si tuvieran emociones, podrían desarrollar empatía, ser compasivos y, en definitiva, comportarse de acuerdo a las leyes de la robótica de Asimov sin provocar daño alguno. Pero podría suceder también que, como los replicantes de 'Blade Runner', al entender lo efímero de su existencia y su propia condición de esclavos quisieran acabar con sus creadores, al más puro estilo Nietzsche. Y nadie podría culparlos.
Por
Ada Nuño
31/08/2022 - 05:00
El mito de Prometeo: qué pasaría si los robots tuvieran sentimientos (elconfidencial.com)
www.elconfidencial.com/alma-corazon-vida/2022-08-31/mito-prometeo-robots-sentimientos-razones_3482009/