Colocar a robots en conversaciones con personas sin que estas lo sepan suscita críticas por falta de ética
- El realismo del asistente de Google para reservas telefónicas genera un debate sobre la frontera entre humanizar la inteligencia artificial y permitir que parezca una persona
La presentación de Google Dúplex, un sistema de voz de inteligencia artificial (IA) capaz de realizar reservas o fijar citas por teléfono con tal realismo que parece una persona, ha desatado un acalorado debate sobre los límites de la sofisticación de la robótica y el riesgo de que su excesiva humanización se traduzca en engaño e indefensión para los humanos. En pocas horas los desarrolladores de Google pasaron de la satisfacción de mostrar “una inteligencia artificial capaz de ponerse al teléfono por ti”, a recibir un alud de críticas por crear una tecnología “inquietante”, “horripilante”, “insensible” y “falta de ética” que coloca robots en conversaciones con humanos sin que esas personas se den cuenta, traicionando su confianza.
A estos reproches se sumó el cuestionamiento legal, dado que los robots no tienen “oido” y para “escuchar” analizan el audio de su interlocutor, lo que implica grabar la conversación sin haber pedido consentimiento. Google intentó acallar las críticas asegurando que la tecnología exhibida es sólo un primer prototipo. Pero al final ha tenido que prometer que hará que el robot se identifique en las llamadas para que su interlocutor sepa que habla con un operador artificial, aunque quizá entonces cuelgue el teléfono.
“Facilita la conversación hablar con algo que se parezca a una persona, pero es no quita que los sistemas artificiales se hayan de identificar”
Pero su promesa no ha zanjado el debate sobre los dilemas éticos de la automatización y los límites a la humanización de la robótica. Maite López Sánchez, profesora de Inteligencia Artificial e investigadora de la UB, considera que es útil que los sistemas automáticos sean lo más parecidos posibles a los humanos “porque las personas estamos acostumbradas a relacionarnos con humanos, así que nos resulta más cómodo y facilita la conversación hacerlo con algo que se le parezca, pero eso no quita que los sistemas artificiales se hayan de identificar como tales” para que todos tengamos claro con quién o con qué estamos hablando.
Carme Torras, profesora de investigación en el Instituto de Robótica CSIC-UPC, subraya que existe una regla, recogida en la mayoría de normativas sobre robótica, que especifica que los robots no deben diseñarse de manera engañosa para explotar a usuarios vulnerables y, en cambio, su naturaleza de máquina debe ser transparente. En su opinión, en el caso de los sistemas de locución artificial eso significa que debería quedar claro que la voz es sintetizada y no expresar emociones, aunque sí debería ser capaz de comprender lo que quiere la persona y de responder de manera eficaz.
“Debería quedar clara la naturaleza de máquina, que la voz es sintetizada, y no expresar emociones”
La tecnología Dúplex de Google no se atiene a estos patrones, puesto que la voz no sólo suena como la de un humano sino que reproduce entonaciones y patrones de habla de las personas –coletillas como “um” “ah” y pausas– para resultar más emotiva, natural y realista.
Emilia Gómez, profesora e investigadora de la UPF que lidera el proyecto Humaint de la Comisión Europeasobre el impacto que tendrá la IA en el comportamiento humano, asegura que, “en general, ya no nos podemos fiar de nuestros propios sentidos porque con la calidad que consiguen las tecnologías actuales de síntesis de voz y de vídeo el engaño es ya inevitable”. Por eso cree indispensable que las personas desarrollen un pensamiento crítico respecto a la IA para poder entenderla y desafiarla, pero también que los tecnólogos trabajen con sistemas transparentes para las personas que los utilizan.
“Con la calidad que consiguen las tecnologías actuales de síntesis de voz y de vídeo el engaño es ya inevitable”
El director del Instituto de Investigación en Inteligencia Artificial-C SIC, Ramon López de Mántaras, también cree que los actuales servicios de atención al cliente basados en comunicar con una máquina son inaceptables y deberían prohibirse “porque siempre tiene que estar claro con quien nos estamos comunicando, si nos escucha una persona o la máquina, y eso exigiría que no sólo al principio, sino durante toda la comunicación, se oyeran recordatorios de que uno está hablando con una máquina y se avisara que al ser una máquina no tiene ni sentimientos ni empatía y no cabe esperar tales cualidades de ella”.
“Debería recordarse durante toda la conversación que se habla con un máquina y esta no tiene sentimientos ni empatía”
Pero el engaño o la falta de identificación no es el único reproche que se hace a estos sistemas. Se alerta que agrandarán la brecha tecnológica y las diferencias de clase entre las personas “muy ocupadas” y con recursos tecnológicos –que ya no tendrán que dedicar su tiempo a hablar con los empleados de servicios como restaurantes, peluquerías, etcétera–, y los trabajadores menos cualificados, que tendrán que atender a los sustitutos robóticos. “La tecnología no crea las diferencias socioeconómicas pero sí las evidencia y las amplifica, porque cuanto más tecnología das a alguien más cosas puede hacer y menos el que no tiene acceso a ella”, indica Maite López. Otras voces critican la desconfianza e inseguridad que puede suponer para los trabajadores de empresas de servicios que los encargos o las citas las realicen máquinas, lo cual se podría traducir en que rechacen a esos clientes, que los den un peor trato o que usen las máquinas como pretexto cuando se produzcan errores.
“Hay una especie de intuición que nos hace rechazar la mecanización de nuestras relaciones”
En esta línea, Genís Roca, especialista en digitalización y presidente de RocaSalvatella –que esta semana participó en la jornada Dilemas éticos de la robótica y la inteligencia artificial organizada por la Fundació Factor Humà–, pronostica que triunfarán los sistemas destinados a la interacción robot con robot pero costará implementar los que buscan la relación robot-persona “porque somos radicalmente humanos y hay una especie de intuición que nos hace rechazar la mecanización de nuestras relaciones”. En el mismo encuentro, la profesora de Ética de la UB Begoña Román comentó que las personas sólo consideran como interlocutores válidos a los humanos, “y por eso nos ofende que un robot aparente que es un ser humano o que una web nos pida que demostremos que nosotros no somos un robot”.
Gómez, de la UPF, asegura que es muy difícil limitar la imitación o la calidad de los robots porque la tecnología la proporciona y la clave está en exigir transparencia, como tiene previsto hacer el marco ético y legal para el uso de la inteligencia artificial que la Comisión Europea presentará antes de final de año. Y en 2019 se revisará la Directiva sobre Responsabilidad de los Productos para proteger a los consumidores y fabricantes europeos de los posibles daños causados por desarrollos tecnológicos.
Los niños, los más vulnerables al engaño
Los niños son el colectivo más receptivo, más entusiasta y más flexible a la hora de interactuar con robots. Es más, están dispuestos a tratar con ellos incluso si se muestran poco amigables o no siguen sus instrucciones, sobre todo los más pequeños (6-7 años), como pone de manifiesto el estudio sobre las reacciones de los niños hacia la personalidad de los robots en función de la edad dirigido por Juan Martínez-Miranda, especialista en IA del Centro de Investigación Científica y Educación Superior de Ensenada (México) y publicado en Computers in Human Behavior. Pero esta mejor adaptación a la relación con sistemas automáticos también los hace más vulnerables al engaño. “Los niños no diferencian entre realidad y ficción porque se lo creen todo, así que cuanto más reales sean las voces más difícil será que entiendan que no hablan con una persona”, afirma Jordi Vallverdú, especialista en filosofía de la computación en la UAB.
De hecho, algunos expertos advierten que en breve será necesario que los padres, además de enseñar a sus hijos a desconfiar de extraños, deberán instruirlos sobre las voces que llegan por el móvil u otros dispositivos para que distingan entre voces artificiales y voces incorpóreas tras las que sí hay una persona, como cuando hablan con un familiar que vive lejos.
Los padres habrán de instruirles para distinguir entre voces artificiales y voces incorpóreas tras las que sí hay una persona, como un familiar que vive lejos
“Los niños tiene más capacidad para distinguir las cosas de las que pensamos, pero si el futuro va a estar poblado de voces artificiales efectivamente habrá que educarles para ello”, comenta Miquel Domènec, del departamento de Psicología Social de la UAB y experto en ética de robots sociales. La coordinadora de Humaint, Emilia Gómez, explica que precisamente uno de los objetivos de este proyecto europeo es analizar los retos que plantea el uso de robots e inteligencia artificial por los niños y cómo puede afectar al desarrollo de sus capacidades cognitivas. La investigadora Carme Torras –que lleva tiempo advirtiendo que si se confía el cuidado de los niños a robots no adquirirán empatía o no aprenderán a negociar porque el robot jugará siempre a lo que ellos quieran–, opina que si las criaturas no saben quién hay detrás de una voz será más difícil que imaginen que puede haber alguien con sentimientos.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.