El PE aprobó en el 2017 la resolución sobre las Reglas de Derecho Civil de Robótica, que está sirviendo de base para elaborar la nueva normativa europea (Donald Iain Smith / Getty)
- Más de 200 expertos de 14 países piden por carta a la Comisión Europea que no dé a las máquinas el estatus de personas electrónicas
El futuro legal de los robots en Europa se complica antes de haberse regulado. Más de 200 expertos de 14 países europeos han dirigido una carta abierta al presidente de la Comisión Europea , Jean-Claude Juncker, –y al resto de dirigentes comunitarios con responsabilidad en la materia– mostrando su rechazo a que la directiva sobre Robótica e Inteligencia Artificial que preparan otorgue “personalidad” a las máquinas, como propugna la resolución sobre las reglas de derecho civil de robótica aprobada por el Parlamento Europeo el año pasado y que está sirviendo de base para la nueva normativa.
Los firmantes –entre los que figuran líderes políticos, investigadores en inteligencia artificial y robótica, industriales, expertos en salud física y mental, y especialistas en derecho y ética– advierten que conceder el estatus de “personas electrónicas” a los robots supondría reconocerles derechos y responsabilidades, con el impacto económico, legal, social y ético que ello supone.
La legislación que se pretende serviría de coartada para que los fabricantes eludan sus responsabilidades
Alertan que la Comisión Europea sobrevalora las capacidades reales que hoy por hoy tienen los robots, incluidos los más avanzados, y creen que acceder a considerarlos “personas” a efectos legales para de esta forma poder asegurarlos y reclamarles responsabilidades a título individual por los daños que ocasionen sólo es bueno para los fabricantes, que de esta forma eludirían las consecuencias de lo que puedan hacer sus máquinas.
Jordi Vallverdú, especialista en filosofía de la computación y bioética en la UAB que ha suscrito la carta a Juncker, asegura que él no está en contra de que se reconozcan derechos a los robots porque precisamente su aspiración profesional es conseguir máquinas con conciencia y emociones, “pero la personalidad legal que se les quiere otorgar ahora no tiene nada que ver con regular sus derechos, sino que tiene una motivación económica y busca eximir a los fabricantes de responsabilidad en los actos de los robots”.
Advierte, además, que si la Comisión Europea se precipita en la legislación y regula las responsabilidades y funcionamiento de los robots antes de que buena parte de sus capacidades inteligentes y su autonomía sean reales, la normativa que ha de proteger a los ciudadanos europeos no será la adecuada y surgirán conflictos cuando haya errores, se creará un estado de opinión negativo y la implementación de los robots resultará problemática en el futuro.
El director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramon López de Mántaras, tampoco encuentra ningún sentido a dotar del estatus de “persona electrónica” a un robot. “El estado de la robótica y la inteligencia artificial está tan en pañales todavía que hablar de capacidad de autoaprendizaje o de impredictibilidad por parte del robot en estos momentos es más propio de ciencia ficción que de realidad; y durante décadas seguirá siendo posible determinar la responsabilidad de acciones erróneas por parte de una máquina, y esta responsabilidad siempre será de las personas”, detalla. Y coincide con los firmantes de la misiva enviada a la Comisión Europea en que conceder ahora personalidad a los robots “es escudarse en la máquina para que no se puedan exigir responsabilidades a las personas”.
La regulación de la IA y la robótica debe abordarse también desde el aspecto ético
El Parlamento Europeo introdujo la idea de crear un estatus o personalidad jurídica para las máquinas (párrafo 59f de su resolución sobre las normas de derecho civil de la robótica) con la idea de que “al menos los robots autónomos más sofisticados puedan establecerse como personas electrónicas responsables de reparar cualquier daño que puedan ocasionar”. La propuesta no estuvo exenta de polémica tanto durante el debate como durante la votación de la resolución (285 europarlamentarios votaron en contra de este párrafo), porque la depuración de responsabilidades es uno de los principales frenos para la comercialización de robots destinados a compartir espacio y actividades con personas, entre ellos los coches autónomos.
Durante los dos años de trabajo previos a la resolución, las aseguradoras insistieron a los europarlamentarios en que determinar si el responsable de los daños causados por un robot es el fabricante, el proveedor de software o el usuario será tan complicado desde el punto de vista legal que dificultará y alargará el pago de las indemnizaciones a los afectados. Y fueron muchos los que asumieron que la prioridad para la víctima no es saber quién tuvo la culpa sino recibir una compensación rápida, así que consideraron que la mejor solución era regular la responsabilidad civil de los robots para sea la máquina quien pague los platos rotos, sin más investigaciones ni dilaciones.
Pero hay muchos expertos –como los que ahora se han dirigido a la CE– que consideran esta regulación innecesaria desde el punto de vista técnico e inapropiada desde una perspectiva ética y legal. Aseguran que el estatus legal de un robot no puede equipararse al de una persona porque entonces tendría derechos humanos, como el derecho a su integridad, ciudadanía, remuneración, etcétera, y ello entraría en contradicción con la Carta de los Derechos Fundamentales de la UE y la Convención para la Protección de los Derechos Humanos y las Libertades Fundamentales.
Los firmantes alegan que se sobrevaloran las capacidades reales de los autómatas actuales
Pero tampoco creen que se les pueda aplicar el modelo de entidad jurídica que tienen las empresas, porque éste exige que haya un humano detrás para representarlas y dirigirlas. Y no consideran aplicable el modelo de fideicomiso anglosajón, porque además de ser muy complejo no resuelve el problema de la responsabilidad.
De ahí que pidan a la Comisión Europea cautela y un trabajo “sin prisas ni prejuicios” a la hora de regular las normas de derecho civil que deben regular la robótica y la inteligencia artificial en Europa en el futuro. “La Unión Europea necesita ofrecer el marco apropiado para reforzar la democracia y los valores de la UE; el marco de la inteligencia artificial y la robótica debe explorarse no sólo a través de aspectos económicos y legales, sino también a través de sus impactos sociales, psicológicos y éticos”.
Vallverdú asegura que entre los profesionales que han expresado sus recelos con el proyecto del equipo de Juncker hay personalidades y vocaciones muy diferentes: desde quienes rechazan que se concedan derechos y responsabilidades a las máquinas porque defienden la supremacía de los humanos, hasta quienes, como él, trabajan para que en el futuro existan robots inteligentes, autónomos, que puedan sentir y tener su visión del mundo y a quien, llegado ese momento, sí habrá que proteger y conceder derechos, como algunas legislaciones ya están haciendo con las “personas no humanas”. Pero unos y otros coinciden en que es “prematuro y tramposo” dotar de personalidad y exigir responsabilidades a los robots que existen ahora o a los que entrevén que existirán durante los próximos diez años, porque sus actuaciones estarán regidas por las decisiones de personas.
No hay comentarios:
Publicar un comentario
Nota: solo los miembros de este blog pueden publicar comentarios.