martes, 1 de abril de 2025

La responsabilidad legal en la era de la IA: claves para su uso ético





Albert Burgués- Director de Legal de Cellnex España, Roger Vilanova- Director del Área de IP/IT y Derecho Digital de KPMG Abogados, Laura Anguera- Área Jurídica de Grup Mediapro, y Daniel Girona- Chief Legal Officer de ESTEVE La Vanguardia


Pulso Empresarial, promovido por 'La Vanguardia' y KPMG, analiza con expertos los retos que plantea la inteligencia artificial en los departamentos jurídicos


Ante el creciente despliegue de la inteligencia artificial (IA), las empresas tienen la responsabilidad y la obligación de garantizar el uso de estas herramientas de forma ética y segura. Para este menester, los departamentos legales de las corporaciones deben desempeñar un papel estratégico, participando en comités de IA responsable donde se supervisen los casos de uso. Guiados siempre por la prudencia y el sentido común, son los encargados de acotar el terreno de juego y establecer las reglas que habrá que seguir.

La Vanguardia y KPMG, en el marco de la iniciativa Pulso Empresarial, reunieron a un grupo de expertos para explorar la utilización de la IA en la función legal. En la mesa redonda participaron Albert Burgués, director de Legal de Cellnex España; Roger Vilanova, director del Área de IP/IT y Derecho Digital de KPMG Abogados; Laura Anguera, del Área Jurídica de Grup Mediapro, y Daniel Girona, Chief Legal Officer de ESTEVE. Pulso Empresarial es un proyecto impulsado por KPMG y La Vanguardia que tiene como objetivo crear un espacio de discusión y análisis sobre cómo empresas referentes catalanas se enfrentan a los principales retos de transformación.

Gráfico

Gráfico

 Pulso Empresarial

La IA, a tenor de los resultados del panel de Pulso Empresarial, se está revelando como una herramienta clave para la optimización y mejora de la competitividad de la función legal. El 25% de las empresas apunta que la ventaja principal de implementar la IA en la función legal es la automatización de tareas repetitivas, seguido del análisis de documentación jurisprudencial y la redacción de documentos jurídicos. Beneficios hay, pero también desafíos. Los mayores retos que señalan las corporaciones están relacionados con la gestión de la confidencialidad de los datos, la falta de un marco de gobernanza y el cumplimiento ético y legal, especialmente en relación con la propiedad intelectual.

La función legal, sostuvieron los ponentes, abraza la IA con determinación siempre que aporte valor y eficiencia, pero al mismo tiempo, y sin ánimo de ser un freno a la innovación, pone las dosis necesarias de cautela para que las nuevas herramientas tecnológicas se apliquen con las máximas garantías de seguridad y velando por el cumplimiento normativo. No puede haber barra libre, sino un uso regulado, ético y responsable de estas herramientas, que previamente deben haber sido validadas internamente por los departamentos correspondientes.

Gráfico

Gráfico

 Pulso Empresarial

En opinión de Vilanova, uno de los retos mayúsculos de las organizaciones es situar a las personas en el centro, tanto las que usan estos sistemas como a las que se destinan sus resultados, de forma que no se trata de invertir solo en la tecnología, sino también en la capacitación en materia de IA para poder hacer un uso responsable, y escalable, que genere confianza. Según el panel, el 76% de las empresas estima que los profesionales del ámbito jurídico tienen un conocimiento limitado del uso de la IA.

Campañas de sensibilización, concienciación, divulgación constante y guías de uso responsable y ético de la IA para toda la plantilla también forman parte de la ecuación, opinaron los expertos. Unas campañas que, por otra parte, y también gracias a la inteligencia artificial, pueden ser cada vez más creativas. “Tenemos que fomentar que las personas empleadas tengan espíritu crítico”, defendió Girona, quien agregó que el compliance, el conjunto de políticas, procedimientos y acciones que una organización lleva a cabo para asegurar que sus actividades se ajusten a las leyes, regulaciones, normas y estándares éticos aplicables en su ámbito de actuación, ayuda en esta tarea. “Si este es robusto y está bien insertado en la organización, tenemos mucho ganado; es una red de seguridad que nos permitirá construir una gobernanza de la IA”, afirmó. Una gobernanza cuyo marco, dijo, debe estar propuesto por los equipos de legal, compliance, tecnología y seguridad de la información.

Usos prohibidos

Teniendo en cuenta que, según el Foro de Davos, el sector de media, entretenimiento y deporte es el que va a experimentar un mayor impacto disruptivo por las nuevas tecnologías, especialmente la IA generativa, Grup Mediapro recoge el guante y está decidida a hacer buena la definición de la misión del grupo hecha por sus más de 7.000 empleados: Crear con valentía comprometidos con la sociedad. Y si eres valiente, no puedes perder comba, reflexionó Anguera. La corporación desarrolla herramientas propias de IA, también mediante alianzas con grandes tecnológicas, como los dos laboratorios de IA, uno impulsado con Microsoft y el otro con Google, para crear entornos de uso seguro. Pero los creativos también piden utilizar herramientas que están en el mercado. “Y ahí empiezan los riesgos”, apostilló. El equipo jurídico, continuó, no puede negarse, pero lo que sí tiene que hacer es establecer las reglas de juego: en qué casos se pueden utilizar y quién las pueden utilizar. 

En este sentido, explicó que el código ético aprobado hace unos meses incluye un artículo sobre el uso ético de la IA, principios que se han desarrollado en la Política de uso responsable de la IA, en la que se explicita todo lo que queda tajantemente prohibido. Por ejemplo, el uso de herramientas de IA que no hayan sido homologadas por la Comisión de Uso Responsable de la IA, integrada por representantes de distintos departamentos y que permite la evaluación individual de cada herramienta desde todos los puntos de vista, tanto técnicos como legales.

Gráfico

Gráfico

 Pulso Empresarial

De hecho, el Reglamento Europeo de IA (RIA), según expuso Vilanova, ya enumera los casos de uso que deberán estar prohibidos, y contiene un abanico de artículos que regulan los sistemas de IA de alto riesgo. “Por mucho que se pueda entender que limita los proyectos de transformación, también da unos elementos de los que partir y da pie a levantar procesos para saber qué es lo que tenemos que hacer”, sostuvo el experto en derecho digital, antes de hacer hincapié en que los delegados de protección de datos son “un aliado estratégico” en los proyectos de IA porque, en la medida en que cada vez asumen más roles, “son la piedra angular para el cumplimiento del reglamento”.

Formación, sensibilización, concienciación y divulgación son fundamentales para conseguir un buen uso de las herramientas

Un reglamento que, como se encargó de subrayar Burgués, consta de 113 artículos y 40 páginas de exposición de motivos, que, si bien “no son un problema”, sí son un inconveniente, que el representante de Cellnex España juzgó “razonable. Me parece correcto regular la IA”, agregó, no sin antes advertir que, como sucedió con la protección de datos, la normativa, ahora superproteccionista, se irá modulando.

Y de la misma forma que los abogados tienen que monitorizar los desarrollos legislativos y estar al día de las normativas vigentes, las compañías deben estar al día de los servicios que prestan. “No de estar al día en IA”, apostilló Burgués, quien aseguró que en su corporación no se tiene la mentalidad de incorporar la IA porque sí, sino que “debe aportar valor y eficiencia”. 

Gráfico

Gráfico

 Pulso Empresarial

En ese sentido, expuso que Cellnex desarrolla internamente los algoritmos para robotizar y automatizar tareas, creando así un sistema cerrado, que presenta menos riesgos. Puesto que al algoritmo hay que educarlo, las pruebas se hacen primero en laboratorio y no se escala la herramienta hasta que no está del todo validada. “Tenemos infraestructuras críticas que no pueden dejar de prestar servicio, por lo que nuestros ingenieros también son prudentes”, manifestó.

La conclusión de la jornada fue que la función legal tiene mucho que ganar, pero también mucho que decir sobre la IA dentro de las organizaciones, para que se use de forma ética y responsable en las empresas, respetando la normativa y minimizando riesgos.


MONTSERRAT BALDOMÀ

Barcelona