sábado, 12 de marzo de 2022

¿Queremos un mundo personalizado?

 



Mucho se ha hablado últimamente de la inteligencia artificial, el machine learning, el big data y otras tecnologías similares, sin que acertemos, en muchos casos, a distinguir unos de otros.

Lo cierto es que, en el fondo todas estas nuevas tecnologías son harina del mismo costal, por no decir que se hayan entrelazadas. En definitiva, se trata de alimentar software con grandes cantidades de datos que permitan al programa identificar patrones, clasificar conductas, ya sea de personas, meteorológicas o del tráfico, así como las respuestas que habitualmente se dan a la circunstancia que en cada caso se analiza.

Muchas son las voces que alertan, tanto de los beneficios como de los riesgos de estas tecnologías. En este sentido, a nadie escapa que aplicar cualquiera de ellas a la medicina de forma que se puedan diagnosticar enfermedades o tratamientos efectivos con mayor acierto, es positivo y supone un beneficio para toda la sociedad.

En el otro lado, si utilizamos los datos para clasificar a las personas y decidir quiénes son capaces de cometer un crimen y quienes no; cuales son los perfiles que más se adecúan a un determinado puesto de trabajo o la cantidad de dinero que se puede prestar a una determinada persona; en función de resultados o patrones identificados por un software, ya no es tan fácil decidir, nuestra percepción de la tecnología cambia y ya no parece tan ventajosa.

Los potenciales beneficios tienen su contrapartida, pues para poder hacer valoraciones o predecir comportamientos es necesario que los programas y aplicaciones sean alimentadas con cantidades ingentes de datos que permitan establecer una relación o predecir una determinada situación o comportamiento.

Es aquí, donde nos preguntamos acerca de los riesgos y los posibles efectos perjudiciales de las tecnologías que nos permiten tanto definir cuál es la mejor ruta para llevar a nuestros hijos al colegio como pueden predecir nuestra conducta ante determinados estímulos, concluyendo que empleos son adecuados para nosotros, cuales son nuestros gustos e incluso cuales son nuestras opiniones políticas.

Al margen de las implicaciones desde el punto de vista de la privacidad y la protección de datos, tan en boga en los últimos tiempos, también cabe destacar, desde una perspectiva más filosófica hasta qué punto compensa sacrificar nuestro derecho a la intimidad o al libre desarrollo de nuestra personalidad en aras del progreso y la evolución tecnológica.

Es la gran pregunta a la que deberíamos enfrentarnos antes de establecer límites, condiciones y principios a algo que no comprendemos del todo, ni somos conscientes de sus consecuencias, tales como cuanta información revelamos al utilizar nuestros smartphones, asistentes virtuales, smart tv o cualquier otro dispositivo digital.

Citando a Isaac Asimov "La inteligencia es un accidente de la evolución, y no necesariamente una ventaja". Asi, aunque, sin duda, la tecnología nos ayuda en nuestro día a día, simplificando nuestras formas de comunicación o agilizando la compra de comida, entradas o la planificación de ocio y nuestras vacaciones, cabe preguntarse hasta qué punto queremos o nos compensa vivir en un mundo personalizado. Pues, aunque sea cómodo y eficiente, recibir información o acceder solo a ofertas sobre nuestros intereses o preferencias, limitaría a largo plazo nuestro conocimiento. En el extremo esta práctica podría conllevar que solo accederíamos a libros, noticias, conocimientos y teorías relacionadas con nuestra sensibilidad o gustos de un determinado momento sin tener la oportunidad de conocer literatura, profesiones o planes de ocio alternativos a nuestras preferencias iniciales.

Son numerosas las propuestas para hacer que la IA se desarrolle de forma ética o segura, siempre orientada a evitar ataques o hackeos, que permitan filtrar contraseñas, la suplantación de identidad o el acceso no autorizado a información y otros ciberdelitos, así como a definir quién sería el responsable cuando suceden estos incidentes.

En mi opinión, la ética en la IA debe contemplar más aspectos que el meramente jurídico, siendo éste, un elemento necesario que siente las bases sobre las que se desarrollen las tecnologías. Pero, se necesita, también, una ética o principios en el diseño de las aplicaciones, programas y tecnologías que permiten analizar patrones y que permita desmarcarse de las mismas, es decir, poder realmente escoger no ser categorizado, estandarizado o perfilado por las mismas, sin que ello impida el acceso a las tecnologías.

La IA no puede limitar nuestra capacidad de conocimiento a todos los niveles al diseñar un mundo supuestamente a nuestra medida, porque a la postre podría limitar nuestra capacidad de innovación que, en la mayoría de las ocasiones, se basa en conocer distintas culturas, dietas, líneas de pensamiento que sea porque nos agraden o nos desagraden, nos hacen reaccionar, reflexionar y, a veces, descubrir que hay otras formas de vivir y de pensar. Pues de lo contrario, podríamos caer en el mundo descrito por George Orwell en 1984 en el que "Lo más característico de la vida moderna no era su crueldad ni su inseguridad, sino sencillamente su vaciedad, su absoluta falta de contenido."



AMAYA GARCÍA
Cremades & Calvo-Sotelo
11 MAR. 2022 - 13:37
https://www.expansion.com/juridico/opinion/2022/03/11/622b426be5fdeacb5a8b45e6.html