martes, 31 de octubre de 2023

Así es cómo los artistas están evitando que las IA les roben sus obras: las "envenenan"

 



  • La IA se entrena con millones de imágenes para que luego sean capaces de generar ellos mismos otras
  • El problema es que no se respeta las autorías de los artistas



La Inteligencia Artificial está siendo una de las tecnologías más polémicas que se han lanzado hasta el momento, y es que todo lo positivo y todas las ventajas que ofrece, también tiene un lado que preocupa a los usuarios. Por ejemplo, si estas máquinas son capaces de hacer lo mismo que una persona pero de una manera mucho más eficaz y rápida, ¿cómo va una persona competir por un trabajo contra una IA?

Este es un debate muy extendido, pero no es el único frente que se le ha abierto a esta tecnología, ya que uno de los sectores más preocupados por la llegada de la IA, y uno de los primeros que está viendo las capacidades de esta es el de los artistas.

Y es que si tuviésemos que señalar el uso más común que se ha hecho hasta ahora de la IA es el de la creación de imágenes de todo tipo. Y ya ni siquiera son apps de pago, sino que hay una multitud de opciones gratuitas que puedes encontrar y usar libremente para hacer tus propias creaciones.

Pero la IA no aprende solar a pintar y diseñar lo que tú le pidas, sino que son entrenadas con millones de imágenes, fotos, dibujos y demás formatos para que aprendan y sepan que estilos, colores o formas deben usar para ofrecer resultados de calidad.

Hace unos meses, el portal Getty Images demandó a los creadores de Stable Diffusion por haber usado su catálogo de imágenes, principalmente por preocupación a que les usurpen el trabajo y no se protegen los derechos de autor ni nada similar.

Por esa razón, los artistas se están organizando, y de hecho ya han creado algunas plataformas como, por ejemplo, Nightshade o Glaze con las que estos pueden "envenenar" sus creaciones originales para subirlas a Internet sin el miedo de que sean usadas para entrenar a una IA.

Esto es porque este tipo de herramientas son capaces de "corromper" las imágenes ya sea cambiando los píxeles de manera sutil o manipular los prompts para confundir a estas máquinas en el proceso de entrenamiento, y por ejemplo, si un usuario les pide una foto de un perro, la IA ofrezca la de un gato.

Lo cierto es que mientras este tipo de apps ofrecen una solución a las autorías y usos sin permiso de sus imágenes, también supone un peligro para aquellos que quieran hacer usos malintencionados, no obstante, los expertos creen que para ello sería necesaria usar millones de imágenes fraudulentas con modelos muy potentes, por lo que es bastante probable que detectasen estos malos usos antes de que suponieran un peligro real.