- El ejemplo es bastante visual, y demuestra que las IA por ahora tan solo copian y reflejan con lo que se les ha entrenado
La gran mayoría de personas piensa ciegamente que la Inteligencia Artificial es una amenaza real, y que darle tantas capacidades y habilidades a las máquinas es peligroso. Es cierto que ser cauteloso no es nada malo, pero la verdad es que por ahora, la IA está lejos de ser consciente o tan inteligente como para poder engañarnos o aprovecharse de nosotros.
No cabe duda de que la IA ya es una herramienta útil y, por ejemplo, puede sustituir a los humanos en muchas tareas que son simples y repetitivas, el otro día te contamos el caso de un empresario que despidió al 90% de su plantilla y obtuvo unos impresionantes resultados.
No obstante, la IA no sirve para todo, y sobre todo la que están a nuestro acceso de forma gratuita, aunque podamos alucinar con lo que hacen, están muy lejos de ser máquinas superiores a nosotros. Así lo ha demostrado Ned Block, un catedrático de los Departamentos de Filosofía y Psicología de la Universidad de Nueva York, donde trabaja en filosofía de la mente, filosofía de la neurociencia y ciencia cognitiva.
Y es que como ha explicado en el podcast de Robinson Erhardt, donde discuten sobre conciencia, IA y filosofía de la mente, el profesor ha demostrado que ChatGPT realmente no es tan inteligente como pensamos. Para ello ha puesto un ejemplo muy sencillo, pero que es muy visual y que demuestra que las IA generativas por ahora tan solo son capaces de copiar lo que ven y no tienen ese nivel de conciencia que podemos pensar que tienen.
"Pregúntale a ChatGPT que te haga un dibujo de varios relojes marcando las 12:03, para que las manillas de tanto las horas como de los segundos estén pegadas" comienza explicando Block. La IA generará la imagen, pero lo que recibirás va a ser las manillas del reloj marcando las 10:10, lo mismo ocurre si le pides que te cree una imagen que marque las 6:28 (de nuevo las manillas están muy cerca), los relojes que te aparecerán estarán marcando las 10:10.
"La razón de ello es que si te fijas en las imágenes de los relojes en Internet y los anuncios, hay un claro dominio de ejemplos marcando las 10:10, ya que visualmente es la imagen más atractiva y por motivos de marketing todos salen marcando esa hora". Desde elEconomista.es lo hemos probado, y hemos podido comprobar que en efecto, siempre da resultados que marcan las 10:10 aunque le digas e incluso le corrijas que lo ha hecho mal.
De esta manera, queda demostrado que ChatGPT en este caso, aunque en general todos pecan de lo mismo, tan solo copian de internet para darte resultados y que por lo tanto no son tan inteligentes como se pintan. El profesor Block asegura todo el mundo dentro de OpenAI es consciente de ello y que aunque lo hayan intentado no han logrado corregir este error.
Este no es el único error, ya que existen cientos de ejemplos más que demuestran que la IA está lejos de ser perfecta, por ejemplo, tampoco generan imágenes de personas escribiendo con la mano izquierda, aunque se lo pidas, te devolverá la imagen de la persona escribiendo con la derecha.