domingo, 22 de diciembre de 2024

La nueva generación de la inteligencia artificial que lo cambiará todo en 2025



Los agentes de IA van a cambiar la manera en que vivimos, desde el trabajo a tu vida personal. (Pexels/Abel Kayode)



La inteligencia artificial ha llegado a casi todas las facetas de nuestra vida pero no es nada comparado con lo que llegará en 2025: los agentes IA que lo cambiarán todo



Interactuar con chatbots de IA como ChatGPT puede resultar divertido y, en ocasiones, útil, pero el siguiente nivel de la IA cotidiana va más allá de responder preguntas: los agentes de IA llevan a cabo tareas por ti.

Grandes empresas tecnológicas, incluidas OpenAI, Microsoft, Google y Salesforce, han lanzado recientemente o anunciado planes para desarrollar y desplegar agentes de IA. Estas compañías afirman que estas innovaciones aportarán una eficiencia sin precedentes a los procesos técnicos y administrativos que sustentan sistemas utilizados en sectores como la atención sanitaria, la robótica, los videojuegos y otros negocios.

Los agentes de IA más simples pueden ser entrenados para responder a preguntas estándar enviadas por correo electrónico. Los más avanzados pueden reservar billetes de avión y hoteles para viajes de negocios transcontinentales. Recientemente, Google demostró a los periodistas el Proyecto Mariner, una extensión del navegador Chrome capaz de razonar sobre el texto e imágenes en pantalla.

En la demostración, el agente ayudó a planificar una comida añadiendo productos a un carrito de la compra en la página web de una cadena de supermercados, incluso encontrando sustitutos cuando ciertos ingredientes no estaban disponibles. Una persona todavía necesita participar para finalizar la compra, pero el agente puede encargarse de todos los pasos necesarios hasta ese punto.

En cierto sentido, tú mismo eres un agente. Realizas acciones en tu mundo cada día en respuesta a lo que ves, escuchas y sientes. Pero, ¿qué es exactamente un agente de IA? Como científico informático, ofrezco esta definición: los agentes de IA son herramientas tecnológicas capaces de aprender mucho sobre un entorno determinado y, después, con unos pocos comandos sencillos de un humano, trabajan para resolver problemas o realizar tareas específicas en ese entorno.


Reglas y objetivos

Un termostato inteligente es un ejemplo de un agente muy simple. Su capacidad para percibir su entorno se limita a un termómetro que le indica la temperatura. Cuando la temperatura de una habitación baja de cierto nivel, el termostato inteligente responde subiendo la calefacción.

Un precedente familiar de los agentes de IA actuales es el Roomba. Este robot aspirador aprende la forma de una sala alfombrada, por ejemplo, y cuánta suciedad hay en la alfombra. Luego actúa en función de esa información. Tras unos minutos, la alfombra está limpia.

El termostato inteligente es un ejemplo de lo que los investigadores de IA llaman un agente de reflejo simple. Toma decisiones, pero estas son simples y se basan únicamente en lo que el agente percibe en ese momento. El robot aspirador es un agente basado en objetivos con un objetivo singular: limpiar toda la superficie del suelo a la que pueda acceder. Las decisiones que toma –cuándo girar, cuándo subir o bajar los cepillos, cuándo regresar a su base de carga– están todas al servicio de ese objetivo.


 


Un agente basado en objetivos tiene éxito simplemente al alcanzar su objetivo por cualquier medio necesario. Sin embargo, los objetivos pueden lograrse de diversas maneras, algunas de las cuales pueden ser más o menos deseables que otras.

Muchos de los agentes de IA actuales son basados en utilidades, lo que significa que consideran cómo lograr sus objetivos. Sopesan los riesgos y beneficios de cada posible enfoque antes de decidir cómo proceder. Además, son capaces de considerar objetivos que entran en conflicto entre sí y decidir cuál es más importante alcanzar. Van más allá de los agentes basados en objetivos al seleccionar acciones que tienen en cuenta las preferencias únicas de sus usuarios.


Tomar decisiones, pasar a la acción

Cuando las empresas tecnológicas se refieren a agentes de IA, no están hablando de chatbots o modelos de lenguaje como ChatGPT. Aunque los chatbots que proporcionan atención al cliente básica en un sitio web son técnicamente agentes de IA, sus percepciones y acciones son limitadas. Los chatbots pueden percibir las palabras que escribe un usuario, pero la única acción que pueden realizar es responder con texto que, con suerte, ofrezca una respuesta correcta o informativa.

Los agentes de IA a los que se refieren las empresas son avances significativos respecto a los modelos de lenguaje como ChatGPT porque poseen la capacidad de realizar acciones en nombre de las personas y empresas que los utilizan.

OpenAI afirma que los agentes pronto se convertirán en herramientas que las personas o empresas podrán dejar funcionando de manera independiente durante días o semanas, sin necesidad de supervisar su progreso o resultados. Investigadores de OpenAI y Google DeepMind dicen que los agentes son otro paso hacia la inteligencia artificial general o “IA fuerte”, es decir, una IA que supera las capacidades humanas en una amplia variedad de ámbitos y tareas.

Los sistemas de IA que las personas utilizan hoy se consideran IA estrecha o “IA débil”. Un sistema puede ser competente en un ámbito, como el ajedrez, pero si es un juego de damas, esa misma IA no sabría qué hacer porque sus habilidades no serían transferibles. Un sistema de inteligencia artificial general podría transferir mejor sus habilidades de un ámbito a otro, incluso si nunca hubiera visto antes el nuevo ámbito.


¿Merecen la pena los riesgos?

¿Están los agentes de IA a punto de revolucionar la forma en que trabajan los humanos? Esto dependerá de si las empresas tecnológicas pueden demostrar que los agentes están capacitados no solo para realizar las tareas que se les asignan, sino también para afrontar nuevos desafíos y obstáculos inesperados cuando surjan.

La adopción de agentes de IA también dependerá de la disposición de las personas a darles acceso a datos potencialmente sensibles: dependiendo de lo que se espere que haga tu agente, podría necesitar acceso a tu navegador de internet, tu correo electrónico, tu calendario y otras aplicaciones o sistemas relevantes para una tarea determinada. A medida que estas herramientas se vuelvan más comunes, las personas necesitarán considerar cuánta información desean compartir con ellas.

Una brecha en el sistema de un agente de IA podría causar que información privada sobre tu vida y finanzas caiga en manos equivocadas. ¿Estás dispuesto a asumir estos riesgos si eso significa que los agentes pueden ahorrarte trabajo?

¿Qué sucede cuando los agentes de IA toman una decisión errónea o una decisión con la que su usuario no estaría de acuerdo? Actualmente, los desarrolladores de agentes de IA mantienen a los humanos involucrados en el proceso, asegurándose de que las personas tengan la oportunidad de revisar el trabajo del agente antes de que se tomen decisiones finales. En el ejemplo del Proyecto Mariner, Google no permite que el agente realice la compra final ni acepte los términos de servicio del sitio web. Al mantener a los usuarios en el proceso, los sistemas ofrecen la oportunidad de rechazar cualquier decisión tomada por el agente que no sea aprobada.

Como cualquier otro sistema de IA, un agente de IA está sujeto a sesgos. Estos sesgos pueden provenir de los datos con los que el agente se entrena inicialmente, del propio algoritmo o de cómo se utiliza el resultado del agente. Mantener a los humanos en el proceso es un método para reducir sesgos, asegurándose de que las decisiones sean revisadas por personas antes de ser ejecutadas.

Las respuestas a estas preguntas probablemente determinarán el nivel de popularidad de los agentes de IA y dependerán de cuánto puedan mejorar los agentes las empresas de IA una vez que las personas comiencen a utilizarlos.