El Auge de la IA Agente Definiendo el Futuro de la Inteligencia Autónoma

El Auge de la IA Agente: Definiendo el Futuro de la Inteligencia Autónoma

La inteligencia artificial está experimentando una rápida evolución, y el concepto de “IA agente” se encuentra en el núcleo de este cambio. Conforme aumentan las herramientas de inteligencia artificial en el mercado, se intensifica la necesidad de diferenciar entre las soluciones vigentes y las que están listas para redefinir lo que la IA puede realizar. En una serie de entradas recientes en el blog, los aliados de Menlo Ventures, una compañía de capital de riesgo reconocida por apoyar a startups de IA como Anthropic, analizan lo que denominan “la próxima ola de agentes” y cómo sobrepasarán los modelos existentes.

¿Qué convierte a una inteligencia artificial en "agente"?

“Los agentes totalmente autónomos se caracterizan por cuatro componentes que, en conjunto, llevan a la habilidad total de un agente: razonamiento, memoria externa, ejecución y planificación”, afirman los escritores. Esta definición precisa define el panorama para comprender cómo los agentes de inteligencia artificial del futuro se diferenciarán de las herramientas que se emplean en la actualidad.

De acuerdo con los escritores, los modelos de lenguaje modernos (LLMs), tales como los creados por OpenAI y Anthropic, no logran llegar a este nivel ideal. A pesar de que estos modelos pueden emplear herramientas para asistir en tareas concretas, carecen de la independencia para determinar cómo tratar dichas tareas. “Es evidente que los agentes totalmente autónomos del futuro podrían contar con los cuatro componentes, pero las aplicaciones y agentes LLM actuales no lo poseen”, detallan.

¿Cómo logra la inteligencia artificial agente de usar herramientas la real autonomía?

En su primera entrada en el blog, los colaboradores de Menlo Ventures investigan qué implica que una inteligencia artificial sea “agente”. Para convertirse en un auténtico agente, el software necesita adquirir independencia para elegir los pasos más adecuados para solucionar un problema específico. “Los agentes surgen cuando introduces el LLM en el flujo de control de tu aplicación, permitiéndole decidir de manera dinámica qué acciones implementar, qué herramientas emplear y cómo interpretar y reaccionar ante las entradas”, indican.

Aunque los LLM contemporáneos tienen la posibilidad de utilizar programas externos o “herramientas” para solucionar problemas, los escritores indican que el mero uso de estas herramientas no convierte a una IA en un agente. “La utilización de herramientas es potente, pero por sí sola, no puede ser considerada como un ‘agente’.” “Los flujos lógicos de control continúan estando preestablecidos por la aplicación”, indican. Para que una inteligencia artificial sea genuinamente agente, debe tener la habilidad de determinar no solo qué instrumentos emplear, sino también cómo tratar el problema. La habilidad para tomar decisiones de forma autónoma es esencial para su agencia.

¿Qué fases existen en el desarrollo de la IA agente?

Los escritores detallan una evolución en el avance de la inteligencia artificial agente, desde sistemas elementales de toma de decisiones hasta agentes autónomos más avanzados. Estas fases demuestran la capacidad de la inteligencia artificial para progresar progresivamente hacia agentes potentes capaces de gestionar tareas complejas.

¿Qué representan los Agentes de Decisiones?

El paso inicial hacia la inteligencia artificial es lo que los escritores denominan “agente de toma de decisiones”. Estos sistemas emplean un modelo de lenguaje grande para seleccionar entre un conjunto de normas preestablecidas, las cuales determinan qué herramienta debe emplear el agente para solucionar una tarea. Se hace referencia al sistema de toma de decisiones de la startup de software sanitario Anterior, en el que la inteligencia artificial determina qué normas deben implementarse en función del contexto.

¿Qué representan los agentes en rieles?

El “agente sobre rieles”, que va más allá de los agentes de toma de decisiones, recibe objetivos de mayor envergadura para alcanzar. Por ejemplo, un “agente en línea” podría tener el deber de armonizar una factura con un libro mayor general, un objetivo más complicado que demanda que el agente seleccione qué conjunto de normas acatar. La adaptabilidad de estos agentes les brinda mayor independencia, y diversas empresas en crecimiento están adoptando este método.

¿Qué representa el "Santo Grial" de los agentes de inteligencia artificial general?

El “agente de IA general”, que los escritores definen como el pilar fundamental de los sistemas autónomos, se halla en la cima de la IA agente. Estos agentes tienen un pensamiento activo y la habilidad para crear código a medida que les facilita “absorber” el manual integral de normas de una compañía. Este método, todavía en etapa de investigación, es ilustrado por “Devin”, el ingeniero de software de inteligencia artificial creado por la startup Cognition.

El “pensamiento dinámico” y la “creación de código personalizado” son atributos fundamentales de estos agentes avanzados, lo que les facilita la toma de decisiones, la resolución de problemas e incluso la creación de soluciones ajustadas a las exigencias particulares de la organización. A pesar de que este nivel de autonomía continúa siendo un objetivo para el futuro, simboliza el rumbo que sigue la IA agente.

¿De qué manera la IA agente afectará a las empresas?

En su segunda entrada en el blog, los escritores examinan la implementación de la IA agente en las compañías. De acuerdo con los aliados de Menlo Ventures, el efecto a corto plazo será una transformación en la automatización de procesos robóticos (RPA, por sus siglas en inglés), que usualmente sustituye labores humanas sencillas con programas informáticos. Compañías como UiPath y Zapier son reconocidas como proveedores de dichas herramientas; sin embargo, la IA agente va más allá.

“Los responsables de la toma de decisiones y los encargados de los rieles hallan usos útiles en labores corporativas, como conciliar las facturas de los proveedores con un libro mayor general”, detallan los autores. Estos agentes más sofisticados superan la mera automatización de tareas y son capaces de gestionar procesos de decisión complejos que demandan una mayor adaptabilidad.

Aunque la categoría de IA agente aún está en proceso de desarrollo, los escritores subrayan que estos sistemas ya se están utilizando a gran escala por compañías de todas las magnitudes, desde empresas emergentes hasta grandes corporaciones. “No son meramente ciencia ficción”, redactan. Las compañías ya están incorporando estas tecnologías con el fin de incrementar la productividad y acelerar las actividades.

¿Cuáles son los desafíos principales del agente de IA?

Pese al fervor que envuelve a la IA agente, los escritores identifican dos restricciones fundamentales que podrían frenar el avance de esta tecnología.

¿Cómo tratamos las alucinaciones en la inteligencia artificial?

Un problema crucial que no ha sido totalmente solventado es el de las alucinaciones: apariciones equivocadas pero con seguridad. Ya sea mediante el pensamiento o la utilización de herramientas, los agentes de inteligencia artificial aún pueden producir respuestas equivocadas, lo que podría representar retos considerables. Como indican los escritores, “la interrogante de si los agentes de decisión y los agentes sobre rieles reducen las alucinaciones es un tema abierto de investigación”.

¿Es posible que la inteligencia artificial genere resultados óptimos?

A pesar de que la inteligencia artificial puede automatizar tareas sin producir resultados incorrectos, sigue la interrogante de si estos sistemas siempre generarán resultados ideales. Los escritores indican que “un individuo que no comete errores en su pensamiento o comportamiento aún puede llevar a resultados no ideales en comparación con lo que un individuo haría”.

El libro AI Snake Oil, de los académicos de ciencias informáticas de Princeton, Arvind Narayan y Sayash Kapoor, ofrece un ejemplo sobresaliente de este problema. El libro aborda un modelo de inteligencia artificial que sigue el historial médico de pacientes con asma que muestran síntomas de neumonía. El modelo propuso registrar a estos pacientes como de bajo riesgo, al considerar que estaban recibiendo atención de emergencia. Podría haber llevado a resultados catastróficos darles el alta.

Narayan y Kapoor sostienen que los modelos de inteligencia artificial frecuentemente se centran en la correlación en vez de en la causalidad, lo que puede conducir a resultados no ideales e incluso riesgosos en circunstancias complejas del mundo real. Esto es un recordatorio de que, a pesar de que el agente de inteligencia artificial puede tomar decisiones, su habilidad para entender la causalidad continúa siendo un reto considerable.

¿Los agentes de inteligencia artificial colaborarán en el porvenir?

Otro punto crucial que los escritores no tocan es la posible cooperación entre los agentes de inteligencia artificial. El porvenir de la IA agente podría implicar redes de agentes colaborando en conjunto en vez de un único agente llevando a cabo todas las funciones. La habilidad de los agentes de inteligencia artificial para cooperar entre ellos podría generar habilidades aún más amplias y soluciones más eficaces para las compañías.

Conforme la tecnología de inteligencia artificial sigue progresando, estas redes de agentes colaborativos podrían revolucionar las industrias y reconfigurar el modo en que las empresas funcionan. El avance en la creación de una auténtica IA agente constituye un hito fascinante en la inteligencia artificial, una que promete brindar tanto grandes posibilidades como retos en los años venideros.

jacobs (1)

Jacobs |

Jacob is a dedicated researcher with a passion for innovation in the tech industry. His pioneering research and enthusiasm for learning have garnered widespread acclaim. When not immersed in work, he explores new destinations, traveling extensively to broaden his horizons.

RELATED ARTICLES

Add a Comment

Your email address will not be published. Required fields are marked *