Cómo evitar que la IA de agentes sea sólo un espejismo

Date:

Pese al entusiasmo de quienes predicen la preeminencia de los agentes de IA, su futuro inmediato pasa por un baño de realidad que habla del fracaso de un 40% de los proyectos.

Los agentes de IA son el nuevo objeto de deseo en el ámbito empresarial, y directores ejecutivos como Mark Benioff (Salesforce), Jensen Huang (Nvidia), Satya Nadella (Microsoft) o Mark Zuckerberg (Meta) han hecho predicciones entusiastas acerca de su inminente y transformadora preeminencia.

La inteligencia artificial de agentes es la próxima ola de automatización avanzada, con sistemas capaces de percibir su entorno, de razonar, planear, actuar y aprender con autonomía para alcanzar objetivos complejos, superando el modelo de chatbots reactivos o de los asistentes de IA tradicionales. No se limita a responder prompts sino que ejecuta tareas de extremo a extremo.

Los expertos creen que este 2025 marca su transición de prueba y que veremos un salto cualitativo hacia sistemas autónomos que no sólo generan contenido, sino que ejecutan acciones coordinadas, aunque el verdadero valor transformador de estos agentes dependerá de cómo los integremos estratégicamente en la infraestructura de nuestras operaciones diarias y qué tipo de estructuras implementaremos para gestionarlos.

Nota recomendada: Despedir por Zoom o por ‘email’: así cambia la relación laboral que frustra al empleado

Gartner predice que al menos el 15% de las decisiones laborales diarias se tomarán de forma autónoma a través de IA de agentes para 2028. Además, el 33% de las aplicaciones de software empresarial incluirán IA de agentes dentro de tres años, según este pronóstico.

Pero Gartner también ha hecho un pronóstico audaz -y no tan entusiasta- sobre el futuro de la inteligencia artificial de agentes en la empresa. Concluye que más del 40% de los proyectos de IA de agentes se cancelará a fines de 2027 debido al aumento de los costes, a un valor comercial poco claro o a los controles de riesgo inadecuados.

La investigación de Gartner señala que «la mayoría de las propuestas de IA de agentes carece de un valor significativo o de un retorno de la inversión, ya que los modelos actuales no tienen la madurez y la capacidad de acción necesarias para alcanzar de forma autónoma objetivos de negocio complejos o para seguir instrucciones con matices a lo largo del tiempo».

Se trata de una predicción, no una medición empírica. Gartner basa su cifra en 3.412 encuestados y en un análisis de mercado, aunque todavía no se han observado cancelaciones efectivas a ese nivel del 40%, porque la mayoría de los proyectos siguen en fase piloto.

En todo caso, otros estudios coinciden en cierta medida con la predicción de Gartner: Forrester e IDC reconocen lo que denominan una AI reality check y advierten sobre reducciones de cierto alcance, y otras investigaciones de Standish Group o de McKinsey muestran que grandes proyectos de Tecnologías de la Información ya suelen registrar tasas de fracaso del 40% al 60%.

Experimento revelador

Crunchbase destacaba esta semana un experimento realizado a comienzos de 2025 por investigadores de la Universidad Carnegie Mellon, que dotaron de agentes de IA a una empresa de software falsa -The Agent Company-, pidiendo a cada agente que asumiera el trabajo diario propio de una compañía de software moderna, y asignándoles tareas concretas.

Nota recomendada: Cómo evitar la desconexión laboral de la ‘Generación Z’

La mayoría de estos agentes falló en completar tareas rutinarias, enfrentándose a problemas tan triviales como no poder cerrar una ventana emergente o confundir formatos de archivos básicos. El mejor modelo (Claude 3.5 Sonnet, de Anthropic) apenas logró completar el 24% de las tareas asignadas de forma autónoma.

Más que como un fracaso, el diseño de The Agent Company ha funcionado como un banco de pruebas para diagnosticar los puntos débiles y los límites de los agentes actuales. No se pretendía crear una empresa funcional, sino señalar hasta dónde llegan las capacidades reales de los agentes de IA en un entorno complejo y sin intervención humana.

Así, en lo que se refiere a las implicaciones para la preeminencia y el futuro de los agentes de IA habría que desmitificar la cuestión de la autonomía total: los resultados de este experimento demuestran que, en su estado actual, los agentes de inteligencia artificial están lejos de reemplazar el trabajo humano de forma integral en entornos empresariales complejos. Tal vez no sean tan capaces como dicen Benioff, Huang, Nadella o Zuckerberg, y puede que no estén preparados para tareas más complejas en las que los humanos destacan

Por lo que se refiere a la posibilidad de una autonomía total, las expectativas infladas y la ola de entusiasmo inversor y comercial en torno a la IA de agentes antes de que madure quedan diluidas si se tiene en cuenta que la IA de agentes todavía necesita una cierta supervisión, orquestación y combinación con procesos humanos. Se busca que las entidades inteligentes puedan trabajar de forma autónoma y creativa para alcanzar los objetivos que se les han fijado. Pero para llegar eficazmente a esos objetivos también se necesita dirección y jerarquíagobernanza y organigramas, procesos y reglas.

Hoy la mayor eficacia de los agentes de IA se encuentra en el trabajo colaborativo y en la automatización de tareas repetitivas de alcance limitado, más que en la sustitución integral del trabajo humano.

Dónde están los límites

Visto lo visto, las conclusiones del experimento de la Universidad Carnegie Mellon nos llevan a pensar que los agentes de IA actuales presentan ciertas limitaciones críticas que abarcan aspectos técnicos, de operaciones y éticos. Esto, según Gartner, lleva a que las organizaciones se enfrenten a «una brecha significativa entre la ambición (el 55,2% planea construir flujos de trabajo de IA de agentes más complejos) y la realidad de la implementación.

El principal déficit se refiere la falta de razonamiento de sentido común. Los agentes de IA carecen del conocimiento intuitivo que los humanos consideran obvio, y esto provoca fallos en tareas aparentemente simples.

Nota recomendada: La ‘paradoja de la IA’ ya genera una nueva ‘gran dimisión’

Se puede hablar de una especie de ceguera contextual que implica que los agentes operan basándose exclusivamente en patrones de datos de entrenamiento, sin una verdadera comprensión del mundo real. La capacidad de razonamiento está limitada a la imitación de patrones previamente vistos en lugar de una comprensión genuina.

Las alucinaciones de LLM también representan una limitación crítica para aplicaciones empresariales. Los agentes generan información que suena posible pero que puede ser incorrecta, y esto puede provocar recomendaciones de productos inexistentes en chatbots de atención al cliente, información financiera imprecisa que resulta en pérdidas económicas, o datos médicos erróneos que generarían diagnósticos incorrectos, por citar algunos ejemplos.

El experimento de la Universidad Carnegie Melon demostró asimismo que los agentes son más eficaces en tareas relacionadas con el desarrollo de software, donde existen abundantes datos de entrenamiento, pero fracasan de forma notoria en actividades de recursos humanos, administración y navegación web. Esto evidencia un sesgo en el entrenamiento y en las capacidades de los modelos actuales.

También hay que tener en cuenta que los agentes perpetúan y amplifican sesgos históricos presentes en los datos de entrenamiento. Aquí hay que hablar de discriminación en los procesos de contratación cuando los modelos favorecen ciertos perfiles demográficos; de tasas de error más altas en tecnologías de reconocimiento facial para grupos minoritarios; o, como señala un informe de Salesforce, de falta total de conciencia de confidencialidad: «Los modelos evaluados demuestran casi cero conciencia en este sentido«.

Comparte esta Nota:

spot_img

Popular

Notas Relacionadas
Related

Despedir por Zoom o por ‘email’: así cambia la relación laboral que frustra al empleado

El uso creciente de videollamadas, correo electrónico o WhatsApp...

Antes de probar la semana de cuatro días conviértase en ‘perma-lance’

Mientras el debate sobre la semana laboral de cuatro...

No es necesario abandonar trabajos para convertirse en una organización basada en habilidades

Gran parte del debate sobre convertirse en una organización...

La falta de relevo generacional agrava la escasez de talento

Aunque la población joven en España ha crecido, a...