Últimamente circula con fuerza un nuevo término en el mundo de la tecnología y la inteligencia artificial: la agéntica. Lo escuchamos en el acto de apertura del rector 2026, en conferencias o eventos de la Universidad, lo leemos en artículos especializados y, poco a poco, empieza a asomarse en conversaciones de nuestra comunidad universitaria. Y no es para menos esta evolución representa un salto cualitativo importante en la forma en que los sistemas de IA interactúan con el entorno, toman decisiones y ejecutan tareas. Pero ¿en qué se diferencia realmente de los asistentes de IA que ya usamos? ¿Es solo un cambio de nombre o estamos hablando de algo fundamentalmente distinto?
En este blog quiero explorar esa pregunta de forma sencilla y práctica, pensando especialmente en quienes trabajamos en bibliotecas, en investigación o en contextos académicos donde estas herramientas ya forman parte de nuestro día a día.
Primero lo primero
¿Qué es un asistente de IA?
Para entender la diferencia entre asistente y agente, debemos comenzar por lo que ya conocemos. Un asistente de inteligencia artificial como ChatGPT, Copilot, Claude o Gemini es una herramienta diseñada para responder preguntas, generar textos, resumir documentos, traducir, apoyar la redacción académica o ayudar a buscar información. La interacción es directa: el usuario escribe una instrucción o como se denomina un prompt y el asistente responde.
La característica principal de estos asistentes es que son reactivos es decir actúan cuando el usuario lo solicita, dentro de los límites de esa conversación. Son extraordinariamente útiles, prácticos y sencillos de utilizar, pero su acción termina cuando finaliza el intercambio. No recuerdan lo que se habló ayer, no inician tareas por su cuenta, ni se conectan con otros sistemas de forma autónoma a menos que el usuario lo active explícitamente en cada ocasión.
Pensémoslo así: es como pedirle ayuda a un experto que siempre está disponible, que sabe mucho y responde muy bien, pero que solo actúa cuando tú le preguntas y no se mueve de su silla si no le das una instrucción concreta.
¿Qué es entonces la IA agéntica?
La IA agéntica, en cambio, representa un paradigma diferente. Un agente de IA no solo responde: planifica, decide, actúa y evalúa resultados de manera autónoma para lograr un objetivo. No espera instrucción por instrucción; es capaz de descomponer una tarea compleja en tareas más sencillas, ejecutar cada una de ellas, usar herramientas externas (como navegadores, bases de datos o APIs), y corregir su propio rumbo si algo no funciona como esperaba e identifica errores.
En palabras más simples, si un asistente convencional responde a «resume este artículo», un agente de IA podría encargarse autónomamente de buscar los artículos más relevantes sobre un tema, descargarlos, leerlos, cruzar información entre ellos y entregarte un informe consolidado, todo sin que tú tengas que guiar cada paso.
Este tipo de sistema tiene la capacidad de perseguir metas, no solo ejecutar instrucciones puntuales y es precisamente esa autonomía lo que lo hace tan distinto, de cierta manera más potente respecto a los asistentes que conocemos y utilizamos en nuestro día a día.
Las diferencias claves entre un asistente y un agente de IA
- Autonomía vs. reactividad. Un asistente responde cuando se le pregunta; un agente actúa por iniciativa propia dentro de un objetivo o tarea definida. El agente puede tomar decisiones intermedias sin consultar al usuario en cada paso o etapa de la tarea.
- Memoria y contexto persistente. Los asistentes suelen olvidar la conversación anterior a menos que se les dé acceso a un historial. Los agentes están diseñados para mantener contexto a lo largo del tiempo y entre diferentes tareas, acumulando aprendizaje dentro de su flujo de trabajo.
- Uso de herramientas externas. Un agente de IA puede conectarse con otros sistemas: bases de datos, calendarios, buscadores, correo electrónico, hojas de cálculo o plataformas académicas como Scopus o Web of Science. Un asistente convencional, en general, opera dentro de su propio espacio conversacional.
- Ejecución de tareas de múltiples pasos. Mientras que un asistente resuelve una instrucción a la vez, un agente puede planificar y ejecutar flujos de trabajo complejos: buscar, sintetizar, verificar y entregar un resultado final sin interrupciones intermedias.
- Supervisión humana. Los asistentes funcionan bajo supervisión constante del usuario. Los agentes pueden operar con mayor autonomía, aunque algunos están diseñados para solicitar confirmación humana en algunos momentos críticos, especialmente cuando deben tomar decisiones cruciales del proceso.
¿Pero cómo vemos esto en la práctica?
Un ejemplo en el contexto universitario podría ser cuando un investigador quiere actualizar el estado del arte de su línea de investigación. Con un asistente de IA convencional podría pedirle utilizando un promtp que busque artículos sobre el tema, luego que los resuma, luego que identifique tendencias, y así sucesivamente, guiando cada paso manualmente.
A un agente de IA se le programa con la instrucción de elaborar un estado del arte sobre inteligencia artificial en bibliotecas universitarias, usando las bases de datos académicas disponibles, priorizando publicaciones de los últimos tres años, e identifica las principales tendencias y vacíos de investigación. El agente se encargaría de ejecutar ese flujo de manera autónoma, entregando un producto más completo al final y enviando al usuario un correo con dicho informe.
Esta diferencia es especialmente relevante para quienes gestionamos información, apoyamos la investigación o diseñamos servicios de referencia y bibliometría: los agentes de IA pueden transformar no solo cómo trabajamos, sino también lo que somos capaces de ofrecer a nuestra comunidad académica.
Pero, ¿esto es una amenaza o una promesa?
Como siempre que surge una nueva tecnología, o un avance significativo en una ya existente la respuesta más honesta y común es: un poco de las dos. La IA agéntica abre posibilidades enormes para automatizar procesos repetitivos, ampliar el alcance de nuestros servicios y liberar tiempo para el trabajo estratégico y creativo que solo los profesionales de la información podemos ofrecer.
Sin embargo, también plantea preguntas que no debemos pasar por alto: ¿Quién supervisa las decisiones que toma un agente de IA? ¿Qué pasa cuando esas decisiones afectan información sensible o recursos académicos? ¿Cómo garantizamos que los resultados que entrega un agente son confiables, contextualizados y éticamente responsables?
Estas no son preguntas retóricas. Son el tipo de reflexiones que los bibliotecólogos y profesionales de la información estamos especialmente equipados para liderar, porque sabemos que el acceso al conocimiento siempre implica responsabilidad frente a quien y como lo usa.
La transición del asistente al agente no es solo un avance técnico es un cambio en la manera en que la inteligencia artificial participa en nuestros procesos de trabajo y aprendizaje. Entenderlo nos ayuda a usarlo mejor, a aprovecharlo con criterio y a formular las preguntas correctas antes de adoptarlo sin más.
Desde BiblioSabana seguiremos explorando estas transformaciones, no solo para mantenernos al día, sino para acompañar a nuestra comunidad en la apropiación crítica y reflexiva de estas tecnologías.
Ahora te toca a ti: ¿cómo estás viviendo todo esto? Compártenos tu experiencia en nuestros espacios de creación de comunidad entorno a la IA D-Mentes IA para estudiantes y Club IA para Profesores y administrativos.
Por último, me gustaría invitarte a conocer las iniciativas que tenemos para ti.
Declaración de uso de la IA
Para la elaboración de este blog se empleó la herramienta de inteligencia artificial Claude de Anthropic utilizada exclusivamente como apoyo en la estructuración y revisión del texto. La selección temática, el enfoque crítico y la versión final del blog fueron revisados y ajustados en su totalidad por la autora.
Bibliografía
Múltiples fuentes consultar cuaderno en Notebooklm https://notebooklm.google.com/notebook/5bdcb3a4-3cda-48c7-86de-d8a872a34350