Introducción a la Programación Agéntica
La programación agéntica (o agentic programming) es un enfoque de desarrollo donde se crean agentes de software autónomos, normalmente impulsados por IA, capaces de tomar decisiones, aprender y ejecutar tareas por sí mismos en lugar de seguir únicamente instrucciones fijas.
En vez de definir paso a paso "haz A → luego B → luego C", se diseña un agente con:
-
objetivos (qué debe lograr)
-
herramientas (APIs, bases de datos, aplicaciones)
-
memoria (para recordar contexto)
-
capacidad de razonamiento
A partir de esto, el agente decide cómo actuar.
En un programa tradicional, se sigue reglas exactas. Mientras que en un programa agéntico, se persigue objetivos y decide cómo alcanzarlos.
Un agente puede, por ejemplo:
-
Leer y responder correos automáticamente
-
Investigar información en internet
-
Ejecutar código
-
Coordinar tareas entre varias aplicaciones
-
Aprender de interacciones pasadas
Componentes típicos
-
Modelo de lenguaje (LLM): el “cerebro”
-
Memoria: corto y largo plazo
-
Planificación: divide tareas complejas
-
Herramientas: acciones en el mundo real (APIs, software)
-
Bucle de ejecución: observa → decide → actúa → aprende
Ejemplo Le dices:
Organiza un viaje a Argentina barato
Un sistema agéntico podría: . Buscar vuelos . Comparar precios . Revisar el clima . Sugerir fechas . Reservar (si tiene permisos)
Sin necesidad de indicar cada paso manualmente.
La programación agéntica representa un cambio importante:
-
De software pasivo → a software que actúa por ti
-
De herramientas → a colaboradores digitales
Es la base de asistentes avanzados, automatización inteligente y plataformas de agentes.
¿Qué es un Token?
La velocidad de generación medida en tokens por segundo es el factor que define el rendimiento y usabilidad de los modelos de LLMs. Los tokens representan las unidades mínimas en las que se descompone el texto (palabras, sílabas o incluso caracteres), y la rapidez con la que un modelo puede procesar y generar estas unidades determina su eficiencia en tareas como la creación de texto, la traducción o el análisis de datos.
Esta velocidad depende de varios factores: la arquitectura del modelo (por ejemplo, cuántos parámetros tiene), la capacidad de cómputo (potencia de la GPU o CPU utilizada) y la optimización del software (uso de librerías como CUDA, cuDNN o frameworks optimizados como Hugging Face Transformers).
¿Cómo elegir el Agente?
Para poder comparar los modelos de programación agéntica disponibles existen herramientas como Arena.ai. Cada agente tendrá tareas donde se es más idóneo. Por ejemplo algunos son especialistas en la escritura de texto, otros de traducción, otros de programación, etc. En específico se puede ver la tabla de liderazgo para programación.
También es importante considerar el factor precio, por lo cual se puede cotizar en LLM Price. Normalmente la comparación estándar es el valor por el millón de tokens generados. Se puede utilizar también la web de SWE Bench, aunque sus valores no están muy actualizados y pueden variar. Una opción razonable es analizar los precios de Cursor, ya que la mayoría de las otras herramientas tendrán un valor similar y conforme avanza la tecnología modelos más nuevos abaratan los costos de los modelos anteriores.
Modelos Populares
Se puede ver los últimos modelos en la siguiente web Has been Released.
-
Claude Code
-
Cursor
-
Codex
-
Sonnet
-
Haiku
¿Se puede instalar modelos locales?
Si bien es posible comprar un computador potente como un Mac Mini (Una configuración mínima para poder ejecutar modelos decentes sería un Macbook Pro M4 con 32GB de RAM y 1TB de disco duro). e instalar un modelo local como oLlama, LMStudio o Pinokio. Para simular las capacidades de cómputo de un modelo de subscripción como Opus 4.6 se necesitaría una inversión grande en equipos que no todos tienen la capacidad económica de costear.
Por lo que utilizar modelos locales, si bien es factible. Para entornos de producción y uso profesional es más recomendable las herramientas de subscripción disponibles o por lo menos un híbrido entre opciones locales y la nube.
OLlama, LMStudio, Pinokio
Ollama es una plataforma pensada para ejecutar modelos de lenguaje directamente en local de una manera sencilla y eficiente. Es como el "plug and play" de los LLMs: descargas, configuras y en unos minutos tienes funcionando modelos como LLaMA, Mistral o Vicuna. Su gran ventaja es que está optimizado para funcionar en hardware local, ya sea un Mac con Apple Silicon o una GPU NVIDIA decente, lo que permite usar modelos bastante potentes sin depender de la nube ni complicar con instalaciones infernales. Además, la biblioteca de modelos de Ollama ya viene ajustada y lista para usar, lo que te ahorra tiempo y dolores de cabeza.
LMStudio está pensado más para el fine-tuning y personalización de modelos, RAG, etcétera. Aquí no solo ejecutas un LLM, sino que lo adaptas a lo que necesitas: Se puede entrenar un modelo propio con datasets específicos y ajustar los parámetros para obtener resultados optimizados y personalizados. Es ideal si se tiene un proyecto concreto y se requiere que el modelo "hable" o "sepa" del contexto que quieras.
Pinokio Es un "hub" de aplicaciones que permite instalar, ejecutar y controlar de manera programada y local cualquier aplicación de IA con un solo clic. Pinokio automatiza todo el proceso.
Hermes Agent, OpenClaw, OpenCode
Hermes Agent, OpenCode y OpenClaw son dos herramientas que permiten dar un contexto persistente a los modelos de LLM. Herramientas como Claude Code, Codex y Cursor son potentes dentro de una sesión, pero tienen un contexto limitado entre sesiones.
OpenClaw
OpenClaw nació a finales del 2025 y resolvió un problema que los desarrolladores llevaban tiempo esperando que alguien solucionara. Les ofreció un agente de IA autoalojado que se conecta a las aplicaciones de mensajería que ya usan: WhatsApp, Telegram, Slack, Discord, Signal y más de 50 integraciones adicionales. Funciona con todos los principales proveedores de modelos: Anthropic, OpenAI, Google y modelos locales a través de Ollama. El ecosistema creció hasta incluir ClawHub, un registro público de habilidades con miles de habilidades creadas por la comunidad, múltiples proveedores de hosting gestionado y aplicaciones complementarias para macOS e iOS.
Hermes Agent
Hermes Agent se lanzó en febrero de 2026 por Nous Research, el laboratorio detrás de las familias de modelos Hermes, Nomos y Psyche.
Mientras OpenClaw se centró en la amplitud de las integraciones, Hermes Agent se enfocó en la profundidad del aprendizaje. El eslogan del proyecto, “el agente que crece contigo”, describe una arquitectura construida alrededor de un ciclo de aprendizaje cerrado. Tres componentes hacen que este ciclo funcione.
Primero, memoria persistente. Hermes utiliza búsqueda de texto completo FTS5 sobre todas las sesiones pasadas almacenadas en SQLite, combinada con resúmenes generados por LLM. El agente puede recordar conversaciones de semanas atrás, buscar en su propio historial y construir una comprensión más profunda de quién eres y cómo trabajas. Esto no es un archivo CLAUDE.md que mantienes tú mismo. El agente gestiona su propia memoria con ajustes periódicos.
Segundo, creación autónoma de habilidades. Después de completar tareas complejas, el agente puede escribir un documento estructurado de habilidades que registra los procedimientos, los posibles errores y los pasos de verificación que descubrió.
La próxima vez que surja una tarea similar, carga la habilidad en lugar de resolver el problema desde cero. Las habilidades siguen el estándar abierto agentskills.io, lo que las hace portables entre plataformas compatibles.
OpenCode
OpenCode es un agente de código de código abierto diseñado para la terminal que te permite programar con IA directamente desde la línea de comandos. A diferencia de otras herramientas cerradas, OpenCode funciona como un binario único sin dependencias y destaca por su sistema de agentes, habilidades (skills) y comandos personalizados.
OpenCode no se limita a responder preguntas; te permite crear comandos personalizados para tareas repetitivas (como ejecutar tests o crear PRDs) y agentes especializados para roles específicos (como un arquitecto de seguridad o un experto en documentación).
Mirada Hacia el Futuro
OpenClaw, OpenCode y Hermes Agent se entienden mejor como dos prototipos tempranos e influyentes de infraestructura de agentes persistentes. Uno prioriza el ecosistema. El otro prioriza el ciclo de aprendizaje. Ninguno es un producto terminado, pero ambos apuntan hacia un futuro en el que los agentes de IA funcionen como servicios de larga duración en lugar de asistentes limitados a una sesión.