El ecosistema de la inteligencia artificial sigue acelerándose, pero en los últimos meses el foco ha cambiado de forma clara: ya no se trata solo de modelos más grandes o más rápidos, también de sistemas que actúan, razonan y producen contenido con un nivel de autonomía y realismo sin precedentes.

En este episodio repasamos las novedades en IA de este mes de febrero. Analizamos el fichaje del creador de OpenClaw por OpenAI y el giro estratégico hacia agentes personales multi-agente.

Además, repasamos el lanzamiento de Gemini 3.1 Pro, la actualización de Claude Sonnet 4.6 y la nueva generación de modelos de vídeo que están difuminando la frontera entre lo real y lo sintético.

OpenAI refuerza su apuesta por los agentes personales

Una de las noticias más comentadas del mes ha sido la incorporación de Peter Steinberger a OpenAI, creador del proyecto open source OpenClaw.

Este asistente inteligente (antes conocido como Clawdbot y Moltbot) se hizo viral por su capacidad para ejecutar tareas reales desde aplicaciones de mensajería: gestionar correos, programar reuniones, controlar aplicaciones o automatizar flujos de trabajo completos.

Lo relevante del movimiento no es solo el fichaje, sino la fórmula elegida. No se trata de una adquisición tradicional que absorbe y cierra el proyecto. OpenClaw continuará como iniciativa open source bajo una fundación independiente, con respaldo de OpenAI, mientras Steinberger se incorpora a la compañía para liderar la próxima generación de agentes personales.

Sam Altman ha enmarcado esta decisión dentro de una estrategia más amplia: avanzar hacia entornos “multi-agente”, donde distintos sistemas inteligentes colaboran entre sí para completar tareas de forma autónoma.

Esto representa un cambio estructural en la evolución de la IA: pasar de modelos que responden a prompts a agentes que toman iniciativa y actúan de forma continua.

Un paso que abre enormes oportunidades y también nuevos debates sobre autonomía, control y gobernanza.

Gemini 3.1 Pro: el salto hacia la inteligencia aplicada

Hace unos días, concretamente el 19 de febrero, Google lanzó Gemini 3.1 Pro, actualmente en Public Preview a través de la API de Gemini, Google AI Studio y Vertex AI, además de estar disponible para usuarios finales mediante Google AI Pro y el plan Ultra.

A diferencia de versiones anteriores enfocadas en potencia bruta, Gemini 3.1 Pro pone el foco en el comportamiento agéntico y el razonamiento avanzado.

El salto es notable: ha alcanzado un 77,1 % en el benchmark ARC-AGI-2, más del doble que Gemini 3 Pro en tareas de lógica abstracta pura. Este avance refuerza su posicionamiento en resolución de problemas complejos y planificación estructurada.

Entre sus novedades más llamativas destaca la generación directa de SVGs animados a partir de texto, permitiendo crear gráficos escalables y ligeros sin herramientas externas de diseño.

Además, mantiene la ventana de contexto de un millón de tokens, mejora el procesamiento nativo de vídeo (hasta 45 minutos con audio) y permite analizar repositorios completos de código.

Otro factor clave es la eficiencia: Google ha optimizado el modelo para reducir el consumo de tokens en tareas de razonamiento profundo, posicionándolo como una alternativa más competitiva en costes frente a modelos equivalentes del mercado.

Claude Sonnet 4.6: estabilidad y consistencia para entornos corporativos

Anthropic también ha movido ficha con la actualización de Claude Sonnet 4.6, centrada en tres pilares: razonamiento prolongado, uso de herramientas y fiabilidad en programación.

El modelo mejora en descomposición de problemas complejos, mantiene mayor estabilidad en cadenas largas de razonamiento y gestiona mejor escenarios con múltiples restricciones.

En programación, ofrece código más limpio y modular, menor tasa de errores lógicos y mayor capacidad de refactorización y explicación de código heredado.

Aunque no es el modelo más “creativo” del mercado, su consistencia y previsibilidad lo convierten en una opción especialmente atractiva para sectores regulados. Anthropic ha reforzado, además, la gestión de contexto largo y la reducción de alucinaciones en consultas factuales, consolidando su posicionamiento en entornos corporativos exigentes.

El vídeo generativo entra en la era cinematográfica

Si en modelos de lenguaje la tendencia es hacia la autonomía, en generación de vídeo la palabra clave es realismo físico y coherencia narrativa. Este mes ha estado marcado por el lanzamiento de nuevas versiones de modelos chinos que compiten directamente con los grandes actores occidentales.

ByteDance ha presentado Seedance 2.0, un modelo multimodal capaz de combinar texto, imagen, vídeo y audio para generar clips ultrarrealistas con una coherencia visual y narrativa significativamente mejorada.

Su impacto ha sido inmediato, aunque no exento de polémica, especialmente en relación con derechos de autor y uso responsable. La propia compañía ha anunciado medidas de moderación tras las preocupaciones surgidas en la industria audiovisual.

Por su parte, Kuaishou ha lanzado Kling 3.0, un motor de vídeo multimodal unificado que permite generar clips de hasta 15 segundos con escenas dinámicas, cambios de encuadre y continuidad visual. Integra audio sincronizado (voz, efectos y música) en una sola generación, reduciendo drásticamente la necesidad de postproducción tradicional.

Uno de los avances más relevantes de Kling 3.0 es su capacidad para mantener consistencia de personajes y estilo visual a lo largo de múltiples escenas, uno de los grandes retos históricos del vídeo generado por IA.

Con este tipo de innovaciones, la distancia entre contenido sintético y producción cinematográfica convencional se reduce cada vez más.

Si hay un hilo conductor en todas estas novedades es la transición hacia una IA más autónoma, multimodal y operativa. La inteligencia artificial ya no se limita a responder preguntas o generar textos e imágenes: empieza a tomar decisiones, ejecutar acciones y producir contenidos complejos de principio a fin.

El debate ahora es técnico y estratégico: cómo integrar estos sistemas en organizaciones, cómo gobernarlos y cómo convivir con agentes que no solo conversan, sino que actúan.

Cuéntanos qué te parece.

Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.

Suscríbete