¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
¿Buscas nuestro logo?
Aquí te dejamos una copia, pero si necesitas más opciones o quieres conocer más, visita nuestra área de marca.
dev
Emilia y Matías Hace 3 horas Cargando comentarios…
En este episodio repasamos las novedades más relevantes en inteligencia artificial de los últimos meses, desde modelos con razonamiento estructurado como o3-pro de OpenAI y Claude 4 de Anthropic, hasta avances sorprendentes en generación de vídeo con Veo 3 de Google y Seedance 1.0 de ByteDance.
También hablamos del anuncio inminente de ChatGPT‑5, de agentes autónomos como el SRE Agent de Microsoft o Jules de Google, y del nuevo protocolo Agent2Agent (A2A) que promete una colaboración entre IAs sin precedentes.
Es un modelo de razonamiento mejorado ya disponible para usuarios Pro y Team, y pronto para Enterprise. Supera en precisión y profundidad a o1‑pro, destacando en tareas de matemáticas, ciencia y programación.
Con esta nueva arquitectura, OpenAI no busca que sus modelos imiten respuestas humanas, sino que sean capaces de razonar con un nivel de profundidad que hasta ahora estaba fuera del alcance de las máquinas. Entre sus características destacan:
Claude 4, la nueva familia de modelos de inteligencia artificial de la empresa Anthropic, llega con muchas novedades.
El primero es el más avanzado y potente de la empresa hasta la fecha, un Opus 4 del que dicen que es "el mejor modelo de programación del mundo". El segundo es su hermano menor, que sigue siendo un paso adelante en relación con sus predecesores. Como principales ventajas destacamos:
Este revolucionario agente de inteligencia artificial, desarrollado por DeepMind, ya está transformando operaciones internas de Google al recuperar un 0.7% de la capacidad de cómputo de sus centros de datos globales.
Este revolucionario agente de inteligencia artificial, desarrollado por DeepMind, ya está transformando operaciones internas de Google al recuperar un 0.7% de la capacidad de cómputo de sus centros de datos globales.
Más allá del impacto técnico, AlphaEvolve marca un hito al demostrar que los agentes autónomos pueden operar con seguridad y efectividad en entornos de producción de alto valor.
AlphaEvolve, diseñado para reescribir código crítico de manera autónoma, ya genera ahorros operativos significativos, con una estimación informal que apunta a cientos de millones de dólares anuales en eficiencia. AlphaEvolve destaca por:
Sus primeros modelos con capacidades de razonamiento chain‑of‑thought, sumándose así al ecosistema de AI abierto y desafiando a DeepSeek.
Con Magistral, Mistral AI da un nuevo paso. No en la carrera por el tamaño, sino en la búsqueda de una IA más explicable, más anclada en el razonamiento humano y, sobre todo, más adaptada a las realidades operativas de las empresas.
El nuevo modelo se basa en los avances de Small 3.1, admite numerosos idiomas, incluidos inglés, francés, español, alemán, italiano, árabe, ruso y chino simplificado.
Implementa una cadena de razonamiento explícita, paso a paso, que puede ser seguida, interrogada y auditada en el idioma del usuario.
Fuentes especializadas apuntan a un lanzamiento probable en julio de 2025, con capacidades “agentic”, es decir, capaz de tomar decisiones autónomas, y multimodalidad avanzada (texto, imagen, voz, vídeo).
ChatGPT-5 unificará los modelos de la serie O y los de la serie GPT, desarrollando sistemas que integren todas nuestras herramientas, sepan cuándo es más necesario un razonamiento más prolongado, y resulten útiles para una gran variedad de tareas. Chat GPT-5 integrará gran parte de la tecnología de OpenAI, incluido o3.
El lanzamiento de GPT‑5 podría impactar significativamente a industrias como la salud, las finanzas y la educación, al mejorar la eficiencia, la precisión y la personalización.
Además, el nuevo diseño promete simplificar los flujos de trabajo y reducir costes al eliminar la necesidad de múltiples herramientas de IA especializadas, aunque esto exige avances significativos en arquitectura de IA y potencia computacional.
El modelo text‑to‑video que ahora genera también audio (diálogos, efectos, ambientación). El nuevo modelo de inteligencia artificial de Google marca un hito en la creación de clips audiovisuales, desatando debates sobre manipulación digital, riesgos de desinformación y el futuro de la industria audiovisual.
La irrupción de Google Veo 3 en el panorama tecnológico ha marcado un antes y un después en la generación de vídeos mediante inteligencia artificial. Este modelo, presentado recientemente, ha logrado crear vídeos hiperrealistas con audio sincronizado, acercándose a un nivel de realismo que desafía la capacidad de distinguir entre lo auténtico y lo sintético.
Permite generación de imágenes sobre la marcha con modelos propios y de partners como OpenAI o Runway.
Esta llegada es un paso más de la compañía para llevar opciones de todo tipo en dispositivos como smartphones y tablets, pudiendo acceder a su versión premium desde 10 USD/mes.
Esta app promete ser una herramienta indispensable tanto para equipos creativos profesionales como para entusiastas del diseño visual que buscan funcionalidad sin sacrificar potencia.
Hay lanzamientos clave, como GPT Image 1 (OpenAI), MidJourney v7, Flux.1 Kontext y Imagen 4 de Google todos con mejoras en calidad y realismo.
A principios de junio de 2025, el panorama del vídeo generativo fue sacudido por la publicación silenciosa de un documento de investigación de ByteDance, la empresa matriz de TikTok.
Este documento presentaba Seedance 1.0, un modelo bilingüe de texto a vídeo e imagen a vídeo que rápidamente redefinió las expectativas de rendimiento.
A pesar de su lanzamiento discreto, Seedance 1.0 se catapultó a la cima de las tablas de clasificación independientes como Artificial Analysis. Superó al muy publicitado Veo 3 de Google en los benchmarks de calidad tanto para texto a vídeo como para imagen a vídeo.
Las evaluaciones destacaron su superioridad en consistencia visual, realismo del movimiento y adherencia a las instrucciones del prompt.
Meta anunció un nuevo conjunto de herramientas publicitarias impulsadas por IA, que incluían la generación de vídeo a partir de imágenes, la capacidad de añadir marcas a los clips generados por IA y "Business AIs" para responder a las consultas de los clientes.
En resumen, los meses de abril, mayo y junio de este 2025 han sido decisivos, apareciendo modelos más inteligentes y razonadores (como o3‑pro, Claude 4, Magistral y, muy pronto, GPT‑5), capacidades multimodales avanzadas y apostando por una IA cada vez más accesible y al alcance de todas las personas.
Puedes escucharlos en las principales plataformas de podcast: Ivoox, Spotify, YouTube, Apple Podcast y Amazon Music.
Foto de portada: Unsplash
Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.
Cuéntanos qué te parece.