<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
<channel>
  <title>Paradigma Digital</title>
  <link>https://www.paradigmadigital.com/blog/</link>
  <atom:link href="https://www.paradigmadigital.com/feed.xml" rel="self" type="application/rss+xml" />
  <description>Big Data, Blockchain, cultura ágil, desarrollo, diseño… Te ofrecemos toda la información que necesitas para estar al día en tecnología.</description>
  <generator>Eleventy - 11ty.dev</generator>
  <language>es-ES</language>
  <lastBuildDate>Tue, 21 Apr 2026 07:47:25 GMT</lastBuildDate>
  <image>
    <url>https://www.paradigmadigital.com/assets/img/logo/favicon.png</url>
    <title>Paradigma Digital</title>
    <link>https://www.paradigmadigital.com/blog/</link>
    <width>192</width>
    <height>192</height>
  </image>
  <item>
        <dc:creator>
            <![CDATA[ 4 autores ]]>
        </dc:creator>
        <title>Podcast - Predicciones Google Next 2026: ¿golpe sobre la mesa o más de lo mismo?</title>
        <link>https://www.paradigmadigital.com/dev/podcast-predicciones-google-next-2026-golpe-sobre-la-mesa-o-mas-de-lo-mismo/</link>
        <pubDate>Tue, 21 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/podcast-predicciones-google-next-2026-golpe-sobre-la-mesa-o-mas-de-lo-mismo/</guid>
        <description>Nuestro equipo de Goodly disecciona el Google Next 2026: predicciones sobre el dominio de la IA y principales novedades en el ecosistema Google Cloud.
</description>
        <content:encoded>
            <![CDATA[
                <p>Los días son más largos, los árboles florecen y las personas alérgicas ya sufren las consecuencias de la primavera... ¡Eso solo puede significar que <strong>el Google Next 2026 está a la vuelta de la esquina</strong>!</p>
<p>Del 22 al 24 de abril, <strong>el mundo cloud mirará hacia Google para ver qué cartas tiene bajo la manga</strong>. En este episodio de &quot;Cómo conocí a nuestro cloud&quot;, nos mojamos y <strong>abrimos la veda de las predicciones para adivinar qué veremos en el evento más importante del año para el ecosistema de Google Cloud</strong>.</p>
<p class="block block-button center" pd-anim="slideUp" pd-anim-delay="0">
    <a class="bt b--coral" href="https://open.spotify.com/episode/5V4QOd0riWIypyx1LAkzpH?si=BzGc3wPRRhigGWWjxP8UhQ"target="_blank">Escucha aquí el episodio.</a>
</p>
<p>Tras un año marcado por la consolidación de Gemini 3 y la resaca de la fiebre de la IA generativa, <strong>la gran pregunta es si este Next servirá para afianzar el dominio de Google o si seguiremos en una fase de &quot;anuncios en preview&quot;</strong>.</p>
<p>Analizamos la agenda del evento y los datos son claros: <strong>la IA sigue devorándolo todo</strong>. Con apenas un 10% de sesiones que no mencionan palabras como GenAI o Gemini, parece que la infraestructura tradicional ha quedado relegada a ser el soporte silencioso de la inteligencia artificial.</p>
<p>Debatimos sobre el futuro de los protocolos de integración, con el dilema entre cuándo usar MCPs y cuándo usar A2A, y cómo <strong>la incertidumbre tecnológica está frenando la adopción masiva en el mundo enterprise</strong>.</p>
<p>También ponemos el foco en el hardware: <strong>¿veremos una nueva versión de las TPUs (Ironwood) que logre romper el monopolio de NVIDIA?</strong> Además, exploramos la necesidad de que Google &quot;cierre el círculo&quot; integrando de verdad la IA en el flujo de trabajo diario de Workspace, para que generar una presentación de slides deje de ser una batalla contra imágenes estáticas.</p>
<p>Para terminar, no podíamos cerrar sin nuestra clásica sección de triples. Desde apuestas arriesgadas por el mundo multimedia y la generación de mundos, hasta la posible explosión de Project Astra o la integración total de conectores externos en la App de Gemini.</p>
<p><strong>¿Cuántos de nuestros vaticinios se harán realidad?</strong> No te pierdas esta tertulia con la &quot;aristocracia&quot; del programa: José Berenguer, Andrés Navidad, Óscar Ferrer y Tomás Calleja.</p>
<p>Como todo en la nube, <strong>el Next promete emociones fuertes y algún que otro suflé que puede desinflarse</strong>.</p>
<p>¡Escucha el episodio completo y prepárate para el evento del año!</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ David García Luna ]]>
        </dc:creator>
        <title>AI-XP: del manifiesto del craftsmanship a la era de la IA</title>
        <link>https://www.paradigmadigital.com/transformacion-organizacional-rev/ai-xp-manifiesto-craftsmanship-era-ia/</link>
        <pubDate>Mon, 20 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/transformacion-organizacional-rev/ai-xp-manifiesto-craftsmanship-era-ia/</guid>
        <description>La IA acelera la producción de software, pero también puede acelerar la deuda técnica, la confusión y la pérdida de control. Por eso tiene sentido hablar de AI-XP: usar la velocidad que aporta la IA dentro de un marco que garantice calidad, aprendizaje y sostenibilidad. Te contamos cómo aprovechar su potencial con la IA
</description>
        <content:encoded>
            <![CDATA[
                <p>En el ecosistema del desarrollo de software, cuando hablamos de <strong>metodologías ágiles</strong>, Scrum y Kanban suelen ser los protagonistas indiscutibles, dejando a menudo a <strong>Extreme Programming (XP) como &quot;el gran olvidado&quot;</strong>.</p>
<p>Sin embargo, para el perfil de Manager/Scrum Master/ Flow Master que busca no solo organizar tareas, sino <strong>garantizar la excelencia técnica y la sostenibilidad del equipo</strong>, pasar por alto XP es un error estratégico. Mientras otros marcos se centran en el flujo de gestión, XP pone el foco en la trinchera, en <strong>cómo se construye el producto para que sea robusto, flexible y rentable</strong>.</p>
<h2 class="block block-header h--h30-15-400 left  ">¿Qué es XP?</h2>
<p>Si nunca has profundizado en XP, piensa en ello no como una invención radical, sino como una <strong>recopilación de aquello que funciona</strong>. Del mismo modo que J.R.R. Tolkien no inventó los mitos de elfos y enanos, sino que recopiló y sistematizó siglos de folclore europeo para crear una mitología coherente y funcional, Kent Beck hizo lo mismo con la ingeniería de software a finales de los ‘90.</p>
<article class="block block-image  -inline-block -like-text-width -center lazy-true"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/que_es_extreme_programming_7b616f493f.jpg"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/que_es_extreme_programming_7b616f493f.jpg 1920w,https://www.paradigmadigital.com/assets/img/resize/big/que_es_extreme_programming_7b616f493f.jpg 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/que_es_extreme_programming_7b616f493f.jpg 910w,https://www.paradigmadigital.com/assets/img/resize/small/que_es_extreme_programming_7b616f493f.jpg 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="gráfico circular. el punto de inicio es &quot;on site customer&quot; y podemos ir hacia la derecha o hacia la izquierda. hacia la derecha vamos a test driven development (tdd), two linked minds, sustainable pace, code as documentation, collective code ownership. hacia la izquierda, vamos a pair programming y a collective code ownership" title="Qué es Extreme Programming"/></article>
<p>Beck no inventó las pruebas, ni la revisión de código, ni la comunicación con el cliente. Lo que hizo XP fue <strong>recopilar estas &quot;buenas prácticas&quot; aisladas</strong>, que la industria ya sabía que mejoraban la calidad, <strong>y llevarlas al extremo de su efectividad</strong>, ordenándolas bajo un criterio unificado.</p>
<p>A parte de la excelencia en las buenas prácticas técnicas, en XP también destacó la <strong>importancia de tener lo que hoy entendemos por Product Owner</strong> presencialmente junto al equipo (<a href="http://www.extremeprogramming.org/rules/customer.html" target="_blank">on-site customer</a>) para mejorar la conversación entre negocio y desarrollo (en aquel momento denominado “cliente”). Además, una de las aportaciones de XP al Agilismo, y la que tal vez sea la más recordada, son las <strong>Historias de Usuario</strong> tal y como las conocemos hoy (con las <a href="https://ronjeffries.com/xprog/articles/expcardconversationconfirmation/" target="_blank">3 C’s</a>) para tumbar los requisitos pesados y difíciles de entender por el Dev Team.</p>
<p>En definitiva XP es un marco diseñado para <strong>reducir el riesgo en proyectos con requisitos vagos o cambiantes</strong> aplicando buenas prácticas técnicas, favoreciendo la comunicación entre las partes y descartando aquello que no se necesita en este momento. En resumen: <strong>priorizando la satisfacción del cliente y la calidad del software</strong>.</p>
<p>Hasta aquí el <strong>resumen rápido</strong> de lo que es XP para aquellos que no fueron a clase ese día.<br>
<strong>Pero cuidado</strong>: creer que XP es <em>solo</em> esto (un puñado de buenas prácticas de programación) es como leer la siguiente sinopsis: <em>&quot;es la historia de una familia disfuncional en el espacio&quot;</em> y creer que ya conoces la saga de Star Wars.</p>
<p>Lo que esa sinopsis omite es el verdadero valor para quien lidera el equipo. <strong>XP es un sistema de gestión de riesgos y seguridad psicológica</strong>.<br>
XP asume que <strong>la agilidad sin excelencia técnica acaba convirtiéndose en una fábrica de deuda técnica</strong>. Por eso, crea una red de seguridad inquebrantable (a través de pruebas automatizadas, integración continua y diseño simple) que garantiza que el equipo pueda ir rápido, adaptar cambios constantes y no sufrir burnout en el proceso. Es la garantía de que la velocidad no destruya la calidad.</p>
<p>Y es precisamente este <strong>dilema entre velocidad y seguridad</strong> el que nos golpea de lleno en la actualidad.</p>
<p>Hoy tenemos en nuestras manos el <strong>mayor acelerador de producción de la historia: la Inteligencia Artificial Generativa</strong>. Pero generar código a una velocidad vertiginosa no es lo mismo que generar código mantenible o correcto. <strong>¿Cómo gobernamos esta nueva hiper-velocidad sin quemar al equipo ni romper el producto?</strong> La respuesta lleva casi 30 años inventada.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Una nueva esperanza: evolucionando XP con Inteligencia Artificial</h2>
<p>¿Cómo encaja este marco de los ‘90 en la era de la IA Generativa? La realidad es que la irrupción de la IA no hace que XP sea obsoleto, al contrario, lo convierte en la <strong>estructura de seguridad necesaria</strong> para esta nueva velocidad. Estamos ante el <strong>nacimiento del AI-XP</strong> (<a href="https://dev.to/dev3l/ai-concept-to-code-integrating-ai-into-agile-development-5ai8" target="_blank">término usado por Justin Beall</a>).</p>
<p>La integración de la IA en XP no es solo usar herramientas de autocompletado, es una <strong>evolución sistémica</strong> que potencia los principios originales del marco a través de tres bucles de retroalimentación modernizados. Según Justin Beall, estos bucles son:</p>
<ol>
<li><strong>VISION (Planificación)</strong>. Donde antes dependíamos solo de la intuición humana para definir objetivos a largo plazo, ahora la IA puede analizar datos de mercado para alinear el &quot;Planning Game&quot; de XP con necesidades reales y predicciones de tendencias.</li>
<li><strong>ADAPT (Iteraciones ágiles)</strong>. La IA actúa como un facilitador que mejora la capacidad de respuesta. Puede ayudar a descomponer historias de usuario complejas y asegurar que todo el equipo entienda los criterios de aceptación, eliminando la ambigüedad en la comunicación.</li>
<li><strong>LEAP (Ejecución diaria)</strong>. Aquí es donde la práctica clásica del <em>Pair Programming</em> evoluciona hacia el <strong>&quot;AI Pairing&quot;</strong>. La IA asume las tareas rutinarias y de generación de código base, permitiendo que la persona de desarrollo, que llamaremos &quot;navegante&quot;, se centre en la estrategia, la seguridad y el diseño.</li>
</ol>
<article class="block block-image  -inline-block -like-text-width -center lazy-true"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/ai_xp_futuro_desarrollo_agil_inteligencia_artificial_d2346e0317.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/ai_xp_futuro_desarrollo_agil_inteligencia_artificial_d2346e0317.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/ai_xp_futuro_desarrollo_agil_inteligencia_artificial_d2346e0317.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/ai_xp_futuro_desarrollo_agil_inteligencia_artificial_d2346e0317.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/ai_xp_futuro_desarrollo_agil_inteligencia_artificial_d2346e0317.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="AI-XP: el futuro del desarrollo ágil con inteligencia artificial" title="AI-XP"/></article>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Las nuevas paradojas del AI-XP</h2>
<p>Antes de cantar victoria y asumir que la IA más las prácticas de los '90 resolverán todos nuestros problemas, como líderes técnicos y de gestión debemos pararnos a reflexionar. La adopción de este nuevo modelo trae consigo <strong>paradojas e incertidumbres</strong> que cambiarán las reglas del juego:</p>
<ul>
<li><strong>La paradoja de las historias de usuario</strong></li>
</ul>
<p>En su origen, XP nos liberó de los tediosos documentos de requisitos de cientos de páginas creando las historias de usuario (promesas de una conversación escritas en un par de líneas). Sin embargo, hoy, para que un modelo de IA no alucine y genere código útil, necesitamos nutrirlo con un contexto profundísimo (SPECs hiper-detalladas, prompts exhaustivos, reglas de negocio escritas). <strong>¿Estamos volviendo a la era de la hiper-documentación técnica solo para que la máquina nos entienda?</strong> El reto será que el exceso de especificaciones para la IA no mate la conversación entre humanos.</p>
<ul>
<li><strong>La redefinición del &quot;equipo híbrido&quot;</strong></li>
</ul>
<p>Hace apenas un par de años, el gran debate en el management era cómo gestionar equipos híbridos, refiriéndonos exclusivamente a la dicotomía entre trabajo presencial y 100% remoto. Hoy, el concepto ha mutado radicalmente: <strong>un equipo híbrido moderno es el formado por mentes humanas y agentes de Inteligencia Artificial</strong>. Gestionar la confianza, las expectativas y el flujo de trabajo en esta nueva convivencia es el verdadero desafío del Agile Coach de esta década.</p>
<ul>
<li><strong>La IA como el nuevo &quot;silo de conocimiento&quot;</strong></li>
</ul>
<p>XP promovía la Propiedad Colectiva del Código para evitar que el conocimiento residiera en una sola persona (el temido &quot;bus factor&quot;). Pero, ¿qué ocurre si la IA escribe la mayor parte de la base de código y los equipos de desarrollo se limitan a hacer aprobaciones rápidas? Corremos el riesgo de <strong>convertir a la IA en una &quot;caja negra&quot;</strong>, perdiendo el control y la comprensión profunda de nuestro propio producto.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Retorno a la humanidad</h2>
<p>Como conclusión, <strong>la IA tiene el potencial de acelerar la producción de software, pero también de acelerar el caos si no hay gobierno</strong>, y XP proporciona ese gobierno. Al automatizar la complejidad técnica y la generación de código rutinaria, la IA permite que XP cumpla su promesa original más ambiciosa: <strong>humanidad y respeto</strong>.</p>
<p>Al liberarnos de la tarea mecánica de &quot;picar código&quot; repetitivo, los equipos pueden centrarse en lo que XP siempre valoró más: la <strong>creatividad</strong>, la <strong>resolución de problemas complejos</strong> y la <strong>colaboración humana de alto valor</strong>. XP no ha muerto, simplemente ha encontrado, treinta años después, la herramienta perfecta para alcanzar su máximo potencial.</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Raúl Martínez ]]>
        </dc:creator>
        <title>Pipeline NLP para análisis de riesgos: de documentos no estructurados a JSON estructurado</title>
        <link>https://www.paradigmadigital.com/dev/pipeline-nlp-analisis-riesgos-documentos-no-estructurados-json-estructurado/</link>
        <pubDate>Wed, 15 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/pipeline-nlp-analisis-riesgos-documentos-no-estructurados-json-estructurado/</guid>
        <description>La información crítica no suele venir en una tabla SQL. Llega en PDFs, correos urgentes o informes caóticos. En este post contamos cómo un pipeline de NLP puede clasificar, extraer contexto y convertir todo eso en JSON estructurado para analizar riesgos en tiempo real.
</description>
        <content:encoded>
            <![CDATA[
                <p>En el mundo real (y sobre todo en banca o seguros), <strong>la información crítica no viene en una tabla de SQL</strong>. Viene en PDFs, correos urgentes o informes de incidencias escritos a mano alzada. Si tienes que analizar 2.000 de estos al día, o tienes un ejército de personas leyendo o te montas algo automático.</p>
<p>En este post os quiero enseñar <strong>cómo diseñé un pipeline de NLP</strong> para atacar este problema. No es solo &quot;meter IA por meter&quot;, sino crear un flujo lógico que clasifica, extrae y limpia la información por nosotros. Lo bueno de este enfoque es que, con un par de ajustes, te sirve igual para riesgos que para clasificar tickets de soporte o contratos legales.</p>
<p>Lo que vamos a construir hace cuatro cosas clave:</p>
<ul>
<li><strong>Prioriza</strong>. ¿Esto es un incendio o un aviso rutinario?</li>
<li><strong>Etiqueta</strong>. ¿Es fraude, un fallo técnico o un tema legal?</li>
<li><strong>Detecta datos</strong>. Saca IPs, cuentas, correos... lo &quot;duro&quot;.</li>
<li><strong>Entiende el contexto</strong>. Identifica qué leyes o empresas se mencionan.</li>
</ul>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">La arquitectura del flujo (Keep it simple)</h2>
<p>No hace falta complicarse la vida con modelos gigantes para todo. Aquí combinamos <strong>lógica de negocio (reglas)</strong> con <strong>modelos estadísticos</strong>.</p>
<p>El <strong>flujo</strong> es este:</p>
<p>Documento bruto → Clasificador de Urgencia → Etiquetado de Riesgos → Extractor de Datos Técnicos → NER (Entidades) → <strong>JSON Estructurado</strong>.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Un caso real para probarlo</h2>
<p>Para que no sea todo teoría, vamos a usar este <strong>aviso de incidencia</strong> (me lo he inventado, pero es muy parecido a lo que te podrías encontrar en un sistema real):</p>
<p><strong>ALERTA DE RIESGO OPERACIONAL - ID-2026-00142</strong> Se ha detectado un fallo crítico en el sistema de procesamiento de transacciones... afecta a tarjetas de crédito. Empezó a las 14:23 UTC y afecta a unos 15.000 clientes. <strong>Datos</strong>: IP 192.168.1.50 | Error: ERR-DB-TIMEOUT | TXNs: TXN-A7B3C9D2, TXN-F4E8A1B6. <strong>Ojo</strong>: Supera el umbral del 0.5% de la MiFID II. Hay que avisar a la CNMV.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Clasificando la quemazón: criticidad</h2>
<p>Lo primero es saber si tenemos que mandar un mensaje al jefe o si puede esperar a mañana. Para esto, usamos un <strong>sistema de pesos</strong>. Si aparecen palabras como &quot;sanción&quot; o &quot;fraude&quot;, el score sube como la espuma.</p>
<pre><code class="language-python">class CriticalityClassifier:
    def __init__(self):
        # Aquí definimos qué nos quita el sueño
        self.keywords_critico = {'fraude': 10, 'pérdida': 10, 'incumplimiento': 10, 'multa': 10}
        self.keywords_alto = {'riesgo': 7, 'alerta': 6, 'fallo': 5}
        # ... (otros niveles)

    def _calculate_scores(self, text: str):
        text_lower = text.lower()
        # Sumamos puntos según lo que encontremos
        return {
            'critico': sum(w for k, w in self.keywords_critico.items() if k in text_lower),
            'alto': sum(w for k, w in self.keywords_alto.items() if k in text_lower),
            # ...
        }
</code></pre>
<p><strong>Resultado</strong>: en nuestro ejemplo, nos daría un nivel <strong>ALTO</strong> con una confianza del 57%. Suficiente para disparar una alerta automática.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">¿De qué estamos hablando? (Categorías)</h2>
<p>Un documento puede ser de varias cosas a la vez. Por ejemplo: <strong>tecnológico</strong> (caída de servidor) y <strong>cumplimiento</strong> (incumplimos una norma). He usado patrones de Regex precompilados porque, sinceramente, para palabras clave específicas son mucho más rápidos y baratos que una red neuronal.</p>
<pre><code class="language-python"># Un pequeño mapa de qué buscar para cada riesgo
self.category_keywords = {
    'operacional': ['fallo', 'error', 'caída', 'incidencia técnica'],
    'cumplimiento': ['normativa', 'sanción', 'cnmv', 'mifid'],
    'ciberseguridad': ['ataque', 'malware', 'hackeo', 'brecha']
}
</code></pre>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Extracción de &quot;hilos&quot; técnicos</h2>
<p>Aquí es donde el <strong>NLP brilla ahorrando tiempo</strong>. En lugar de que un analista copie y pegue las IPs o los códigos de error, dejamos que las expresiones regulares hagan el trabajo sucio.</p>
<p>Sacamos a la vez:</p>
<ul>
<li><strong>IPs</strong>: 192.168.1.50</li>
<li><strong>IDs de transacción</strong>: TXN-A7B3C9D2</li>
<li><strong>Emails</strong>: incidencias@banco-ejemplo.com</li>
</ul>
<h2 class="block block-header h--h30-15-400 left  ">NER. ¿Quién es quién?</h2>
<p>Para extraer entidades (organizaciones, leyes, productos), uso <strong>spaCy</strong>. Es la navaja suiza para esto. Le añadimos un diccionario personalizado porque spaCy sabe qué es una &quot;persona&quot;, pero a veces le cuesta entender qué es la &quot;MiFID II&quot; o la &quot;CNMV&quot; si no se lo decimos.</p>
<pre><code class="language-python"># Combinamos spaCy con nuestras propias reglas de dominio
self.custom_entities = {
    'normativas': ['mifid ii', 'gdpr', 'pci dss'],
    'organismos': ['cnmv', 'bce', 'banco de españa']
}
</code></pre>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">El resultado final: JSON</h2>
<p>Al final, el pipeline nos escupe algo así de limpio:</p>
<pre><code class="language-json">{
  &quot;criticality&quot;: &quot;alto&quot;,
  &quot;categories&quot;: [&quot;operacional&quot;, &quot;cumplimiento&quot;, &quot;tecnológico&quot;],
  &quot;indicators&quot;: {
    &quot;ipv4&quot;: [&quot;192.168.1.50&quot;],
    &quot;error_code&quot;: [&quot;ERR-DB-TIMEOUT&quot;]
  },
  &quot;entities&quot;: {
    &quot;normativas&quot;: [&quot;MiFID II&quot;],
    &quot;organismos&quot;: [&quot;CNMV&quot;]
  }
}
</code></pre>
<h2 class="block block-header h--h30-15-400 left  ">¿Esto escala?</h2>
<p>Si lo lanzas de forma secuencial, te puede dar el sueño. Pero usando ThreadPoolExecutor en Python, he conseguido procesar unos <strong>1.500 documentos por minuto</strong>. Para la mayoría de empresas, eso sobra para procesar todo el flujo de entrada en tiempo real.</p>
<ul>
<li><strong>Métricas reales:</strong></li>
<li><strong>Latencia</strong>: 38ms (vuela).</li>
<li><strong>Precisión</strong>: ~95% (el 5% restante suele ser lenguaje muy ambiguo que requiere ojo humano).</li>
</ul>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Conclusión</h2>
<p>Automatizar esto no es solo por ahorrar costes, es por <strong>reacción</strong>. Si un sistema detecta un incumplimiento normativo en 40 milisegundos, puedes mitigar el riesgo antes de que se convierta en una multa millonaria.</p>
<p>¿Qué opináis? ¿Meteríais modelos más pesados tipo Transformer (BERT/LLMs) o creéis que para clasificación de riesgos este enfoque híbrido es más estable? Os leo en comentarios.</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Sergio Recio ]]>
        </dc:creator>
        <title>Podcast - Desarrollo de software con IA: SDD y la gobernanza del conocimiento corporativo</title>
        <link>https://www.paradigmadigital.com/dev/podcast-desarrollo-software-ia-sdd-y-gobernanza-conocimiento-corporativo/</link>
        <pubDate>Tue, 14 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/podcast-desarrollo-software-ia-sdd-y-gobernanza-conocimiento-corporativo/</guid>
        <description>Cómo integrar IA en arquitecturas complejas con RAG y MCP: pasa del prompt al conocimiento corporativo para escalar el desarrollo de software.
</description>
        <content:encoded>
            <![CDATA[
                <p>La generación de código con inteligencia artificial ha dejado de ser una curiosidad para convertirse en una herramienta cotidiana dentro del desarrollo de software.</p>
<p><strong>Hoy es difícil encontrar un equipo técnico que no utilice asistentes como GitHub Copilot, Cursor o modelos conversacionales como Claude para acelerar tareas, resolver dudas o construir fragmentos de código con mayor rapidez</strong>.</p>
<iframe id="" class="block block-iframe -like-text-width" src="https://open.spotify.com/embed/episode/1FYEhKHqD7Z4IkXXFsl3ie?utm_source=generator&amp;theme=0" style="height:240px;  width:100%;"></iframe>
<p>La promesa inicial se ha cumplido en buena medida: <strong>escribir código es hoy más rápido que hace apenas dos años</strong>. Sin embargo, cuando el desarrollo sale del terreno individual y entra en el contexto de una gran organización, aparecen límites muy claros.</p>
<p>Porque una cosa es generar código que funciona y otra muy distinta generar código que encaja dentro de una arquitectura empresarial compleja, respeta estándares internos y sigue reglas técnicas que muchas veces no están escritas en un prompt.</p>
<p>Ese es precisamente uno de los grandes debates actuales en torno al llamado <em>vibe coding</em>: la idea de interactuar con la IA de forma casi conversacional, describiendo lo que se necesita y dejando que el modelo complete el resto.</p>
<p><strong>En proyectos pequeños o prototipos rápidos puede resultar extremadamente eficaz</strong>, pero <strong>en sistemas corporativos con años de evolución</strong>, múltiples equipos y dependencias cruzadas, <strong>el contexto local ya no basta</strong>.</p>
<p>El problema de fondo es que <strong>estos asistentes trabajan, en la mayoría de los casos, con una visión parcial del sistema</strong>. Ven el archivo abierto, algunas referencias cercanas y las instrucciones inmediatas del desarrollador/a, pero <strong>no tienen acceso real a la fotografía completa de la organización</strong>: ni conocen las librerías aprobadas, ni distinguen qué patrones arquitectónicos son obligatorios, ni saben qué decisiones previas condicionan una implementación concreta.</p>
<p>Por eso, <strong>uno de los riesgos más frecuentes es que la IA produzca código técnicamente correcto, pero incompatible con el ecosistema real de la compañía</strong>.</p>
<p>Puede introducir dependencias no autorizadas, repetir soluciones ya resueltas internamente o romper convenciones críticas de diseño. <strong>A medida que crece el tamaño del sistema, también crece la entropía del software generado si no existe una guía estructurada</strong>.</p>
<p>En ese punto, la conversación deja de ser puramente sobre productividad y pasa a ser una cuestión de gobernanza tecnológica.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Del prompt aislado al conocimiento corporativo estructurado</h2>
<p>La respuesta que muchas organizaciones están empezando a explorar consiste en <strong>dejar de tratar la IA como un simple asistente conversacional y empezar a integrarla dentro de una arquitectura de conocimiento empresarial</strong>.</p>
<p>Aquí es donde aparecen conceptos como <strong>RAG, MCP y SDD</strong>, tres piezas que juntas cambian completamente el enfoque.</p>
<p>El primero, <strong>Retrieval-Augmented Generation o RAG, permite que el modelo no dependa únicamente de su entrenamiento general</strong>, sino que consulte conocimiento interno antes de responder. Pero no basta con almacenar código sin más. La diferencia real aparece cuando ese conocimiento se organiza con jerarquía.</p>
<p><strong>No todo el código tiene el mismo valor</strong>. Hay documentación, librerías comunes, aplicaciones históricas y, sobre todo, proyectos de referencia que representan cómo debe hacerse realmente una implementación dentro de la organización.</p>
<p>La IA necesita distinguir entre cualquier fragmento heredado y aquello que verdaderamente define el estándar interno.</p>
<p><strong>Ese conocimiento estructurado es lo que permite que una respuesta deje de ser genérica y pase a parecerse al modo real de construir software dentro de una compañía</strong>.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">MCP: el estándar que conecta la IA con el ecosistema real de desarrollo</h2>
<p>La segunda pieza es <strong>MCP</strong>, un protocolo que está ganando protagonismo porque <strong>resuelve uno de los grandes problemas actuales: cómo conectar modelos de IA con herramientas corporativas sin crear integraciones frágiles</strong>.</p>
<p>En lugar de enlazar cada modelo con cada sistema interno de forma individual, MCP actúa como una capa estándar de conexión. Eso <strong>permite que distintos modelos puedan consultar las mismas fuentes sin depender de integraciones duplicadas</strong>.</p>
<p>En la práctica, esto significa que un modelo puede consultar información funcional de Jira, recuperar ejemplos del repositorio interno, acceder a convenciones por lenguaje o framework y mantener sesiones de trabajo consistentes sin que importe demasiado si detrás está Claude, GPT o cualquier otro modelo.</p>
<p><strong>La clave no es solo conectar herramientas, sino desacoplar el conocimiento del modelo concreto que se esté utilizando</strong>.</p>
<p>Eso aporta algo especialmente valioso en entornos corporativos: flexibilidad tecnológica sin rehacer toda la arquitectura cada vez que cambia el modelo dominante.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">El gran cambio: dejar de pedir código y empezar pidiendo intención</h2>
<p>Donde realmente cambia el paradigma es en el flujo de trabajo. En el enfoque tradicional de asistentes, el/la desarrollador/a abre el IDE, redacta una instrucción y espera código.</p>
<p>Todo ocurre dentro de una conversación más o menos sofisticada. Pero cuando se trabaja con especificaciones guiadas, el proceso empieza antes del código.</p>
<p><strong>Lo primero no es generar una implementación, sino una propuesta de cambio</strong>. A partir de una necesidad funcional o de una historia de usuario, el sistema construye una cadena de artefactos: especificaciones, diseño técnico, escenarios concretos y tareas de implementación. La IA deja de improvisar y empieza a trabajar sobre una intención formalizada.</p>
<p>Esto tiene una consecuencia importante: <strong>el contexto deja de depender de una conversación efímera y pasa a convertirse en un activo persistente</strong>.</p>
<p>Uno de los grandes límites del llamado <em>context engineering</em> es precisamente su fragilidad. Cada desarrollador/a construye manualmente el contexto que entrega al modelo, decide qué archivos incluir, qué ejemplos mostrar y qué instrucciones reforzar. <strong>Ese contexto desaparece cuando termina la sesión y no deja rastro verificable</strong>.</p>
<p>Además, cuando el volumen crece demasiado, aparece un fenómeno cada vez más conocido: <strong>la saturación de contexto</strong>. El modelo empieza a priorizar unas señales sobre otras, atiende menos a ciertas restricciones y pequeños ajustes pueden desalinear requisitos previamente bien resueltos. La IA no se vuelve inconsistente por azar: simplemente compite por atención dentro de una ventana finita.</p>
<p><strong>Por eso el enfoque basado en especificaciones gana fuerza</strong>. Porque las <em>specs</em> se convierten en el verdadero contexto: estructurado, persistente, versionado y auditable.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Cuando el código no es la única fuente de verdad</h2>
<p>En este modelo, <strong>el código ya no es el único artefacto importante</strong>. Cada decisión queda acompañada de su intención original, su diseño técnico y su validación funcional. Si algo cambia, no se corrige directamente el código: se actualiza la especificación y la implementación evoluciona desde ahí.</p>
<p>Esto transforma también el proceso de revisión. En un <em>pull request</em>, el revisor ya no ve únicamente líneas nuevas o modificadas. Ve también por qué se hizo ese cambio, qué problema resuelve y qué criterios guiaron la implementación.</p>
<p><strong>El contexto viaja junto al código</strong>, y eso mejora radicalmente tanto la calidad del review como el onboarding de nuevos perfiles en el proyecto.</p>
<h2 class="block block-header h--h30-15-400 left  ">¿Funciona de verdad en sistemas complejos?</h2>
<p><strong>La pregunta crítica es si todo esto resiste cuando el entorno deja de ser controlado y aparece la complejidad real</strong>: monolitos heredados, migraciones cloud, plataformas híbridas, integraciones con Kubernetes, Terraform o Apache Kafka. Y <strong>precisamente ahí es donde más sentido cobra</strong>.</p>
<p>En un sistema heredado de cientos de clases, el contexto manual simplemente deja de ser viable. No cabe en la ventana del modelo ni es razonable esperar que un/a desarrollador/a decida manualmente qué partes son relevantes en cada momento.</p>
<p><strong>Una de las aplicaciones más interesantes de este enfoque es la modernización de software legacy</strong>. La IA puede analizar módulos antiguos y generar especificaciones formales de comportamiento. No captura todo desde el primer momento, pero sí una parte muy significativa que luego puede refinarse iterativamente.</p>
<p>Esas especificaciones pasan a ser el puente entre el sistema heredado y la nueva arquitectura. Lo importante es que el conocimiento extraído persiste. <strong>Un prompt desaparece, una especificación permanece</strong>.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">El “100% automático” sigue sin ser realista</h2>
<p>A pesar del avance, <strong>el objetivo NO es que la IA entregue software listo para producción sin intervención humana</strong>. Actualmente, <strong>incluso en los mejores escenarios, el resultado suele situarse en torno al 80% o 90% del trabajo útil</strong>. El resto sigue requiriendo criterio técnico, validación y comprensión profunda del sistema.</p>
<p>Existe además un riesgo menos visible: el <em>knowledge lag</em>. Si todo lo hace la IA y el/la desarrollador/a deja de recorrer mentalmente el código, termina perdiendo conocimiento real sobre el sistema que mantiene.</p>
<p><strong>Ese último tramo que todavía exige intervención humana no es una limitación accidental: es también una garantía de control</strong>.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Lo que probablemente veremos en los próximos años</h2>
<p>El debate ahora no es si habrá agentes autónomos o no, sino dónde encajan mejor. <strong>En tareas repetitivas, scaffolding masivo o migraciones mecánicas, la orquestación pura de agentes tiene mucho sentido</strong>.</p>
<p>Pero cuando entra en juego lógica de negocio compleja, auditoría, cumplimiento normativo o arquitectura crítica, el enfoque cambia. Porque <strong>en una gran empresa no basta con que el código funcione, también debe poder explicarse, trazarse, revisarse y sostenerse en el tiempo</strong>.</p>
<p>Y ahí es donde modelos basados en especificaciones, conocimiento corporativo y control arquitectónico parecen estar marcando ya el camino de 2026.</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Cristina Redondo ]]>
        </dc:creator>
        <title>La importancia de los datos cálidos en procesos de cambio y optimización</title>
        <link>https://www.paradigmadigital.com/transformacion-organizacional-rev/importancia-datos-calidos-procesos-cambio-optimizacion/</link>
        <pubDate>Mon, 13 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/transformacion-organizacional-rev/importancia-datos-calidos-procesos-cambio-optimizacion/</guid>
        <description>Los KPIs explican qué pasa en un proceso, pero no por qué pasa. Para entenderlo necesitamos datos cálidos: relaciones, confianza, cultura y contexto. Sin ellos, cualquier optimización se queda en la superficie. Te enseñamos cómo equilibrarlos con los datos fríos en este post
</description>
        <content:encoded>
            <![CDATA[
                <p>En plena era de la IA, la automatización y la obsesión por lo cuantificable, seguimos encontrando un problema fundamental sin resolver: <strong>los modelos que construimos no explican la realidad que vivimos</strong>. ¿Por qué? Porque representar datos y procesos no es suficiente, ya que no capturan la complejidad de los <strong>sistemas vivos, las interacciones</strong>.</p>
<p><strong>Una de las obsesiones de la Sociología es precisamente esto, acercarse a una representación acertada de la realidad</strong> y, por tanto, de la complejidad (<strong>porque la realidad siempre es compleja</strong>).</p>
<p>Aquí es donde entran los <strong>datos cálidos</strong>: información relacional y transcontextual que nos permite entender cómo se sostiene (o se bloquea) un sistema más allá de los KPIs.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Datos fríos vs. datos cálidos (una distinción útil)</h2>
<ul>
<li><strong>Datos fríos</strong> (Hard, Cold Data): lo medible y comparable. Tiempos, costes, throughput, errores, colas, desviaciones.</li>
<li><strong>Datos cálidos</strong> (Warm Data): lo que conecta y da sentido a lo anterior. Confianza, normas implícitas, tensiones, compromisos, “lo que no se dice”, miedos, historias compartidas, contexto social y cultural, lo que en Sociología se conoce como “interacciones”.</li>
</ul>
<p>Ambos son necesarios. El problema empieza cuando intentamos optimizar solo lo que se puede medir “fácilmente”.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Tres tesis para mirar organizaciones como sistemas vivos</h2>
<p>Este tema fue parte fundamental del trabajo de <strong>Gregory Bateson</strong>, filósofo, sociólogo y cibernetista, como después lo fue (y es) de sus hijas Cathy y <a href="https://neurocognitiveacademy.org/nora-bateson/" target="_blank">Nora Bateson</a>. Las <a href="https://batesoninstitute.org/" target="_blank">tesis de la familia</a> sobre lo que tener en cuenta al analizar ecosistemas como las organizaciones, son estas:</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">1 <span class="enum-header"></span> La tesis de la transcontextualidad</h3>
<p><strong><em>“Ningún proceso existe en un solo contexto.&quot;</em></strong></p>
<p>En el diseño de procesos tradicional (<a href="https://es.wikipedia.org/wiki/Business_Process_Model_and_Notation" target="_blank">Business Process Model and Notation</a> - BPMN), solemos aislar el proceso (ej. &quot;Aprobación de crédito&quot;). Para los Bateson, esto es un <strong>error funcional de simplificación</strong>. Los datos cálidos aportan esa  <strong>información transcontextual</strong>: el proceso de aprobación está &quot;marinado&quot;, como poco, con el contexto económico, el clima laboral de la oficina, la vida familiar del empleado y la cultura tecnológica de la empresa.</p>
<p><strong>Aplicación en procesos</strong></p>
<p>El <em>Process Mining</em> puede detectar ineficiencias técnicas como un retraso (dato frío). Los datos cálidos pueden explicar que el retraso ocurre porque el empleado prioriza la relación con el cliente sobre la métrica del sistema para evitar un conflicto cultural.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">2 <span class="enum-header"></span> La tesis de la relacionalidad</h3>
<p><strong><em>&quot;La inteligencia no está en las partes, sino en las relaciones entre ellas.&quot;</em></strong></p>
<p>Gregory Bateson argumentaba que para entender un sistema no debemos mirar a los sujetos, sino a los mensajes que intercambian. Nora extiende esto, afirmando que los datos cálidos describen las <strong>interdependencias</strong> que mantienen vivo al sistema.</p>
<p>El dato frío mide el desempeño de un silo; el dato cálido mide la salud de la conexión entre silos.</p>
<p><strong>Aplicación en procesos</strong></p>
<p>En un DTO (Digital Twin of the Organization) no basta con modelar tareas. Hay que modelar la &quot;adherencia&quot; y la confianza al proceso, ya que este puede ser técnicamente óptimo pero relacionalmente tóxico, lo que garantiza su fracaso a largo plazo.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">3 <span class="enum-header"></span> La tesis de la coalescencia</h3>
<p><strong><em>&quot;Los cambios reales en sistemas complejos son procesos invisibles de coalescencia.&quot;</em></strong></p>
<p>Esta tesis sostiene que antes de que un cambio sea visible en un KPI (dato frío), ocurre una &quot;<em><a href="https://journals.isss.org/index.php/jisss/article/view/3887" target="_blank">Aphanipoiesis</a></em>&quot;: una acumulación de pequeñas variaciones en las relaciones y percepciones (datos cálidos), sutiles pero que varían el sistema. Lo “coalescen”, (como cuando varias gotas de lluvia se unen para formar una más grande). Si solo gestionamos lo que se mide (dato frío) y obviamos la coalescencia de variables, llegaremos tarde a la crisis o a la oportunidad.</p>
<p><strong>Aplicación en procesos</strong></p>
<p>Por ejemplo, en el desempeño de su trabajo, un Agile Coach no solo busca &quot;velocidad de quemado&quot;, busca los cambios en la comunicación del equipo que preceden a un aumento de eficiencia. Antes de que un equipo sea &quot;ágil&quot; formalmente, (eventos, artefactos…dato frío), ocurre una “coalescencia de confianza, lenguaje común y entendimiento de reglas tácitas”. Si el consultor no ve esta coalescencia, intentará desplegar un proceso sobre un terreno que aún no ha fusionado sus raíces, con un alto riesgo de fracaso. Los datos cálidos permiten una <strong>orquestación proactiva</strong>, detectando la fatiga del sistema antes de que el log de eventos muestre una caída en el rendimiento.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Los datos cálidos en un proceso: un ejemplo práctico enriqueciendo el VSM</h2>
<p>Imagina que <strong>mapeas un proceso y lo representas en un Value Stream Map</strong>: extraes una matriz SIPOC, tomas tiempos de actividades y tareas, clasificas ineficiencias, confirmas hipótesis. Así, detectas que un proceso administrativo tiene un <strong>30% de desperdicio en tiempo de espera</strong>. Los datos fríos pueden sugerir una respuesta de automatización, pero los warm data pueden revelar que la demora se debe a la falta de confianza entre equipos, miedo a cometer errores, desuso de herramientas o normas implícitas que frenan la agilidad.</p>
<p><strong>Sin esos datos relacionales, cualquier optimización es superficial y, muchas veces, contraproducente.</strong></p>
<p>Para una persona experta en optimización, ignorar los datos cálidos es como intentar entender un bosque analizando solo la madera de los árboles (datos fríos), sin mirar la simbiosis de las raíces y el clima que les afecta (datos cálidos).</p>
<p><strong>Una orquestación integral en 2026 requiere de ambos</strong>. Este enfoque puede marcar la diferencia entre una solución eficiente en papel y una transformación real y sostenible, una verdadera orquestación integrada que provea de horizontes razonables al área u organización optimizada.</p>
<p>Los datos cálidos han sido tradicionalmente menospreciados como &quot;datos blandos&quot;, subjetivos, alejados de lo científico. La sociología relacional demuestra que existen y, por ello, no se pueden obviar. Capturan <strong>relaciones</strong> en lugar de variables aisladas. En colaboración con los datos fríos que muestran lo cuantificable (costes, tiempos, rendimientos), los warm data nos ayudan a entender <strong>cómo las dinámicas humanas y culturales afectan esos números, entre ellas, con los procesos y con las máquinas, como profetizaba la Autonomación Lean TPS (<a href="https://www.paradigmadigital.com/rev/lean-it-eficiencia-optimizacion/" target="_blank">Jidoka</a>)</strong>.</p>
<h3 class="block block-header h--h20-175-500 left  ">¿Cómo integramos los datos cálidos en el análisis de procesos?</h3>
<p>Detectar y medir los datos cálidos puede ser desafiante, por eso han sido obviados, pero como comienzo, recomendamos:</p>
<ul>
<li><strong>Observar interacciones, no solo resultados</strong>. ¿Cómo se toman decisiones en la organización? ¿Qué conversaciones nunca suceden? ¿Por qué se eligen unas herramientas y no otras? ¿Cómo se relacionan los equipos de proyectos? ¿Cómo se eligen los criterios de validación? ¿Por qué? ¿Existen reglas implícitas? ¿Qué se considera un deshonor en ese equipo? ¿Y una traición?</li>
<li><strong>Analizar patrones de comportamiento en lugar de solo outputs</strong>. ¿Por qué ciertas ineficiencias persisten incluso con soluciones bien diseñadas? ¿Estamos automatizando ineficiencias no detectadas por comportamientos?</li>
<li><strong>Incluir múltiples perspectivas</strong>. No basta con los datos operativos, se necesita entender la experiencia vivida por las personas en el sistema. Si las entienden, las aceptan y qué emociones suscitan. ¿Qué modelos de liderazgo existen, cómo se trasladan e influyen? <em>#diversitymatters</em></li>
<li>Por último, <strong>cuestiona tus propias acciones de optimización</strong>. ¿La optimización reduce realmente la carga cognitiva o solo redistribuye el esfuerzo? ¿El cambio organizacional es adoptado o simplemente “tolerado” hasta que se revierta? Cuando el perfil de consultoría se marcha, ¿la eficiencia lograda mantiene la cohesión y confianza en los equipos o la fragmenta por competir?</li>
</ul>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Datos cálidos y agilidad: el vínculo natural</h2>
<p>Los marcos ágiles y Lean enfatizan la adaptación y la mejora iterativa. <strong>Establecer un marco de trabajo es establecer un marco de convivencia y alineamiento y, en eso, la agilidad ha invertido mucho esfuerzo</strong>. Sin embargo, sin una comprensión profunda de las relaciones y contextos invisibles, la mejora se queda en la superficie. Los datos cálidos permiten ver las resistencias al cambio, los valores culturales subyacentes y los impactos sistémicos de cualquier intervención.</p>
<p>En <strong>Paradigma Lean Papers</strong> hemos hablado de la <a href="https://www.paradigmadigital.com/rev/kata-ba-evolucion-lean-gestion-conocimiento/" target="_blank">importancia del BA (contexto)</a> para entender el sistema de trabajo, la vida diaria de los equipos, de la observación del Gen-ba como ecosistema viviente que es.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Conclusión</h2>
<p>En un mundo obsesionado con la precisión numérica, necesitamos recordar que las organizaciones y los procesos que la vertebran, son sistemas vivos.</p>
<p><strong>Si trabajas en optimización, ten presente que la complejidad es una experiencia. Si tus modelos no explican la realidad que viven los equipos, no estás optimizando, estás simplificando peligrosamente</strong>.</p>
<p>¿Cómo integras datos relacionales en tus proyectos ágiles? Te leo en comentarios 👇</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Referencias</h3>
<ul>
<li><a href="https://neurocognitiveacademy.org/nora-bateson/" target="_blank">Nora Bateson, Neurocognitive Academy</a></li>
<li><a href="https://batesoninstitute.org/" target="_blank">Bateson Institute</a></li>
<li><a href="https://www.warmdata.life/international-bateson-institute" target="_blank">Warm Data Labs, Bateson Institute</a></li>
<li><a href="https://journals.isss.org/index.php/jisss/article/view/3887" target="_blank">“Aphanipoiesis”, Nora Bateson</a></li>
</ul>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Fran Sánchez y Xavi Anaya ]]>
        </dc:creator>
        <title>Informe - Industria 2026: el salto hacia la supply chain autónoma</title>
        <link>https://www.paradigmadigital.com/techbiz/informe-industria-2026-salto-hacia-supply-chain-autonoma/</link>
        <pubDate>Wed, 08 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/techbiz/informe-industria-2026-salto-hacia-supply-chain-autonoma/</guid>
        <description>Informe Industria 2026: El salto a la supply chain autónoma. IA agéntica para blindar el margen y la eficiencia del sector industrial.
</description>
        <content:encoded>
            <![CDATA[
                <p>En 2026, el sector industrial ha cruzado el punto de no retorno. Tras años de experimentación, <strong>la IA ha dejado de ser una herramienta de consulta para convertirse en un motor de acción autónoma</strong> que redefine la resiliencia operativa y el EBITDA de las grandes compañías.</p>
<p>En este informe, <strong><a href="#formulario" target="_blank">Industria 2026: el salto hacia la supply chain autónoma</a></strong>, <strong>desgranamos las 5 tendencias que están marcando el paso en el sector de la Industria</strong>: desde la irrupción de la IA Agéntica y los Gemelos Digitales de Operación (DTO), hasta la soberanía del dato con Edge AI, la descarbonización predictiva (GreenOps) y la cobótica colaborativa de nueva generación.</p>
<p><strong>La volatilidad global, la escasez de talento y las exigencias de la AI Act no dan tregua</strong>. En este escenario, la autonomía no es una opción tecnológica, es una necesidad financiera. Aquellas empresas que logren orquestar este cambio no solo ganarán eficiencia, sino una barrera competitiva infranqueable.</p>
<p><strong>¿Quieres liderar la transición hacia la industria del futuro?</strong> Descarga el informe y descubre cómo transformar la incertidumbre en una ventaja operativa medible.</p>
<p><a name="formulario" class="anchor-block"></a></p>
<article id="hubspot-form-aa3d2253-e1a2-4571-978d-ec4a1fbb1163" class="block block-hubspot -like-text-width vendor-form hubspot-form huge-submitted-message js__hubspot-form" hubspot-portal="2189055" hubspot-form="aa3d2253-e1a2-4571-978d-ec4a1fbb1163">
    <a class="bt js__trigger-form">Mostrar formulario.</a>
</article>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Antonio José García y Sergio Torres ]]>
        </dc:creator>
        <title>Podcast - Java 24 vs Java 25: evolución, diferencias y futuro del lenguaje</title>
        <link>https://www.paradigmadigital.com/dev/podcast-java-24-vs-java-25-evolucion-diferencias-y-futuro-del-lenguaje/</link>
        <pubDate>Tue, 07 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/podcast-java-24-vs-java-25-evolucion-diferencias-y-futuro-del-lenguaje/</guid>
        <description>Analizamos la evolución de Java 24 a Java 25 LTS: mejoras en concurrencia, sintaxis simplificada y claves para migrar sistemas legacy con éxito.
</description>
        <content:encoded>
            <![CDATA[
                <p>Hablar de Java es hablar de uno de esos lenguajes que, pase lo que pase en tecnología, siempre siguen ahí. Mientras otros aparecen, se ponen de moda o desaparecen, <strong>Java continúa evolucionando con una capacidad poco habitual: renovarse sin romper con su propia base instalada</strong>.</p>
<p>Treinta años después de su nacimiento, sigue siendo una de las piezas centrales del software empresarial. Y <strong>sus dos últimas versiones, Java 24 y Java 25, dejan bastante claro hacia dónde quiere ir en esta nueva etapa</strong>.</p>
<iframe id="" class="block block-iframe -like-text-width" src="https://open.spotify.com/embed/episode/0Xgome9BKuLnAuUmBW9n94" style="height:240px;  width:100%;"></iframe>
<h2 class="block block-header h--h30-15-400 left  ">Java 2. vs. Java 25: ¿laboratorio o estabilidad?</h2>
<p>Aunque ambas versiones llegan muy próximas en el tiempo, su papel no es exactamente el mismo. <strong>Java 24 funciona como un laboratorio de evolución</strong>, una versión donde se introducen funcionalidades en fase preview para que la comunidad empiece a probarlas. <strong>Java 25, en cambio, aterriza como versión LTS (Long Term Support)</strong>, es decir, como la versión destinada a quedarse durante años en entornos productivos.</p>
<p>La diferencia es importante porque <strong>en el ecosistema Java las versiones LTS son las que realmente marcan los ciclos de adopción empresarial</strong>. Son las que terminan entrando en producción, las que reciben soporte prolongado y las que condicionan la evolución de frameworks y plataformas.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Adiós a la verbosidad: una sintaxis más limpia</h2>
<p><strong>Uno de los movimientos más visibles de estas nuevas versiones está en la sintaxis</strong>. Java lleva tiempo intentando reducir parte de la verbosidad que tradicionalmente lo ha acompañado, y en esta ocasión lo hace con novedades como los <em>Primitive Patterns</em>.</p>
<p>Esta funcionalidad permite trabajar de forma más natural con tipos primitivos dentro de estructuras como switch o instanceof, evitando conversiones explícitas y simplificando el código. Puede parecer un detalle pequeño, pero encaja en una tendencia mucho más amplia: hacer que Java se parezca cada vez menos al Java de hace diez años.</p>
<p><strong>La dirección es clara: menos código ceremonial, menos fricción</strong> y una experiencia más cercana a lenguajes que desde hace tiempo priorizan agilidad y legibilidad.</p>
<p>Ese cambio también se nota en pequeños detalles que, sumados, pesan mucho en el día a día. En Java 25, por ejemplo, algunas declaraciones se simplifican y escribir un programa básico requiere menos estructura obligatoria que antes. No cambia la esencia del lenguaje, pero sí elimina barreras que durante años se habían asumido como inevitables.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Concurrencia y rendimiento para la era Cloud</h2>
<p><strong>Otro de los terrenos donde Java está acelerando con más decisión es la concurrencia</strong>. Y aquí hay una razón de fondo: el software moderno necesita gestionar cada vez más tareas simultáneas con menor coste de recursos.</p>
<p>Tras la llegada de los virtual threads en versiones anteriores, Java 24 y Java 25 siguen empujando esa línea con propuestas como <em>Scoped Values y Structured Concurrency</em>. <strong>La idea es ofrecer mecanismos más seguros para compartir contexto entre hilos</strong> y, sobre todo, <strong>facilitar que varias tareas concurrentes puedan coordinarse de forma más limpia</strong>.</p>
<p>Esto tiene impacto directo en algo muy práctico: menos complejidad, <strong>menos riesgo de fugas de recursos y un control más claro</strong> cuando algo falla dentro de un flujo concurrente.</p>
<p>A la vez, <strong>Java 25 incorpora mejoras internas orientadas al rendimiento</strong>. Menor huella de memoria, arranques más rápidos y optimizaciones en ejecución son parte de una estrategia muy alineada con entornos cloud, microservicios y despliegues donde cada milisegundo cuenta.</p>
<h2 class="block block-header h--h30-15-400 left  ">Estrategia de migración: ¿es el momento de saltar?</h2>
<p><strong>La gran pregunta para muchos equipos es cuándo dar el salto</strong>. Si se parte de Java 21, la respuesta parece bastante clara: Java 25 es hoy la apuesta más razonable. Al ser LTS, concentra el soporte futuro y ya empieza a marcar el ritmo de herramientas como Spring Boot o Quarkus.</p>
<p>Java 24 puede tener interés como espacio de prueba o aprendizaje, pero difícilmente será una versión de permanencia.</p>
<p>Eso sí, <strong>en organizaciones con código muy legacy, especialmente cuando todavía hay sistemas en Java 8 o versiones anteriores, el salto conviene hacerlo con cuidado</strong>. Migrar Java no es solo cambiar versión: también implica revisar dependencias, frameworks y comportamientos que pueden haber cambiado durante años de evolución.</p>
<p>Por eso están ganando protagonismo <a href="https://www.paradigmadigital.com/dev/openrewrite-que-es-como-modificar-ficheros-rewrite-maven-paso-a-paso/" target="_blank">herramientas como OpenRewrite</a>, capaces de automatizar parte de ese trabajo y reducir el coste de modernizar bases de código muy grandes.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">El próximo horizonte: la Inteligencia Artificial</h2>
<p>Y mientras, Java sigue ajustando sintaxis, rendimiento y concurrencia, ya aparece el siguiente gran frente: la inteligencia artificial.</p>
<p>Frameworks como Spring AI empiezan a marcar una nueva dirección, y todo apunta a que futuras versiones del lenguaje reforzarán capacidades orientadas a cargas de trabajo más intensivas, mejor gestión de memoria y nuevas optimizaciones para este tipo de escenarios.</p>
<p>Porque si algo deja claro esta evolución es que <strong>Java ya no compite solo por estabilidad, ahora también compite por seguir siendo relevante en el software que viene</strong>.</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ José Luis Palomino ]]>
        </dc:creator>
        <title>El sesgo de la IA: tu traductor te discrimina</title>
        <link>https://www.paradigmadigital.com/dev/sesgo-ia-traductor-discrimina/</link>
        <pubDate>Mon, 06 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/sesgo-ia-traductor-discrimina/</guid>
        <description>La IA no es neutral, aprende de datos históricos llenos de sesgos. Por eso, en tareas como traducción automática, puede asignar género de forma incorrecta. ¿El resultado? Una tecnología que reproduce estereotipos sin que nos demos cuenta.
</description>
        <content:encoded>
            <![CDATA[
                <p>Pensamos que los algoritmos son entes objetivos y matemáticamente puros. Nada más lejos de la realidad. Cuando delegamos tareas cotidianas a sistemas automáticos olvidamos que están <strong>construidos sobre un historial humano lleno de prejuicios</strong>. Bajar a la tierra estos modelos revela un problema técnico grave: <strong>la tecnología trae consigo estereotipos</strong> si no auditamos exhaustivamente su diseño base.</p>
<h2 class="block block-header h--h30-15-400 left  ">¿Cómo perdemos el contexto en milisegundos?</h2>
<p>Las herramientas de procesamiento de lenguaje natural actúan a menudo como una caja negra inaccesible para el usuario medio. Introducimos una frase, esperamos una fracción de segundo y obtenemos un resultado aparentemente preciso.</p>
<p>El problema surge cuando analizamos casos límite donde intervienen lenguas con estructuras radicalmente distintas. Un ejemplo de este tipo de lenguas es el turco. <strong>El turco carece de género gramatical marcado para profesiones, mientras que el español obliga estructuralmente a definirlo</strong>.</p>
<p>Para nuestra demostración, usaremos la herramienta de Google “Google Translate”. Si escribimos &quot;yo soy médica&quot; y lo pasamos al turco obtenemos &quot;Ben doktorum&quot;. Hasta aquí todo correcto porque la expresión engloba a cualquier persona que ejerce la medicina.</p>
<p>El fallo del sistema aparece cuando la traducción se realiza a la inversa. Al traducir &quot;Ben doktorum&quot; de nuevo al español, la plataforma nos devuelve &quot;Soy médico&quot;. El sistema ha eliminado el género original introducido por el usuario. <strong>Esto mismo ocurre con el término “enfermero”, que al pasar por el filtro neutro y volver a nuestro idioma se transforma automáticamente en “enfermera”</strong>. Nos encontramos ante un bucle sin fin donde la máquina reescribe la identidad del usuario basándose puramente en suposiciones probabilísticas.</p>
<p><strong>Ejemplo con &quot;yo soy médica&quot;</strong>:</p>
<figure class="block block-caption  -inline-block -like-text-width -center"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/google_translate_espanol_turco_medica_720a06e9c1.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/google_translate_espanol_turco_medica_720a06e9c1.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/google_translate_espanol_turco_medica_720a06e9c1.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/google_translate_espanol_turco_medica_720a06e9c1.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/google_translate_espanol_turco_medica_720a06e9c1.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Google Translate (español - turco)" title="undefined"/><figcaption>Google Translate (español - turco)</figcaption></figure>
<figure class="block block-caption  -inline-block -like-text-width -center"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/google_translate_turco_espanol_medica_036e175790.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/google_translate_turco_espanol_medica_036e175790.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/google_translate_turco_espanol_medica_036e175790.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/google_translate_turco_espanol_medica_036e175790.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/google_translate_turco_espanol_medica_036e175790.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Google Translate (turco - español)" title="undefined"/><figcaption>Google Translate (turco - español)</figcaption></figure>
<p><strong>Ejemplo con &quot;yo soy enfermero&quot;</strong>:</p>
<figure class="block block-caption  -inline-block -like-text-width -center"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/google_translate_espanol_turco_enfermero_cdda25a71f.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/google_translate_espanol_turco_enfermero_cdda25a71f.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/google_translate_espanol_turco_enfermero_cdda25a71f.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/google_translate_espanol_turco_enfermero_cdda25a71f.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/google_translate_espanol_turco_enfermero_cdda25a71f.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Google Translate (español - turco)" title="undefined"/><figcaption>Google Translate (español - turco)</figcaption></figure>
<figure class="block block-caption  -inline-block -like-text-width -center"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/google_translate_turco_espanol_enfermero_4afc6f4aff.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/google_translate_turco_espanol_enfermero_4afc6f4aff.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/google_translate_turco_espanol_enfermero_4afc6f4aff.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/google_translate_turco_espanol_enfermero_4afc6f4aff.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/google_translate_turco_espanol_enfermero_4afc6f4aff.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Google Translate (turco - español)" title="undefined"/><figcaption>Google Translate (turco - español)</figcaption></figure>
<h2 class="block block-header h--h30-15-400 left  ">¿Qué impacto tiene entrenar modelos con el pasado?</h2>
<p>Entender este comportamiento exige conocer las tripas de los sistemas de aprendizaje automático. Los motores de traducción modernos no operan mediante un diccionario estático de reglas gramaticales fijas programadas a mano. Funcionan ingiriendo cantidades masivas de texto procedentes de internet, libros digitalizados y repositorios de documentos históricos. <strong>Los algoritmos calculan probabilidades estadísticas basadas en miles de millones de interacciones pasadas para predecir cuál es la traducción más plausible</strong>.</p>
<p>Aquí es donde la estadística nos juega una mala pasada. Históricamente, la palabra equivalente a &quot;doctor&quot; aparece rodeada de pronombres y contextos masculinos en la inmensa mayoría de los corpus de entrenamiento. La palabra &quot;nurse&quot; o sus derivadas sufren exactamente el mismo destino asociadas a la terminología femenina.<br>
<strong>Cuando el modelo se enfrenta a la ambigüedad de un idioma neutro debe tomar una decisión y siempre optará por el camino matemáticamente más probable según sus datos de entrenamiento</strong>. Esta mecánica muestra sesgos sociales preexistentes porque la máquina asume que el pasado dicta la norma estricta del presente.</p>
<p>Desde una perspectiva puramente de negocio, lanzar productos basados en modelos no supervisados supone un <strong>gran riesgo para la empresa</strong>. Construir soluciones digitales que invisibilizan a una parte de tus usuarios genera fricción y rompe la confianza en el producto.<br>
Imagina un software de recursos humanos que clasifique automáticamente currículums descartando a mujeres ingenieras simplemente porque su modelo de lenguaje asocia la ingeniería con perfiles masculinos. <strong>La calidad del dato de entrada determina irremediablemente el éxito o el fracaso comercial de cualquier iniciativa basada en inteligencia artificial</strong>.</p>
<p>Las grandes tecnológicas conocen perfectamente este comportamiento anómalo. Hemos visto intentos de mitigar el impacto mediante parches visuales en la interfaz de usuario. Al traducir frases simples del inglés al español a veces aparece un selector que ofrece ambas alternativas de género. Las capturas que analizamos hoy demuestran que estas soluciones superficiales no escalan bien. Cubrir todas las combinaciones idiomáticas y todas las estructuras sintácticas posibles mediante reglas excepcionales preprogramadas es una quimera técnica muy compleja de solucionar.</p>
<p>Para aportar valor a las organizaciones necesitamos arquitecturas de datos limpias y algoritmos auditables desde su concepción. <strong>Los equipos de ingeniería de datos deben incorporar métricas de equidad durante la fase de validación de los modelos antes de desplegarlos en entornos de producción reales</strong>. Evaluar continuamente el rendimiento estadístico frente a grupos demográficos es el único camino para construir tecnología robusta.</p>
<p>El procesamiento del lenguaje natural contemporáneo se apoya fuertemente en representaciones vectoriales del texto. Cada palabra se mapea en un espacio multidimensional donde la distancia entre vectores determina su relación semántica. <strong>Si visualizamos este espacio geométrico, observamos que la distancia vectorial entre hombre y médico es significativamente menor que la distancia entre mujer y médica</strong>. El modelo simplemente recorre el trayecto más corto en su mapa matemático.</p>
<p>Corregir esta desviación requiere <strong>técnicas avanzadas de mitigación de sesgos</strong> durante el preentrenamiento. Existen métodos matemáticos para aislar las dimensiones de género respecto a las dimensiones de profesión dentro de estos espacios vectoriales. Obligamos al algoritmo a desaprender esa correlación inyectando ruido controlado o penalizando la función de cálculo cuando detectamos predicciones basadas exclusivamente en estereotipos demográficos.</p>
<p>Integrar prácticas ágiles conscientes del sesgo permite monitorizar la degradación de estos sistemas en tiempo real. Cuando implementamos procesos de entrega continua para modelos de lenguaje necesitamos pruebas automatizadas que evalúen específicamente estas traducciones problemáticas. <strong>La tecnología debe adaptarse a la diversidad de los usuarios en lugar de forzarlos a encajar en las limitaciones estadísticas de una base de datos mal balanceada</strong>.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Conclusión</h2>
<p>La adopción masiva de modelos de lenguaje nos exige elevar nuestro nivel de exigencia técnica y operativa. Delegar la semántica a sistemas no supervisados tiene <strong>consecuencias directas sobre la usabilidad</strong> de nuestros productos digitales y la reputación corporativa.</p>
<p><strong>Referencias y enlaces</strong></p>
<ul>
<li><a href="https://support.google.com/translate/answer/9179237" target="_blank">Google Translate Help: Gender-specific translations</a></li>
<li><a href="https://developers.google.com/machine-learning/crash-course/fairness/types-of-bias?hl=es-419" target="_blank">Machine Learning Glossary: Bias</a></li>
</ul>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Santiago López ]]>
        </dc:creator>
        <title>El framework de Green QA, la calidad que respira</title>
        <link>https://www.paradigmadigital.com/dev/framework-green-qa-calidad-que-respira/</link>
        <pubDate>Wed, 01 Apr 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/framework-green-qa-calidad-que-respira/</guid>
        <description>El Green QA no va solo de reducir tests o consumo, sino de cambiar cómo entendemos la calidad del software. Implica integrar métricas de energía y carbono en el ciclo de vida completo del desarrollo. La sostenibilidad pasa a ser un criterio más de calidad, igual que el rendimiento o la funcionalidad.
</description>
        <content:encoded>
            <![CDATA[
                <p>Después de comprender <a href="https://www.paradigmadigital.com/dev/que-es-green-qa-calidad-que-respira/" target="_blank">qué significa ser ecológico en el mundo del QA</a> y reconocer las presiones regulatorias y corporativas que nos impulsan hacia prácticas más sostenibles, surge la pregunta inevitable: <strong>¿cómo lo implementamos realmente?</strong> La transición hacia un modelo de testing sostenible requiere estructura, metodología y, sobre todo, un objetivo claro.</p>
<p>En este segundo artículo de nuestra serie sobre Green Quality Assurance (GQA), abandonamos el &quot;por qué&quot; para adentrarnos en el <strong>&quot;cómo&quot;</strong>. Si en el <a href="https://www.paradigmadigital.com/dev/que-es-green-qa-calidad-que-respira/" target="_blank">primer artículo</a> establecimos que medir la calidad en vatios y CO2 es tan importante como garantizar que el software funcione correctamente, ahora es momento de <strong>construir los cimientos que sostendrán esta nueva forma de trabajar</strong>. No se trata solo de reducir el consumo energético de nuestras pruebas o ejecutar menos casos de test; se trata de <strong>reimaginar completamente nuestro enfoque hacia la calidad del software</strong>.</p>
<p>La industria del software debe entender que <strong>la excelencia técnica y la responsabilidad ambiental no son objetivos excluyentes</strong>. De hecho, las organizaciones más innovadoras están descubriendo que las prácticas sostenibles en QA a menudo conducen a procesos más eficientes, equipos más productivos y, sorprendentemente, a una <strong>mejor calidad del producto final</strong>.</p>
<p>Pero para alcanzar este equilibrio, necesitamos un <strong>framework robusto</strong> que nos permita evaluar, implementar y mejorar continuamente nuestras prácticas.</p>
<p><strong>El viaje hacia el Green QA es evolutivo</strong>. No podemos pretender que una organización pase de cero a cien de la noche a la mañana. Por eso, en las siguientes páginas explicaremos un <strong>enfoque gradual</strong> que reconoce diferentes niveles de madurez, proporciona herramientas concretas para cada etapa que nos permitan medir nuestro progreso.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Capas del framework</h2>
<p>Abordar el cambio cultural en una organización en lo que se refiere a calidad por lo general suele ser un proceso evolutivo en el que la parte de concienciación suele tener un gran peso. Dar el salto que se propone con GQA (Green QA), implica un <strong>nuevo elemento en esa concienciación</strong> y es tener como objetivo el hacer las cosas lo más “verdes” posibles, pero, ¿somos conscientes de las cosas que hay que cambiar para alcanzar este cambio? A continuación te lo contamos.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Gobernanza</h3>
<p>En primer lugar, es conveniente disponer de una Gobernanza adecuada a este contexto. Se trata del “mandato” oficial de la organización y es la base de todo el proceso. Sin esto, el Green QA queda en una iniciativa aislada. Qué puntos aborda la gobernanza:</p>
<ul>
<li><strong>Política de calidad sostenible</strong></li>
</ul>
<p>No es solo un documento; es definir el &quot;Umbral de Aceptación Verde&quot;. Establece los objetivos que persigue la empresa en lo referente a sostenibilidad, estableciendo objetivos por tipo de recurso. Una vez establecidos estos objetivos todo lo demás tiene como finalidad cumplir con los mismos. Por ejemplo: <em>&quot;Ningún despliegue a producción puede aumentar el consumo energético del microservicio en más de un 5%&quot;</em>.</p>
<ul>
<li><strong>Matriz de responsabilidades</strong></li>
</ul>
<p>Define qué hace cada miembro de la organización implicado en el ciclo de vida de los entregables.</p>
<ol>
<li><strong>QA</strong>: diseña los casos de prueba de eficiencia, define las métricas de referencia y es responsable de ejecutar las mediciones en cada ciclo.</li>
<li><strong>Arquitectura</strong>: valida que las decisiones de diseño no introduzcan deuda energética estructural antes de que llegue a la fase de testing.</li>
<li><strong>DevOps / Platform Engineering</strong>: garantiza que la instrumentación necesaria para medir el consumo esté disponible en los entornos de prueba. Sin infraestructura de observabilidad, QA no puede medir.</li>
<li><strong>Sostenibilidad</strong>: provee los factores de conversión de energía a CO2CO_2 CO2​ y asegura la trazabilidad de los datos hacia el sistema de reporte ESG.</li>
<li><strong>Compliance</strong>: verifica que la recogida, el tratamiento y el reporte de los datos cumplen con la normativa vigente, en particular la CSRD.</li>
<li><strong>Product Owner</strong>: acepta formalmente que los criterios de aceptación incluyen métricas de eficiencia, no solo funcionalidad y rendimiento tradicional.</li>
</ol>
<ul>
<li><strong>Alineación con ESG y estrategia corporativa</strong>. En el <a href="https://www.paradigmadigital.com/dev/que-es-green-qa-calidad-que-respira/" target="_blank">post anterior</a>, hablamos de forma extensa sobre qué es ESG y su conexión con Green QA, y es algo con lo que se ha de contar dentro de la gobernanza.</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Procesos</h3>
<p>Establece cómo Green QA se integra en el día a día del proyecto.</p>
<ul>
<li><strong>Shift-Left Green</strong>: integrar criterios ambientales en la fase de Refinement. Si una funcionalidad consume demasiados datos de forma innecesaria, se rechaza antes de programar.</li>
<li><strong>Green Gateways en el Pipeline</strong>: añadir &quot;puertas de calidad&quot; en el CI/CD. Si las pruebas automatizadas detectan un pico inusual de uso de CPU o RAM, la build falla.Controles ambientales en diseño, desarrollo, pruebas y despliegue.</li>
<li><strong>Suministros</strong>: evaluar si nuestros proveedores de servicios (Cloud, SaaS) funcionan con energías renovables.</li>
</ul>
<p>Es importante que, dentro de la gobernanza, se deben establecer las consecuencias que ha de tener en el proceso el incumplimiento de la normativa, bloqueando una entrega, generando deuda técnica o estableciendo los mecanismos oportunos que impidan no saltarse los objetivos fijados.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Datos y métricas</h3>
<p>En esta capa del framework se analiza la <strong>calidad del dato</strong> que ha de servir para fundamentar las decisiones.</p>
<ul>
<li><strong>Trazabilidad del dato</strong>: asegurar que el dato ESG tiene un linaje claro: desde el sensor o log de servidor hasta el reporte anual.</li>
<li><strong>Data Cleaning de QA</strong>: un proceso para borrar entornos de prueba, bases de datos temporales y logs de ejecución antiguos que empeoran el almacenamiento y consumen energía innecesaria.</li>
<li><strong>Exactitud vs. estimación</strong>: definir qué datos son medidos (reales) y cuáles son estimados (modelos matemáticos), aplicando un QA distinto a cada uno.</li>
<li><strong>Definición de KPIs ambientales y ESG</strong>.</li>
<li><strong>Controles de calidad de datos</strong> (exactitud, completitud, trazabilidad).</li>
<li><strong>Auditoría y reporting</strong>.</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Tecnología</h3>
<p>Es la capa de las <strong>herramientas</strong>. El Green QA necesita ojos técnicos para &quot;ver&quot; la energía. Por lo tanto, es conveniente disponer de herramientas para <strong>medir el impacto de lenguajes de programación</strong> (ej. comparar el consumo de Python vs. Rust en procesos críticos), optimizar las suites de pruebas para que no corran 2000 tests si solo han cambiado 2 líneas de código (selección de pruebas basada en riesgo), configurar el framework para que los entornos de prueba se &quot;autodestruyen&quot; inmediatamente después de terminar la ejecución, disponer de herramientas de medición (energía, carbono, recursos), automatización de pruebas verdes y optimización de infraestructura (cloud, hardware).</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Mejora continua</h3>
<p>Dentro de las capas del framework, es aconsejable apostar por el <strong>aspecto cultural y de mejora</strong> del mismo de cara a disponer de un framework que debe ser circular y  no lineal.</p>
<p>Elementos como “Retro-Green”, donde en cada retrospectiva de sprint, se puede incluir una pregunta: &quot;¿qué proceso o código hemos hecho más eficiente este mes?&quot;, la gamificación creando un ranking de los equipos de desarrollo/QA que más han reducido su huella de carbono digital, la actualización de estándares.</p>
<p>Al cambiar las leyes ESG, esta capa cambia y se suele revisar trimestralmente. De esta manera, el framework sigue cumpliendo con las nuevas normativas y, por último, establecer objetivos de reducción medibles de forma cuantitativa o cualitativa.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">El camino hacia el Zero-waste Testing</h2>
<p>Uno de los puntos a los que hemos hecho referencia en el apartado anterior es la <strong>medición</strong>. Es importante conocer en cada momento la situación en la que nos encontramos respecto a los objetivos para <strong>tomar las medidas y acuerdos necesarios</strong> trabajando con la gobernanza definida. Si conocéis el <a href="https://www.tmmi.org/" target="_blank">TMMi</a>, es un proceso que <strong>mide el nivel de madurez</strong> en referencia a las pruebas dentro de una organización.</p>
<p>A este respecto, a continuación se hace un <strong>análisis de los niveles existentes en relación a GQA</strong> para entender el punto en el que estamos y cuáles deben ser los objetivos para consolidar estos niveles o cómo avanzar en ellos. <strong>Cada uno de estos niveles que se indican se deben desarrollar para ser más concretos a la hora de evaluarlos</strong>.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Nivel 1: inicial (empezamos a caminar)</h3>
<p>En este nivel, la empresa no tiene conciencia del impacto ambiental de sus pruebas. Si hay eficiencia, es por ahorro de costes, no por propósito. Cumplimiento reactivo, sin métricas.</p>
<p>En este nivel, poco refinado, se ejecutan siempre todas las pruebas en entornos en los que no tenemos visibilidad de su consumo y que permanecen encendidos por lo general 24/7 las pruebas se ejecutan siempre.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Nivel 2: básico (conciencia despierta)</h3>
<p>El conjunto de los implicados conoce qué es Green QA y se realizan los primeros esfuerzos manuales por documentar el impacto. Controles manuales, informes básicos.</p>
<p>En este nivel intermedio se identifican los activos como <strong>servidores y herramientas</strong> para solicitar a los proveedores informes de sostenibilidad, creando un inventario de activos digitales. Se empiezan a tratar las pruebas de una manera más coherente con esta política, borrando por ejemplo datos de pruebas antiguas.</p>
<p>En este punto, las acciones que emprendemos aún dependen de las personas y no de procesos automáticos.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Nivel 3: definido (el estándar verde)</h3>
<p>La sostenibilidad se integra oficialmente en el manual de calidad. Aparecen los primeros procesos estandarizados y KPIs.</p>
<p>En este nivel, elementos como disponer de una checklist para el pase a producción “verde” ha de ser uno de los objetivos. Para ello se definen los <strong>KPIs verdes</strong> (como, por ejemplo, los vatios por suites de pruebas).</p>
<p>Justo con esta definición se busca en en este nivel que el equipo de QA tenga la formación suficiente de Green Coding y eficiencia energética.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Nivel 4: gestionado (calidad automatizada y medible)</h3>
<p>Se ha establecido una serie de métricas y la automatización del reporte continuo a través de los pipelines está presente.</p>
<p>Una vez consolidados algunos aspectos, entre ellos los culturales, el uso de &quot;dashboards de carbono en tiempo real&quot; integrados en herramientas como Jira o Grafana para que los equipos vean su impacto diario se pone como objetivo.</p>
<p>El reto es <strong>integrar estos datos con el resto de la empresa (ESG)</strong>. Los pipelines de CI/CD incluyen herramientas que miden el consumo de CPU/RAM de los tests automáticamente. Si una prueba es ineficiente, se genera una alerta.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Nivel 5: optimizado (ADN Green QA)</h3>
<p>GQA ya no es un &quot;extra&quot;, es la única forma de trabajar. <strong>Está alineado con la estrategia global de la empresa</strong>.</p>
<p>Ahora, la empresa utiliza <strong>IA para predecir y minimizar el consumo energético</strong> de las pruebas. El ahorro de carbono logrado por el equipo de QA se reporta directamente en el informe anual de sostenibilidad (ESG) de la compañía. El reto está en <strong>mantener la innovación y liderar estándares en la industria</strong>.</p>
<p>Aspectos como la &quot;economía circular del dato&quot;, donde los datos de prueba se reutilizan de forma inteligente para evitar generar nuevos procesos de carga, son aspectos que se empiezan a cuidar para consolidar los objetivos “verdes”.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Estrategia y metodología</h2>
<p>La <strong>estrategia</strong> es el <strong>marco de decisión</strong> en el que se definen los elementos necesarios para abordar en la práctica GQA, alineado con todas las capas del framework que se han definido en los apartados anteriores.</p>
<p>​​La <strong>metodología</strong> describe <strong>cómo hemos de implementar la estrategia</strong> que hemos definido y se encarga de definir <strong>cómo ejecutar GQA</strong>.</p>
<p>En el contexto de <strong>GQA</strong> (o sostenibilidad en el ciclo de vida del software), estas herramientas no solo miden emisiones, sino que se integran en el proceso de calidad para asegurar que el software sea eficiente y cumpla con normativas medioambientales (ESG).</p>
<figure class="block block-caption  -inline-block -like-text-width -center"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/marco_green_qa_f0e47795f2.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/marco_green_qa_f0e47795f2.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/marco_green_qa_f0e47795f2.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/marco_green_qa_f0e47795f2.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/marco_green_qa_f0e47795f2.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Marco de Green QA" title="undefined"/><figcaption>Marco de Green QA</figcaption></figure>
<p>Una vez que se ha establecido una estrategia alineada con los objetivos, se establecen las <strong>herramientas y frameworks</strong> que se usarán para su implementación. A continuación vemos algunos ejemplos.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Medición de eficiencia de software (Green Testing)</h3>
<p>Aquí es donde el <strong>QA tiene control directo</strong>. Se mide el consumo de energía de un proceso o suite de pruebas. Se utilizan para establecer la línea base (Baseline).</p>
<p>Antes de optimizar una sola línea de código, el QA necesita saber <strong>cuántos gramos de CO2 genera el hardware</strong> donde corre la aplicación. Sin este dato, no podemos medir la mejora tras una optimización.</p>
<p><strong>Herramienta: Scaphandre (metrología energética)</strong></p>
<p>Es un agente de métricas de consumo eléctrico de código abierto diseñado para Kubernetes y servidores Bare-metal.</p>
<ul>
<li><strong>Para qué sirve</strong></li>
</ul>
<p>Mide exactamente cuántos vatios consume un proceso específico (ej. tu suite de Selenium o un microservicio bajo carga).</p>
<ul>
<li><strong>Configuración y uso</strong></li>
</ul>
<ol>
<li><strong>Instalación</strong>: se instala como un binario o contenedor Docker en el servidor donde corren los tests.</li>
<li><strong>Uso</strong>: expone métricas en formato Prometheus.</li>
<li><strong>Green QA Step</strong>: configura un dashboard en Grafana que cruce &quot;consumo CPU&quot; vs &quot;consumo Watts&quot;. Si tras una optimización de código los tests pasan en el mismo tiempo pero consumen menos Watts, el GQA ha tenido éxito.</li>
</ol>
<p><strong>Herramienta: Eco-Code / SonarQube (Green Rules)</strong></p>
<ul>
<li><strong>Para qué sirve</strong></li>
</ul>
<p>Análisis estático de código enfocado en la eficiencia energética.</p>
<ul>
<li><strong>Configuración</strong></li>
</ul>
<ol>
<li><strong>Instalación</strong>: añadir el plugin &quot;Green IT&quot; o &quot;Eco-Code&quot; a tu instancia de SonarQube.</li>
<li><strong>Uso</strong>: QA define Gateways de calidad. Si el código contiene patrones que &quot;despiertan&quot; la CPU innecesariamente (bucles ineficientes, llamadas a API redundantes), el test de calidad falla.</li>
</ol>
<p><strong>Herramienta: SimaPro y GaBi</strong></p>
<p>Son los estándares industriales, en el ecosistema de QA se pueden adaptar de la siguiente manera:</p>
<ul>
<li><strong>¿En qué consisten para el entorno IT?</strong></li>
</ul>
<p>Permiten modelar el impacto de nuestra infraestructura digital (servidores, dispositivos móviles de prueba o redes). No solo miden el gasto energético, sino también la &quot;deuda de carbono&quot; del hardware que sostiene nuestro software.</p>
<ul>
<li><strong>Su uso estratégico en Green QA</strong></li>
</ul>
<p>Se utilizan para establecer la línea base (Baseline). Antes de optimizar una sola línea de código, QA necesita saber cuántos gramos de CO2 genera el hardware donde corre la aplicación. Sin este dato, no podemos medir la mejora tras una optimización.</p>
<ul>
<li><strong>Configuración y fuentes de datos</strong></li>
</ul>
<p>Para poder controlar la huella ambiental de nuestra aplicaciones, Green QA mapea:</p>
<ul>
<li><strong>Inventarios de hardware</strong>: CPUs, RAM y sistemas de almacenamiento utilizados en los entornos de Staging y producción.</li>
<li><strong>Bases de datos ambientales</strong>: se integran fuentes como Ecoinvent para calcular el impacto del &quot;mix energético&quot; (no es lo mismo ejecutar un test en un servidor de Noruega con energía hidroeléctrica que en uno de una zona que depende del carbón).</li>
<li><strong>Ejemplo práctico de decisión técnica</strong></li>
</ul>
<p>Gracias a estas herramientas, el equipo de QA puede realizar comparativas basadas en datos reales:</p>
<p>Caso de estudio: ¿es más sostenible ejecutar nuestra suite de regresión en servidores locales antiguos (On-premise) o migrar las pruebas a una instancia de nube con certificación Energy Star y auto-escalado? El Green QA utiliza el LCA para demostrar que la migración reduce la huella de carbono en un X%.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Medición de Cloud Carbon Footprint (CCF)</h2>
<p>Si no quieres usar las herramientas nativas (que a veces son opacas), <strong>Cloud Carbon Footprint es el estándar abierto</strong>.</p>
<p><strong>Herramienta: Cloud Carbon Footprint (CCF)</strong></p>
<ul>
<li><strong>Para qué sirve</strong></li>
</ul>
<p>Visualizar emisiones de AWS, Azure y GCP en un solo lugar con una metodología de cálculo transparente.</p>
<ul>
<li><strong>Configuración</strong></li>
</ul>
<ol>
<li><strong>Conexión</strong>: necesitas permisos de lectura en los archivos de facturación (CUR en AWS, Billing Export en GCP).</li>
<li><strong>Uso</strong>: permite al equipo de QA comparar regiones.</li>
<li><strong>Decisión técnica</strong>: QA puede demostrar que mover el entorno de Staging de una región basada en carbón (ej. Virginia, US-East-1) a una con energía limpia (ej. Suecia o Francia) reduce la huella de carbono instantáneamente sin cambiar una sola línea de código.</li>
</ol>
<p><strong>Herramientas: Watershed, Persefoni, Plan A</strong></p>
<p>Son plataformas SaaS para medir la huella de carbono corporativa.</p>
<ul>
<li><strong>En qué consisten</strong></li>
</ul>
<p>Automatizan el cálculo de emisiones de Alcance 1, 2 y 3 (Scope 1, 2, 3).</p>
<ul>
<li><strong>Uso en Green QA</strong></li>
</ul>
<p>El software entra en el Alcance 3 (emisiones indirectas). Estas herramientas recolectan datos de tus facturas de luz y proveedores cloud.</p>
<ul>
<li><strong>Configuración</strong></li>
</ul>
<p>Se conectan vía API a tus sistemas de inventario. El equipo de QA reporta aquí el consumo energético de las granjas de servidores de prueba para que la empresa tenga el dato real de impacto del departamento de IT.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Medición de sostenibilidad en el Frontend</h2>
<p>El GQA también mide el <strong>impacto en el dispositivo</strong> del usuario final.</p>
<p><strong>Herramienta: GreenFrame.io o Lighthouse (Carbon Indicator)</strong></p>
<ul>
<li><strong>Para qué sirve</strong></li>
</ul>
<p>Medir la huella de carbono de una sesión de usuario en el navegador.</p>
<ul>
<li><strong>Configuración y uso</strong></li>
</ul>
<ol>
<li><strong>CI/CD Integration</strong>: se integra en los GitHub Actions o Jenkins.</li>
<li><strong>Uso</strong>: cada vez que se lanza un test de regresión visual, Green Frame estima los gramos de CO2 producidos por la carga de la página (transferencia de datos + ejecución de JS en el cliente).</li>
<li><strong>Métrica de QA</strong>: esta nueva versión de la Home pesa 2MB más y genera 0.5g de CO2 extra por visita. Reportado como Bug de Sostenibilidad.</li>
</ol>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">QA y auditoría: gestión de calidad verde</h2>
<p>Aquí es donde <strong>conectas los datos con el proceso de testing</strong>.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Jira y TestRail</h3>
<ul>
<li><strong>Uso en Green QA</strong>: no miden carbono por sí mismos, pero se configuran para gestionar requisitos verdes.</li>
<li><strong>Configuración</strong>
<ul>
<li><strong>Jira</strong>: crear &quot;Custom Fields&quot; como Estimated Carbon Cost en las User Stories.</li>
<li><strong>TextRai</strong>l: crear una sección de &quot;Green Test Cases&quot; donde se valide que la app entra en modo ahorro de energía o que no hace peticiones API innecesarias.</li>
</ul>
</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Plataformas de datos ESG (Environmental, Social, and Governance)</h3>
<ul>
<li><strong>En qué consisten</strong></li>
</ul>
<p>Repositorios donde se guarda toda la evidencia para auditorías legales.</p>
<ul>
<li><strong>Uso en Green QA</strong></li>
</ul>
<p>El resultado de tus tests verdes se sube aquí como prueba de cumplimiento normativo (ej. para cumplir con la directiva CSRD en Europa).</p>
<ul>
<li><strong>Configuración en el Pipeline</strong></li>
</ul>
<p>Para que esto sea &quot;Green QA&quot; real, el flujo debe ser:</p>
<ol>
<li><strong>Definir umbrales</strong>: en Jira, establecer un límite de consumo energético por feature.</li>
<li><strong>Medir</strong>: durante la ejecución (Cucumber/Playwright), monitorear el consumo con herramientas como Scaphander o Intel Power Gadget.</li>
<li><strong>Visualizar</strong>: cruzar esos datos con el Azure Emissions Dashboard.</li>
<li><strong>Auditar</strong>: exportar reportes a Persefoni o Plan A para la contabilidad anual.</li>
</ol>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Buenas prácticas</h2>
<figure class="block block-caption  -inline-block -like-text-width -center"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/buenas_practicas_green_qa_5b87c71e21.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/buenas_practicas_green_qa_5b87c71e21.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/buenas_practicas_green_qa_5b87c71e21.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/buenas_practicas_green_qa_5b87c71e21.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/buenas_practicas_green_qa_5b87c71e21.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Buenas prácticas en Green QA" title="undefined"/><figcaption>Buenas prácticas en Green QA</figcaption></figure>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Conclusiones</h2>
<p>El proceso de transición en una organización para abrazar el GCA conlleva una serie de pasos ineludibles y un proceso de adaptación a todos los niveles.</p>
<p>Requiere de una implicación tanto por parte de los negocios como de la parte técnica, empezando por el cambio cultural y siguiendo por la adaptación metodológica y estratégica.</p>
<p>Todos estos cambios ayudarán a la empresa a cumplir con la legalidad que ya se mencionó en el anterior post.</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Eva Ferrer ]]>
        </dc:creator>
        <title>¿Qué hay que tener en cuenta antes del primer Sprint?</title>
        <link>https://www.paradigmadigital.com/transformacion-organizacional-rev/que-tener-en-cuenta-antes-primer-sprint/</link>
        <pubDate>Mon, 30 Mar 2026 06:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/transformacion-organizacional-rev/que-tener-en-cuenta-antes-primer-sprint/</guid>
        <description>Muchas veces un proyecto no falla por la ejecución, sino por la falta de alineamiento inicial. Expectativas distintas, objetivos poco claros o decisiones sin contexto generan fricción constante. Descubrirnos antes de empezar no es perder tiempo, es ganar claridad para construir mejor. Te contamos cómo hacerlo en este post
</description>
        <content:encoded>
            <![CDATA[
                <p>Si conoces las metodologías Agile en general y Scrum en particular (y, sobre todo, si la practicas) sé que me dirás que <strong>en Scrum no se reconoce la existencia de un Sprint Cero</strong>.</p>
<p>Este post no es para contarte qué es un Sprint ni para aclarar lo que implica o no el término “time-box”, sino para <strong>darle un lugar a este espacio de tiempo que se necesita en el arranque del proyecto</strong>.</p>
<p>Podemos llamarlo como queramos, pero el <a href="https://www.paradigmadigital.com/techbiz/sprint-0-clave-la-gestion-proyectos-agiles/" target="_blank">Sprint Cero</a> es un bien necesario para no llevarnos sorpresas a mitad de partido… o, incluso, al final.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Mi experiencia</h2>
<p>Llevo casi quince años gestionando proyectos, antes bajo metodología waterfall, ahora <strong>soy agilista</strong> (o lo intento) y lo hago desde <strong>Scrum</strong>.</p>
<p>Cuando la humanidad dio ese gran paso hacia la verdadera entrega de valor, olvidando los interminables documentos del Project Management Plan impresos en A3, se olvidaron de asegurar mediante un time-box este <strong>espacio de tiempo para conocer el proyecto, el cliente y el equipo</strong>, hacer las primeras tomas de contacto, ponernos cara y empezar a hacernos los unos a los otros.</p>
<p>Establecer las reglas del juego, las necesidades, alimentar el backlog, dar las primeras estimaciones… <strong>Todo esto es tan importante como entregar un mínimo producto viable (MVP)</strong>. De hecho, es <strong>imprescindible</strong> para que el resultado del MVP sea el esperado por todas las partes.</p>
<p>Porque a veces, solo a veces, ocurre que en esa primera toma de contacto una de las dos partes se da cuenta de que la otra parte no le puede ofrecer lo que esperaba y evitamos que esta conclusión sea tangible cuando ya esté la mitad del pescado vendido.</p>
<p>Bien es cierto que <strong>no es lo mismo trabajar en consultoría que si lo haces en cliente final</strong>. Los consultores damos servicio a clientes finales que tienen un producto que vender y que, de alguna manera, se convierte también en nuestro producto.</p>
<p>Pero este servicio tiene fecha fin, así que, por regla general, <strong>en consultoría tendemos más a solicitar estos espacios de tiempo</strong> para tratar de estar alineados y de asegurar el entregable con mayor fiabilidad. En el caso del cliente final, que tiene la información más directa, más rápida y más segura, tiende a pensar que estos espacios en los que el equipo piensa, planifica, acuerda y se informa, no son necesarios.</p>
<p>Esta fase inicial del proyecto nos va a proporcionar una serie de <strong>ventajas</strong> que nos permitirán arrancar el <strong>primer Sprint con una mayor garantía de éxito</strong> frente a desarrollar la genial idea de tirarnos a la piscina de ese primer Sprint sin conocer al detalle la profundidad de aquello a lo que nos enfrentamos:</p>
<ol>
<li><strong>Conocerás a tu cliente</strong></li>
</ol>
<p>Y, para ello, sacarás tiempo de donde no lo haya para hacer reuniones de arranque del proyecto que permitirán al equipo exponer lo que se ha entendido del alcance acordado (o conocido como acta de constitución) y las conclusiones extraídas de esta fase inicial, donde muchas veces uno entiende solo lo que quiere entender (o lo que puede).</p>
<p>De estas reuniones, se extraerán dudas que, posiblemente (o no) cambien el alcance del producto e, incluso, puedan aumentar su valor porque, sinceramente, ni siquiera se habían pensado antes. ¿Y qué mejor entrega de valor que regalarle valor a tu propio producto?</p>
<ol start="2">
<li><strong>Conocerás al equipo y empezarás a estrechar lazos</strong>.</li>
</ol>
<p>Y no hablo de tener “un buen equipo” en abstracto, hablo de <strong>crear esa sensación de ir a una</strong>, de remar en la misma dirección. En los primeros días también empiezas a ver, y a verte: fortalezas, manías, estilos y cómo reacciona cada uno cuando hay prisa o incertidumbre.</p>
<p>Ese conocimiento vale oro, porque te permite adelantarte y gestionar riesgos y <a href="https://www.paradigmadigital.com/transformacion-organizacional-rev/toma-control-estrategias-gestion-dependencias-activa/" target="_blank">dependencias</a> que al principio ni se ven: malentendidos, expectativas distintas, silencios que se interpretan mal o decisiones que nadie se atreve a tomar si no está claro el marco.</p>
<ol start="3">
<li><strong>Harás que el equipo y el cliente se conozcan</strong>.</li>
</ol>
<p>En esas primeras reuniones de dudas y aclaraciones (de negocio, técnicas y de “esto cómo lo hacemos”) se construye el <strong>punto de partida real</strong>. Y si en este periodo nos ganamos la confianza mutuamente, luego todo fluye mejor: cuando el equipo proponga algo que no estaba en el guión, el cliente al menos lo escuchará, y cuando negocio cambie prioridades a mitad de camino, el equipo lo gestionará como lo que es: un ajuste incómodo… no un drama imposible.</p>
<ol start="4">
<li><strong>Entre todos estableceremos las reglas del juego</strong></li>
</ol>
<p>Ya son la mitad del éxito del entregable: duración de los sprints, hora de la daily, agendas de planning/review/retro, cómo vamos a estimar y cómo vamos a escribir las historias. También dejamos encarrilado lo básico de “la casa”: repositorios, accesos, herramientas (¿Jira sí o Jira no?) y unas primeras decisiones técnicas para no improvisar. Y con todo eso, dibujamos un <strong>roadmap inicial y ligero</strong> para saber por dónde empezamos y qué hitos vemos en el horizonte.</p>
<ol start="5">
<li><strong>El Product Owner puede salir de este arranque con una primera versión del Product Backlog</strong></li>
</ol>
<p>Ojo, primera versión, pero suficiente para poner en pie un MVP que sirva de raíz para todo lo demás. El backlog, como dicta Scrum, <strong>irá evolucionando durante toda la vida del producto</strong> pero, si dejamos claras las primeras épicas, historias y tareas que ya conocemos, arrancamos con un punto de partida sólido para empezar a construir (y aprender) desde el Sprint 1.</p>
<ol start="6">
<li><strong>De cada una de las reuniones, impresiones, toma de ideas, decisiones que se acuerden podrá realizarse una <a href="https://www.paradigmadigital.com/dev/gestion-riesgos-entornos-agiles/" target="_blank">gestión de riesgos iniciales</a></strong></li>
</ol>
<p>Esto nos permitirá montar una <strong>primera foto</strong> sobre los posibles escenarios que el equipo se encontrará en su quehacer y tratar de eliminarlos o aliviarlos antes de que se conviertan en un problema.</p>
<p>Todo esto <strong>asentará las bases del proyecto</strong> y desde aquí se iniciará el camino que nos conducirá, ya no solo al éxito en cada uno de los entregables, sino al buen hacer de las cosas, siempre, siempre, consensuadas.</p>
<h2 class="block block-header h--h30-15-400 left  ">En la vida real…</h2>
<p>Voy a contaros uno de los casos que he vivido que me terminó de confirmar todo esto. Me asignaron un proyecto para un cliente con el que se había trabajado  anteriormente y con el que, en teoría, nada debería sorprendernos.</p>
<p><strong>Proyecto corto, con urgencia</strong>: el cliente quería un entregable a principios de año y a nosotros nos lo pasaron a mediados de noviembre. Diciembre por medio, con puentes y vacaciones ya cerradas… así que el margen era el que era.</p>
<p>Viendo un poco el futuro, encontramos que <strong>era necesario descubrirnos</strong> para poder apuntalar el producto e ir construyendo lo máximo posible a la mayor velocidad permitida y entregar, con la previsión que nos daban esas fechas establecidas, un MVP de calidad con la mayor cantidad posible que sirviera para hacerlo crecer en las proporciones adecuadas.</p>
<p>Fueron 2 semanas de conocernos: 10 días hábiles donde, a partir del documento de inicio del proyecto, <strong>trabajamos codo con codo con el cliente</strong> para resolver todas las dudas que nos fueron surgiendo de los requisitos, extrajimos todas las Historias de Usuario necesarias para llevarlo a cabo, las estimaciones de cada una de ellas y, por lo tanto, de todo el proyecto.</p>
<p>Ante la inviabilidad de poder entregar todo lo deseable en la fecha pretendida por el cliente, la idea era <strong>ofrecer una propuesta de MVP</strong> que se alimentara en entregas de valor cada dos semanas con funcionalidades nuevas e hitos de despliegues a entornos superiores hasta completar todo lo detallado en el documento de requisitos.</p>
<p>Lo iniciamos con muchas ganas, queríamos hacerlo bien. Comenzamos las reuniones con cliente, le explicamos que los time-box definidos para cada Sprint serían de 2 semanas, utilizamos todos los huecos posibles para solicitar más información sobre temas inconclusos, resolver dudas, definir en qué forma podían ser más efectivas algunas funcionalidades y desarrollar un roadmap con todos los hitos definidos (y sus entregas de valor) hasta completar el proyecto.</p>
<p>La <strong>primera semana todo parecía ir sobre ruedas</strong>: cliente entregado, equipo ilusionado… ¿qué podía salir mal? A la <strong>segunda semana</strong>, el cliente empezó a no asistir, se volvió difuso en sus respuestas y dejó de contestar.</p>
<p>Y, antes de que pudiéramos cerrar el roadmap y propuesta de entregables, decidió cancelar el proyecto. ¿Fracaso? Para mí, al revés: fue la señal temprana que nos ahorró semanas de presión y desgaste. Sin ese arranque, lo habríamos descubierto mucho más tarde, con trabajo ya hecho, el equipo agotado y el cliente frustrado.</p>
<h2 class="block block-header h--h30-15-400 left  ">¿Qué conclusión sacamos de este ejercicio?</h2>
<p>Con todo lo hablado, <strong>¿se equivocó Scrum por no “inventarse” un Sprint de arranque, Sprint inicial o Sprint Cero?</strong> Si nos ponemos estrictos, desde la ortodoxia Scrum no tendría mucho sentido: un Sprint es un Sprint, y punto.</p>
<p>Pero la vida real, y más en consultoría, no siempre arranca con las condiciones ideales y ahí es donde este timebox de descubrimiento se vuelve un aliado.<br>
En los tiempos que corren, con la <strong>sed de adaptabilidad</strong> que cada vez demandan más los proyectos y los clientes, no está de más pasar con el cliente por esa fase de descubrimiento, que existe desde los orígenes de la gestión de proyectos.</p>
<p><strong>¿Qué hubiera pasado con ese proyecto en el que en la segunda semana el cliente decidió retirarse?</strong> ¿Nos habríamos dado cuenta en tan poco tiempo, de un lado o de otro, que no estábamos en la misma línea de tiempo o en la misma perspectiva?</p>
<p>Posiblemente, habríamos vivido un <strong>mes y medio de presión absoluta</strong> para que se llegara a algo a lo que no se podía llegar, equipo estresado, cliente frustrado, metodología en entredicho, calidad en entredicho también… ya por evitar eso, creo que es realmente necesario pasar por esta fase.</p>
<p>Durante años, la gestión de proyectos “clásica” ya contemplaba algo parecido: <strong>antes de ejecutar, había que iniciar y planificar, entender el contexto, alinear expectativas y dibujar una hoja de ruta</strong>.</p>
<p>Llámalo como quieras, pero la necesidad de conocer al cliente, el problema y las condiciones del proyecto no es nueva; lo que ha cambiado es cómo lo hacemos.</p>
<p>La diferencia hoy es que no buscamos una planificación exhaustiva al estilo waterfall, sino un arranque ligero y adaptativo: empatizar con los objetivos del cliente y del equipo, clarificar necesidades, hacer visibles supuestos y restricciones, identificar riesgos iniciales y salir con una primera visión de trabajo que nos permita empezar a entregar con sentido.</p>
<p>En resumen: <strong>pensar lo justo al principio para no pagar después por no haber pensado nada</strong>.</p>
<p>Pensemos que todo en la vida es adaptarse. En Paradigma lo hemos llevar a la práctica en cómo trabajamos: con <a href="https://www.paradigmadigital.com/lineas-servicio/polaris/" target="_blank">Polaris</a>, nuestro marco de trabajo, buscamos mantener la esencia ágil en proyectos, productos y servicios, pero con suficiente flexibilidad como para adaptarnos al ciclo de vida de cada cliente, buscando la excelencia de los entregables, donde:</p>
<ul>
<li><strong>Mantenemos la esencia Agile</strong> pero la llevamos a otro nivel, a través de la <strong>regla 80/20</strong>, en la que entendemos que el 80% de la gestión del proyecto es la actitud del equipo, mientras que el 20% es la práctica, las herramientas con las que trabajamos y la experiencia que tenemos.</li>
<li><strong>El Scrum Master evoluciona hacia un rol de Agile Delivery Leader</strong>, asegurando coordinación, foco en valor y visión clara de lo que estamos construyendo.</li>
<li><strong>Nos guiamos a través del True North</strong>, esa brújula compartida, visible para todos, que nos ayuda a resolver dudas sin caer en debates y a mantener el rumbo cuando el día a día aprieta.</li>
<li><strong>Trabajamos dentro de un marco 100 % adaptativo</strong> con fases y objetivos claros en cada una de ellas: fase de pre-proyecto, fase de arranque (o nuestro Sprint Cero), distintas iteraciones y fase de cierre.</li>
<li><strong>Ponemos foco a los riesgos</strong> en la forma en que se merecen, de cara a tenerlos bajo control desde el primer minuto de vida del proyecto / producto o servicio, yendo siempre por delante en cada una de las fases del proyecto.</li>
<li><strong>Buscamos un modo productivo</strong>, empezando por hacer lo necesario, luego haciendo lo posible y terminando, por qué no, consiguiendo lo imposible. No solo buscamos la productividad  dentro del proyecto, creemos que la productividad tiene que empezar por uno mismo.</li>
<li><strong>Nos basamos en métricas para tomar decisiones</strong> con un catálogo en el que seleccionar lo que mejor se adapte a tu cliente, a tu proyecto, a tu equipo y a tu manera de gestionar.</li>
<li><strong>La calidad no se negocia</strong>, ya que nos aseguramos de que el producto sea superior al de la competencia, poniendo la tecnología al servicio del mismo y entendiendo la entrega temprana y continua como una garantía de éxito.</li>
<li>Entendemos que el desarrollo de software no consiste solamente en entregar funcionalidades, sino en resolver problemas de negocio y por ello, <strong>nuestro enfoque siempre va a ir alineado con el del cliente</strong>.</li>
<li><strong>La experiencia del equipo es un must</strong>, el equipo es lo primero y la relación con el cliente debe ser cuidada y mimada. Porque sabemos que tenemos que entendernos para garantizar el éxito. Y nos funciona.</li>
</ul>
<p>Y cierro con algo sencillo: la vida nos da la posibilidad de elegir, también cuando gestionamos proyectos y cuando dejamos nuestro producto en manos de otros.</p>
<p><strong>Nada garantiza el éxito al 100%</strong>, pero si podemos elegir, yo lo tengo claro: mejor conocernos antes de sacar conclusiones precipitadas, mejor empatizar antes de llegar a reproches.</p>
<p>Mejor descubrirnos a tiempo que acabar con una lista de “yo te dije” que no lleva a ningún sitio… y mucho menos al éxito del producto.</p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Emilia    y Matías     ]]>
        </dc:creator>
        <title>Podcast - Modelos, agentes y vídeo: así evoluciona la IA en marzo 2026</title>
        <link>https://www.paradigmadigital.com/dev/podcast-modelos-agentes-video-evolucion-ia-marzo-2026/</link>
        <pubDate>Thu, 26 Mar 2026 07:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/podcast-modelos-agentes-video-evolucion-ia-marzo-2026/</guid>
        <description>Agentes de IA en 2026: analizamos Claude Code, la supervisión de OpenAI con GPT-5.4 y el salto en consistencia visual de Veo 3.1 y Seedance 2.0.
</description>
        <content:encoded>
            <![CDATA[
                <p>Marzo de 2026 está consolidando una tendencia muy clara en el ecosistema de inteligencia artificial: la competencia ya no gira únicamente en torno a quién tiene el modelo más potente, sino a <strong>quién logra convertir la IA en un auténtico sistema operativo de trabajo</strong>.</p>
<p><strong>Los grandes laboratorios están centrando sus esfuerzos en agentes capaces de programar, investigar, coordinar herramientas y operar en distintos entornos</strong> de forma cada vez más autónoma.</p>
<iframe id="" class="block block-iframe -like-text-width" src="https://open.spotify.com/embed/episode/4i8E9mkbOwjfO000jU6J0L?utm_source=generator&amp;theme=0" style="height:240px;  width:100%;"></iframe>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Claude Code sale del terminal y se integra en Telegram y Discord</h2>
<p>Una de las novedades más relevantes del mes llega desde <strong>Anthropic, que ha ampliado las capacidades de Claude Code</strong> con una nueva funcionalidad conocida internamente como <strong>Channels</strong>.</p>
<p>Esta actualización permite controlar sesiones activas del agente directamente desde plataformas como Telegram y Discord, así como desde otros canales conectados mediante webhook.</p>
<p><strong>Este avance modifica profundamente la forma en que se utilizan los agentes de programación</strong>. Ahora un/a desarrollador/a puede iniciar tareas desde el móvil, continuar una sesión abierta en el ordenador, solicitar revisiones de código o ejecutar instrucciones remotas sin necesidad de acceder directamente al entorno local.</p>
<p>En la práctica, <strong>Claude Code deja de ser un simple asistente de terminal para convertirse en un agente persistente</strong>, accesible desde múltiples canales de comunicación y preparado para acompañar el trabajo diario de forma continua.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">OpenAI explica cómo supervisa a sus agentes de código</h2>
<p>Por su parte, <strong>OpenAI ha publicado uno de sus documentos de seguridad más relevantes hasta la fecha</strong>, detallando cómo supervisa internamente a sus propios agentes de programación para detectar comportamientos anómalos o desviaciones respecto a las instrucciones originales.</p>
<p>El sistema utiliza actualmente un modelo interno denominado GPT-5.4 Thinking, encargado de analizar prácticamente toda la actividad del agente:</p>
<ul>
<li>Qué información recibe.</li>
<li>Qué código ejecuta.</li>
<li>Qué herramientas invoca.</li>
<li>Cómo estructura su razonamiento interno.</li>
<li>Qué modificaciones introduce en el código.</li>
</ul>
<p>Cuando se detectan patrones inesperados (como escalados no previstos, acciones no solicitadas o decisiones alejadas del objetivo inicial) los casos se escalan a revisión humana en menos de treinta minutos.</p>
<p>Este movimiento confirma una preocupación creciente en el sector: <strong>los agentes avanzados no solo pueden cometer errores, sino también desarrollar estrategias no previstas</strong> si no se monitorizan de forma adecuada.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">La carrera del código: OpenAI acelera frente al crecimiento de Claude Code</h2>
<p>Marzo también está evidenciando una <strong>competencia cada vez más intensa entre OpenAI y Anthropic en el terreno del desarrollo asistido por IA</strong>.</p>
<p>Diversos análisis publicados este mes apuntan a que <strong>Claude Code se ha convertido en uno de los agentes de programación con mayor adopción</strong> entre equipos de desarrollo profesionales, <strong>lo que ha llevado a OpenAI a reforzar internamente el desarrollo de Codex</strong>.</p>
<p>Dentro de OpenAI se han creado equipos específicos para mejorar áreas como:</p>
<ul>
<li>Navegación inteligente de repositorios.</li>
<li>Edición autónoma de múltiples archivos.</li>
<li>Testing automático.</li>
<li>Ciclos completos de refactorización.</li>
</ul>
<p>Todo ello confirma que en 2026 el verdadero campo de batalla ya no es solo el chatbot conversacional, sino el dominio del desarrollo de software autónomo.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Novedades en vídeo e imagen generativa</h2>
<p>Más allá de los agentes, <strong>marzo también está dejando avances muy relevantes en vídeo e imagen generativa</strong>, donde la competencia se centra cada vez más en control, consistencia y utilidad profesional.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Seedance 2.0: el modelo chino que más presiona al mercado occidental</h3>
<p><strong>ByteDance continúa consolidando el impacto de Seedance 2.0</strong>, uno de los modelos de vídeo más observados del momento por su combinación de realismo visual, sincronización de audio y control cinematográfico.</p>
<p>La principal novedad de marzo es su avance en control multimodal:</p>
<ul>
<li>Admite texto, imagen, audio y vídeo como entrada simultánea,</li>
<li>Permite trabajar con múltiples referencias visuales,</li>
<li>Mejora notablemente la continuidad entre planos,</li>
<li>Genera clips con una estética muy próxima a producción audiovisual profesional.</li>
</ul>
<p><strong>Uno de sus puntos fuertes sigue siendo la capacidad de mantener coherencia de personajes entre escenas</strong>, algo donde muchos competidores aún presentan limitaciones.</p>
<p>Sin embargo, solo genera vídeos de hasta 15 segundos, su acceso está bloqueado fuera de China y tiene una estricta censura que impide usar rostros reales por derechos de autor.</p>
<p>Fuera de China, sin embargo, el acceso sigue siendo limitado, lo que está alimentando el interés internacional.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Veo 3.1: Google mejora movimiento, cámara y continuidad</h3>
<p>En el terreno del vídeo, <strong>Google continúa reforzando Veo 3.1</strong>, orientándolo cada vez más a usos profesionales.</p>
<p>Entre las mejoras destacadas de marzo se encuentran:</p>
<ul>
<li>Mejor interpretación de prompts complejos,</li>
<li>Movimientos de cámara más naturales,</li>
<li>Reducción visible del flickering,</li>
<li>Continuidad temporal más estable,</li>
<li>Mejor física visual en escenas dinámicas.</li>
</ul>
<p>La novedad más relevante es <strong>Ingredients to Video, que permite trabajar con varias imágenes de referencia para mantener consistencia visual en escenas largas</strong>, la generación nativa en formato vertical (9:16) y el escalado neuronal a 4K real.</p>
<p>Esto acerca Veo a aplicaciones mucho más serias en publicidad, branded content, previsualización cinematográfica y producción de campañas visuales.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Gemini Image: precisión visual y edición contextual</h3>
<p><strong>Google también ha reforzado su sistema Gemini Image</strong>, vinculado al reciente lanzamiento de Gemini 3.1 Pro.</p>
<p>Las mejoras más visibles de marzo se concentran en:</p>
<ul>
<li>Interpretación de relaciones espaciales complejas.</li>
<li>Edición contextual sobre imágenes existentes.</li>
<li>Consistencia visual en múltiples iteraciones.</li>
<li>Comprensión más precisa de prompts largos y técnicos.</li>
</ul>
<p>Esto se traduce en un mejor rendimiento en tareas como branding visual, diseño de producto, mockups complejos y campañas consistentes.</p>
<p>Además, <strong>Gemini Image se integra cada vez más dentro de entornos de trabajo tipo workspace creativo</strong>, donde la generación visual deja de ser una herramienta aislada y pasa a formar parte del flujo continuo de producción.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Un nuevo equilibrio en la IA visual</h2>
<p>La conclusión de este mes es clara: la competencia ya no consiste únicamente en generar imágenes o vídeos más impactantes, sino en ofrecer control real para producción profesional.</p>
<p><strong>Hoy el panorama se perfila así</strong>:</p>
<ul>
<li>Seedance lidera en sensación cinematográfica.</li>
<li>Veo destaca en consistencia técnica y control de escena.</li>
<li>Gemini Image avanza con fuerza en workflows visuales aplicados al trabajo real.</li>
</ul>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ María Mira ]]>
        </dc:creator>
        <title>Informe - 7 buenas prácticas para evolucionar tu PMO a VMO</title>
        <link>https://www.paradigmadigital.com/transformacion-organizacional-rev/informe-7-buenas-practicas-para-evolucionar-tu-pmo-a-vmo/</link>
        <pubDate>Wed, 25 Mar 2026 07:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/transformacion-organizacional-rev/informe-7-buenas-practicas-para-evolucionar-tu-pmo-a-vmo/</guid>
        <description>En el entorno empresarial actual, las Oficinas de Gestión de Proyectos tradicionales (PMO) se enfrentan al reto de trascender el control de costes y plazos para centrarse en lo que realmente importa: la entrega de valor.
Para guiar a las organizaciones en este cambio de paradigma, presentamos las 7 buenas prácticas para evolucionar tu PMO a VMO, un recurso que detalla la transición hacia una Value Management Office (VMO). Este modelo alinea la estrategia con la ejecución operativa,…</description>
        <content:encoded>
            <![CDATA[
                <p>En el entorno empresarial actual, las <strong>Oficinas de Gestión de Proyectos tradicionales (PMO)</strong> se enfrentan al reto de trascender el control de costes y plazos para centrarse en lo que realmente importa: <strong>la entrega de valor</strong>.</p>
<p>Para guiar a las organizaciones en este cambio de paradigma, presentamos las <strong><a href="#formulario" target="_blank">7 buenas prácticas para evolucionar tu PMO a VMO</a></strong>, un recurso que detalla la transición hacia una <strong>Value Management Office (VMO)</strong>. Este modelo alinea la <strong>estrategia con la ejecución operativa</strong>, transformando la oficina de proyectos en un <strong>motor de agilidad</strong> que prioriza el impacto en el negocio y la satisfacción del cliente final.</p>
<p>La adopción de estas buenas prácticas no es solo un cambio metodológico, sino una <strong>evolución cultural necesaria para maximizar la rentabilidad</strong>. Además, complementamos estas buenas prácticas con la <strong>contribución de la IA</strong> en algunos aspectos como la priorización, la toma de decisiones y el seguimiento del flujo de valor.</p>
<p><strong>¡Descárgatelo ya!</strong> 👇</p>
<p><a name="formulario" class="anchor-block"></a></p>
<article id="hubspot-form-9477c776-13bb-4648-8e00-a40c08b15983" class="block block-hubspot -like-text-width vendor-form hubspot-form huge-submitted-message js__hubspot-form" hubspot-portal="2189055" hubspot-form="9477c776-13bb-4648-8e00-a40c08b15983">
    <a class="bt js__trigger-form">Mostrar formulario.</a>
</article>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ 4 autores ]]>
        </dc:creator>
        <title>Podcast - ¿El próximo gran hit de Google? Descubriendo los experimentos de IA más prometedores</title>
        <link>https://www.paradigmadigital.com/dev/podcast-proximo-hit-google-descubriendo-experimentos-ia-mas-prometedores/</link>
        <pubDate>Tue, 24 Mar 2026 07:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/podcast-proximo-hit-google-descubriendo-experimentos-ia-mas-prometedores/</guid>
        <description>Google Labs: filtramos los experimentos de Google que se convertirán en los próximos productos estrella y estándares AI Native este 2026.
</description>
        <content:encoded>
            <![CDATA[
                <p>Si pensabas que NotebookLM había sido una revolución, ¡prepárate! porque <strong>Google tiene su laboratorio a pleno rendimiento</strong>. Desde la explosión de la IA generativa, la creación de nuevos proyectos no ha parado de acelerar, dejándonos &quot;juguetes&quot; nuevos casi cada semana.</p>
<p>En este episodio, nuestro equipo de Goodly, especialistas en el ecosistema de Google, hace una criba para traernos <strong>los experimentos más alucinantes de Google Labs e intentar adivinar cuál se convertirá en el próximo estándar del mercado</strong>.</p>
<iframe id="" class="block block-iframe -like-text-width" src="https://open.spotify.com/embed/episode/4h6UKHauVSBOPeUUbv8gAP?utm_source=generator" style="height:240px;  width:100%;"></iframe>
<p>Para creadores/as de contenido, especialistas de marketing y diseño, las nuevas herramientas vienen pisando muy fuerte. Analizamos:</p>
<ul>
<li><strong>Pomelli</strong>, capaz de generar campañas de marketing digital y recursos gráficos solo con pasarle la url de tu negocio.</li>
<li><strong>Mixboard</strong>, el tablero interactivo definitivo para combinar y trabajar con imágenes.</li>
<li><strong>Produce AI</strong>, que promete convertirte en productor musical con un par de prompts.</li>
<li><strong>Stitch</strong>, un generador de interfaces web y móvil que exporta código y se integra directamente con Figma.</li>
</ul>
<p>Pero los equipos de desarrollo y gamers no se quedan atrás, con herramientas que parecen sacadas de la ciencia ficción.</p>
<p>Hablamos de <strong>Project Genie, un hito impresionante capaz de generar mundos interactivos y jugables a partir de una simple frase</strong>, revolucionando potencialmente la industria del videojuego.</p>
<p>Además, <strong>profundizamos en Jules, el agente de codificación asíncrono y autónomo de Google</strong> que ya trabaja directamente en tus repositorios de GitHub creando Pull Requests, y <strong>Stax, la prometedora suite visual para evaluar y comparar diferentes modelos LLM</strong>.</p>
<p>Por último, exploramos cómo la IA se está volviendo más personal, predictiva y agéntica.</p>
<p><strong>Te contamos nuestra peculiar experiencia con Portraits</strong>, la plataforma que te permite conversar con avatares digitales de especialistas y coaches, y <strong>echamos un vistazo al futuro de la navegación con Disco</strong>, un concepto de navegador basado en Chromium capaz de crear aplicaciones al vuelo.</p>
<p>Todo esto nos lleva a una conclusión inevitable: <strong>la era de las aplicaciones AI Native ya es una realidad absoluta</strong>.</p>
<p>Como todo buen experimento en fase beta, algunos de estos proyectos ya están listos para brillar y otros aún tienen mucho margen de mejora.</p>
<p>Si quieres descubrir cuáles merecen tus preciados créditos, cómo probarlos (con o sin viaje virtual a EE. UU.) y qué apuestas hace nuestro equipo de Goodly sobre el éxito tecnológico del 2026, <strong>¡no te pierdas este episodio de “Cómo conocí a nuestro cloud”!</strong></p>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Andrés Macarrilla  ]]>
        </dc:creator>
        <title>Plataformas de IA: de la teoría a la práctica</title>
        <link>https://www.paradigmadigital.com/techbiz/plataformas-ia-teoria-practica/</link>
        <pubDate>Mon, 23 Mar 2026 07:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/techbiz/plataformas-ia-teoria-practica/</guid>
        <description>La Inteligencia Artificial ya ha demostrado su potencial en pruebas de concepto. Ahora el reto es otro: llevarla a producción de forma eficiente, escalable y segura. Te contamos cómo ir de la teoría a la práctica en la aplicación de IA en este post.
</description>
        <content:encoded>
            <![CDATA[
                <p>En el último post, nos dolía la cabeza con tanta <a href="https://www.paradigmadigital.com/techbiz/poc-produccion-muchas-pruebas-concepto-pocas-productivas/" target="_blank">herramienta de ticketing, problemas de calidad y cuellos de botella para productivizar todo</a>. Analizamos que el gap entre la PoC exitosa y la puesta en producción industrializada es real y es muy costosa.</p>
<p>La buena noticia es que la industria ya ha dado con la solución, y no es un invento de un día. La respuesta, <a href="https://www.paradigmadigital.com/techbiz/2026-sera-ano-plataformas-ia/" target="_blank">como hemos venido sosteniendo</a>, pasa por <strong>aplicar la disciplina más rigurosa</strong> que tenemos: <a href="https://www.paradigmadigital.com/techbiz/como-lanzar-plataforma-como-producto-que-caracteristicas-deberia-tener/" target="_blank">Platform Engineering</a>. Se acabaron <em>“las pruebas con gaseosa”</em>  (la fase de preparación de la IA) y ahora toca la <strong>fase de aplicación de la IA en producción</strong>, a escala, con responsabilidad y velocidad.</p>
<p>La necesidad de tener una plataforma de IA no es solo una moda, es la <strong>infraestructura AI-nativa</strong> que las empresas referentes, entre las que se encuentran algunos de nuestros clientes, ya están construyendo a día de hoy en el mercado.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">La industria ya está ahí y hay soluciones de referencia</h2>
<p>La verdad es que no tenemos que ser el conejillo de indias. Los pesos pesados ya están diciendo claramente lo que estamos viendo, <strong>la IA necesita de Platform Engineering</strong>.</p>
<p><strong>Google y Thoughtworks</strong> son solo dos ejemplos de cómo la visión de la industria está convergiendo. El mensaje es claro: si quieres escalar MLOps de forma consistente, necesitas los <a href="https://www.paradigmadigital.com/techbiz/guia-practica-entender-golden-paths/" target="_blank">Golden Paths</a> y la abstracción que solo la Platform Engineering te puede dar. No es solo cuestión de tener más GPUs, sino de <strong>hacer que esas GPUs sean consumibles</strong> sin un manual de 300 páginas.</p>
<p><strong>¿Y qué significa esto?</strong> Significa que el objetivo no es solo soportar los modelos actuales, sino <strong>crear una Infraestructura AI-Nativa</strong>. Es decir, una plataforma que está <em>diseñada</em> desde cero para orquestar la complejidad de los agentes de IA, los datos vectoriales y el flujo de MLOps. Estamos hablando de una plataforma que tiene la automatización y la inteligencia integradas.</p>
<p>Si los líderes del sector ya han validado este <em>blueprint</em>, la duda no es <em>si</em> debemos construirlo, sino <strong>cuándo</strong> empezamos.<br>
Una plataforma de IA rara vez se construye desde cero con un solo producto. Se basa en una <strong>orquestación inteligente de componentes</strong> que reducen la fricción y dan flexibilidad. Para los equipos que comienzan el viaje, es <strong>crucial identificar el stack</strong> que sirva como los mejores cimientos para soportar todo. Un ejemplo de Golden Path industrializado utiliza herramientas como:</p>
<ul>
<li><strong>Orquestación de Pipelines: Kubeflow o MLflow</strong> para estandarizar el flujo de trabajo (entrenamiento, empaquetado y despliegue del modelo).</li>
<li><strong>Gestión del dato de entrenamiento (Feature Store)</strong>: herramientas como <strong>Feast</strong> para garantizar la coherencia de los datos entre el entrenamiento (offline) y la predicción (online).</li>
<li><strong>Model Serving y MLOps Core</strong>: utilizar Kubernetes para el despliegue es solo el principio. Soluciones especializadas como <strong>KServe</strong> te pueden ayudar a gestionar la complejidad del escalado y la monitorización de los modelos.</li>
</ul>
<p>La clave no es adoptar todas estas herramientas, sino que <strong>la Plataforma de IA las abstraiga</strong> para que el perfil de Data Scientist solo interactúe con el Golden Path simple que hayamos definido.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Casos de uso reales: un  ROI tangible</h2>
<p>A los CxOs les encanta la palabra <strong>ROI</strong>. ¿Cómo les evangelizamos el valor de esta plataforma? Yo lo tengo claro, ¡¡con hechos!! Mostrando dónde el self-service y la trazabilidad generan dinero o mitigan riesgos.</p>
<p>Vamos a intentar aterrizarlo con tres ejemplos donde la <strong>Plataforma de IA genera los cimientos</strong> más robustos:</p>
<ul>
<li><strong>Retail y personalización a escala</strong></li>
</ul>
<p>Una plataforma que permite desplegar un <strong>motor de recomendación</strong> para cada segmento de cliente (o incluso individual) en cuestión de horas. La ventaja: si el perfil de Data Scientist puede iterar en la recomendación diez veces más rápido gracias a un Golden Path automatizado, la empresa vende más. El foco de negocio es el TTM de la mejora del algoritmo.</p>
<ul>
<li><strong>Detección dinámica de fraude</strong></li>
</ul>
<p>Análisis de riesgo. Aquí, la plataforma de IA no solo despliega el modelo de detección, sino que <strong>garantiza la auditabilidad</strong> y la <strong>monitorización en tiempo real</strong> de la deriva del modelo (model drift). Si el modelo empieza a fallar, la plataforma lo detecta y lo revierte automáticamente, protegiendo a la empresa de pérdidas millonarias o fallos regulatorios.</p>
<ul>
<li><strong>IT interna y automatización</strong></li>
</ul>
<p>Podemos usar la plataforma de IA para que Data Scientist generen agentes de IA internos que automaticen la gestión de tickets de soporte o la optimización de recursos cloud. Pasar de &quot;tenemos un agente de IA en pruebas&quot; a &quot;el agente está resolviendo el 20% de las incidencias de L1&quot; es solo posible si tienes una plataforma que gestiona su ciclo de vida y estado de forma fiable.</p>
<p>Los casos son múltiples y variados. Como especialistas de vuestra vertical y de vuestro negocio, seguro que identificáis otros muchos que llevar a buen puerto.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">La hoja de ruta CxO, más allá del código o la tecnología</h2>
<p>Aquí es donde el CxO entra en modo consultor estratégico. La tecnología es el <strong>cómo</strong>, pero la estrategia y las personas son el <strong>qué</strong>. No podemos hablar de Plataforma de IA sin abordar la <strong>gestión del cambio</strong>.</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Alineación estratégica: conectar DORA con el balance sheet</h3>
<p>Hay que traducir la jerga de <em>Feature Stores</em> al idioma del negocio, de quienes habilitan las palancas de inversión. Usaremos los principios que ya cubrimos en nuestra serie de <a href="https://www.paradigmadigital.com/techbiz/que-es-platform-engineering-y-que-no-es-platform-engineering/" target="_blank">Platform Engineering</a>:</p>
<ul>
<li><strong>KPIs de negocio y métricas MLOps</strong>: enseñar que la reducción del Lead Time for Changes (métrica DORA que deberíamos usar para medir en la plataforma) se traduce directamente en la velocidad de lanzamiento de nuevos productos y en la reducción del riesgo. Es la única manera de justificar, con hechos, la inversión.</li>
</ul>
<p>Y además, pensando en la <strong>IA y los modelos</strong>, podríamos añadir métricos concretas:</p>
<ul>
<li><strong>Tasa de productivización de pruebas de concepto (PoC-to-Prod Ratio)</strong>: el porcentaje de Pruebas de Concepto (PoC) que pasan a producción en menos de 90 días. La Plataforma debe elevar este ratio del 10-20% (el estándar actual) a más del 70%.</li>
<li><strong>Valor agregado del modelo (Model Lift)</strong>: medir la mejora incremental en métricas de negocio (ej. aumento en la conversión, reducción de fraude) que el modelo aporta antes y después de su despliegue con la plataforma.</li>
<li><strong>Reducción del TCO de MLOps</strong>: cuantificar el coste operativo total reducido gracias al self-service y la automatización, eliminando la dependencia del TicketOps y la configuración manual de infraestructura.</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Gestión del cambio: uniendo los mundos de Data Science e ingeniería</h3>
<p>Este es, quizás, el punto más difícil. Hay que <strong>conciliar</strong> y <strong>reivindicar</strong> a la vez:</p>
<ul>
<li><strong>Los/as Data Scientists no son DevOps y no tienen por qué serlo</strong>. Por eso es tan importante construir esa plataforma que debe ser el puente. Hay que establecer la <strong>cultura de producto interna</strong>: el equipo de plataforma es el proveedor de servicios y/o capacidades, y el equipo de Data Scientist es su cliente.</li>
<li><strong>Formación y nuevos roles</strong>. Hay que invertir en formar lo que la industria llama <strong>Machine Learning Engineer</strong>, el pegamento entre el Data Scientist y el Platform Engineer.</li>
</ul>
<article class="block block-image  -inline-block -like-text-width -center lazy-true"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/gestion_cambio_data_scientist_ingenieria_f0be4bd0fa.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/gestion_cambio_data_scientist_ingenieria_f0be4bd0fa.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/gestion_cambio_data_scientist_ingenieria_f0be4bd0fa.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/gestion_cambio_data_scientist_ingenieria_f0be4bd0fa.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/gestion_cambio_data_scientist_ingenieria_f0be4bd0fa.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="Gestión del cambio. casos de uso con roi tangible y the cxo roadmap: estrategia y personas" title="Gestión del cambio"/></article>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">El primer paso es siempre la abstracción tecnológica y afrontar la necesidad desde el negocio y las necesidades reales</h2>
<p>La industria lo está haciendo, en Paradigma ya lo estamos haciendo, vemos que los <strong>beneficios son tangibles</strong> y, sobre todo, vemos que <strong>el riesgo de quedarse atrás es inasumible</strong>. La IA es el nuevo campo de batalla competitivo.</p>
<p>Entonces, ¿por dónde empezamos?</p>
<p><strong>Mi recomendación para todos los “C-Level”, decisores, o responsables de equipos o unidades de negocio que tengan que tomar decisiones tecnológicas  es sencilla</strong>: empezar por el o los <strong>componentes de mayor fricción</strong>, los que provoquen que los equipos tengan que dedicar los mayores esfuerzos y que esos esfuerzos no repercutan en el negocio de forma directa.</p>
<p>Comenzar por todo aquello que sea <strong>sensible</strong> de optimizar, de industrializar y que acelere el poder llevar una idea a producción en el menor tiempo posible.</p>
<ul>
<li><strong>No intentéis construir la IDP completa de golpe</strong>. Eso sería una locura, hay que ser pragmáticos.</li>
<li>Comenzar por ejemplo por capacidades como la nombrada <strong>Feature Store</strong> para resolver el dolor de la calidad del dato, o por el <strong>Model Registry</strong> (registro central de modelos) para abordar la trazabilidad y la gobernanza del uso de los mismos dentro de vuestra compañía.</li>
</ul>
<p>Sin duda son solo un par de ejemplos, pero quienes conozcáis el proceso y sus diferentes puntos de dolor, seréis capaces de identificar “pequeños logros”, que irán poco a poco cimentando todo y que van dando cuerpo a esa Plataforma de IA.</p>
<p>Cualquier esfuerzo que reduzca el self-service manual y aumente la estandarización está pavimentando el camino para esa <strong>inevitable Plataforma de IA</strong>. La plataforma no se construye en un día, es un viaje, y la mejor forma de evangelizar y generar tracción es empezar a demostrar el valor con pequeños, pero sólidos, Golden Paths.</p>
<p>Espero que con esta serie de posts, haya sido capaz de despertar esa inquietud de por qué es tan importante esta temática, proporcionarte cierta justificación estratégica a través de hechos tan objetivos como son los problemas de poner todo esto en marcha y, sobre todo, haberte dado ideas de por dónde comenzar a la hora de generar esa hoja de ruta de acción (que aporte valor) para liderar la conversación sobre IA en tu organización.</p>
<p>Si quieres echar un vistazo a los dos posts anteriores de la serie, te los dejo a continuación:</p>
<ul>
<li><a href="https://www.paradigmadigital.com/techbiz/2026-sera-ano-plataformas-ia/" target="_blank">2026 será el año de las plataformas de IA</a></li>
<li><a href="https://www.paradigmadigital.com/techbiz/poc-produccion-muchas-pruebas-concepto-pocas-productivas/" target="_blank">De la PoC a la producción: muchas pruebas de concepto, pero pocas productivas</a></li>
</ul>

            ]]>
        </content:encoded>
    </item><item>
        <dc:creator>
            <![CDATA[ Santiago López ]]>
        </dc:creator>
        <title>¿Qué es Green QA? La calidad que respira</title>
        <link>https://www.paradigmadigital.com/dev/que-es-green-qa-calidad-que-respira/</link>
        <pubDate>Wed, 18 Mar 2026 07:00:00 GMT</pubDate>
        <guid isPermaLink="true">https://www.paradigmadigital.com/dev/que-es-green-qa-calidad-que-respira/</guid>
        <description>El Green QA introduce una nueva forma de medir la calidad del software. Además de validar funcionalidad y rendimiento, busca analizar el consumo energético y la huella de carbono del proceso. Esto permite construir productos digitales más eficientes y alineados con criterios de sostenibilidad.
</description>
        <content:encoded>
            <![CDATA[
                <p>Hacer que el software funcione correctamente y que los procesos de trabajo sigan una metodología orientada a la calidad no son los únicos objetivos que se han de perseguir dentro de QA,QC&amp;Testing y en el mundo del software en general. Hay una nueva frontera, <strong>medir la calidad en vatios y en CO2</strong>.</p>
<p>Probar todo en todo momento puede no ser lo más óptimo ni lo más ecológico, por lo que la <strong>mejora de los ciclos de prueba</strong> y adaptar, tanto la calidad del proceso como del producto, para reducir emisiones se convierte en un nuevo reto dentro de los equipos.</p>
<p>En esta serie de tres post sobre <strong>Green Quality Assurance</strong> trataremos de adentrarnos en esta nueva visión para entender en qué consiste, qué framework puede ser el más adecuado para alcanzar nuestros fines y establecer los KPIs y métricas en una organización o en un proyecto para orientar nuestras prácticas a que sean más eficientes y sostenibles.</p>
<p>En esta primera parte nos centraremos en contar <strong>en qué consiste ser ecológico dentro del mundo de QA y cómo surge la necesidad</strong> a partir de normativas europeas como CSR (Corporate Sustainability Reporting Directive) y conceptos como ESG (Environmental, Social, and Governance).</p>
<h2 class="block block-header h--h30-15-400 left  ">¿Qué es Green QA?</h2>
<p>Imagina que tu proceso de calidad se vuelve “atleta”: más rápido, más fuerte y mucho más eficiente. El <strong>Green Quality Assurance</strong> (GQA) redefine los procesos de QA, QC y testing para que cada uno de ellos cuente, <strong>reduciendo el consumo de energía y la huella de carbono</strong> sin perder la rigurosidad requerida.</p>
<p>Integrar la sostenibilidad en la <strong>calidad del proceso</strong> (actividades de QA durante la construcción del software) y en la <strong>calidad del producto</strong> (QC y testing, validar y verificar el producto construido), consiste en buscar que no sea solo bueno en términos de calidad del software, sino que sea <strong>eficiente a nivel de consumo energético, sostenibilidad</strong> y que se alineen con <strong>principios ESG</strong> que veremos más adelante.</p>
<p>Aquellas organizaciones que <strong>integren la responsabilidad social en su ciclo de desarrollo</strong>, manteniendo el rendimiento y controlando los costos, presentan ante  sus potenciales clientes una <strong>ventaja frente al resto de sus competidores</strong>, al permitirles a estos últimos lograr mejorar los números en lo referente a la sostenibilidad conservando otros objetivos.</p>
<p>Alineados con el concepto de GQA está el de <strong>GreenCode</strong>, que tiene como finalidad la codificación, buscando la eficiencia energética mediante el uso de elementos como la <strong>carga diferida</strong>, los <strong>microservicios</strong> frente a monolitos y una <strong>codificación no muy pesada</strong> que permita prolongar la vida útil de los dispositivos sobre los que se ejecuta, entre otros puntos.</p>
<p>El <strong>Green IT</strong> va de la mano de los anteriores y es la base de estos. Se refiere al uso de <strong>hardware con certificación de eficiencia energética alta</strong>, uso de <strong>cloud</strong> frente a otros ya que los grandes proveedores como Amazon y Google suelen usar, en parte, energías renovables como la solar para su mantenimiento.</p>
<p>En la actualidad, y para hablar de la parte legal de todo este proceso, existe la <strong>normativa</strong> que obliga a las empresas a presentar el reporte RSE (o Memoria de Sostenibilidad) y que se denomina <strong>directiva CARD</strong> a nivel europeo. En España se ha integrado principalmente a través de la <strong>Ley de Información Empresarial sobre Sostenibilidad (LIES)</strong>. Recordemos que la directiva CARD exige usar los <strong>estándares ESRS</strong> (Normas Europeas de Información sobre Sostenibilidad). Estas normas obligan a algunas empresas a <strong>desglosar su consumo energético y sus emisiones</strong> en función del tamaño y tipo de empresa. Cómo veis, Green QA tiene una cobertura legal y, si se logran alcanzar sus objetivos, ayuda a la empresa a cumplir en estos aspectos.</p>
<p>Como ejemplo de uso de estas normativas y del uso de GreenQA, un reporte de RSE tradicional diría: &quot;queremos ser verdes&quot;, mientras que un reporte bajo la <strong>CARD</strong> requiere decir: &quot;nuestra suite de <strong>Green QA</strong> redujo el consumo de CPU en un 12%, ahorrando X toneladas de CO2 este año&quot;.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">ESG como ADN</h2>
<p>Siguiendo con los conceptos que rodean y acompañan a GQA, y como se va a hacer muchas referencias a ello, vamos a explicar brevemente en qué consiste ESG.</p>
<p><strong>ESG</strong> (Environmental, Social, and Governance) es el conjunto de criterios que inversores, gobiernos y clientes usan para <strong>medir</strong> si una empresa es responsable con el <strong>medioambiente, los aspectos sociales y la gobernanza</strong> interna.</p>
<article class="block block-image  -inline-block -like-text-width -center lazy-true"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/esg_desarrollo_software_b102103bb8.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/esg_desarrollo_software_b102103bb8.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/esg_desarrollo_software_b102103bb8.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/esg_desarrollo_software_b102103bb8.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/esg_desarrollo_software_b102103bb8.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="ESG en el desarrollo de software" title="ESG en el desarrollo de software"/></article>
<p>Cuando hablamos de <strong>Environmental (ambiental)</strong>, nos referimos al impacto ambiental que la empresa tiene en el planeta. Green QA tiene un peso específico alto en esta parte, ya que ayuda entre otros puntos con:</p>
<ul>
<li><strong>Temas clave</strong>: huella de carbono, eficiencia energética, gestión de residuos y cambio climático.</li>
<li><strong>En software</strong>: ¿cuánta energía consumen tus servidores? ¿Está tu código optimizado para no calentar los procesadores innecesariamente?</li>
</ul>
<p>Cuando hablamos de <strong>Social</strong>, nos referimos a cómo gestiona la empresa las relaciones con las personas y la sociedad.</p>
<ul>
<li><strong>Temas clave</strong>: diversidad, derechos humanos, seguridad laboral y protección de datos.</li>
<li><strong>En software</strong>: aquí entra la accesibilidad (que tu app la pueda usar alguien con discapacidad) y la ética de los datos (privacidad del usuario).</li>
</ul>
<p>Y, por último, al hablar de <strong>Governance (gobernanza)</strong>, nos referimos a cómo se administra la empresa &quot;por dentro&quot;. Es la parte de las reglas y la transparencia.</p>
<ul>
<li><strong>Temas clave</strong>: ética empresarial, transparencia en los sueldos de los directivos, lucha contra la corrupción y cumplimiento de leyes.</li>
<li><strong>En software</strong>: auditorías de calidad, cumplimiento de normativas de software y transparencia en los procesos de desarrollo.</li>
</ul>
<p>Una vez que ya conocemos que es ESG, vamos a ver cómo se puede evolucionar el perfil técnico de la calidad, de ser el garante del método y del producto a añadir el  cumplimiento ESG y, por lo tanto, ser un garante también de la sostenibilidad.</p>
<p>Sabiendo cuáles son los grandes puntos que aborda el ESG (impacto de las empresas en el medio ambiente, impacto social y gobernanza interna), GQA se encarga de <strong>ayudar a conseguir los objetivos en el ámbito tecnológico</strong>:</p>
<ul>
<li><strong>🍃 Environmental</strong>: optimización de suites automatizadas y eficiencia en el uso de la nube para reducir directamente la huella de carbono del software.</li>
<li><strong>🤝 Social</strong>: impulso a la inclusión digital. Un código eficiente consume menos recursos y rinde mejor en dispositivos antiguos, combatiendo la obsolescencia programada.</li>
<li><strong>⚖️ Governance</strong>: generación de métricas técnicas y reportes transparentes sobre el consumo energético, facilitando el cumplimiento de auditorías verdes.</li>
</ul>
<p>Las organizaciones que alineen los procesos de gestión del ciclo de vida de la calidad con los objetivos ESG sin comprometer la velocidad, el coste ni el rendimiento, obtendrán una <strong>ventaja decisiva en un mercado saturado de requisitos de RSE</strong> de alto rendimiento.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Cuáles son los objetivos principales</h2>
<p>Los principales objetivos que buscamos con esta filosofía son, por un lado, la <strong>optimización de recursos, la eficiencia operativa y la rentabilidad</strong>. Y entre las metas que perseguimos se encuentran la <strong>reducción del impacto ambiental</strong> mediante la disminución del consumo, la <strong>reducción de residuos y emisiones</strong>, así como la <strong>optimización del uso de recursos de materiales y computación</strong>.</p>
<p>Sabemos que cada vez que se ejecuta una suite de pruebas (especialmente en la nube o en grandes servidores) se consume electricidad y esto implica la generación de una huella de carbono. La reducción de este impacto mediante <strong>pruebas selectivas</strong> y la <strong>eficiencia del código de las pruebas</strong> ha de ser una meta para la consecución de este objetivo</p>
<p>Otro de los objetivos de Green QA es la <strong>alineación con ESG</strong>, proporcionando datos a través de métricas ambientales.</p>
<ul>
<li><strong>Facilitará informes de sostenibilidad auditables</strong> (consumo por ciclo de test, etc)</li>
<li><strong>Aportará información para la gobernanza de datos sostenible</strong> (reduciendo la duplicidad de datos en entornos de prueba TDM - Test Data Management), lo que disminuye el almacenamiento físico necesario en los centros de datos.</li>
<li><strong>Facilitará trazas de auditoría</strong> que demuestren que los procesos de calidad cumplen con las políticas de &quot;Net Zero&quot; de la organización.</li>
</ul>
<p>En el siguiente cuadro podemos ver un resumen de las <strong>metas más importantes</strong> a las que aspiramos con uso de GreensQA:</p>
<article class="block block-image  -inline-block -like-text-width -center lazy-true"><img src="https://www.paradigmadigital.com/assets/img/defaults/lazy-load.svg"
          data-src="https://www.paradigmadigital.com/assets/img/resize/small/metas_mas_importantes_green_qa_8f2ca8f067.png"
          data-srcset="https://www.paradigmadigital.com/assets/img/resize/huge/metas_mas_importantes_green_qa_8f2ca8f067.png 1920w,https://www.paradigmadigital.com/assets/img/resize/big/metas_mas_importantes_green_qa_8f2ca8f067.png 1280w,https://www.paradigmadigital.com/assets/img/resize/medium/metas_mas_importantes_green_qa_8f2ca8f067.png 910w,https://www.paradigmadigital.com/assets/img/resize/small/metas_mas_importantes_green_qa_8f2ca8f067.png 455w"
          class="lazy-img"  
                  sizes="(max-width: 767px) 80vw, 75vw"
                  alt="resumen de las metas más importantes de green qa que hemos visto anteriormente" title="Metas de GreenQA"/></article>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Áreas de impacto, donde la calidad se vuelve verde</h2>
<p>Para alcanzar los objetivos y metas de Green QA, debemos <strong>intervenir en los activos digitales clave</strong>. No se trata solo de probar que el software &quot;funcione&quot;, sino de <strong>asegurar que sea sostenible</strong>. Para ello, se debe de actuar sobre los siguientes puntos:</p>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Validación de productos y procesos digitales</h3>
<ul>
<li><strong>Análisis del ciclo de vida del software (S-LCA)</strong>: QA ya no solo valida el &quot;Go-Live&quot;, ahora audita el impacto ambiental desde el desarrollo y las pruebas, hasta el despliegue y el eventual desuso (decommissioning) del software. Su rol es asegurar que los cálculos de consumo energético en cada etapa sean precisos y reales.</li>
<li><strong>Verificación de sostenibilidad del código</strong>: implementación de protocolos para medir la &quot;densidad energética&quot; de las funciones. QA realiza pruebas de eficiencia para evitar el bloatware (software innecesariamente pesado) y garantizar que el producto no fuerce la obsolescencia del hardware del usuario.</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Auditorías de sostenibilidad en la infraestructura</h3>
<ul>
<li><strong>Validación de proveedores de cloud</strong>: QA verifica que la infraestructura donde corre el software cumpla con certificaciones de energía renovable (PUE - Power Usage Effectiveness). No solo probamos en la nube, auditamos que la nube sea verde.</li>
<li><strong>Optimización de la cadena de suministro digital</strong>: revisión de librerías de terceros y dependencias. QA verde detecta dependencias ineficientes que consumen recursos en segundo plano sin aportar valor.</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Validación de ecodiseño de software</h3>
<ul>
<li><strong>Criterios de &quot;reparabilidad&quot; y modularidad</strong>: validar que el código esté estructurado de forma que sea fácil de mantener y actualizar sin tener que refactorizar (y re-ejecutar) todo el sistema, ahorrando ciclos de computación innecesarios.</li>
<li><strong>Eficiencia en la transferencia de datos</strong>: pruebas específicas para reducir el peso de las peticiones API y el tráfico de datos, lo cual reduce directamente el consumo eléctrico en los centros de datos y redes de telecomunicaciones.</li>
<li><strong>Pruebas de cargas con conciencia de carbono</strong>: No solo medir cuántos usuarios soporta el sistema, sino cuánto CO2 emite el servidor bajo ese estrés.</li>
</ul>
<h3 class="block block-header h--h20-175-500 left  add-last-dot">Aseguramiento de los datos usados en ESG</h3>
<p>Para que un informe de sostenibilidad sea válido, los datos deben de tener gran <strong>precisión</strong>. El Green QA se convierte en el <strong>auditor técnico</strong> que garantiza la integridad de cada métrica, todo ello requiere de la formación adecuada que permita a este rol certificar la información que se proporciona:</p>
<ol>
<li><strong>Validación de KPIs de emisiones</strong></li>
</ol>
<p>El perfil de QA debe asegurar que los algoritmos de cálculo y las fuentes de datos reflejen la realidad energética del ecosistema digital:</p>
<ul>
<li><strong>Emisiones directas</strong>: primer nivel. Validación de datos provenientes de la infraestructura propia y servidores locales (On-premise).</li>
<li><strong>Energía comprada</strong>: segundo nivel.Verificación de los informes de consumo eléctrico de los centros de datos contratados y su mix energético (renovable o. fósil).</li>
<li><strong>Cadena de valor</strong>: tercer nivel. Es el mayor reto. QA audita la eficiencia de las APIs de terceros y el consumo de energía que nuestro software genera en los dispositivos de los usuarios finales.</li>
</ul>
<ol start="2">
<li><strong>Exactitud y fiabilidad de los informes</strong></li>
</ol>
<p>No basta con tener datos; deben ser correctos. Aplicamos técnicas para evitar sesgos en los reportes de sostenibilidad:</p>
<ul>
<li><strong>Pruebas de estrés</strong> sobre los modelos de cálculo de huella de carbono.</li>
<li><strong>Validación</strong> de que no existan duplicidades en el conteo de emisiones entre diferentes departamentos.</li>
</ul>
<ol start="3">
<li><strong>Trazabilidad y auditoría (Data Lineage)</strong></li>
</ol>
<p>Implementación de pruebas de trazabilidad para asegurar que cada dato en el informe anual puede rastrearse hasta su origen técnico (logs de servidor, métricas de CPU, etc.). Si un auditor pregunta de dónde sale un número, el Green QA tiene la respuesta documentada.</p>
<ol start="4">
<li><strong>Coherencia en la divulgación ESG</strong></li>
</ol>
<p>Garantizar que los datos publicados en la web, en la App y en el reporte legal de la directiva <strong>CARD</strong> sean idénticos. Se debe buscar un proceso automatizado para la validación cruzada de cara a evitar discrepancias que podrían suponer sanciones legales.</p>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Aplicación de estándares y normativas</h2>
<p>Existen varios marcos normativos y estándares que permiten aplicar todos estos procesos “verdes” de una forma coherente. En este punto damos un breve repaso a esas normas y en los siguientes artículos hablaremos sobre cómo se irán aplicando a nivel estratégico y metodológico:</p>
<ul>
<li><strong>Marcos ISO (14001 y 50001)</strong>: cómo los procesos de QA deben estar documentados para pasar auditorías externas de gestión ambiental y energía.</li>
<li><strong>CARD (Directiva de Reportes de Sostenibilidad Corporativa)</strong>: esta es la nueva normativa europea. Se debe garantizar que lo que pide la ley se cumpla técnicamente.</li>
<li><strong>Taxonomía UE</strong>: validar que las actividades de la empresa se clasifican correctamente como &quot;verdes&quot; según los criterios técnicos de la Unión Europea.</li>
<li><strong>GHG Protocol (Greenhouse Gas Protocol)</strong>: establecer la metodología estándar para contabilizar las emisiones de carbono derivadas del ciclo de vida del software. QA debe validar la recolección de datos de consumo energético en el Alcance 2 (energía de servidores/nube propia) y Alcance 3 (servicios en la nube de terceros y uso del software por el cliente final), asegurando que los factores de emisión aplicados sean precisos para los reportes de huella de carbono.</li>
</ul>
<h2 class="block block-header h--h30-15-400 left  add-last-dot">Conclusión</h2>
<p>Hemos visto cómo, dentro del mundo de la calidad software, existe un aspecto que pocas veces se tiene en cuenta y que, sin embargo, tiene un considerable impacto.</p>
<p>Aplicar GQA no solo <strong>mejora la sostenibilidad</strong> sino que también mejora la <strong>eficiencia</strong> y esto implica un menor coste en los procesos y en la generación de productos.</p>
<p>Todos estos procesos vienen avalados por un conjunto de leyes europeas y sus transposiciones a la normativa española que lo hace más interesante ya que para las empresas no cumplirlas implica el pago de multas.</p>
<p>GreenQA es en definitiva como poner nuestro granito de arena para mejorar la vida desde el hacer de la calidad.</p>

            ]]>
        </content:encoded>
    </item>
</channel>
</rss>
