Ha terminado el re:Invent y, como cada año, siempre quedan más ganas de hablar de AWS ya que ha sido impresionante (como todos los años). Si no has podido seguir todas las sesiones y te has perdido las novedades más llamativas, no te preocupes, resumimos en este post lo que nos ha parecido más interesante.

¿Qué nos han presentado en esta edición? ¿Qué nuevas funcionalidades nos han contado? Te resumimos en este top 10 todo lo que no te puedes perder:

Top 10

  1. AWS Control Tower Account Factory for Terraform

Control Tower meets Terraform

Gran noticia para los fans de Terraform. Hasta ahora solo se podía customizar la creación de cuentas con AWS Control Tower con CloudFormation, pero a día de hoy Terraform se ha convertido casi en un estándar de facto para gestionar IaC y esta nueva funcionalidad da la posibilidad de usar AWS Control Tower con Terraform.

La solución es bastante completa con el uso de Step Functions, no solo para aprovisionar la cuenta, sino para customizar todo el baseline de una cuenta. Además, es bastante interesante poder utilizar AWS Control Tower con desarrollos ya realizados en Terraform, esta nueva funcionalidad añade una compatibilidad bastante necesaria para muchos usuarios de Terraform.

  1. Amazon Inspector

Inspector v2

Nueva y mejorada versión de Inspector, el Servicio automático de evaluación de seguridad que ayuda a mejorar el nivel de seguridad y compliance de las aplicaciones.

Destacamos:

Hay más mejoras, pero estas parecen las más interesantes. Realmente es una mejora en el servicio, que se vuelve más fácil de usar, con más funcionalidades y con más integración con todos los servicios de AWS, además de pasar a ser un servicio en tiempo real.

  1. Amazon FSx for OpenZFS

ZFS is alive!

Para quien añore los años dorados de Solaris y uno de los mejores productos que Sun Microsystems liberó y que todavía sigue muy vivo esta es una buena noticia. Se trata de una buena alternativa si se necesita un sistema de ficheros muy grande, compartido entre varias instancias, con los que EFS tiene algún problema de rendimiento.

Es recomendable tratar de evitar estos sistemas de ficheros, ya que suelen ser necesarios en aplicaciones bastante legacy en general, pero para ciertos casos de uso es una muy buena opción.

  1. AWS Backup for Amazon S3 (Preview)

Por fin Backups de S3

Realmente ya existía la opción de realizar un backup de S3 activando el versionado y activando la réplica hacia otro S3 e impidiendo borrados en este segundo bucket, pero es cierto que no estaba integrado en AWS Backup y, por tanto, no se podía orquestar.

Era una situación extraña cuando se preguntaba por el backup en S3.
Con esta adicción AWS Backup se convierte en una herramienta completa de Backup (ya era muy completa, pero ahora lo es más), totalmente integrada en AWS y sin sobrecostes.

  1. S3 Glacier Instant Retrieval Storage Class

Glacier con recuperación inmediata

Quizás una de las pegas que se suele poner a Glacier es que la recuperación de archivos es compleja y lenta, con esta nueva clase S3 Glacier podemos acceder y recuperar un objeto archivado de forma inmediata.

Además se ha incluido esta nueva clase en S3 Intelligent-Tiering, de forma que si se está usando S3 Intelligent-Tiering cualquier objeto no accedido durante 30 días se mueve automáticamente a S3 Infrequent Access, y si sigue sin ser accedido durante 90 días se moverá a S3 Glacier Instant Retrieval, de forma que se aumenta el ahorro de costes usando S3 Intelligent-Tiering.

  1. CloudWatch Evidently

Observabilidad de nuevas funcionalidades e iniciativas

Evidentemente tenemos ganador al peor nombre de servicio en este re:Invent (perdón por la broma, pero era necesaria y se ha hecho mucho en este re:Invent).

Obviando el tema del naming, es un servicio bastante novedoso: por un lado, permite lanzar nuevas funcionalidades dentro de las aplicaciones y usar feature flags para controlar desde Evidently el porcentaje de usuarios que van a ver esta nueva versión.

Por otro lado, permite lanzar múltiples versiones de una misma funcionalidad usando metodología A/B Testing; de este modo se puede experimentar con diferentes versiones para ver cuál es la que más aceptación tiene (un ejemplo muy claro es probar diferentes banners y ver el engagement de cada uno). Las dos opciones permiten además generar múltiples métricas para investigar el resultado de estas pruebas.

A nivel desarrollo y, principalmente, a nivel negocio es un servicio muy interesante para poder probar nuevas funcionalidades o nuevas iniciativas en un porcentaje de los usuarios y comprobar qué grado de aceptación tienen.

  1. Amazon DevOps Guru for RDS

Amazon Aurora, ahora sin DBAs

Con esta nueva funcionalidad de DevOps Gurú se puede detectar, identificar y solucionar problemas en las BBDD Aurora gracias al uso de Machine Learning. Permite revisar problemas de rendimiento en BBDD de manera bastante sencilla y sin necesidad de dedicar horas y horas a descubrir un problema de rendimiento.

  1. Amazon SageMaker Canvas

Machine Learning sin código, ¿es posible?

Amazon SageMaker Canvas se propone democratizar desarrollos de Machine Learning para casos de uso estándar en Business Analysts, sin necesidad de desarrollar código.
Es una mejora bastante importante y en la que se ha hecho bastante foco, incluso hubo una demo con Allie Miller en la Keynote de Swami Sivasubramanian.

En general, trabajar Machine Learning es caro y complejo. En muchas ocasiones no se tiene muy claro que se puede hacer con los datos existentes, generar modelos requiere mucho conocimiento en la materia y en el negocio (Científicos de Datos). Con este producto se puede aprovechar el conocimiento de AWS en este campo.

Una vez generado un modelo, permite que lo se comparta con los científicos de datos y así afinar el modelo, lo que es bastante interesante ya que no choca con otros productos de SageMaker sino que se complementa.

Habrá que estudiarlo más a fondo pero tiene bastantes casos de uso y permite simplificar el uso Machine Learning en Business Analysts.

  1. AWS Customer Carbon Footprint Tool y AWS Sustainability Pillar

Be Green Be Happy

El factor medioambiental es cada vez más importante para los consumidores y, por ende, para las empresas. De ahí que AWS haya hecho bastante foco en este punto, añadiendo un pilar al AWS Well-Architected Framework, pasando de 5 a 6 pilares e igualando este pilar al resto (Operational Excellence, Security, Reliability, Performance Efficiency y Cost Optimization).

A partir de ahora para cumplir el AWS Well-Architected Framework, hay que tener en cuenta si la arquitectura sigue este nuevo pilar y si es lo suficientemente eficiente a nivel de sostenibilidad.

Además, se ha lanzado una nueva herramienta para conocer la huella de carbono que se deja al utilizar los servicios de AWS individualizadamente por cliente, algo que tiene visos de convertirse en un requerimiento a corto-medio plazo para ciertos proyectos.

A día de hoy todos los grandes proveedores Cloud cuentan con este tipo de herramientas que impulsan que la sostenibilidad a nivel empresarial no sea solamente algo recomendable sino fundamental. Minipunto para Amazon y esperemos que punto para el planeta.

  1. Redshift Serverless, MSK Serverless y EMR Serverless (Preview)

Y por fin llegó el Serverless Analytics: La gran noticia de este re:Invent ha sido el anuncio de estos 3 servicios, Redshift Serverless, MSK Serverless y EMR Serverless, que inician una nueva era Serverless en AWS.

Aurora Serverless fue un pionero en este sentido y el año pasado ya nos presentaron su versión 2.0 que mejoraba muchos de los problemas que tenía la versión 1.0 y que esperemos que esté disponible en poco tiempo.

Es verdad que ya existían otros servicios Serverless como era Redshift Spectrum, pero requería del uso de un cluster ya existente de Redshift. Este nuevo servicio no, y es totalmente Pay As You Go: únicamente pagas por ingesta y procesamiento en el cluster, lo que signifca un gran avance.

Redshift y EMR son servicios bastante económicos (si los comparamos con un servicio similar en On-Prem), pero los clientes se mostraban reticentes a la hora de utilizarlos por el coste inicial al desplegar un cluster. Esto se elimina con este nuevo servicio.

MSK, el servicio gestionado de Kafka, ya era muy solicitado por ser un producto opensource, pero que ahora esté disponible en Serverless ha ayudado mucho a su implementación, ya que va a reducir los costes drásticamente al ser Pay As You Go.

Los tres servicios abren un nuevo abanico de posibilidades y facilitan la implantación sin necesidad de provisionar grandes Clústeres. Por ahora están en versión preview y alguno parece más verde que otro: Redshift, por ejemplo, tiene algunas limitaciones aunque es una gran innovación.

También se presentó Kinesis Data Streams On-Demand con estos 3 servicios y aunque es interesante, es el mismo Kinesis Data Streams de siempre, pero sin requerir reservar y gestionar la capacidad.

Novedades

¿Qué sería de un re:Invent sin ningún nuevo producto o mejora de uno ya existente? Este año no ha entrado ningún camión en el escenario para presentar un servicio, pero han ocurrido otras cosas:

Nuevas instancias basadas en los nuevos procesadores Graviton3, AWS apuesta muy fuerte por estos procesadores ARM. La nueva evolución de su procesador ARM promete bastantes mejoras: mejor procesamiento, mejor rendimiento en coma flotante y en cifrado (el doble de rendimiento) y mejoras en inferencia de Machine Learning (El triple de rendimiento). Además el consumo energético es muy superior al de Graviton2 (mejor que el de procesadores x86, reduciendo la huella de carbono).

Ya tenemos nuevas instancias x86 basadas en procesadores AMD que, si no es posible migrar a ARM, son una buena alternativa a las M6i. Todo apunta a que en breve el resto de familias (c y r) contarán con una nueva alternativa x86 con AMD. Los procesadores x86 siguen muy vivos y AWS tiene muchas alternativas en x86 añadiendo esta nueva familia a los ya existentes de la nueva generación de procesadores Intel Xeon.

AWS ha apostado muy fuerte por los procesadores ARM con Graviton2 y Graviton3, que permiten el uso conjunto de procesadores ARM y GPU de Nvidia T4G Tensor Core.

Si bien es un tipo de instancias ideado principalmente para streaming de juegos en Android, el uso conjunto de ARM y GPU puede ser interesante para otras tareas como inferencias de Machine Learning o incluso para renderización de vídeos a bajo coste (aunque depende de compatibilidad con ARM).

Además, añade un extra a las familias ya existentes con procesadores ARM, igualando funcionalidades.

El año pasado la novedad más seguida y comentada fue el lanzamiento de las instancias EC2 Mac y complementando este lanzamiento tenemos las nuevas instancias Mac mini para realizar test sobre los desarrollos en el ecosistema de Apple. Estas nuevas instancias agilizarán los testeos de aplicaciones basadas en el ecosistema Apple.

Supone una gran mejora en cuanto a la observabilidad Web a nivel de usuario. CloudWatch RUM nos permite capturar métricas sobre la experiencia de usuario, para poder estudiarla y mejorarla.

Pinta bastante bien y es una gran mejora para CloudWatch, que se está convirtiendo en un servicio fundamental y muy completo. Además, se puede usar en combinación con CloudWatch ServiceLens y AWS X-Ray para aumentar la observabilidad.

Como pega para el servicio, funciona añadiendo un snippet de JavaScript a nuestra aplicación, lo que limita su implementación. También hay que tener en cuenta que este tipo de servicios tiene un coste alto y, por tanto, es recomendable controlar los costes del servicio, para que este no se dispare.

Si bien realmente es un hub centralizado de herramientas que ya existían en AWS, da un valor diferenciador al generar este hub y facilitar las migraciones de cargas que estén en Mainframes. Ojo, que facilite las migraciones no significa que estas sigan siendo bastante complejas, pero acelerará y facilitará este tipo de migraciones.

Hace unos años pensar en migrar Mainframes a AWS era una quimera y ahora se empieza a convertir en algo necesario y urgente. De ahí que este tipo de iniciativas se están acelerando y AWS, obviamente, está generando recursos para ayudar.

Nos permite archivar snapshot históricos para que persistan a largo plazo a un coste muy bajo (75% menos que un snapshot estándar). El restore de estos snapshots tiene un cooldown entre 24 y 72 horas, similar a Glacier Deep Archive.

Es un servicio para almacenar snapshots a largo plazo (más de 90 días) y que sean de uso muy infrecuente. Ha sido una funcionalidad bastante demandada, así que nuestra enhorabuena a AWS por implantarla.

Son una evolución de los discos que se utilizan para soportar los volúmenes io2 Block Express, que son impresionantes. Esta nueva evolución va a estar disponible para bastantes tipos de instancia, aunque ahora mismo solo están disponibles para los tipos de instancia Im4gn y Is4gen.

Quizá EBS era una de las partes que se había quedado sin evoluciones en los últimos años en AWS y, desde el año pasado, con el lanzamiento de gp3 y los que se han ido produciendo estos meses, se puede pensar que no van a parar de llegar novedades en cuanto a EBS en los próximos meses.

Un nuevo servicio que permite utilizar AWS Direct Connect para interconectar diferentes localizaciones usando la red de Amazon y no una propia.

Esta mejora lleva tiempo siendo requerida, ya que muchas empresas una vez que tienen conexión directa con AWS les gustaría utilizar el backbone de AWS para interconectar sus sedes o CPDs, bien de forma primaria y a veces de forma secundaria para tener un respaldo de sus propios enlaces entre localizaciones o CPDs.

Puede parecer un servicio poco interesante, algo caro y poco útil. Además, ha generado controversia, ya que en algunos casos se maneja la asignación de Ips de forma automática con soluciones desarrolladas internamente o incluso con un Excel (muy poco recomendable a gran escala), para controlar la asignación de Ips.

Pero, en muchas ocasiones, existen requerimientos de usar IPAM y se recurre a soluciones de terceros que no están totalmente integradas en Cloud, que no son económicas y que en muchos casos generan arquitecturas complejas. Por lo que es un servicio más que necesario en estos casos.

Si queremos expandir capacidades de nuestra SD-WAN a AWS es un gran paso adelante. A nivel de hibridación, poder añadir capacidades de SD-WAN a nuestro ecosistema en AWS simplifica bastante la gestión para los equipos de comunicaciones. Esta solución está pensada para despliegues bastante complejos, pero en los casos de uso que sea necesario, es una solución muy potente.

AWS Forum empezaba a parecer algo vetusto y animaba poco a participar. AWS re:Post es una vuelta de tuerca a la comunidad para que todo sea más fluido. Como punto negativo, es necesario loguearse con una cuenta vinculada a una Account de AWS, por lo que si se cambia de Account perdemos nuestro historial.

Cada día se apuesta más por los CDKs y uno de los mejor posicionados es AWS CDK. Por un lado, AWS ha generado un punto común para compartir librerías de CDK, la idea de AWS es que toda la comunidad de OpenSource que utilice CDK (no solamente AWS CDK) pueda usar Construct Hub como punto común para dejar sus librerías.

Por otro lado, se ha mejorado AWS CDK y evolucionado a la versión 2 . Principalmente, uno de los grandes cambios es consolidar todas las librerías de AWS en una sola librería y AWS ha reconocido que fue un error generar una librería por servicio y que complicaba el desarrollo en AWS CDK. Ser críticos consigo mismos y reconocer sus errores es algo de agradecer en una empresa del tamaño de AWS.

El autoescalado de Kubernetes en Cloud sin usar un servicio gestionado, suele ser muy complejo y no funciona adecuadamente, por ejemplo, distribuir los clusters entre AZ es algo curioso.

Karpenter viene a solucionar este problema, además de añadir funcionalidades nuevas como la posibilidad de tener un pool de recursos a 0 y que se levanten en función de la demanda esperada.

Es muy interesante que AWS trabaje en este tipo de proyectos en modelo open source en vez de restringirlos solo a sus servicios, para que toda la comunidad pueda aprovecharse de este nuevo tipo de escalado en AWS sin necesidad de usar un servicio gestionado como EKS o Fargate para EKS (que también pueden usar Karpenter).

Athena es uno de los servicios que más ha crecido y ahora puede modificar datos. Es verdad que todavía está en preview y con alguna que otra limitación (todavía está en una fase muy inicial), pero es una grandísima mejora que puede dar muchas alegrías en un futuro cercano. Hay que estar bastante atento a esta nueva funcionalidad.

Nuevo tipo de almacenamiento para DynamoDB que permite almacenar tablas con larga retención a un coste muy inferior siempre y cuando no se realicen multitud de consultas.

Hasta ahora almacenar tablas a largo plazo en DynamoDB, con uso esporádico, era igual de costoso que las tablas más recientes que se estaban usando continuamente. Con este nuevo modelo se pueden tener tablas de larga retención para históricos sin necesidad de pagar este sobrecoste.

Aunque es complejo y borrar un snapshot requiere confirmación, a veces alguien lo borra por error, pero ahora se puede configurar una papelera de reciclaje para no borrar los snapshots definitivamente durante un periodo de tiempo que se determine.

Básicamente permite añadir un tiempo de control entre el borrado y la eliminación definitiva del snapshot, pudiendo recuperarlo durante este tiempo. Ojo, porque mientras los snapshot estén en la papelera se seguirán facturando al mismo coste que antes.

CodeGuru es un servicio que nos permite mejorar la calidad de código, identificando partes de código que son poco eficientes. Adicionalmente, permite encontrar vulnerabilidades y bugs en nuestro código.

Además puede identificar passwords o secretos hardcodeados en nuestro código. Es cierto que es una mala práctica, que nadie hace, pero siempre que se hace una auditoría de código algún secreto aparece hardcodeado.

Con esta solución se puede identificar esta mala praxis e incluso integrarlo en los pipelines de despliegue para forzar su corrección antes de desplegar.

Dos nuevas funcionalidades que hacen de AWS Compute Optimizer un servicio imprescindible, que hay que utilizar sí o sí.

AWS Compute Optimize propone diferentes opciones para optimizar el uso de EC2, proponiendo reducciones de instancias, savings plans, etc. pero hasta ahora solo era posible hacer estas recomendaciones con los últimos 14 días.

En la mayoría de los casos este tiempo es más que suficiente, pero hay casos en los que se necesita más de 14 días porque la aplicación tiene patrones de uso que exceden estos 14 días.

Ahora se puede utilizar una métrica ampliada de 3 meses para realizar estas recomendaciones. Ojo, es una funcionalidad extra y de pago, la métrica de 14 días es gratuita.

Otra novedad son unas nuevas métricas que nos permiten medir cuenta a cuenta el nivel de eficiencia que estamos teniendo, las oportunidades de ahorro que tenemos y el riesgo de falta de aprovisionamiento que podamos tener.

Pueden parecer poco útiles en un primer momento, pero tener estos datos de cara a una revisión de costes ayuda mucho a la hora de optimizar los costes cuenta a cuenta. Ya era posible tener alguna métrica de forma agregada pero no por cuenta, lo que ayuda en los entornos multicuenta.

Si queréis conocer el resto de funcionalidades y opciones nuevas que se han presentado en este re:Invent, podéis verlas todas en el blog de AWS.

Sesiones

El re:Invent no solo son nuevos lanzamientos, sino también muchas sesiones. Realmente es un evento para aprender (y mucho) y así está enfocado. Todas las sesiones estarán disponibles en el canal de AWS Events en Youtube. Aquí van nuestras recomendaciones:

  1. How Amazon migrated a large ecommerce platform to AWS Graviton

Desgranan bastante bien AWS Graviton, sus ventajas y qué servicios de AWS están usando Graviton sin que lo notemos. Explican cómo Amazon ha migrado a este nuevo tipo de instancias su core, con una reducción de costes bastante importante. Los procesadores ARM como Graviton tienen una relación coste/rendimiento muy buena, pero requieren que el software sea compatible con ARM, algo que cada vez es más común.

Recomendamos ver esta sesión porque aunque el caso de Amazon parezca muy diferente a un caso habitual por el tipo de tecnología que utiliza Amazon es bastante más similar de lo que parece en un principio y es bastante sorprendente los tiempos en los que se ejecutó la migración. Adicionalmente hay varias recomendaciones y lecciones aprendidas que no solo son valiosas para este caso de uso, sino que son muy valiosas en general.

  1. Amazon EBS under the hood: A tech deep dive

Muy recomendable para conocer cómo funciona EBS y cómo ha ido evolucionando durante estos años, la primera parte de la sesión habla más de fundamentos de EBS, pero hacia la mitad de la sesión empiezan a contarnos las tripas de EBS. Los deep dive son bastante recomendables si se quiere conocer algo más de cómo funciona AWS con algo más de detalle.

  1. Data modeling with Amazon DynamoDB

Perfecta si se quiere conocer cómo funciona DynamoDB, cómo trabajar y sus mejores prácticas (y por ende con una BBDD NoSQL). Como extra: que te lo cuente uno de los mayores expertos en DynamoDB. Esta sesión suele recomendarse en varios path de certificación todos los años y es bastante aclaratoria para entender este servicio.

  1. A least privilege journey: AWS IAM policies and Access Analyzer

Las sesiones de IAM con Brigid Jonshon son increibles y esta no iba a ser menos. Un evento con muchas demos, y hablando de Permisos IAM, puede parecer bastante aburrido, pero esta sesión es muy entretenida y ayuda bastante a la hora de entender IAM.

  1. Amazon Route 53: A year in review

Una revisión de los últimos lanzamientos en Route 53 la mejor BBDD que hay en AWS (para cualquier duda sobre si es una BBDD o no, preguntar a Corey Quinn). Route 53 es uno de los mejores servicios de AWS, con un 100% de disponibilidad y de los más económicos, si se tienen dudas sobre DNSSEC, esta sesión aclara bastantes puntos y cómo se ha implementado en Route 53, además de alguna mejora como DNS Firewall.

  1. Incorporating continuous resilience in your development ecosystem

Una buena charla con muchos recursos adicionales acerca de cómo implementar una resiliencia continua en las aplicaciones y cómo AWS puede ayudarnos. Se presentan un número muy importante de buenas prácticas y procedimientos a la hora de diseñar, desarrollar, operar y desplegar aplicaciones.

Aunque pueda parecer algo bastante básico, es una buena charla para aprender buenas prácticas y chequear que estamos alineados con todas ellas. Los fallos siempre van a existir y es necesario estar preparados para poder reducir su impacto y poder gestionarlo correctamente, no solamente para evitarlos, porque siempre van a existir. También se habla de un tema que se ha tratado en este blog como es Chaos Engineering.

  1. Architecting for sustainability

La sostenibilidad se ha convertido en una prioridad para AWS y esta sesión está enfocada en este nuevo pilar dentro de AWS y cómo podemos generar arquitecturas más sostenibles.
Este nuevo pilar es algo a tener en cuenta cuando se realicen nuevas arquitecturas o para hacer más sostenibles las que ya están desplegadas en AWS.

  1. Opinions are my own

Charlas de unos 30 minutos, donde dan su punto de vista sobre diferentes aspectos del mundo Cloud. La visión crítica de Corey Quinn hace que estas entrevistas sean bastante recomendables al tratar temas tecnológicos sin ninguna limitación o filtro. Un diez a AWS por permitir que alguien que suele ser muy crítico con AWS esté dentro del re:Invent con una sección para él.

  1. Keynotes

El re:Invent siempre orbita mucho en torno a las keynotes. Todas tienen su tirón y son muy recomendables, pero este este año destacaría la de Werner Vogels: amena, con muy buenos invitados, en la que se comentaron bastantes detalles interesantes de AWS y, en la que Werner Vogels admitió ciertos errores que se habían cometido durante este tiempo (algo que siempre es muy loable).

AWS re:Invent llega a su fin

AWS re:Invent, una edición más especial que nunca porque este evento ha celebrado su décimo aniversario, ha llegado a su fin. Esperamos que toda esta información que os hemos compartido os pueda servir de ayuda. ¿Habéis echado algo en falta alguna sesión? ¿Hay alguna novedad que no está incluida y que os parezca interesante? ¡Déjanos un comentario!

¿Cómo impacta lo nuevo de AWS en 2022?

Si quieres saber cómo impactarán las novedades de AWS en 2022, te lo contamos en detalle en este podcast, ¡no te lo pierdas!

Cuéntanos qué te parece.

Los comentarios serán moderados. Serán visibles si aportan un argumento constructivo. Si no estás de acuerdo con algún punto, por favor, muestra tus opiniones de manera educada.

Suscríbete

Estamos comprometidos.

Tecnología, personas e impacto positivo.