Autor

Manuel Zaforas es Ingeniero Superior en Informática por la UPM. Está interesado en Big Data, AI, Data Science, Machine Learning, Deep Learning, HPC, IoT, Cloud, NoSQL, NewSQL, Python y Agile. Actualmente trabaja en Paradigma como Scrum Master y Arquitecto Software dentro del área de AI & Big Data, ayudando a diferentes compañías a llevar a cabo sus procesos de transformación digital gracias al cambio cultural y a la implantación de la tecnología más innovadora.

Ponente en

Inteligencia Artificial Madrid

  • 21 de noviembre del 2017
  • Ponente Manuel Zaforas
  • Madrid International Lab

Os invitamos a la primera charla de nuestro grupo Inteligencia Artificial Madrid. En esta charla repasaremos de la mano de Manuel Zaforas,  la historia de la ... sigue leyendo

Redactor en

Inteligencia Artificial, el futuro ya está aquí

La Inteligencia Artificial ha supuesto un punto de inflexión en el sector tecnológico, al igual que otras ramas como Cloud o el auge del Big Data.

La capacidad de optimizar y automatizar decisiones a partir de la inteligencia de datos en tiempo real está permitiendo una mejora competitiva radical en compañías de todos los sectores.

La Inteligencia Artificial, junto a Machine Learning y Big Data, no son sólo las tecnologías que dominarán el ecosistema IT en los próximos años. Son ya hoy una realidad que está cambiando el mundo tecnológico y empresarial.

Por eso en Paradigma consideramos que adquirir capacidades de inteligencia de datos debe ser una prioridad urgente en cualquier proceso de transformación digital.

sigue leyendo…

Lo último en Tecnología y Negocio en solo 3 eBooks

El año 2018 nos está trayendo grandes novedades en cuanto a tecnologías se refiere. Nuevas herramientas, nuevas plataformas… hacen que el sector IT se reinvente cada día. Pero también hay otras tecnologías que siguen creciendo y evolucionando hasta encontrar su grado de madurez.

Es el caso de la Inteligencia Artificial, que parece haberse hecho un hueco en el plan estratégico de muchas compañías. También tecnologías como Cloud siguen siendo cada vez más imprescindibles, incluso juegan un papel fundamental en el proceso de transformación digital de cualquier empresa.

Desde Paradigma hemos querido hacer un estudio profundo, en base a nuestra experiencia y conocimientos, de algunos de los temas más candentes del sector.

Hoy recopilamos 3 de nuestros últimos eBooks para hablar de Inteligencia Artificial, de Transformación Digital y de la seguridad en Cloud. ¿A qué esperas para descargártelos?

sigue leyendo…

[Infografía] Cassandra, la dama de las bases de datos NoSQL

Si hay una base de datos NoSQL que ha conseguido hacerse un hueco en el universo Big Data, esa es Cassandra.

Pero, empecemos por el principio. Tiene su origen en Facebook, en 2008 fue liberado como proyecto open source y en 2010 se convirtió en un proyecto top-level de la  fundación Apache.

Pero, ¿qué hace tan especial a Cassandra? En esta infografía repasamos a grandes rasgos todas las características por las que destaca esta base de datos distribuida.

sigue leyendo…

¿Cómo convertirte en un experto en Inteligencia Artificial y Machine Learning?

Uno de los grandes problemas a la hora de llevar a cabo proyectos de Machine Learning e Inteligencia Artificial en las empresas es disponer de los profesionales adecuados. Todavía existen pocas personas en España con la formación necesaria en este área de especialización. Sin embargo, la demanda es cada vez mayor.

Los equipos y departamentos de BI no tienen la capacidad para implementar Machine Learning en la mayoría de los casos y, por otro lado, tampoco abundan las empresas de servicios con la experiencia y los perfiles necesarios para abordar estos proyectos.

En este post vamos a explorar algunos de los caminos que podemos seguir para formarnos, profundizar en esta disciplina y mantener al día los conocimientos.

sigue leyendo…

Ebook ‘Cómo acelerar tu negocio con Inteligencia Artificial Aplicada’

En los últimos tiempos se está oyendo hablar cada vez más sobre Inteligencia Artificial. Después de la enorme disrupción que han supuesto las tecnologías Big Data, la Inteligencia Artificial es la siguiente gran revolución tecnológica que ya está llegando a todos los rincones.

La encontramos en nuestras casas, al alcance de la mano, en televisores, domótica, apps… Las empresas cada vez la usan más en diferentes campos como la atención al cliente o el estudio del comportamiento de los mismos.

En este eBook hemos hecho una pequeña revisión al estado del arte de las tecnologías relacionadas con la Inteligencia Artificial y un análisis de los casos de uso y aplicaciones reales que ya estamos viendo en diferentes sectores.

sigue leyendo…

Inteligencia Artificial como servicio: reconocimiento de imágenes

El enorme desarrollo que está viviendo la tecnología asociada a la Inteligencia Artificial (IA) está dando lugar en los últimos tiempos a nuevas herramientas y aplicaciones espectaculares.

Una de las áreas donde los avances han sido más notables es el reconocimiento de imágenes, en parte gracias al desarrollo de nuevas técnicas de Deep Learning o aprendizaje profundo. Hoy en día tenemos ya al alcance de nuestra mano sistemas más precisos que los propios humanos, en las tareas de clasificación y detección en imágenes.

sigue leyendo…

¿Es Python el lenguaje del futuro?

Python es uno de los lenguajes que más usamos en Paradigma junto con Java y Node.js. Desde hace años, hemos llevado a cabo exitosos proyectos desarrollados en este lenguaje.

Hace algunas semanas se publicó en el blog de Stackoverflow, la principal página de preguntas y respuestas sobre programación a nivel mundial, un interesante artículo reflexionando sobre el increíble crecimiento del uso del lenguaje de programación Python.

A raíz de este artículo, que ha tenido gran repercusión, queremos hacer un análisis más profundo sobre las causas que han llevado a Python a ser uno de los lenguajes más usados y qué perspectivas de futuro se plantean.

sigue leyendo…

Curso de Big Data e Inteligencia Artificial

Hace tan solo unas semanas, en las oficinas de Paradigma, hicimos un repaso a todos los servicios y herramientas de AWS orientados a Big Data e Inteligencia Artificial.

El número de servicios gestionados que ofrecen las plataformas Cloud es muy alto y es difícil conocer los detalles y posibilidades de todos ellos.

En este curso se pretende dar una visión global de la oferta de AWS en este área, conocer de forma teórica las posibilidades de la tecnología y probar de forma práctica algunos de los servicios, para comprender mejor su potencial y posible aplicación en proyectos reales, a través de 7 ejercicios prácticos y una demo.

El curso se estructura en dos grandes bloques, los vemos a continuación.

sigue leyendo…

De la ficción a la realidad: la maduración de la Inteligencia Artificial

En los últimos tiempos se está oyendo hablar cada vez más sobre inteligencia artificial, dispuesta a quedarse ya en nuestras vidas.

La encontramos en nuestras casas, al alcance de la mano, en televisores, domótica, apps… las empresas cada vez la usan más en diferentes campos como la atención al cliente o el estudio del comportamiento de los mismos.

Algunos hablan ya de una nueva revolución industrial, pero ¿cómo hemos llegado a este punto?, ¿cuál ha sido la historia de la evolución de la Inteligencia Artificial? ¿qué acontecimiento y tecnologías han hecho posible que estemos finalmente en la época dorada de la IA?

sigue leyendo…

Introducción a Django REST framework

Django REST framework (a.k.a DRF) es una de las apps de terceros más usadas en django y prácticamente se ha convertido en una herramienta obligada si lo que queremos es construir un API REST sobre Django.

Recientemente se ha liberado la versión 3 de esta librería soportada principalmente por Tom Christie, un ingeniero británico. Esta versión incluye muchas novedades y suponen un salto de calidad y de madurez en la herramienta.

sigue leyendo…

TensorFlow, o cómo será el futuro de la Inteligencia Artificial según Google

Durante décadas se ha hablado del concepto de la “Inteligencia Artificial” (IA) y el impacto que tendría en nuestras vidas. El cine y la literatura han fantaseado con las posibilidades y los dilemas que se plantean desde HAL 9000 hasta Skynet. Sin embargo la realidad estaba siempre muy lejos de la ficción.

En los últimos años se han dado una serie de condiciones y cambios tecnológicos que han propiciado el resurgimiento de la IA y su aplicación en nuevas áreas, nos referimos a Big Data, Cloud, IoT, Mobility… una verdadera nueva revolución industrial.

Las empresas se están posicionando en este nuevo escenario y, sin duda, Google es uno de los referentes en Inteligencia Artificial desde sus orígenes. En este artículo vamos a hablar de TensorFlow, el framework liberado por Google para desarrollar algoritmos inteligentes que está en el corazón de muchos de sus productos.

sigue leyendo…

Vuela con tus datos usando Apache Flink

La mayor parte de la información que se produce hoy en día se hace de forma continua (sensores, transacciones, interacciones, actividad de usuarios…). Dar una respuesta rápida al procesamiento Big Data se está convirtiendo en algo cada vez más importante.

La forma más común de analizar toda esta información es la de persistirla en un almacenamiento estable (HDFS, DBMS…) para posteriormente analizarla periódicamente mediante procesamiento por lotes (Batch).

La característica principal que aportan los motores de procesamiento en streaming es que son capaces de analizar esta información conforme va llegando. Consideramos tiempo real al procesamiento en streaming de datos en el mínimo tiempo posible para hacer una analitica de la información procesada.

Entre estas nuevas herramientas que han surgido destacan Samza (desarrollada por LinkedIn), Storm o Flink. Este artículo se va a centrar en explicar qué está detrás de Flink, cómo y dónde surgió, y cómo podemos usarlo en proyectos que requieran tiempos de respuesta menores.

sigue leyendo…

¿Es el Internet de las Cosas la siguiente revolución industrial?

El término Internet of Things o Internet de las cosas fue acuñado por primera vez en los años 80 en el entorno militar. Pero sin duda ha sido en los últimos años, gracias a los grandes avances tecnológicos, cuando se han extendido de manera espectacular su uso y aplicaciones.

El número de dispositivos conectados ha crecido exponencialmente en los últimos años y se estima que en el año 2020 habrá más de 50 billones de dispositivos conectados.

Es por ello que muchos expertos se refieren ya al internet de las cosas como la siguiente revolución industrial, que cambiará la forma en la que las personas nos comunicamos, trabajamos, viajamos, nos entretenemos… y también cambiará la forma en al que los gobiernos y las empresas interactúan con el mundo.

sigue leyendo…

Big Data en las nubes

Amazon Web Services, Google Cloud Platform y Azure se han convertido en los principales proveedores de tecnología Cloud hoy en día. En el blog ya hicimos una comparativa entre alguna de estas plataformas. Analizamos sus características en cuanto a almacenamiento y procesamiento y vimos sus diferencias y similitudes más destacadas sobre bases de datos, redes, herramientas de desarrollo y gestión, analytics y machine learning, entre otras.

Dentro del amplio abanico de soluciones IaaS y PaaS que ofrecen estos proveedores destacan los componentes que ofrecen soluciones específicas para el área Big Data.

En este post haremos un análisis de las principales herramientas orientadas a Big Data que nos ofrecen estos tres proveedores. Clasificaremos los diferentes componentes como soluciones de almacenamiento, procesamiento o inteligencia.

sigue leyendo…

Codemotion 2016, a vista de pájaro

Un año más tuvo lugar en Madrid el Codemotion 2016, el mayor evento por y para desarrolladores de España. Este año, superando ediciones anteriores, pudimos disfrutar de más de 160 charlas con más de 2000 asistentes. Un evento de grandes dimensiones que se ha convertido en una referencia en la agenda de los eventos tecnológicos de nuestro país.

Si hay una cita fijada en el calendario para muchos de nosotros, esa era la de Codemotion. Además, no solo acudimos como asistentes, sino que también asistimos al evento con varias ponencias.

En este post vamos a dar unas pinceladas de nuestra visión del evento y a analizar algunas de las charlas más interesantes de este año.

codemotion

sigue leyendo…

Las Smart Cities llegan a España, ¿es tu ciudad inteligente?

Una de las aplicaciones más evidentes y exitosas del Internet de las cosas (IoT) son las Smart Cities. Este nuevo concepto aplicado a las grandes ciudades está siendo un vector de innovación y dinamización de las ciudades que han apostado en este sentido. La aplicación masiva de la tecnología en la gestión de las grandes urbes es algo que siempre hemos visto en la literatura y el cine, pero hoy en día ya es una realidad.

¿A qué nos referimos cuando hablamos de Smart Cities?, ¿qué características definen a una ciudad inteligente?, ¿qué impacto tendrá el Big Data en las ciudades del futuro?, ¿cómo se relacionan las ciudades inteligentes entre sí? En este post intentaremos dar respuestas a estas preguntas.

smart-cities-3

sigue leyendo…

VERSUS: Tablero Virtual VS Tablero Físico

En Paradigma tenemos diversos equipos aplicando Agile de diferentes maneras: Scrum, Kanban u otros frameworks que también funcionan. De la misma manera, a la hora de controlar y hacer seguimiento del proyecto hemos descubierto que cada equipo ha ido buscando la herramienta más cómoda, ya sea para controlar el Sprint Backlog, el Tablero Kanban o bien otros aspectos del proyecto.

También hay equipos muy fans de herramientas digitales, entre las más famosas encontramos Trello, Jira o Taiga. La otra alternativa que gusta mucho en la comunidad Agile es la implantación de Visual Management y llevar dicho control a tableros físicos.

En este Versus enfrentamos a Javier Martín de Agar, defensor de los paneles físicos y a Manuel Zaforas, que ve mayor utilidad y comodidad en los paneles virtuales. ¿Con cuál te quedas?

sigue leyendo…

Jupyter: Data Science aplicada

Gracias al Big Data las empresas pueden almacenar, procesar e interpretar grandes volúmenes de datos a gran velocidad. Aunque aún la mayoría de las empresas no trabajan con este tipo de tecnologías y sólo son un puñado de ellas las que se benefician de las ventajas que supone trabajar con Big Data.

¿Cuál es el siguiente paso? El objetivo es obtener el máximo valor de estos datos, dotarlos de inteligencia y extraer conocimiento. Nace así una nueva disciplina: la ciencia de datos o Data Science.

En este post profundizaremos en Jupyter, un novedoso entorno de trabajo open source orientado a científicos que soporta los lenguajes R y Python, entre otros, y que está revolucionando la forma de trabajar en el mundo de los datos.

Jupyter1 sigue leyendo…

¿Qué puede aportar el Big Data al mundo de la medicina?

¿Prevenir enfermedades antes de que se diagnostiquen?, ¿recibir seguimiento de nuestras enfermedades en tiempo real sin necesidad de acudir a la consulta del médico?, ¿tener al alcance de la mano un mapa de nuestra salud para que sea analizado por especialistas? Todas estas cosas están cada día más cerca de convertirse en realidades cotidianas gracias, entre otros elementos, al Big Data.

Las tecnologías basadas en Big Data están revolucionando todos los aspectos de los negocios y también de la vida cotidiana. Una de las áreas donde los cambios tecnológicos están teniendo un impacto mayor es en la medicina. La biotecnología, la realidad aumentada, los wearables, la genómica, los robots cirujanos o la biónica son realidades hoy en día.

big-data2

sigue leyendo…

Cómo implementar microservicios con Python en minutos

Las arquitecturas software orientadas a microservicios se están convirtiendo en un standard para la construcción de aplicaciones modernas desplegadas continuamente en plataformas Cloud.

Martin Fowler, uno de los firmantes del Manifiesto Ágil y una de las personas más influyentes en el mundo del software, profundizó en el concepto de arquitecturas orientadas a microservicios en este artículo de obligada lectura.

Sin duda este nuevo estilo de arquitectura se está imponiendo en entornos donde las necesidades de escalabilidad son muy fuertes y el diseño en componentes independientes es una gran ventaja a la hora de abordar problemas complejos.

En Paradigma hemos escrito varios artículos profundizando en diferentes aspectos a tener en cuenta a la hora de enfrentarse a arquitecturas orientadas a microservicios como la orquestación, la monitorización o el despliegue.

En este artículo, sin embargo, queremos profundizar en una de las grandes ventajas de los microservicios: el poliglotismo.

microservicios-python

sigue leyendo…

Crónica PyData Madrid 2016

En los últimos años el volumen de información generado y almacenado por las empresas ha crecido de manera exponencial. Hasta el punto de que hasta el año 2003, la Humanidad ha generado una cantidad de datos equivalente a 5 Exabytes, una información que actualmente se genera cada dos días. Un crecimiento que se supera enormemente año tras año. Esta generación masiva de información ha desembocado en un inmenso mar de datos a los que, a priori, no se les estaba sacando ningún partido más allá de las propias aplicaciones que los generaron. Hoy en día Big Data está presente en todas partes y la cantidad de información obtenida de redes sociales, dispositivos móviles, aplicaciones de usuarios y sistemas transaccionales es enorme y su tratamiento y análisis es una obligación para las compañías, lo que ha dado lugar a una nueva disciplina: la ciencia de los datos o data science.

Alrededor de estas necesidades surge una serie de tecnologías, de la mano de técnicas estadísticas, de minería de datos, analítica avanzada, Big Data, machine learning y otras técnicas que se adaptan y evolucionan para afrontar problemas partiendo de grandes volúmenes de datos. Este tema está cobrando cada vez más relevancia y por eso surgen eventos como PyData, celebrado este año por primera vez en Madrid, que pretenden profundizar en la problemática del tratamiento y análisis de los datos.

pydata-1

sigue leyendo…

Machine Learning, la forma de hacer Big Data inteligente

Desde hace un tiempo se viene oyendo con fuerza el término Machine Learning en la industria. Cada vez las empresas están más interesadas en estas técnicas y en cómo usarlas para extraer conocimiento de sus datos y obtener una ventaja competitiva.

Dentro del universo Big Data y, concretamente, del mundo Data Science, las técnicas de Machine Learning están tomando protagonismo y van a convertirse en un elemento clave en los próximos años. Pero, ¿qué es realmente Machine Learning? ¿En qué consiste?

shutterstock_10708528_opt

sigue leyendo…

Channels, la apuesta de Django para modernizar el desarrollo de aplicaciones

Django es el framework por excelencia para desarrollo web en Python que, con más de 10 años de vida, es sin duda una de las mejores plataformas open source para construir aplicaciones web hoy en día.

Desde sus inicios la filosofía del framework fue agilizar el desarrollo de aplicaciones ayudando a los desarrolladores a trabajar de una forma limpia y pragmática para así alcanzar los objetivos con la máxima calidad posible. La seguridad, escalabilidad y versatilidad han sido los pilares sobre los que se sustenta su filosofía, lo que se resume en su leitmotiv: “…el framework para perfeccionistas con fechas de entrega”.

El uso de Django está hoy en día muy extendido en la industria y es usado en grandes y pequeñas compañías de gran impacto como: Google, Instagram, Spotify, Dropbox, Quora, NASA o Telefónica. Varios de los proyectos más exitosos desarrollados en Paradigma han sido construidos usando Django.

Django

sigue leyendo…

Cassandra, la dama de las bases de datos NoSQL

Dentro de los nuevos sistemas de almacenamiento que están surgiendo dentro del universo Big Data, Cassandra es uno de los más interesantes y reseñables. Cassandra se define como una base de datos NoSQL distribuida y masivamente escalable, y esta es su mayor virtud desde nuestro punto de vista, la capacidad de escalar linealmente.

Además, Cassandra introduce conceptos muy interesantes como el soporte para multi data center o la comunicación peer-to-peer entre sus nodos. En este artículo vamos a profundizar en estas y otras características que hacen a Cassandra tan especial.

2000px-Cassandra_logo.svg

sigue leyendo…

Spark: un destello en el universo Big Data

Spark es una plataforma open source (licencia Apache 2.0) para procesamiento paralelo en clusters. Está orientada a manejar grandes volúmenes de datos y ejecutar cómputo intensivo sobre ellos. Spark está suponiendo una revolución en el mundo del Big Data, podemos verlo como una evolución de Hadoop MapReduce, que nos ofrece varias ventajas y reduce significativamente los tiempos de ejecución.

1

El nacimiento de Spark surge en los laboratorios AMPLab de la Universidad de Berkeley en 2009, su evolución ha sido espectacular, incrementándose notablemente la comunidad y el número de contribuciones. Finalmente en 2014 Spark fue acogido como un proyecto “Top-Level” de la Apache Software Foundation y nació la compañía Databricks para dar soporte al desarrollo de Spark.

sigue leyendo…

Cómo mejorar nuestras reuniones diarias de SCRUM usando el API de Jira

Trabajar con metodologías ágiles es una prioridad en Paradigma. Dedicamos mucho tiempo y esfuerzo en formación y mejora continua para conseguir aportar valor a nuestros clientes apoyándonos en estas metodologías. 

El marco de trabajo más extendido en los proyectos de Paradigma es SCRUM. A través de esta metodología establecemos una serie de reuniones que se deben realizar periódicamente, por ejemplo, la reunión de planificación o la retrospectiva.

1

En este post vamos a centrarnos en la reunión diaria o daily y cómo la hemos mejorado en uno de nuestros proyectos para una gran operadora de telecomunicaciones.

sigue leyendo…

Crónica del Codemotion 2015

‘Intro’ y daily

El 27 y 28 de noviembre tuvo lugar la tercera edición del Codemotion, el evento para desarrolladores más grande de nuestro país. Paradigma y Stratio colaboraron en la organización de varias charlas, y varios compañeros pudimos asistir al evento que no dejó a nadie indiferente. 

El escenario en esta ocasión fue el mismo que el año anterior, el campus de Montepríncipe de la Universidad San Pablo CEU, gracias a sus excelentes y amplias instalaciones se pudo acoger un evento de esta magnitud, con doce tracks en paralelo y unos 2.000 asistentes. codemotion 2 ok

Os dejamos nuestras impresiones de las charlas a las que pudimos asistir y de las que merece la pena hacer un pequeño comentario. 

sigue leyendo…

PyConES, primera conferencia de Python en España

El 23 y 24 de noviembre tuvo lugar en la “EUI UPM” en el campus de Vallecas la primera conferencia exclusivamente de Python en España, la “PyConES 2013“. Desde Paradigma esperábamos con inquietud este evento (las entradas llevaban agotadas varias semanas) que prometía ser un punto de encuentro y el pistoletazo de salida para el crecimiento de la comunidad Python en España.

python_2

sigue leyendo…

How to become an expert in Artificial Intelligence and Machine Learning

One of the big problems when carrying out Machine Learning and Artificial Intelligence projects in companies is having the right professionals. There are still few people in Spain with the necessary training in this area of ​​specialization. However, the demand is increasing.

BI teams and departments don’t have the capacity to implement Machine Learning in most cases and, conversely, there are not many service companies with the experience and profiles necessary to address these projects.

In this post we are going to explore some of the career paths we can follow to train ourselves, deepen and keep our knowledge of this discipline up to date.

sigue leyendo…

Artificial Intelligence As A Service: Image recognition

The enormous development that the technology associated with Artificial Intelligence (AI) is experiencing is giving rise in recent times to new tools and spectacular applications.

One of the areas where advances have been most notable is the recognition of images, in part thanks to the development of new Deep Learning techniques. Nowadays we have at our fingertips more accurate systems than humans themselves in the tasks of classification and detection in images.

sigue leyendo…

From fiction to reality: the maturity path of Artificial Intelligence

In recent times we are hearing more and more talk about artificial intelligence, already set to remain in our lives.

We find it in our homes, close to hand, in television, automation, apps… Companies use it ever more in different fields such as customer care or the study of consumers’ behaviour.

Some are already talking about an industrial revolution, but how did we reach this point? What is the history of the evolution of artificial intelligence? Which events and technology have made it possible to finally arrive to the golden age of AI?

sigue leyendo…

Cassandra, the lady of NoSQL databases

Among the new storage systems that are appearing within the Big Data universe, Cassandra is one of the most interesting and significant. Cassandra is defined as a distributed and massively scalable NoSQL database, and this, from our point of view, is its greatest virtue: the capacity to scale up linearly.

Additionally, Cassandra introduces very interesting concepts, such as multi data center support and peer-to-peer communication between its nodes. In this article, we will take a closer look at these and other characteristics that make Cassandra so special.

2000px-Cassandra_logo.svg

sigue leyendo…

Fly with your data using Apache Flink

Most of the information that is produced today is done so continuously (sensors, transactions, interactions, user activity…). Giving a fast answer for Big Data processing is becoming increasingly important.

The most common way to analyse all this information is to keep it in stable storage(HDFS, DBMS…) for later periodically analysis through batch processing.

The main characteristic of streaming processing engines is that they are able to analyse this information as it arrives. We consider real-time as data streaming processing in the shortest time possible to perform an analysis of the processed information.

Among these recently emerges tools we emphasise Samza (developed by LinkedIn), Storm or Flink. This article will focus on explaining what is behind Flink, how and where it emerged, and how we can use it in projects that require the shortest response times.

sigue leyendo…

Is the Internet of Things the Next Industrial Revolution?

The term Internet of Things was first coined by the military in the 1980s. Yet there can be no doubt that it was in the recent years that the use of the concept and its applications broadened dramatically, thanks to huge technological advances.

The number of connected devices has been growing exponentially lately, and it is expected to exceed 50 billion by 2020. It is for this reason that many experts refer to the Internet of things as ‘the next industrial revolution’, one that will change the way we communicate with one another, work, travel and have fun—and it will also change the way governments and businesses interact with the world.

sigue leyendo…

Big Data in the Cloud

Amazon Web Services, Google Cloud Platform and Azure have become the main providers of Cloud technology today. Among the many different IaaS and PaaS solutions these providers offer, the components that offer specific solutions for the Big Data field stand out. In this post, we’ll analyse the Big Data-oriented tools offered by these three providers. We’ll also clarify the different components, such as storage, processing or intelligence solutions.

In this post, we’ll analyse the main Big Data-oriented tools offered by these three providers. We’ll also clarify the different components, such as storage, processing or intelligence solutions.

sigue leyendo…

How can Big Data contribute to Medicine?

Preventing illnesses before they are diagnosed? Receiving real time monitoring of our illnesses without needing to go a doctor? Having within our reach a map of our health so that it can be analyzed by specialists? Every day all these things are closer to becoming a reality thanks to amongst other factors, Big Data.

Technology based on Big Data is revolutionizing every aspect of business and also everyday life. One of the areas where technological advances are having a big impact is in medicine. Examples of these are Biotechnology, augmented reality, wearables, genomics, robotic surgeons or bionics, which are today all a reality.

sigue leyendo…