¿Qué es HDFS? Introducción
En esta entrada explicamos en qué consiste HDFS, el sistema de ficheros distribuido de Hadoop. Aprende cuales son sus aplicaciones y funcionamiento para almacenar grandes cantidades de datos.
En esta entrada explicamos en qué consiste HDFS, el sistema de ficheros distribuido de Hadoop. Aprende cuales son sus aplicaciones y funcionamiento para almacenar grandes cantidades de datos.
Aprende qué es Apache Airflow, una de las herramientas de automatización de flujos de trabajo más potentes que existen para gestionar cargas Big Data. En el artículo explicamos sus características y evolución
En esta entrada encontrarás una recopilación de los mejores libros de Big Data, desarrollo de software y programación. ¡Libros esenciales para convertirte en un experto!
Introducción a Apache Hive: aprendemos los fundamentos de Apache Hive como tecnología de Data Warehouse. Aplicaciones en Big Data, arquitectura, casos de uso, ventajas y desventajas.
Explicamos qué es un plan de recuperación de desastres y comentamos los problemas más frecuentes en su implementación a través de los 6 errores más comunes
Explicamos en qué consiste el paradigma MapReduce de Hadoop, sus componentes y su aplicación en el procesamiento Big Data.
Exploramos Apache Pulsar. En qué consiste este broker de mensajería, qué ventajas ofrece y en qué se diferencia de Apache Kafka
En este artículo hablamos de los conceptos fundamentales de Yarn en Hadoop. Aprende sobre sus componentes principales y su arquitectura para Big Data. En estos artículos tenemos la introducción a…
Explicamos en qué consiste el almacenamiento de objetos vs el almacenamiento de bloques, cuáles son sus diferencias, sus aplicaciones, cómo elegir entre ellos y su uso en el Big Data.
Explicamos qué es el Big Data y para qué sirve: las herramientas, tecnologías y las Vs para gestionar grandes volúmenes de datos