Introducción a Kafka Streams y KSQL
Aprende qué es Kafka Streams y KSQL y cómo procesar datos en streaming con esta guía de introducción a estas tecnologías Big Data basadas en Apache Kafka
Aprende qué es Kafka Streams y KSQL y cómo procesar datos en streaming con esta guía de introducción a estas tecnologías Big Data basadas en Apache Kafka
Aprende con esta guía los comandos básicos de hdfs: el sistema de ficheros de Hadoop y úsala de referencia.
En esta entrada vamos a entender en qué consiste Databricks. Cómo nos puede ayudar esta solución cloud en nuestras necesidades de procesamiento y analítica Big Data y cuáles son sus particularidades para poder tomar decisiones con criterio.
¿Quieres saber qué es el servicio S3 de Amazon? En este post aprenderemos en qué consiste, cómo funciona a alto nivel y por qué es una excelente opción para centralizar datos en la nube. Además, lo comparamos con HDFS.
En esta entrada explicamos en qué consiste HDFS, el sistema de ficheros distribuido de Hadoop. Aprende cuales son sus aplicaciones y funcionamiento para almacenar grandes cantidades de datos.
Aprende en esta entrada cómo limpiar un cluster de DC/OS sobre el que probar tus frameworks en fases de desarrollo.
Aprende qué es Apache Airflow, una de las herramientas de automatización de flujos de trabajo más potentes que existen para gestionar cargas Big Data. En el artículo explicamos sus características y evolución
En esta entrada encontrarás una recopilación de los mejores libros de Big Data, desarrollo de software y programación. ¡Libros esenciales para convertirte en un experto!
¿Qué es el Open Source? Explicamos los primeros pasos para participar en un proyecto open source. Además, te proponemos 9 formas de hacer dinero con ello.
Introducción a Apache Hive: aprendemos los fundamentos de Apache Hive como tecnología de Data Warehouse. Aplicaciones en Big Data, arquitectura, casos de uso, ventajas y desventajas.