Apache Kafka + Apache Spark: Aprovechando tecnologías Streaming para el procesamiento en Batch

Proceso ETL. Pieza central del proyecto Big Data Recopilar, ingestar, integrar, tratar, almacenar y analizar grandes volúmenes de información son el conjunto de actividades fundamentales de un proyecto Big Data. Es la unión de estas tareas lo que permite tener una base sólida para realizar posteriormente tanto analítica descriptiva como predictiva, con proyectos y casos … Sigue leyendo Apache Kafka + Apache Spark: Aprovechando tecnologías Streaming para el procesamiento en Batch