


Apache Spark 2 : Transformaciones (Map y filter )
Recordemos que las transformaciones son operaciones sobre RDDs que darán como resultado un nuevo RDD, las transformaciones más comunes son las siguientes: Filter: Toma una función que devuelve un nuevo […]

Apache Spark 2 : Creando un RDD con Java
En el post anterior aprendimos los conceptos básicos de un RDDs, en este post los implementaremos con Java y analizaremos su funcionamiento. En Spark tenemos tres formas de crear RDDs […]

Apache Spark 2 : RDD(Resilient distributed dataset)
Todo Apache Spark fue construido alrededor de RDD(Resilient distributed dataset) y es el objeto principal cuando construimos aplicaciones con Spark. Pueden contener cualquier tipo de objetos incluyendo clases definidas por […]

Apache Spark 2 : Conceptos básicos
Apache Spark es un cluster dedicado al procesamiento de información de forma muy rápida, provee soporte para el desarrollo de aplicaciones con Java, Scala, Python y R. Su engine cuenta […]