Retour sur l'année 2014 : Docker et Spark
L’année 2014 s’achève en ayant apporté son lot de nouveautés. Retour sur deux d’entre elles. L’émergence des containers Le moins que l’ »
L’année 2014 s’achève en ayant apporté son lot de nouveautés. Retour sur deux d’entre elles. L’émergence des containers Le moins que l’ »
Spark permet de traiter des données qui sont figées à un instantT. Grâce au module Spark Streaming, il est possible de traiter des flux de données »
Dans les précédents posts, nous avons utilisé Apache Spark avec un exécuteur unique. Spark étant un framework de calcul distribué, nous allons maintenant monter un cluster »
Nous avons vu dans le post précédent [https://blog-ippon-fr.ghost.io/2014/11/13/initiation-au-mapreduce-avec-apache-spark/] qu’Apache Spark permettait de réaliser des opérations d’agrégation sur »
Dans le précédent post [https://blog-ippon-fr.ghost.io/2014/11/06/introduction-a-apache-spark/], nous avons utilisé l’opération Map qui permet de transformer des valeurs à l’ »