Ippevent - Spark, ou comment traiter des données à la vitesse de l’éclair
**La conférence **Spark fait partie de la nouvelle génération de frameworks de manipulation de données basés sur Hadoop. L’outil utilise agressivement la mémoire pour offrir »
**La conférence **Spark fait partie de la nouvelle génération de frameworks de manipulation de données basés sur Hadoop. L’outil utilise agressivement la mémoire pour offrir »
Dans les précédents posts, nous avons utilisé Apache Spark avec un exécuteur unique. Spark étant un framework de calcul distribué, nous allons maintenant monter un cluster »
Nous avons vu dans le post précédent [https://blog-ippon-fr.ghost.io/2014/11/13/initiation-au-mapreduce-avec-apache-spark/] qu’Apache Spark permettait de réaliser des opérations d’agrégation sur »
Si vous développez en Java et que vous exploitez une base de données relationnelle, vous connaissez JPA et son implémentation la plus répandue, Hibernate. L’expérience »
Dans le précédent post [https://blog-ippon-fr.ghost.io/2014/11/06/introduction-a-apache-spark/], nous avons utilisé l’opération Map qui permet de transformer des valeurs à l’ »