Ce projet vise à effectuer un traitement par lot sur de grands ensembles de données à l'aide d'Hadoop HDFS et du modèle de programmation MapReduce.
L'objectif principal de ce projet est de démontrer comment utiliser Hadoop pour effectuer des tâches de traitement par lot distribuées sur un grand ensemble de données.
Avant de commencer, assurez-vous d'avoir les éléments suivants installés :
Apache Hadoop Version: 3.3.6. Docker Version latest Visual Studio Code Version 1.85.1 (ou tout autre IDE de votre choix) Java Version 1.8. Unix-like ou Unix-based Systems (Divers Linux et MacOS)