Comment installer la bibliothèque Apache Spark MLlib dans un projet JAVA Eclpise? [fermé]
Je veux implémenter des algorithmes d'apprentissage automatique en utilisant la bibliothèque Spark MLlib pour mon projet Java. J'ai essayé plusieurs tutoriel sans succès.
Je suis habitué à utiliser eclipse et j'ai été surpris que ce soit si difficile à configurer. Mon hypothèse était que j'avais juste besoin de télécharger la bibliothèque à partir de ici et d'ajouter le pot à mon chemin de construction, mais apparemment, cela semble être plus difficile.
1 answers
Créez un projet maven et ajoutez les dépendances suivantes (Pour Spark latest 2.0.0). Vous pouvez commencer par exécuter un programme simple comme JavaALSExample.java dans eclipse.
Il y a plus d'exemples java disponibles dans le référentiel spark github que vous pouvez consulter. Espérons que cette aide.
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.11</artifactId>
<version>2.0.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-mllib_2.11</artifactId>
<version>2.0.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.0.0</version>
</dependency>