bigdata

java est-il nécessaire pour hadoop?

Quelqu'un peut-il dire qu'il est nécessaire de connaître java pour apprendre hadoop? Si quelqu'un travaille sur hadoop, veuil ... s? Je sais qu'il y a beaucoup de questions mais si quelqu'un peut aider.. Qui sera grand pour moi. Merci beaucoup les gars.

Triés Hadoop WordCount Java

J'exécute le programme WordCount de Hadoop en Java et mon premier travail (obtenir tous les mots et leur nombre) fonctionne b ... Format Counters Bytes Read=1528889 Merci pour votre temps et votre aide ! Modifier Global: nouvelle api utilisée

Impossible de démarrer un travail à partir du code java dans spark; le travail initial n'a accepté aucune ressource

Bonjour ma configuration Spark en JAVA est: ss=SparkSession.builder() .config("spark.driver.host", "192.168.0.103") ... ont en attente sont soumis à partir du code java. Essayé toutes les solutions de tous les sites. Aucune idée s'il vous plaît.

Java Recon Job-Solution la plus rapide et générique

Actuellement, j'exécute mon application dans RDS et je suis en train de passer à MongoDB. Pour l'instant, nous avons un trava ... ait y avoir des tables qui sont mappées directement b/w oracle et Mongo. Peu de tables sont dénormalisées dans Mongo. Merci,

Big Data Traitement En Java

Je travaille sur un projet où je reçois environ 10 fichiers contenant chacun une taille de 200 Go. Mon exigence de projet est ... n traitement parallèle. Résultat: cela me donne une exception de mémoire à group by feature. Je lis ces données de hadoop.

Java è necessario per hadoop?

Qualcuno può dire che è necessario conoscere java per imparare hadoop? Se qualcuno sta lavorando su hadoop quindi si prega di ... nza tra hdfs e gfs? So che ci sono molte domande ma se qualcuno può aiutare.. Sarà fantastico per me. Grazie mille ragazzi.

Ordinato Hadoop WordCount Java

Sto eseguendo il programma WordCount di Hadoop in Java e il mio primo lavoro (ottenendo tutte le parole e il loro conteggio) ... ut Format Counters Bytes Read=1528889 Grazie per il vostro tempo e aiuto ! Modifica globale: nuova api utilizzata

Impossibile avviare un lavoro dal codice java in spark; Il lavoro iniziale non ha accettato alcuna risorsa

Ciao la mia configurazione Spark in JAVA è : ss=SparkSession.builder() .config("spark.driver.host", "192.168.0.103") ... ono in fase di attesa è presentata dal codice java. Ho provato tutte le soluzioni da tutti i siti. Qualsiasi idea per favore.

Java Recon Job-Soluzione più veloce e generica

Attualmente, sto eseguendo la mia applicazione in RDS e nel processo di passaggio a MongoDB. Per ora, abbiamo un lavoro di si ... une tabelle mappate direttamente in avanti b/n oracle e Mongo. Poche tabelle sono in forma denormalizzata in Mongo. Grazie,

Elaborazione di grandi dati in Java

Sto lavorando a un progetto in cui ricevo da qualche parte circa 10 file contenenti ciascuno una dimensione di 200 GB. Il mio ... rallela. Risultato: mi sta dando un'eccezione di memoria al gruppo per caratteristica. Sto leggendo questi dati da hadoop.