hdfs

Hadoop Ha namenode client java

Je suis nouveau sur hdfs. J'écris un client Java qui peut se connecter et écrire des données dans un cluster hadoop distant. ... Comment puis-je utiliser cette classe dans mon client java ou existe-t-il un autre moyen d'identifier le namenode actif...

Obtenir la configuration hadoop dans Java util

J'écris un utilitaire Java qui doit accéder au DFS, j'ai donc besoin d'un objet Configuration. Quand j'en crée un simplement ... ssources, mais cela ne change rien. Que dois-je faire pour l'obtenir pour ramasser le HDFS les paramètres? Merci d'avoir lu

Exception lors de la lecture d'un fichier à partir de HDFS (Hortonworks Sandbox) à l'aide de l'API Java

Je rencontre des problèmes en essayant de lire un fichier à partir de HDFS (Hortonworks Sandbox) en utilisant l'API Java. Voi ... calhost 255.255.255.255 broadcasthost ::1 localhost 172.17.0.2 sandbox.hortonworks.com localhost

Accéder au HDFS à partir d'eclipse à l'aide de java

Voici le code pour accéder au HDFS package myDefaultPackage; Importer java.io. ; importer l'organisation.Apache.hado ... de fichiers.get (système de fichiers.java:158) à myDefaultPackage.Testing_HDFS_File.principale(Testing_HDFS_File.java:15)

Entrée de fichier Hadoop Big Data PDI à partir de Java

J'essaie d'exécuter un kjb kettle qui a une entrée de fichier hadoop et une sortie de fichier hadoop. Tout ce que j'essaie de ... e que je dois définir lors de l'exécution du travail à partir de java afin de le faire fonctionner à partir de java ? Merci

Exécuter le travail MapReduce à partir d'une application Web

En référence à des questions similaires: Exécution d'un travail Hadoop À partir d'un autre programme Java et Appeler un tra ... me> <value>*</value> <description></description> </property>

Télécharger le fichier sur HDFS à l'aide de DFSClient sur Java

J'essaie de télécharger/écrire un fichier sur mon HDFS en utilisant le DFSClient fourni avec Hadoop mais j'échoue, le code su ... client.close(); } if (in != null) { in.close(); } if (out != null) { out.close(); } }

Comment puis-je transférer un fichier zip directement d'une URL vers HDFS en utilisant Java?

Comment puis-je transférer un fichier zip d'une URL vers HDFS en utilisant Java? Je ne suis pas censé le télécharger. Je ne peux transférer le fichier directement de l'URL vers HDFS. Quelqu'un a une idée va marcher?

Impossible d'accéder au système de fichiers Hadoop hdfs via le programme map reduce java

Ma version Hadoop est - 2.6.0-cdh5.10. 0 J'utilise une machine virtuelle Cloudera. J'essaie d'accéder au système de fichiers ... dPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745) Toute aide sera utile!

Flume sink à l'erreur HDFS: java.lang.NoSuchMethodError: com.Google.commun.base.Conditionner.checkArgument

Avec: Java 1.8.0_231 Hadoop 3.2.1 Canal 1.8.0 Ont créé un service hdfs sur le port 9000. Jps: 11688 DataNode 10120 ... 48) J'ai cherché pendant un moment mais je n'ai pas trouvé la même erreur sur le net. Un conseil pour résoudre ce problème?

Hadoop Ha namenode client java

Sono nuovo di hdfs. Sto scrivendo client Java in grado di connettersi e scrivere dati sul cluster hadoop remoto. String hdfs ... /property> Come posso usare questa classe nel mio client java o c'è un altro modo per identificare il namenode attivo...

Ottieni la configurazione hadoop in Java util

Sto scrivendo un'utilità Java che deve accedere al DFS, quindi ho bisogno di un oggetto Configuration. Quando ne creo uno sem ... igurazione come risorse, ma non cambia niente. Cosa devo fare per farlo prendere l'HDFS impostazioni? Grazie per aver letto

Eccezione durante la lettura di file da HDFS (Hortonworks Sandbox) utilizzando Java API

Sto affrontando problemi durante il tentativo di leggere un file da HDFS (Hortonworks Sandbox) utilizzando l'API Java. Di seg ... calhost 255.255.255.255 broadcasthost ::1 localhost 172.17.0.2 sandbox.hortonworks.com localhost

Accesso all'HDFS da eclipse usando java

Ecco il codice per accedere a HDFS package myDefaultPackage; Importazione java.io. ; importa org.Apache.hadoop.FS.; ... lesystem.get (FileSystem.java: 158) a Il mio pacchetto di default.Testing_HDFS_File.principale (Testing_HDFS_File.java:15)

PDI Big Data Hadoop File di input da Java

Sto cercando di eseguire un kettle kjb che ha un input di file hadoop e un passo di output del file hadoop. Tutto quello che ... usare o c'è qualcos'altro che devo impostare durante l'esecuzione del lavoro da java per farlo funzionare da java ? Grazie

Eseguire il lavoro MapReduce da un'applicazione Web

Con riferimento a domande simili: Esecuzione di un processo Hadoop da un altro programma Java e Chiamare un lavoro mapreduc ... me> <value>*</value> <description></description> </property>

Carica file su HDFS usando DFSClient su Java

Sto cercando di caricare/scrivere un file sul mio HDFS usando DFSClient in bundle con Hadoop, tuttavia non ho successo, il se ... client.close(); } if (in != null) { in.close(); } if (out != null) { out.close(); } }

Come posso trasferire un file zip direttamente da un URL a HDFS usando Java?

Come posso trasferire un file zip da un URL a HDFS usando Java? Non dovrei scaricarlo. Posso solo trasferire il file direttamente dall'URL a HDFS. Qualcuno ha qualche idea avrebbe funzionato?

Impossibile accedere al file system Hadoop hdfs tramite il programma map reduce java

La mia versione di Hadoop è-2.6.0-cdh5.10.0 Sto usando una Vm Cloudera. Sto cercando di accedere al file system hdfs attrave ... Executor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745) Qualsiasi aiuto sarà utile!

Flume sink per errore HDFS: java.lang.NoSuchMethodError: com.Google.comune.base.Presupposto.Oggetto di controllo

Con: Java 1.8.0_231 Hadoop 3.2.1 Flume 1.8.0 Hanno creato un servizio hdfs sulla porta 9000. Jps: 11688 DataNode ... 48) Ho cercato per un po ' ma non ho trovato lo stesso errore in rete. C'è qualche consiglio per risolvere questo problema?