hdfs
Hadoop Ha namenode client java
Je suis nouveau sur hdfs. J'écris un client Java qui peut se connecter et écrire des données dans un cluster hadoop distant.
...
Comment puis-je utiliser cette classe dans mon client java ou existe-t-il un autre moyen d'identifier le namenode actif...
Obtenir la configuration hadoop dans Java util
J'écris un utilitaire Java qui doit accéder au DFS, j'ai donc besoin d'un objet Configuration.
Quand j'en crée un simplement ... ssources, mais cela ne change rien. Que dois-je faire pour l'obtenir pour ramasser le HDFS les paramètres?
Merci d'avoir lu
Exception lors de la lecture d'un fichier à partir de HDFS (Hortonworks Sandbox) à l'aide de l'API Java
Je rencontre des problèmes en essayant de lire un fichier à partir de HDFS (Hortonworks Sandbox) en utilisant l'API Java. Voi ... calhost
255.255.255.255 broadcasthost
::1 localhost
172.17.0.2 sandbox.hortonworks.com localhost
Accéder au HDFS à partir d'eclipse à l'aide de java
Voici le code pour accéder au HDFS
package myDefaultPackage;
Importer java.io. ; importer l'organisation.Apache.hado ... de fichiers.get (système de fichiers.java:158) à
myDefaultPackage.Testing_HDFS_File.principale(Testing_HDFS_File.java:15)
Entrée de fichier Hadoop Big Data PDI à partir de Java
J'essaie d'exécuter un kjb kettle qui a une entrée de fichier hadoop et une sortie de fichier hadoop. Tout ce que j'essaie de ... e que je dois définir lors de l'exécution du travail à partir de java afin de le faire fonctionner à partir de java ?
Merci
Exécuter le travail MapReduce à partir d'une application Web
En référence à des questions similaires:
Exécution d'un travail Hadoop À partir d'un autre programme Java
et
Appeler un tra ... me>
<value>*</value>
<description></description>
</property>
Télécharger le fichier sur HDFS à l'aide de DFSClient sur Java
J'essaie de télécharger/écrire un fichier sur mon HDFS en utilisant le DFSClient fourni avec Hadoop mais j'échoue, le code su ... client.close();
}
if (in != null) {
in.close();
}
if (out != null) {
out.close();
}
}
Comment puis-je transférer un fichier zip directement d'une URL vers HDFS en utilisant Java?
Comment puis-je transférer un fichier zip d'une URL vers HDFS en utilisant Java? Je ne suis pas censé le télécharger. Je ne peux transférer le fichier directement de l'URL vers HDFS. Quelqu'un a une idée va marcher?
Impossible d'accéder au système de fichiers Hadoop hdfs via le programme map reduce java
Ma version Hadoop est - 2.6.0-cdh5.10. 0
J'utilise une machine virtuelle Cloudera.
J'essaie d'accéder au système de fichiers ... dPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
Toute aide sera utile!
Flume sink à l'erreur HDFS: java.lang.NoSuchMethodError: com.Google.commun.base.Conditionner.checkArgument
Avec:
Java 1.8.0_231
Hadoop 3.2.1
Canal 1.8.0
Ont créé un service hdfs sur le port 9000.
Jps:
11688 DataNode
10120 ... 48)
J'ai cherché pendant un moment mais je n'ai pas trouvé la même erreur sur le net. Un conseil pour résoudre ce problème?
Hadoop Ha namenode client java
Sono nuovo di hdfs. Sto scrivendo client Java in grado di connettersi e scrivere dati sul cluster hadoop remoto.
String hdfs ... /property>
Come posso usare questa classe nel mio client java o c'è un altro modo per identificare il namenode attivo...
Ottieni la configurazione hadoop in Java util
Sto scrivendo un'utilità Java che deve accedere al DFS, quindi ho bisogno di un oggetto Configuration.
Quando ne creo uno sem ... igurazione come risorse, ma non cambia niente. Cosa devo fare per farlo prendere l'HDFS impostazioni?
Grazie per aver letto
Eccezione durante la lettura di file da HDFS (Hortonworks Sandbox) utilizzando Java API
Sto affrontando problemi durante il tentativo di leggere un file da HDFS (Hortonworks Sandbox) utilizzando l'API Java. Di seg ... calhost
255.255.255.255 broadcasthost
::1 localhost
172.17.0.2 sandbox.hortonworks.com localhost
Accesso all'HDFS da eclipse usando java
Ecco il codice per accedere a HDFS
package myDefaultPackage;
Importazione java.io. ; importa org.Apache.hadoop.FS.; ... lesystem.get (FileSystem.java: 158) a
Il mio pacchetto di default.Testing_HDFS_File.principale (Testing_HDFS_File.java:15)
PDI Big Data Hadoop File di input da Java
Sto cercando di eseguire un kettle kjb che ha un input di file hadoop e un passo di output del file hadoop. Tutto quello che ... usare o c'è qualcos'altro che devo impostare durante l'esecuzione del lavoro da java per farlo funzionare da java ?
Grazie
Eseguire il lavoro MapReduce da un'applicazione Web
Con riferimento a domande simili:
Esecuzione di un processo Hadoop da un altro programma Java
e
Chiamare un lavoro mapreduc ... me>
<value>*</value>
<description></description>
</property>
Carica file su HDFS usando DFSClient su Java
Sto cercando di caricare/scrivere un file sul mio HDFS usando DFSClient in bundle con Hadoop, tuttavia non ho successo, il se ... client.close();
}
if (in != null) {
in.close();
}
if (out != null) {
out.close();
}
}
Come posso trasferire un file zip direttamente da un URL a HDFS usando Java?
Come posso trasferire un file zip da un URL a HDFS usando Java? Non dovrei scaricarlo. Posso solo trasferire il file direttamente dall'URL a HDFS. Qualcuno ha qualche idea avrebbe funzionato?
Impossibile accedere al file system Hadoop hdfs tramite il programma map reduce java
La mia versione di Hadoop è-2.6.0-cdh5.10.0
Sto usando una Vm Cloudera.
Sto cercando di accedere al file system hdfs attrave ... Executor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:745)
Qualsiasi aiuto sarà utile!
Flume sink per errore HDFS: java.lang.NoSuchMethodError: com.Google.comune.base.Presupposto.Oggetto di controllo
Con:
Java 1.8.0_231
Hadoop 3.2.1
Flume 1.8.0
Hanno creato un servizio hdfs sulla porta 9000.
Jps:
11688 DataNode
... 48)
Ho cercato per un po ' ma non ho trovato lo stesso errore in rete. C'è qualche consiglio per risolvere questo problema?