hadoop
Collegare Alveare thorugh Java JDBC
C'è una domanda qui connetti da java a Hive ma la mia è diversa
Il mio hive è in esecuzione su machine1 e ho bisogno di pa ... ver sono alla macchina 1. Sulla macchina il codice dovrebbe almeno compilare e dovrei avere problemi solo in fase di runtime!
Hadoop Ha namenode client java
Sono nuovo di hdfs. Sto scrivendo client Java in grado di connettersi e scrivere dati sul cluster hadoop remoto.
String hdfs ... /property>
Come posso usare questa classe nel mio client java o c'è un altro modo per identificare il namenode attivo...
Percorso di output multiplo (Java-Hadoop-MapReduce)
Faccio due lavori MapReduce e voglio che il secondo lavoro sia in grado di scrivere il mio risultato in due file diversi, in ... t è solo una parola che descrivono.
Si definisce il percorso effettivamente nel metodo write, la Stringa baseOutputPath arg.
Ottieni la configurazione hadoop in Java util
Sto scrivendo un'utilità Java che deve accedere al DFS, quindi ho bisogno di un oggetto Configuration.
Quando ne creo uno sem ... igurazione come risorse, ma non cambia niente. Cosa devo fare per farlo prendere l'HDFS impostazioni?
Grazie per aver letto
Java è necessario per hadoop?
Qualcuno può dire che è necessario conoscere java per imparare hadoop?
Se qualcuno sta lavorando su hadoop quindi si prega di ... nza tra hdfs e gfs?
So che ci sono molte domande ma se qualcuno può aiutare.. Sarà fantastico per me.
Grazie mille ragazzi.
PIG utilizzando HCatLoader, errore di spazio heap Java
Sto usando hive-0.12.0,pig-0.12.0,mysql-5.6 e hadoop-1.2.1 in modalità pseudo distribuzione.
Ho configurato PIG_CLASSPATH ec ... phadoop / pig_1397158893348.registro
Qualcuno ha riscontrato lo stesso errore e lo ha risolto?
Per favore lasciami sapere.
Esecuzione di programmi java mapreduce sul cluster hadoop
Sto imparando a lavorare sul cluster hadoop. Ho lavorato per qualche tempo su hadoop streaming dove ho codificato gli script ... l.edu/hadoop/wordcount.html
Qualcuno può dirmi come devo effettivamente compilare questo programma ed eseguire il lavoro.
Hadoop: java. net. UnknownHostException: hadoop-slave-2
Ho creato un cluster hadoop con 1 Master e 2 Slave. Lo sto eseguendo con specifiche minime nel sito*.file xml.
nucleo-sito.x ... ter-1
Qualcuno ha idea di quale potrebbe essere il problema? Qualsiasi aiuto o possibili indicazioni sarà molto apprezzato.
Hadoop mapper e riduttore di uscita non corrispondente
Sto cercando di configurare diversi tipi di output mapper e reducer utilizzando
setMapOutputKeyClass, setMapOutputValueClass, ... ava:606)
at org.apache.hadoop.util.RunJar.main(RunJar.java:160)
Ho fatto qualcosa di sbagliato? Grazie per il vostro aiuto!
cloudera hadoop: causato da: java.lang.ClassNotFoundException: org.Apache.trace.core.Tracciante Builder Costruttore
Ho appena eseguito un programma di esempio seguendo il tutorial :
http://web.stanford.edu/class/cs246/homeworks/tutorial.pd ... oadClass(ClassLoader.java:358)
... 13 more
Come risolvere il problema in modo da poter compilare il programma ? Grazie!
Mapreduce Parola Conteggio Hadoop Parola più alta frequenza
Quindi dal sito web di Hadoop tutorial (http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client ... ]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
Come posso disattivare l'esecuzione speculativa di hadoop da Java
Dopo aver letto Hadoop speculative task execution Sto cercando di disattivare l'esecuzione speculativa utilizzando la nuova a ... .conf.Configuration.deprecation (main): mapred.job.classpath.files is deprecated. Instead, use mapreduce.job.classpath.files
Lettura di un file gcs file utilizzando standalone on premise spark java programma
Ciao sto cercando di leggere un file memorizzato sul bucket GCS utilizzando il lavoro spark standalone in java. ho configurat ... usato tutte le sue librerie in eclipse. Qualsiasi aiuto sarebbe molto apprezzare. Non sono in grado di andare avanti. Grazie.
Eccezione durante la lettura di file da HDFS (Hortonworks Sandbox) utilizzando Java API
Sto affrontando problemi durante il tentativo di leggere un file da HDFS (Hortonworks Sandbox) utilizzando l'API Java. Di seg ... calhost
255.255.255.255 broadcasthost
::1 localhost
172.17.0.2 sandbox.hortonworks.com localhost
Parametro Hadoop mapreduce.mappa.memoria.mb e mapreduce.mappa.Java.optare
Chiedendosi quali sono le relazioni tra i due parametri (mapreduce.mappa.memoria.mb e mapreduce.mappa.Java.opts), e a volte v ... pa.Java.opta per essere -Xmx4G -Xms4G -server, chiedendosi quali sono i limiti superiori in questo caso? Grazie.
Saluti,
Lin
Accesso all'HDFS da eclipse usando java
Ecco il codice per accedere a HDFS
package myDefaultPackage;
Importazione java.io. ; importa org.Apache.hadoop.FS.; ... lesystem.get (FileSystem.java: 158) a
Il mio pacchetto di default.Testing_HDFS_File.principale (Testing_HDFS_File.java:15)
come eseguire una classe dal file jar java su Hadoop?
Ho un file jar esportato da Eclipse (JAR eseguibile>>Copia le librerie richieste in una sottocartella).
In java se si ... class java
Avviso: se rimuovo "hadoop" da " hadoop java-cp MyTest.argomenti jar MyOtherMainClass " si avvierà normalmente
API Java o C++ per Apache Drill
Voglio accedere a Drill attraverso un'interfaccia di programmazione. La documentazione di Apache Drill menziona solo le sue l ... lo scopo di quello che voglio fare. Qualcuno ha idea di dove posso trovare di più su queste API e se sono effettivamente lì?
Problema durante l'utilizzo del client java hbase durante l'inserimento dei dati nel database
Sto testando l'hbase . sto usando uno standalone senza hadoop. ho usato la versione hbase 0.90.6 il codice ha funzionato bene ... slf4j-log4j12-1.5.8.jar
commons-net-1.4.1.jar stax-api-1.0.1.jar
guava-r09.jar zookeeper-3.4.3.jar
Riparazione della tabella hive utilizzando hiveContext in java
Voglio riparare la tabella hive per tutte le partizioni appena aggiunte/eliminate.Invece di eseguire manualmente il comando d ... e().getTable("anshu","mytable").getAllPartitions());
C'è un modo per aggiungere / rimuovere partizioni in hive usando java?