hadoop

Come definire lo schema di parquet per ParquetOutputFormat per il lavoro Hadoop in java?

Ho un lavoro Hadoop in java, che ha il formato di output della sequenza: job.setOutputFormatClass(SequenceFileOutputFormat. ... iave e org.apache.mahout.cf.taste.hadoop.EntityEntityWritable come chiave valore. Come posso definire uno schema per questo?

Imposta filtro riga prefisso multiplo su scanner hbase java

Voglio creare uno scanner che mi darà il risultato con 2 filtri prefisso Ad esempio voglio tutte le righe che la loro chiave ... n la stringa "y". Attualmente so di farlo solo con un prefisso con il seguente modo: scan.setRowPrefixFilter(prefixFiltet)

Hadoop mapreduce esempio di documentazione

Dove posso trovare la documentazione dettagliata per i programmi di esempio menzionati di seguito, non riesco a trovarlo nell ... ort teravalidate: Checking results of terasort wordcount: A map/reduce program that counts the words in the input files.

Java Hadoop inserimento e query di dati di grandi dimensioni in formato JSON

Ho l'obbligo di creare un sistema con Java e Hadoop per gestire l'elaborazione di dati di grandi dimensioni (in formato JSON) ... op MapReduce prenderà i dati di input da altri strumenti che verranno utilizzati? Si prega di avvisare. Vi ringrazio molto

Programma Java MapReduce per lavorare su file PDF

Ho bisogno di analizzare il file PDF in un programma mapreduce usando Java. Sono su una configurazione del cluster usando CDH ... System fs, Path filename) { return false; } } Apprezzo qualsiasi aiuto o suggerimento su cosa mi sto perdendo qui.

Compilazione ed esecuzione dinamica di un processo Hadoop da un altro file Java

Sto cercando di scrivere un file Java che riceve il codice sorgente di un lavoro MapReduce, lo compila dinamicamente ed esegu ... able value : values) { sum += value.get(); } context.write(key, new IntWritable(sum)); } } }

PDI Big Data Hadoop File di input da Java

Sto cercando di eseguire un kettle kjb che ha un input di file hadoop e un passo di output del file hadoop. Tutto quello che ... usare o c'è qualcos'altro che devo impostare durante l'esecuzione del lavoro da java per farlo funzionare da java ? Grazie

installare 32bit Java JDK su CentOS 6.5 32bit

Sto cercando di wget per installare 32bit JDK su 32bit CentOS 6.5. CentOS è in esecuzione su una VM vmware player all'interno ... edelivery.oracle.com insecurely, use ‘--no-check-certificate’. Come posso installare JDK tramite CentOS Terminal? Grazie.

Come sfuggire alla barra in avanti in java in modo da usarlo nel percorso

Sto cercando di sfuggire alla barra in avanti nella stringa che può essere utilizzata nel percorso usando Java. Ad esempio: ... per accetta " / " come separatore di percorso che in alcuni casi non richiedo. / zookeeper/HellowWorld/Test / Mondo Grazie

Come leggere la frase invece della linea con WordCount MapReduce tutorial

Sto imparando Hadoop MapReduce e sto seguendo il WordCount tutorial. Nel seguente pezzo di codice, capisco che il metodo map ... setOutputPath(job, new Path(args[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } } Dove mi sbaglio?

Ordinato Hadoop WordCount Java

Sto eseguendo il programma WordCount di Hadoop in Java e il mio primo lavoro (ottenendo tutte le parole e il loro conteggio) ... ut Format Counters Bytes Read=1528889 Grazie per il vostro tempo e aiuto ! Modifica globale: nuova api utilizzata

Creazione di Hadoop java esempio

So che questa domanda è stata posta prima, ma non riesco a capirla. Ho una configurazione del cluster a nodo singolo utilizz ... di lavoro eclipse e aggiunto l'esterno .vasi nelle impostazioni del progetto. Qualche idea su cosa sto facendo di sbagliato?

Eseguire il lavoro MapReduce da un'applicazione Web

Con riferimento a domande simili: Esecuzione di un processo Hadoop da un altro programma Java e Chiamare un lavoro mapreduc ... me> <value>*</value> <description></description> </property>

Impossibile compilare MaxTemperatureMapper.java per Hadoop esempi: pacchetto org.Apache.hadoop.mapreduce non esiste

Ho provato per un po ' a compilare il primo esempio dal libro sul computer del laboratorio della mia scuola, giocando con la ... ementa un metodo da un supertype @Ignorare ^ [totale 170 ms] 4 errori Qualsiasi aiuto sarebbe molto apprezzato.

errore durante l'esecuzione di Cassandra WordCount su Hadoop: java.lang.NoSuchMethodError: org.Apache.parsimonia.meta dati.FieldValueMetaData. BZ) V

Cercando di eseguire l'esempio di WordCount da cassandra e ottenendo un errore: Eccezione nel thread "principale" java.lang ... e.Metodo.invoke (Metodo.java: 597) in org.Apache.hadoop.util.RunJar.principale (RunJar.java:186) Grazie in anticipo!

Carica file su HDFS usando DFSClient su Java

Sto cercando di caricare/scrivere un file sul mio HDFS usando DFSClient in bundle con Hadoop, tuttavia non ho successo, il se ... client.close(); } if (in != null) { in.close(); } if (out != null) { out.close(); } }

Come posso trasferire un file zip direttamente da un URL a HDFS usando Java?

Come posso trasferire un file zip da un URL a HDFS usando Java? Non dovrei scaricarlo. Posso solo trasferire il file direttamente dall'URL a HDFS. Qualcuno ha qualche idea avrebbe funzionato?

ClassNotFoundException: org.Apache.alveare.ccg.HiveDriver Con connessione java hive jdbc

Sto cercando di usare il driver Hive nella mia classe java per interrogare il mio hdfs, ma ho colpito un muro. Ho dragato at ... ; </dependencies> </project> Errore: Java.lang.ClassNotFoundException: org.Apache.alveare.ccg.HiveDriver

Mappa in due fasi-Ridurre la moltiplicazione in Spark (Java)

Ho letto in un file di testo di doubles e l'ho memorizzato in un JavaRDD, ma ho difficoltà a implementare una moltiplicazione ... la matematica sottostante ma non sono in grado di impostare le coppie di chiavi della matrice e moltiplicarle correttamente.

Impossibile accedere al file system Hadoop hdfs tramite il programma map reduce java

La mia versione di Hadoop è-2.6.0-cdh5.10.0 Sto usando una Vm Cloudera. Sto cercando di accedere al file system hdfs attrave ... Executor$Worker.run(ThreadPoolExecutor.java:615) at java.lang.Thread.run(Thread.java:745) Qualsiasi aiuto sarà utile!