Créer un fichier en utilisant cygwin et hadoop

J’utilise ce tutoriel pour configurer un premier projet hadoop:

http://hadoop.apache.org/docs/r0.18.3/mapred_tutorial.html#Source+Code

Je suis confus par cette section:

Sample text-files as input: $ bin/hadoop dfs -ls /usr/joe/wordcount/input/ /usr/joe/wordcount/input/file01 /usr/joe/wordcount/input/file02 $ bin/hadoop dfs -cat /usr/joe/wordcount/input/file01 Hello World Bye World $ bin/hadoop dfs -cat /usr/joe/wordcount/input/file02 Hello Hadoop Goodbye Hadoop 

Comment créer les fichiers file01 et file02?

Quand je lance les commandes ci-dessus () je reçois l’erreur: “le fichier n’existe pas / usr / joe / wordcount / input / file01”

Vous pouvez soit créer les fichiers en utilisant un éditeur de fichiers, sur cygwin, soit vim soit emacs (ce n’est pas certain).

Ou vous pouvez copier coller ci-dessous pour créer les fichiers.

 echo "Hello World Bye World" > /usr/joe/wordcount/input/file01 echo "Hello Hadoop Goodbye Hadoop" > /usr/joe/wordcount/input/file02 

Il existe d’autres techniques plus baroques pour mettre des données simples dans des fichiers, mais compte tenu de la définition de votre problème, cela devrait fonctionner correctement.

(Une autre possibilité, …. Ces fichiers pourraient-ils faire partie de l’installation du test ou du didacticiel et vous avez manqué une étape d’exécution de l’installation? Si vous créez ces fichiers et que vous tapez un nouveau message d’erreur, envisagez de vérifier étapes pour confirmer que tout est installé correctement)

IHTH

ru pointant sur le même chemin ?? Sinon, créez des fichiers à partir de votre système de fichiers local. Utilisez copyFromLocal commande copyFromLocal pour la placer dans HDFS. Puis cat le chemin du fichier / nom du fichier. cela marche.

 bin/hadoop fs -copyFromLocal /path/to/file/in/localfilesys/file01 /usr/joe/wordcount/input bin/hadoop fs -cat /usr/joe/wordcount/input/file01