Fehler "Berechtigung verweigert" beim Starten eines einzelnen Knotenclusters in Hadoop

10

Ich arbeite in Ubuntu 10.10 und versuche, einen einzelnen Knotencluster in Hadoop zu starten.

hadoop@abraham-Dimension-3000:/usr/local/hadoop$ bin/start-all.sh
mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
starting namenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out
/usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out: No such file or directory
head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-namenode-abraham-Dimension-3000.out' for reading: No such file or directory
localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
localhost: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-abraham-Dimension-3000.out
localhost: /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-abraham-Dimension-3000.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-datanode-abraham-Dimension-3000.out' for reading: No such file or directory
localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
localhost: starting secondarynamenode, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-abraham-Dimension-3000.out
localhost: /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-abraham-Dimension-3000.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-secondarynamenode-abraham-Dimension-3000.out' for reading: No such file or directory
mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
starting jobtracker, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-abraham-Dimension-3000.out
/usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-abraham-Dimension-3000.out: No such file or directory
head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-jobtracker-abraham-Dimension-3000.out' for reading: No such file or directory
localhost: mkdir: cannot create directory `/usr/local/hadoop/bin/../logs': Permission denied
localhost: starting tasktracker, logging to /usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-abraham-Dimension-3000.out
localhost: /usr/local/hadoop/bin/hadoop-daemon.sh: line 117: /usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-abraham-Dimension-3000.out: No such file or directory
localhost: head: cannot open `/usr/local/hadoop/bin/../logs/hadoop-hadoop-tasktracker-abraham-Dimension-3000.out' for reading: No such file or directory
hadoop@abraham-Dimension-3000:/usr/local/hadoop$ 

Ich habe keine Ahnung, was ich falsch mache oder was einige dieser Fehler vermuten lassen.

hadoop@abraham-Dimension-3000:/usr/local/hadoop$ jps
5099 Jps

Kann jemand mit der Diagnose des Problems.

ATMathew
quelle

Antworten:

20

Die Fehler deuten auf ein Berechtigungsproblem hin.

Stellen Sie sicher, dass der Hadoop-Benutzer über die entsprechenden Berechtigungen verfügt /usr/local/hadoop. Versuchen:

sudo chown -R hadoop / usr / local / hadoop /
Mark Russell
quelle
Ich habe einige Stunden damit verbracht, herauszufinden, welche Einstellungen ich ändern sollte, damit mein Hadoop funktioniert. Und schließlich habe ich eine Lösung gefunden, die für mich funktioniert. Vielen Dank! :)
jjankowiak
1

Sie haben das Arbeitsverzeichnis für das Hadoop-Dateisystem mit einem anderen Benutzer als dem Hadoop-Benutzer angegeben. Legen Sie daher das Verzeichnis fest, das Lese- und Schreibberechtigungen für den Hadoop-Benutzer hat, oder ändern Sie die Berechtigung des Verzeichnisses
Try ::

sudo chown -R hadoop-user /user/hadoop_project/

oder

sudo chmod 777 /user/hadoop_project

Wobei der Anmeldename 'hadoop-user' für die hadoop-Umgebung angegeben ist. 'hadoop-project' angegebenes Arbeitsverzeichnis für das hadoop-Dateisystem. (Geben Sie Ihr eigenes Login und Verzeichnis an, das Sie für die Hadoop-Installation verwenden.)

sudhakara.st
quelle