Bir HDFS Federasyonu yapılandırmaya çalışıyorum. Bu nedenle, $ cat etc/hadoop/hdfs-site.xml
her iki ana bilgisayarda da (hadoop-coc-1 ve hadoop-coc-2) yapılandırdım.
Sorun şu ki, bu yapılandırmada yerel diskten HDFS'ye veri kopyalamak istiyorum, ancak yapamıyorum.
Aşağıdaki komutları denedim ve bir hata alıyorum:
`` `$ hdfs dfs -copyFromLocal ~ / input1 webhdfs: // hadoop-coc-1 / Java HotSpot (TM) İstemci VM uyarısı: /home/xubuntu/Programs/hadoop-2.6.0/lib/native kütüphanesini yüklediniz. /libhadoop.so devre dışı bırakılmış yığın korumasını olabilir. VM şimdi istif korumasını tamir etmeye çalışacak. Kütüphaneyi 'execstack -c' ile düzeltmeniz veya '-z noexecstack' ile bağlamanız önemle tavsiye edilir. 15/03/02 12:32:47 WARN util.NativeCodeLoader: Platformunuz için yerel hadoop kitaplığı yüklenemiyor ... uygulanabilir copy-java sınıflarında yerleşik java sınıfları kullanarak
$ curl -i -X PUT -T ~ / input1 " http: // hadoop-coc-1: 8080 /? op = CREATE " HTTP / 1.1 100 Devam
HTTP / 1.1 405 HTTP yöntemi PUT bu URL tarafından desteklenmiyor Tarih: Pzt, 02 Mar 2015 17:34:35 GMT Pragma: önbellek yok Tarih: Pzt, 02 Mar 2015 17:34:35 GMT Pragma: önbellek yok İçerik Uzunluk: 0 Sunucu: İskelesi (6.1.26)
`
Yerel diskten HDFS'ye veri kopyalamak için herhangi bir yardımınız var mı? Sistemi doğru şekilde yapılandırdım mı?
HDF'ler-site.xml dosyasını
<configuration>
<property>
<name>dfs.nameservices</name>
<value>ns1,ns2</value>
</property>
<property>
<name>fs.defaultFS.ns1</name>
<value>hdfs://hadoop-coc-1:9000</value>
</property>
<property>
<name>fs.defaultFS.ns2</name>
<value>hdfs://hadoop-coc-2:9000</value>
</property>
<property>
<name>dfs.namenode.rpc-address.ns1</name>
<value>hadoop-coc-1:6600</value>
</property>
<property>
<name>dfs.namenode.http-address.ns1</name>
<value>hadoop-coc-1:8080</value>
</property>
<property>
<name>dfs.namenode.secondaryhttp-address.ns1</name>
<value>hadoop-coc-1:8080</value>
</property>
<property>
<name>dfs.namenode.rpc-address.ns2</name>
<value>hadoop-coc-2:6600</value>
</property>
<property>
<name>dfs.namenode.http-address.ns2</name>
<value>hadoop-coc-2:8080</value>
</property>
<property>
<name>dfs.namenode.secondaryhttp-address.ns2</name>
<value>hadoop-coc-2:8080</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
</configuration>