Hadoop nasıl kurulur?


26

Hadoop'u Ubuntu 12.04 sürümünde kurmaya çalışıyorum. Http://michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ adresindeki talimatları takip ederek java-6-openjdkUbuntu yazılım merkezinden kurdum . Ben belirledik java_homeiçinde .bashrc. Ayrıca java_homeHadoop'ta ayarlayın conf/env.sh. İsim modunu formatlarken şu hatayı alıyorum:

usr/lib/jvm/java-6-openjdk/bin/java no such file or directory.

Teşekkür ederim. Ancak bu bir 64bit işletim sistemidir.


1
Kullanıcı çözümü bulduğunda neden bir ödül vardır? Ne tür bir cevap bekleniyor?
yeşil

1
@ green7 Amaç, aslında kabul edildiği gibi işaretlenen, oldukça ayrıntılı ve beğenilebilecek bir cevap bulmaktır. Bir tane görünmediğinden, Jorge'nin ödül eklediğini anlayabiliyorum.
Thomas Ward

@ TheLordofTime Ayrıntılı cevap, soru çok yerelleştirildiği için en fazla 5 satır içerecektir. Ve eğer Hadoop için kurulum talimatlarını içeren bir cevap bekleniyorsa, soruda belirtilen bağlantının harika bir şekilde açıklamasından dolayı gereksiz olacaktır. Üstelik, en çok oyu alan cevap, soru sahibi tarafından kendisine gönderildiği için, başka bir cevabı kabul etmesi çok muhtemel değildir.
yeşil,

@ green7, eğer soru çok yerelleştirilmişse, soruyu kapatmak için oy verin?
Thomas Ward

Yanıtlar:


39

12.04 varken takip ettiğim rehberler şunlardı:

Aslında MyLearning'e karşı çıktım, çünkü önerilen ilk şey OpenJDK 7 yerine Oracle Java 7 idi, ancak bunu denediğimde OpenJDK 7 ile ilgili bazı problemlerim vardı, bu yüzden Oracle ile gitmek zorunda kaldım.

Kılavuz çoğunlukla yalındır ve işte burada:

  1. Java'yı yükleyin

    sudo add-apt-repository ppa:webupd8team/java  
    sudo apt-get update && sudo apt-get upgrade  
    sudo apt-get install oracle-java7-installer  
    
  2. Hadoop kullanıcısı oluştur

    sudo addgroup hadoop  
    sudo adduser --ingroup hadoop hduser
    

    Nerede hduser sahip olmak istediğiniz Hadoop kullanıcısı.

  3. SSH'yi yapılandırma

    su - hduser   
    ssh-keygen -t rsa -P ""
    cat .ssh/id_rsa.pub >> .ssh/authorized_keys
    

    SSH kurulumunun iyi gittiğinden emin olmak için hduser, aşağıdaki komutu kullanarak yeni bir terminal açabilir ve ssh oturumu oluşturmayı deneyebilirsiniz :

    ssh localhost
    

    localhost bağlanmıyorsa ssh'yi yeniden kurun ( hduseraşağıdaki adımı sudo'ya eklemeniz gerekebilir )

    sudo apt-get install openssh-server
    
  4. Sudoers Düzenle

    sudo visudo
    
  5. Sudoers'a hduser eklemek için satırın sonuna ekleyin

    hduser ALL=(ALL:ALL) ALL
    

    Kaydetmek için CTRL+ tuşuna basın X, YyazıpENTER

  6. IPv6'yı devre dışı bırak

    sudo gedit /etc/sysctl.conf
    

    veya

    sudo nano /etc/sysctl.conf
    

    Dosyanın sonuna aşağıdaki satırları kopyalayın:

    #disable ipv6  
    net.ipv6.conf.all.disable_ipv6 = 1  
    net.ipv6.conf.default.disable_ipv6 = 1   
    net.ipv6.conf.lo.disable_ipv6 = 1  
    

    Size söyleyen bir sorunla karşı karşıya kalırsanız, izniniz yoktur, sadece önceki komutu root hesabınızla çalıştırın (sudo yeterli değilse. Benim için öyleydi)

  7. Şimdi yeniden başlat.

    Yapabilirsin sudo sysctl -pama ben yeniden başlatmayı tercih ederim.

    Yeniden başlattıktan sonra, IPv6'nın kapalı olduğundan emin olun:

    cat /proc/sys/net/ipv6/conf/all/disable_ipv6
    

    1 demeli . 0 diyorsa , bir şey özledin.

  8. Hadoop'un Kurulumu

    Bunu yapmanın birkaç yolu vardır, Rehber'in önerdiği kişi Apache Hadoop sitesinden indirmek ve dosyayı hduserana klasörünüzde açmaktır. Çıkarılan klasörü yeniden adlandırın hadoop.

    Diğer yol, 12.04 için test edilmiş bir PPA kullanmaktır:

    sudo add-apt-repository ppa:hadoop-ubuntu/stable  
    sudo apt-get update && sudo apt-get upgrade  
    sudo apt-get install hadoop  
    

    NOT: PPA bazıları için çalışabilir, diğerleri için çalışmayacaktır. Çalıştığım tek şey resmi siteden indirmek oldu çünkü PPA'yı bilmiyordum.

  9. Güncelleştirme $HOME/.bashrc

    .bashrcİçin hduser(ve Hadoop'u yönetmeniz gereken her kullanıcı için) güncellemeniz gerekecektir. Dosyayı açmak .bashrciçin kök olarak açmanız gerekir:

    sudo gedit /home/hduser/.bashrc  
    

    veya

    sudo nano /home/hduser/.bashrc  
    

    Sonra .bashrcdosyanın sonuna aşağıdaki yapılandırmaları ekleyeceksiniz.

    # Set Hadoop-related environment variables   
    export HADOOP_HOME=/home/hduser/hadoop  
    
    # Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)`
    export JAVA_HOME=/usr/lib/jvm/java-7-oracle  
    

    Şimdi, eğer OpenJDK7'niz varsa, şuna benzer bir şey olurdu:

    export JAVA_HOME=/usr/lib/java-7-openjdk-amd64  
    

    Burada dikkat edilmesi gereken şey, Java'nın AMD64 sürümünde bulunduğu klasördür. Yukarıdakiler işe yaramazsa, o belirli klasöre bakmayı ya da kullanılacak olan Java'yı ayarlamayı deneyebilirsiniz:

    sudo update-alternatives --config java  
    

    Şimdi bazı yararlı takma adlar için:

    # Some convenient aliases and functions for running Hadoop-related commands  
    unalias fs &> /dev/null   
    alias fs="hadoop fs"    
    unalias hls &> /dev/null  
    alias hls="fs -ls"  
    
    # Add Hadoop bin/ directory to PATH  
    export PATH=$PATH:$HADOOP_HOME/bin  
    
  10. Hadoop'u Yapılandırma

    Aşağıda, uygun konfigürasyonu yapmak için kullanabileceğimiz konfigürasyon dosyaları verilmiştir. Hadoop ile kullanacağınız dosyalardan bazıları şunlardır ( Bu sitedeki daha fazla bilgi ):

    start-dfs.sh- Hadoop DFS arka planlarını, ad modunu ve veri modlarını başlatır. Start-mapred.sh 'den önce bunu kullanın

    stop-dfs.sh - Hadoop DFS artalanlarını durdurur.

    start-mapred.sh - Hadoop Haritasını / Küçültme görevlerini, işveren ve görev izleyicileri başlatır.

    stop-mapred.sh - Hadoop Haritasını durdurur / zenginlikleri azaltır.

    start-all.sh- Tüm Hadoop servetlerini, adenode, datanodes, jobtracker ve görev izleyicileri başlatır. Kullanımdan kaldırılan; start-dfs.sh komutunu ve ardından start-mapred.sh komutunu kullanın.

    stop-all.sh- Tüm Hadoop servetlerini durdurur. Kullanımdan kaldırılan; stop-mapred.sh komutunu kullanın, ardından stop-dfs.sh komutunu kullanın.

    Ancak onları kullanmaya başlamadan önce, /confklasördeki birkaç dosyayı değiştirmemiz gerekiyor .

    hadoop-env.sh

    Dosyayı arayın hadoop-env.sh, sadece bu dosyadaki JAVA_HOME değişkenini güncellememiz gerekir:

    sudo gedit /home/hduser/hadoop/conf/hadoop-env.sh
    

    veya

    sudo nano /home/hduser/hadoop/conf/hadoop-env.sh
    

    veya en son sürümlerinde

    sudo nano /etc/hadoop/conf.empty/hadoop-env.sh
    

    veya

    sudo nano /etc/hadoop/hadoop-env.sh
    

    Ardından aşağıdaki satırı değiştirin:

    # export JAVA_HOME=/usr/lib/j2sdk1.5-sun
    

    için

    export JAVA_HOME=/usr/lib/jvm/java-7-oracle
    

    Not: Error: JAVA_HOME is not setServisleri başlatırken Hata alırsanız, önceki satırdaki açıklamadan vazgeçmeyi unuttum (yalnızca # kaldır).

    Çekirdek-site.xml dosyasını

    Şimdi Hadoop çerçevesi için geçici bir dizin yaratmamız gerekiyor. Sınama veya hızlı bir prototip için bu ortama ihtiyacınız varsa (örneğin kişisel testiniz için basit hadoop programları geliştirin ...), bu klasörü /home/hduser/dizin altında oluşturmanızı öneririm , aksi takdirde bu klasörü paylaşılan klasör altında paylaşılan bir yerde oluşturmalısınız ( / usr / local gibi ...) ancak bazı güvenlik sorunlarıyla karşılaşabilirsiniz. Ancak, güvenlik nedeniyle oluşabilecek istisnaların (java.io.IOException gibi) üstesinden gelmek için hduser alanı altındaki tmp klasörünü oluşturdum.

    Bu klasörü oluşturmak için aşağıdaki komutu yazın:

    sudo mkdir /home/hduser/tmp   
    

    Başka bir yönetici kullanıcısı (örneğin, hadoop grubundaki hduser2) yapmak istiyorsanız, aşağıdaki komutları kullanarak ona bu klasörde okuma ve yazma izni vermeniz gerektiğini unutmayın:

    sudo chown hduser:hadoop /home/hduser/tmp  
    sudo chmod 755 /home/hduser/tmp  
    

    Şimdi hadoop/conf/core-site.xmlhadoop.tmp.dir girişini düzenlemek için açabiliriz. Core-site.xml dosyasını metin editörünü kullanarak açabiliriz:

    sudo gedit /home/hduser/etc/hadoop/core-site.xml  
    

    veya

    nano /home/hduser/etc/hadoop/core-site.xml
    

    Sonra xml elemanları arasına<configure> aşağıdaki konfigürasyonları ekleyin :

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/home/hduser/tmp</value>
      <description>A base for other temporary directories.</description>
    </property>
    
    <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:54310</value>
      <description>The name of the default file system.  A URI whose
      scheme and authority determine the FileSystem implementation.  The
      uri's scheme determines the config property (fs.SCHEME.impl) naming
      the FileSystem implementation class.  The uri's authority is used to
      determine the host, port, etc. for a filesystem.</description>
    </property>
    

    Şimdi düzenle mapred-site.xml

    <property>
      <name>mapred.job.tracker</name>
      <value>localhost:54311</value>
      <description>The host and port that the MapReduce job tracker runs
      at.  If "local", then jobs are run in-process as a single map
      and reduce task.
      </description>
    </property>
    

    Şimdi düzenle hdfs-site.xml

    <property>
      <name>dfs.replication</name>
      <value>1</value>
      <description>Default block replication.
      The actual number of replications can be specified when the file is created.
      The default is used if replication is not specified in create time.
      </description>
    </property> 
    
  11. NameNode'u Biçimlendirme

    Şimdi Düğüm üzerinde çalışmaya başlayabilirsiniz. İlk biçim:

    ~/hduser/hadoop/bin/hadoop namenode -format
    

    veya

    ./home/hduser/hadoop/bin/hadoop namenode -format
    

    NameNode'u HDFS'nizde biçimlendirmelisiniz. Sistem çalışırken bu adımı yapmamalısınız. Genellikle kurulumunuzun ilk kez yapılır.

  12. Hadoop Kümesini Başlatma

    Hadoop / bin dizinine gitmeniz ve ./start-all.shkomut dosyasını çalıştırmanız gerekir .

    cd ~/hduser/hadoop/bin/  
    start-all.sh  
    

    Kılavuzlarda gösterilenden farklı bir sürüme sahipseniz (PPA veya daha yeni bir sürümle yapacaksanız büyük olasılıkla sahip olacaksınız), bu şekilde deneyin:

    cd ~/hduser/hadoop/bin/   
    start-dfs.sh  
    start-mapred.sh   
    

    Bu, makinenizde bir Namenode, Datanode, Jobtracker ve Tasktracker başlatacak.

  13. Hadoop'un çalışıp çalışmadığını kontrol etme

    Denilen güzel bir araç var jps. Tüm servislerin hazır olduğundan emin olmak için kullanabilirsiniz. Hadoop bin klasörünüze şunu yazın:

    jps
    

    Size tüm Hadoop ile ilgili işlemleri göstermelidir.

    NOT: Bu benim için yaklaşık 6 ay önce yapıldığı için çalışmayan herhangi bir parça varsa bana bildirin.

Juju Kullanarak Hadoop (Hadoop İçin Bir Juju Cazibesi)

Charming Hadoop'tan Alınan

Aşağıdakilerin ayarlanmış olduğunu kabul edeceğim:

  • Juju ile ayarlanmış bir sunucunuz var
  • Sunucuya erişiminiz var (Yerel veya uzaktan)
  • Juju'yu ayarladın ve takılar eklemeye hazırsın.
  • 12.04 kullanıyorsunuz (Bunun nedeni tüm bunları 12.04 ile test ettim)
  • ~/.juju/environments.yamlPPA kaynağı dahil, kullanacağınız sunucuyla ilgili bilgileri zaten yapılandırdınız .

Tamam, şimdi bir Hadoop servisinin çalışması için aşağıdaki adımları izleyin:

  1. Hadoop ortamını önyükleme

    juju bootstrap
    

    Tamamlanana kadar bekleyin ve doğru bağlanıp bağlanmadığını kontrol edin:

    juju status
    
  2. Dağıtma Hadoop (Master ve Slave)

    juju deploy --constraints="instance-type=m1.large" hadoop hadoop-master   
    
    juju deploy --constraints="instance-type=m1.medium" -n 5 hadoop hadoop-slave
    
  3. İlişki Oluştur

    juju add-relation hadoop-master:namenode hadoop-slave:datanode  
    
    juju add-relation hadoop-master:jobtracker hadoop-slave:tasktracker
    
  4. Hadoop'u Göster (Zaten dağıtıp ilişki kurduktan sonra servis çalışmalı)

    juju expose hadoop-master
    

    Ve doğru çalışıp çalışmadığını görmek için durumu kontrol edin:

    juju status hadoop-master
    

Şimdiye kadar çalışan bir Hadoop'unuz var. Sağlanan bağlantıda veya Hadoop resmi Juju Cazibesi'nde bulabileceğiniz birçok şey var.

Güncel JuJu Charms (Kurulumlar, Adım Adım kılavuz ve daha fazlası) sayfasını ziyaret edebilirsiniz: JuJu Charms ve kendi JuJu Ortamınızı oluşturun ve her bir dosyanın nasıl kurulduğunu ve her hizmetin nasıl bağlandığını görün.



hduser (ALL)=(ALL:ALL) ALL sözdizimi hatası atar ...
tutuca

deneyin hduser ALL=(ALL:ALL) ALL, ilk parantez çiftini çıkarın
ssoto

1
@ ssoto sadece kontrol edildi ve evet. Belki de en son sürümlerinde değiştirdiler.
Luis Alvarado

1
.bachrc- Johann Sebastian bunu duyana kadar bekle . Oh bekleyin, yapamaz… çünkü sağır. :-D
David Foerster

6

Ben başarıyla yolunu ayarlayarak Hadoop yüklü JAVA_HOMEolarak usr/lib/jvm/java-6-openjdk-amd64.


Biraz daha açıklayıcı olabilir misin?
Panter,

3

@Luis Alvarado adlı türeyen cevap , burada Ubuntu 14.04 ve Hadoop'un 2.5.1 benim sürümüdür

Kısaca

  1. Java'yı yükleyin
  2. Hadoop için yönetici kullanıcı hazırlahduser
  3. hduserŞu andan itibaren geçiş yap
  4. hduserParola içermeyen ssh ile uzaktan kumandaya izin ver
  5. IPv6'yı devre dışı bırak
  6. Hadoop paketini indirin ve yapılandırın
  7. $ HADOOP_HOME ve $ JAVA_HOME sistem yolunu hazırla
  8. Hadoop'un hizmetlerini yapılandırın
  9. Hadoop'un hizmetlerini başlat

Bitti. İyi şanslar!

Detay adımları

Java'yı yükleyin

İndir ve yükle

$ sudo add-apt-repository ppa:webupd8team/java    
$ sudo apt-get update && sudo apt-get upgrade    
$ sudo apt-get install oracle-java7-installer

Java7'nin kurulu olduğundan emin olun.

$ which java
$ ls -l /usr/bin/java
$ ls -l /etc/alternatives/java

javaişaret etmeliydik/usr/lib/jvm/java-7-oracle/jre/bin/java

Hadoop için yönetici kullanıcı hazırlahduser

hduserGrupta kullanıcı oluşturhadoop

$ sudo addgroup hadoop  
$ sudo adduser --ingroup hadoop hduser

Grant Sudo ayrıcalığıhduser

Sudo düzenle

$ sudo visudo

Bu satırı sonuna ekle

hduser ALL=(ALL:ALL) ALL

hduserŞu andan itibaren geçiş yap

$ su - hduser

hduserParola içermeyen ssh ile uzaktan kumandaya izin ver

Openssh'ı yükle

$ sudo apt-get install openssh-server

SSH bağlantısı için RSA ortak / özel anahtar oluşturun; parola olarak boşparameter -P ""

$ ssh-keygen -t rsa -P ""
$ cat .ssh/id_rsa.pub >> .ssh/authorized_keys

hduserParolanız olmadan yerel olarak uzaktan ssh yapabildiğinizden emin olun.

$ ssh localhost

IPv6'yı devre dışı bırak

Yapılandırma dosyasını düzenleyin

$ sudo nano /etc/sysctl.conf

Sonuna kopyala

#disable ipv6
net.ipv6.conf.all.disable_ipv6 = 1
net.ipv6.conf.default.disable_ipv6 = 1   
net.ipv6.conf.lo.disable_ipv6 = 1

IPv6'nın bir yeniden başlatma veya arama tarafından kapalı olduğundan emin olun

$ sudo sysctl -p 

Sonra ara

$ cat /proc/sys/net/ipv6/conf/all/disable_ipv6

1 demek gerekir ki Tamam ^^

Hadoop paketini indirin ve yapılandırın

Apado Hadoop sitesinden Hadoop 2.5.1 paketlerini indirin

Bu paketin doğrudan URL'si bu bağlantıdır

http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz

Öyleyse hduserana klasörünü indirebilir , çıkarabilir ve yenidenhadoop

$ wget http://www.eu.apache.org/dist/hadoop/core/hadoop-2.5.1/hadoop-2.5.1.tar.gz
$ tar -xvzf hadoop-2.5.1.tar.gz
$ mv hadoop-2.5.1 hadoop

hduserEvde Hadoop'un bulunduğundan emin olun

$ ls /home/hduser/hadoop

$ HADOOP_HOME ve $ JAVA_HOME sistem yolunu hazırla

Düzen hduser'ın .bashrc dosyası

$ nano .bashrc

Bitiş değerlerine koyun $HADOOP_HOMEve$JAVA_HOME

# Set Hadoop-related environment variables   
export HADOOP_HOME=/home/hduser/hadoop  

# Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
export JAVA_HOME=/usr/lib/jvm/java-7-oracle 

Hadoop binaryklasörlerini sisteme ekleyin$PATH

export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

Yeni bir terminal aç, olarak giriş hduseryap ve uygun komutlarla $ HADOOP_HOME'a sahip olduğundan emin ol

$ echo $HADOOP_HOME
$ which start-all.sh
$ which start-dfs.sh
$ which start-yarn.sh

Bu isimlerin tam yolunu görmeliyiz.

Hadoop'un hizmetlerini yapılandırın

Hadoop'taki her bileşen bir XML dosyası kullanılarak yapılandırılmıştır.

  • Ortak özellikler core-site.xml dosyasındadır.

  • HDFS özellikleri hdfs-site.xml dosyasındadır.

  • MapReduce özellikleri mapred-site.xml dosyasına gider

görüntü tanımını buraya girin

Bu dosyaların tümü $ HADOOP_HOME / etc / hadoop klasöründe bulunur

hadoop-env.shÇizgiyi düzenleyerek tekrar, JAVA_HOME içinde tanımlayın

export JAVA_HOME=/usr/lib/jvm/java-7-oracle

Core-site.xml adresindeki Hadoop temp folderve file systemadını tanımlayın .

<configuration>
  ...
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hduser/tmp</value>
    <description>A base for other temporary directories.</description>
  </property>

  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:54310</value>
    <description>The name of the default file system.  A URI whose
    scheme and authority determine the FileSystem implementation.  The
    uri's scheme determines the config property (fs.SCHEME.impl) naming
    the FileSystem implementation class.  The uri's authority is used to
    determine the host, port, etc. for a filesystem.</description>
  </property>
  ...
</configuration>

Bunu temp folder, yapılandırıldığı şekilde hazırlamamız gerekiyor ./home/hduser/tmp

$ cd /home/hduser
$ mkdir tmp
$ chown hduser:hadoop tmp
$ chmod 755 tmp

Define file system's block replicationin HDF'ler-site.xml dosyasını

<configuration>
  ...
  <property>
    <name>dfs.replication</name>
    <value>1</value>
    <description>Default block replication.
    The actual number of replications can be specified when the file is created.
    The default is used if replication is not specified in create time.
    </description>
  </property>
  ...
</configuration>

Define map-reduce jobiçinde mapred-site.xml dosyasını

<configuration>
  ...
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:54311</value>
    <description>The host and port that the MapReduce job tracker runs
    at.  If "local", then jobs are run in-process as a single map
    and reduce task.
    </description>
  </property>
  ...
</configuration>

Biçim name node

$ hdfs namenode -format

Hadoop servisini başlat

Aramak

$ start-dfs.sh && start-yarn.sh

bu iki komut, daha önce $ PATH sistemine eklediğimiz $ HADOOP_HOME / sbin konumunda bulunur.

Hadoop servislerinin doğru şekilde başlatıldığından emin olun.

$ jps

görmeliyiz

görüntü tanımını buraya girin


1
İzlenmesi gereken çok güzel bir rehber. Küçük bir hata var: mapred-site.xmlbaşında yok. Yaratması gerekencp mapred-site.xml.template mapred-site.xml
Raptor

1

Yüklemek edebilmek sun-javaile apt-getkomuta, adlı bir dosyaya bir satır eklemeniz gerekir sources.list. Bu dosya içinde bulunabilir /etc/apt/sources.list.

Bu komutu kullanarak dosyayı açın:

sudo nano /etc/apt/sources.list

Sonra, o dosyanın (en altında) en sonunda, satırı kopyalayıp yapıştırın:

deb http://us.archive.ubuntu.com/ubuntu/ hardy multiverse

Şimdi çıkmak ve kaydetmek için Ctrl+ tuşuna basın .Xy


Şimdi komutu yazın:

sudo apt-get update 

Ve bu yapıldığında, komutu başarıyla çalıştırabilirsiniz:

sudo apt-get install sun-java6-jdk

0

Daha güncel bir eğitim için (farklılıklardan emin değilim), hadoop screencasts video eğitimlerine bakın. Video ve altına kurulacak gerçek komutları sağlarlar. Ayrıca, yazara bir e-posta gönderirseniz, bir şeyle karşılaşırsanız size cevap vermekten ve size yardım etmekten çok mutlu olur.

Bu talimatlar, @Luis’un cevapladığı talimatlara büyük ölçüde benzemektedir.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.