Birkaç dinamik olarak üretilen URL’ler var.
Bu URL'leri bir robots.txt dosyasında engellemek için regex kullanabilir miyim?
Birkaç dinamik olarak üretilen URL’ler var.
Bu URL'leri bir robots.txt dosyasında engellemek için regex kullanabilir miyim?
Yanıtlar:
Normal İfadeler robots.txt dosyasında geçerli değildir, ancak Google, Bing ve diğer bazı botlar bazı model eşleşmelerini tanır.
URL’de example
herhangi bir yere sahip tüm URL’leri engellemek istiyorsanız, joker karakter girişini kullanabilirsiniz *
User-agent: *
Disallow: /*example
URL'lerin bu şekilde bitmesi gerektiğini belirtmek için $ işaretini de kullanabilirsiniz. Öyleyse, bitecek tüm URL'leri engellemek istiyorsanız example
, ancak URL’de example
başka bir yerde bulunan URL’leri kullanmak istemiyorsanız:
User-agent: *
Disallow: /*example$
Google için daha ayrıntılı bilgi burada bulunabilir: Robots.txt Teknik Özellikler , burada Bing: Bir Robots.txt dosyası nasıl oluşturulur ve burada Moz hakkında etkileşimli bir kılavuz var