Yasal nedenlerden dolayı otomatik olarak dizine eklenemeyen veya aranamayan bir sitem var. Bu, tüm robotları uzak tutmamız ve siteyi örümcek yapmasını önlememiz gerektiği anlamına gelir.
Açıkçası baştan beri izin vermeyen bir robots.txt dosyasına sahibiz. Ancak, robots.txt dosyasını gözlemlemek yalnızca iyi davranan robotların yaptığı bir şeydir. Son zamanlarda, daha az iyi davranan robotlarla ilgili bazı sorunlar yaşadık. Apache'yi birkaç kullanıcı aracısını yasaklayacak şekilde yapılandırdım ancak bunun üstesinden gelmek oldukça kolay.
Yani, soru, robot benzeri davranışı algılamak ve yanıt vermek için Apache'yi (belki de bir modül kurarak) yapılandırmanın bir yolu var mı? Başka fikir var mı?
Şu anda yapabileceğim tek şey günlüklerin manuel olarak denetlenmesine dayalı IP adreslerini yasaklamak ve bu sadece geçerli bir uzun vadeli strateji değil.