Özellikle, çeşitli Stack Exchange sitelerinde kullanıcı profilimden belirli sayfaları indirebilmek istiyorum. Ancak bunu cron
komut satırından ve ayrıştırılabilir biçimde otomatik olarak (bir iş kullanarak ) yapmak istiyorum . Bunun için Linux kullanmayı tercih ederim, ancak gerekirse bir Mac veya Windows makinesine erişebilirim.
İdeal olarak, sayfaları getirmek için Wget veya cURL gibi bir araç kullanmak istiyorum . Gerçi günlüğü nasıl geçeceğimi bilmiyorum. Firefox üzerinden giriş yapabileceğiniz, ilgili çerezi dışa aktarabileceğiniz ve --load-cookies
seçeneği ile Wget'e aktarabileceğinizi belirten öneriler gördüm . Örneğin burada ve burada . Ben yeni giriş yaptıysam bu çalışır, ancak bir süre sonra değil. Sanırım kimlik jetonunun yenilenmesi gerekiyor.
Yani, SU'ya giriş yaptıktan ve çerezlerimi dışa aktardıktan hemen sonra şunları yapabilirim:
wget --load-cookies cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
Birkaç dakika sonra 404 hatası alıyorum:
wget -O ~/stack/$(date +%s) --load-cookies ~/cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
--2013-08-06 04:04:14-- https://superuser.com/users/151431/terdon?tab=responses
Resolving superuser.com (superuser.com)... 198.252.206.16
Connecting to superuser.com (superuser.com)|198.252.206.16|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-08-06 04:04:15 ERROR 404: Not Found.
Peki, OpenID etkin bir web sitesine komut satırından nasıl otomatik olarak giriş yapabilirim?
PS. Sorumun söz konusu web sayfasının gerçek ayrıntıları değil, gerçekten komut satırı boyutu hakkında olması nedeniyle, bu web uygulamalarından daha uygun olduğunu düşünüyorum. Herhangi bir çözümün tüm OpenID siteleri için geçerli olacağını tahmin ediyorum .