Dosyaları yerelden sunucuya uzak sunucuya almak için wget kullanma


1

Web geliştirmemizin çoğunu gerçekleştirdiğimiz yerel bir sunucumuz var ve sonra bunu müşterilerin erişebilmesi için canlı bir ortama itiyoruz.

Genellikle yerel sunucumuzdan uzaktaki sunucumuza almamız gereken devasa tarball'larla (özellikle bu, 6.6Gb'dir) sonuçlanır.

Macunu terminal ve WinSCP olarak kullanıyoruz.

Wget üzerinden veri almak her zaman çok hızlıdır ancak yerel sunucumuza tarball almak için uzak sunucu terminalinde wget kullanmanın herhangi bir yolu var ve eğer öyleyse, hangi komutu kullanmamız gerekiyor veya başka ne yapılandırmamız / ayarlamamız gerekiyor? yukarı?

SFTP / FTP üzerinden yükleyebiliriz, ancak büyük dosyalarda bu saatler hatta günlerce sürebilir!


En azından aşağı oy kullanacaksanız, nedenini açıklamak için bir yorum ekleyerek rahatsız.
zigojacko

2
Şey ... soru olduğu biraz belirsiz. Aşağıdakileri sorduğunuzu anlıyor muyuz: "Yerel tarafta bir web sunucusunu nasıl ayarlayabilirim, böylece uzaktaki wget'ı bir dosya çekmek için kullanabilirim?" Web geliştirme yaptığınız göz önüne alındığında, biraz saçma görünüyor.
Avery Payne

Yanıtlar:


2

scp (güvenli kopya) kullanmanız daha iyi

scp yourfile user@example.org:/var/www/

ve eğer kimlik doğrulaması kullanıyorsanız, şifre sorusundan da kurtulun (ve daha güvenli)

tarball'ınız (bir yorumda yazdığınız gibi) * .tar olarak adlandırılırsa, 6GB'ınız sıkıştırılmaz, böylece yerel ubuntu'bzip2 tarball.tar and after transfering a bunzip2 tarball.tar.bz2` çok fazla zaman kazandıracak


3
Ancak başka bir öneri (eğer sadece birkaç düzenleme yaparsanız, bunun yerine 6GB kullanımının tamamını kullanmanız gerekmez.

0

Bir şeyi açıklığa kavuşturmak için, arşivlenmiş bir dosyayı yerel sunucunuzdan yerel bir web sunucusuna aktarmak ister misiniz?

Öyleyse, ftp veya wget (doğrudan indirme benzeri) kullanmak aynı bağlantıyı kullanacaktır.

Ancak, gerçekten wget kullanmak istiyorsanız, dosyayı apache (ya da eğer kuruluysa) dizinindeki yerel sunucudan taşıyacağım ve wget'i SSH terminali üzerinden uzak sunucudaki doğru bağlantı ile kullanacağım. Bu, dosyanızın serbestçe erişilebilir olacağı ve güvenli olmayacağı anlamına gelir.

EDIT1: Hassas dosya için FTP kullanmanızı öneririm


Evet doğru. Ah tamam yeh, mantıklı, sadece FTP ile aynı bağlantıyı kullanır kadar yavaş olurdu. Son cümle ile ne demek istediğinizi anlamıyorum "Ben dosyayı apache (ya da yüklüyse eşdeğer) dizini yerel sunucudan taşırdım ve sonra uzak sunucudaki SSG terminali ile doğru bağlantı ile wget kullanırdım". Tarball şu anda yerel bir yolda: - z: \ server \ sites \ local \ tarball.tar
zigojacko

Somut bir örnekle gideceğim. Web üzerinden erişilebilir olacak şekilde yapılandırılmış Httpd (Apache) özellikli bir centOS sunucusu kullanıyorum. Dosyayı paylaşmak istersem, dosyamı özel apache konumuma kopyalarım: / var / www / html / files /. Sonra her yerden wget www.mysite.com/files/xxx.tar adresini kullanabilirim. Bundan daha iyi bir çözüm olabilir belki de, bir sys adamıyım, bir web uzmanı değilim. Senin durumunda, daha iyi FTP kullanın.
NooJ

Evet izliyorum - yerel sunucu Ubuntu - dosyaları nereye taşıyabileceğimden emin değilim, böylece uzaktan kumanda erişebiliyor.
zigojacko
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.