URL'den protokol + ana bilgisayar adı alın


162

Django uygulamamda, request.META.get('HTTP_REFERER')protokolü ile birlikte yönlendirenden ana bilgisayar adını almam gerekiyor, böylece URL'ler gibi:

Almalıyım:

İlgili diğer soruları inceledim ve urlparse hakkında buldum, ancak o zamandan beri hile yapmadı

>>> urlparse(request.META.get('HTTP_REFERER')).hostname
'docs.google.com'

Yanıtlar:


297

Bunu urlparse(docs: python2 , python3 ) ile yapabilmeniz gerekir :

from urllib.parse import urlparse
# from urlparse import urlparse  # Python 2
parsed_uri = urlparse('http://stackoverflow.com/questions/1234567/blah-blah-blah-blah' )
result = '{uri.scheme}://{uri.netloc}/'.format(uri=parsed_uri)
print(result)

# gives
'http://stackoverflow.com/'

bu cevap üçüncü örneğe a ekler , ancak bence bu sorunun cevabı değil, sorunun bir eksikliği olabilir. /http://www.domain.com
SingleNegationElimination

@TokenMacGuy: ya, benim kötü ... kayıp fark etmedi /
Gerard

8
urlparse.urlparse()adlandırılmış bir çift benzeri sonuç döndürür; {uri.scheme}://{uri.netloc}/'.format(uri=parsed_uri)okunabilirlik için kullanabilirsiniz .
jfs

12
Ben, bu iyi bir çözüm olduğunu sanmıyorum netlocdeneyin: bir alan olmadığı urlparse.urlparse('http://user:pass@example.com:8080')ve benzeri parçaları verir bulmak 'user:pass@'ve':8080'
starrify

22
Urlparse modülü Python 3'te urllib.parse olarak yeniden adlandırıldı. Yani,from urllib.parse import urlparse
SparkAndShine

86

https://github.com/john-kurkowski/tldextract

Bu urlparse'nin daha ayrıntılı bir versiyonudur. Sizin için alanları ve alt alanları algılar.

Belgelerinden:

>>> import tldextract
>>> tldextract.extract('http://forums.news.cnn.com/')
ExtractResult(subdomain='forums.news', domain='cnn', suffix='com')
>>> tldextract.extract('http://forums.bbc.co.uk/') # United Kingdom
ExtractResult(subdomain='forums', domain='bbc', suffix='co.uk')
>>> tldextract.extract('http://www.worldbank.org.kg/') # Kyrgyzstan
ExtractResult(subdomain='www', domain='worldbank', suffix='org.kg')

ExtractResult adlandırılmış bir dizidir, bu nedenle istediğiniz parçalara erişmek kolaydır.

>>> ext = tldextract.extract('http://forums.bbc.co.uk')
>>> ext.domain
'bbc'
>>> '.'.join(ext[:2]) # rejoin subdomain and domain
'forums.bbc'

2
Bu soru, DOMAIN adının nasıl alınacağı gibi yazılı olarak doğru cevaptır. Seçilen çözüm, yazarın ilk etapta istediğine inandığım HOSTNAME'i sağlıyor.
Scone

49

Urlsplit kullanarak Python3 :

from urllib.parse import urlsplit
url = "http://stackoverflow.com/questions/9626535/get-domain-name-from-url"
base_url = "{0.scheme}://{0.netloc}/".format(urlsplit(url))
print(base_url)
# http://stackoverflow.com/

23

Saf dize işlemleri :):

>>> url = "http://stackoverflow.com/questions/9626535/get-domain-name-from-url"
>>> url.split("//")[-1].split("/")[0].split('?')[0]
'stackoverflow.com'
>>> url = "stackoverflow.com/questions/9626535/get-domain-name-from-url"
>>> url.split("//")[-1].split("/")[0].split('?')[0]
'stackoverflow.com'
>>> url = "http://foo.bar?haha/whatever"
>>> url.split("//")[-1].split("/")[0].split('?')[0]
'foo.bar'

Hepsi bu kadar millet.


2
İyi ve basit bir seçenek, ancak bazı durumlarda başarısız olur, örneğin foo.bar?haha
Simon Steinberger

1
@SimonSteinberger :-) Buna ne dersin: url.split("//")[-1].split("/")[0].split('?')[0]:-))
SebMa

22
>>> import urlparse
>>> url = 'http://stackoverflow.com/questions/1234567/blah-blah-blah-blah'
>>> urlparse.urljoin(url, '/')
'http://stackoverflow.com/'

2
Python 3 için içe aktarma from urllib.parse import urlparse.
Jeff Bowen

8

URL'nizin geçerli olduğunu düşünüyorsanız, bu her zaman çalışır

domain = "http://google.com".split("://")[1].split("/")[0] 

Son splityanlış, bölünecek ileri eğik çizgi yok.
CONvid19

2
bu bir sorun olmayacak, eğer daha fazla eğik çizgi yoksa, liste bir elemanla geri dönecektir. bu yüzden bir eğik çizgi olup olmadığını çalışacaktır
ZeroErr0r

1
Aşağı oyu kaldırabilmek için cevabınızı düzenledim. Güzel açıklama. Tks.
CONvid19

5

Saf dize işlemlerinde yanlış bir şey var mı:

url = 'http://stackoverflow.com/questions/9626535/get-domain-name-from-url'
parts = url.split('//', 1)
print parts[0]+'//'+parts[1].split('/', 1)[0]
>>> http://stackoverflow.com

Sondaki eğik çizgi eklenmesini tercih ediyorsanız, bu komut dosyasını biraz şöyle genişletin:

parts = url.split('//', 1)
base = parts[0]+'//'+parts[1].split('/', 1)[0]
print base + (len(url) > len(base) and url[len(base)]=='/'and'/' or '')

Bu muhtemelen biraz optimize edilebilir ...


7
bu yanlış değil ama zaten işi yapan bir aracımız var, tekerleği yeniden icat edemeyelim;)
Gerard

5

İşte biraz geliştirilmiş bir sürüm:

urls = [
    "http://stackoverflow.com:8080/some/folder?test=/questions/9626535/get-domain-name-from-url",
    "Stackoverflow.com:8080/some/folder?test=/questions/9626535/get-domain-name-from-url",
    "http://stackoverflow.com/some/folder?test=/questions/9626535/get-domain-name-from-url",
    "https://StackOverflow.com:8080?test=/questions/9626535/get-domain-name-from-url",
    "stackoverflow.com?test=questions&v=get-domain-name-from-url"]
for url in urls:
    spltAr = url.split("://");
    i = (0,1)[len(spltAr)>1];
    dm = spltAr[i].split("?")[0].split('/')[0].split(':')[0].lower();
    print dm

Çıktı

stackoverflow.com
stackoverflow.com
stackoverflow.com
stackoverflow.com
stackoverflow.com

Keman: https://pyfiddle.io/fiddle/23e4976e-88d2-4757-993e-532aa41b7bf0/?i=true


IMHO en iyi çözüm, çünkü basit ve nadir görülen her türlü durumu dikkate alıyor. Teşekkürler!
Simon Steinberger

2
ne basit ne de gelişmiş
Corey Goldberg

Protokol (https: // veya http: //) sağlamadığınız için bu soru için bir çözüm değildir
Alexei Marinichenko 15:19

2

Bu biraz geniş, ancak urlparseher iki yönde de kullanıyor :

import urlparse
def uri2schemehostname(uri):
    urlparse.urlunparse(urlparse.urlparse(uri)[:2] + ("",) * 4)

tuhaf ("",) * 4bit, urlparse'ın tam olarak len(urlparse.ParseResult._fields) = 6 bir dizi beklemesi


2

Eski bir soru olduğunu biliyorum, ama bugün de karşılaştım. Bunu bir astarla çözdü:

import re
result = re.sub(r'(.*://)?([^/?]+).*', '\g<1>\g<2>', url)

2

İhtiyacınız olan tek şey standart kütüphane işlevi urllib.parse.urlsplit () . İşte Python3 için bir örnek:

>>> import urllib.parse
>>> o = urllib.parse.urlsplit('https://user:pass@www.example.com:8080/dir/page.html?q1=test&q2=a2#anchor1')
>>> o.scheme
'https'
>>> o.netloc
'user:pass@www.example.com:8080'
>>> o.hostname
'www.example.com'
>>> o.port
8080
>>> o.path
'/dir/page.html'
>>> o.query
'q1=test&q2=a2'
>>> o.fragment
'anchor1'
>>> o.username
'user'
>>> o.password
'pass'

1

Re.search () ile çözülebilir

import re
url = 'https://docs.google.com/spreadsheet/ccc?key=blah-blah-blah-blah#gid=1'
result = re.search(r'^http[s]*:\/\/[\w\.]*', url).group()
print(result)

#result
'https://docs.google.com'

0

alan / ana makine adı ve Menşei almak için *

url = '/programming/9626535/get-protocol-host-name-from-url'
hostname = url.split('/')[2] # stackoverflow.com
origin = '/'.join(url.split('/')[:3]) # https://stackoverflow.com

* başlıklarda OriginkullanılırXMLHttpRequest


0

İkinci argüman olarak göreli kök '/' ile urljoin'i kullanabilirsiniz:

try:
    from urlparse import urljoin  # Python2
except ImportError:
    from urllib.parse import urljoin  # Python3


url = '/programming/9626535/get-protocol-host-name-from-url'

root_url = urljoin(url, '/')

-1

3'ten az eğik çizgi içeriyorsa, o zaman var ve eğer değilse, aralarındaki oluşumu bulabiliriz:

import re

link = http://forum.unisoftdev.com/something

slash_count = len(re.findall("/", link))
print slash_count # output: 3

if slash_count > 2:
   regex = r'\:\/\/(.*?)\/'
   pattern  = re.compile(regex)
   path = re.findall(pattern, url)

   print path
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.