我在这里想要做的是获取给定 URL 的头部信息,以便确定其 MIME 类型。例如,我想要知道 http://somedomain/foo/
返回的是 HTML 文档还是 JPEG 图像等。因此,我需要找出如何发送 HEAD 请求,以便在不下载内容的情况下读取 MIME 类型。是否有人知道一个简单的方法来实现这个目标?
我在这里想要做的是获取给定 URL 的头部信息,以便确定其 MIME 类型。例如,我想要知道 http://somedomain/foo/
返回的是 HTML 文档还是 JPEG 图像等。因此,我需要找出如何发送 HEAD 请求,以便在不下载内容的情况下读取 MIME 类型。是否有人知道一个简单的方法来实现这个目标?
urllib2 可以用于执行 HEAD 请求。这比使用 httplib 更好,因为 urllib2 会为您解析 URL,而不需要您将 URL 拆分为主机名和路径。
>>> import urllib2
>>> class HeadRequest(urllib2.Request):
... def get_method(self):
... return "HEAD"
...
>>> response = urllib2.urlopen(HeadRequest("http://google.com/index.html"))
与之前一样,可以通过response.info()获取响应头。有趣的是,您可以找到重定向后的URL:
>>> print response.geturl()
http://www.google.com.au/index.html
编辑:这个答案可行,但现在你应该使用下面其他答案提到的requests库。
使用httplib。
>>> import httplib
>>> conn = httplib.HTTPConnection("www.google.com")
>>> conn.request("HEAD", "/index.html")
>>> res = conn.getresponse()
>>> print res.status, res.reason
200 OK
>>> print res.getheaders()
[('content-length', '0'), ('expires', '-1'), ('server', 'gws'), ('cache-control', 'private, max-age=0'), ('date', 'Sat, 20 Sep 2008 06:43:36 GMT'), ('content-type', 'text/html; charset=ISO-8859-1')]
另外还有一个getheader(name)
函数用于获取特定的头部信息。
urlparse
是很有用的,这也被一些低排名的响应所展示。 - Tomasz Gandorhttplib
已更名为http.client
。 - Santosh Kumar必须使用Requests
方式:
import requests
resp = requests.head("http://www.google.com")
print resp.status_code, resp.text, resp.headers
我认为也应该提到Requests库。
allow_redirects
的作用是启用 POST 重定向,即 allow_redirects
对 HEAD 没有影响。 - jfs只需:
import urllib2
request = urllib2.Request('http://localhost:8080')
request.get_method = lambda : 'HEAD'
response = urllib2.urlopen(request)
response.info().gettype()
编辑:我刚才意识到有 httplib2 这个库 :D
import httplib2
h = httplib2.Http()
resp = h.request("http://www.google.com", 'HEAD')
assert resp[0]['status'] == 200
assert resp[0]['content-type'] == 'text/html'
...
request
上。(也就是说,它能工作,但这是不好的风格,如果你想在其中使用 self
的话 - 那就难了。) - Chris Morgan为了完整性,提供使用http.client替代httplib的Python3答案,这段代码基本相同。
from http.client import HTTPConnection
conn = HTTPConnection('www.google.com')
conn.request('HEAD', '/index.html')
res = conn.getresponse()
print(res.status, res.reason)
import httplib
import urlparse
def unshorten_url(url):
parsed = urlparse.urlparse(url)
h = httplib.HTTPConnection(parsed.netloc)
h.request('HEAD', parsed.path)
response = h.getresponse()
if response.status/100 == 3 and response.getheader('Location'):
return response.getheader('Location')
else:
return url
import
前面的美元符号是什么意思?urlparse
得到 +1 - 与 httplib
一起使用,可以在处理输入端的 URL 时提供与 urllib2
相同的便利。 - Tomasz Gandorurllib2的总统计数据是:real 9m1.380s user 0m16.666s sys 0m28.565s
还有其他人对此有什么看法吗?
还有另一种方法(类似于Pawel的答案):
import urllib2
import types
request = urllib2.Request('http://localhost:8080')
request.get_method = types.MethodType(lambda self: 'HEAD', request, request.__class__)
只是为了避免在实例级别存在无限制的方法。
httplib.HTTPConnection
的优点,它不会自动处理重定向。 - Ehtesh Choudhury