如何使用python urllib在HTTP / 1.1中保持活力
作者:互联网
现在我这样做:(Python3,urllib)
url = 'someurl'
headers = '(('HOST', 'somehost'), /
('Connection', 'keep-alive'),/
('Accept-Encoding' , 'gzip,deflate'))
opener = urllib.request.build_opener(urllib.request.HTTPCookieProcessor())
for h in headers:
opener.addheaders.append(x)
data = 'some logging data' #username, pw etc.
opener.open('somesite/login.php, data)
res = opener.open(someurl)
data = res.read()
... some stuff here...
res1 = opener.open(someurl2)
data = res1.read()
etc.
这是怎么回事;
我不停地从服务器获取gzipped响应并且我保持登录状态(我正在获取一些如果我没有登录则无法使用的内容)但我认为每个请求openner.open之间的连接都在下降;
我认为,因为连接速度非常慢,似乎每次都有新的连接.两个问题:
a)如何测试连接是否保持活着/死亡
b)如何在请求其他网址之间保持活力?
照顾自己 :)
解决方法:
这将是一个非常延迟的答案,但是:
您应该看到urllib3.它适用于Python 2.x,但是当您看到他们的README文档时,您会明白这一点.
是的,默认情况下urllib不会保持连接活着,我现在正在为Python 3实现urllib3以保留在我的工具包中:)
标签:python,http,keep-alive 来源: https://codeday.me/bug/20190710/1421108.html