爬取虾米音乐时,模拟登陆网页版地址https://login.xiami.com/member/login后,返回的是一串字符(包括status、jumpurl以及账号信息等),但无法获取跳转后的网页(http://www.xiami.com/);通过HttpFox发现:为了得到网页,必须发送登录时获取的cookie,于是添加cookie再进行爬取就可以了!奇怪的是,登陆手机版的网址不需要发送cookie就可以获取到,所以也想请教下原因。如果不采用登陆后再添加cookie的方法,如何直接获取到登陆跳转后的网页?
附录的代码:
#! /usr/bin/env python2.7
# encoding=utf-8
import re
import urllib,cookielib,urllib2
cookie = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
postdata = urllib.urlencode({
'email' : '(省略)',
'password' : '(省略)',
'submit' : '%E7%99%BB%E5%BD%95',
'_xiamitoken' : '(省略)',
'done' : 'https://www.xiami.com',
'from' : 'web',
'havanaId' : ''
})
postdata = postdata.encode('utf-8')
login_headers = {
'Referer' : 'https://www.xiami.com/',
'User-Agent' : 'Chrome/45.0.2454.101',
}
url = 'https://login.xiami.com/member/login'
req = urllib2.Request(url,postdata)
#result = opener.open(req)
result = urllib2.urlopen(req)
print result.read()
获取到的字符串:
{"status":true,"message":"success","data":{"user_id":"(省略)","nick_name":"(省略)"},"jumpurl":"https:\/\/www.xiami.com"}
模拟操作的时候,个人推荐使用requests库,可以自动提交cookie,免去手动操作的烦恼
手机可以不用cookie直接获取内容,感觉关键在于ua,有条件可以抓包看一下
requests能自动跳转
根据你的描述登录接口返回数据,那基本就是前台完成的控制跳转,所以你只能用你的爬虫程序自行完成cookie携带请求
cookie = cookielib.CookieJar()
opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie))
爬取的时候,就在开始加上这两句话 就可以带cookie访问了啊 别的你就不用管了, 有些请求是必须发送某些cookie的吧,而且感觉跳转不用管吧,就算跳转了,cookie也会在本地存着呢。你要爬取的东西都可以通过分析请求来得到吧。 不知道你的问题与我的回答有没有在一条路上。。。
好像urllib2的302跳转会不带Cookies。
请看http://www.hawkwithwind.net/blog/2013/08...