首页 > scrapy如何使用同一个session来访问几个url

scrapy如何使用同一个session来访问几个url

需要提交的表单里面有个验证码,我需要先把验证码下下来再转换成文本放上去,然后 post 到一个 URL 里。这里面应该要用同一个 session 才可以完成。 requests 里面用 session 就很方便,想请问下在 scrapy 里怎么使用同一个 session?
这样用meta不行。

def start_requests(self):
    cookie_jar = CookieJar()
    yield scrapy.Request(self.getUrl, meta={'cookiejar': cookie_jar}, callback=self.downloadPic)

def downloadPic(self, response):
    yield scrapy.Request(self.vcodeUrl, meta={'cookiejar': response.meta['cookiejar']}, callback=self.getAndHandlePic

def getAndHandlePic(self, response):
    # handle picture, not the point here
    pic = self.handlePic(response.body)
    yield FormRequest(self.postUrl, formdata={'a':a, 'pic':pic}, meta={'cookiejar': response.meta['cookiejar']}, callback=self.parse)

def parse(self, response):
   # do process source code

是cookie吧,scrapy是默认开启共享cookie的


把headers所有东西加进去


cookie可以直接放到header里面,然后后面的请求都会带着同样的cookie

【热门文章】
【热门文章】