首页 > 抓取到页面中的pdf地址后,如何下载到本地?

抓取到页面中的pdf地址后,如何下载到本地?

想从一个网站上批量下载文章,现在可以得到文章的名字。
但是打开pdf网页后,连接中的空格被替换成了 %20这样的字符。
字符替换我自己可以处理,但是有了链接后怎么下载呢?
也就是说怎么执行浏览器里save link as这个动作?
我如何向服务器发送这种请求并下载这些文章?


urlretrieve(url, filename=None, reporthook=None, data=None)
试一试这个函数,可以把url下载到本地。


%20代表的意思就是空格啊
你再处理回来不就好了


网上查了一下,发现解决这个问题还是蛮简单的。
可以参考这里

直接

url = 'FILE ADDR'
r = requests.get(url)
with open('1.pdf', 'wb') as f:
    f.write(r.content)
    
【热门文章】
【热门文章】