首页 > Python深度爬取一个网站

Python深度爬取一个网站

毕业设计项目需要从coursera,edx等大型MOOC网站爬取大量公开课课程信息,尝试着爬取了coursera的课程信息,但是每次都要重新在python代码中写入新的url,如:coursera.org/computer/database和coursera.org/computer/algorithm才可以分别爬去database和algorithm的信息,可是coursera中有10大类,平均每类课程又分有6-8个小分类,也就是我需要该大概80次链接,感觉虽然已经比手动录入快很多了,但是自动化程度仍旧带来了一个效率低下的问题,请问有什么方法可以深度爬取一个网站的信息,让人工操作的的工序少一些呢?了解过深度搜索和广度搜索的算法,但是不知道在这里应该如何使用呢?P.S.在这里我是用的python中beautifulsoup4的package进行的html代码解析从而实现crawler。
码渣跪求,大神们能配合代码或者伪码来指导一下就最好啦!thx!


直接用scrapy


爬的时候把这些url加入到一个url数组中,依次爬取url数组中的url就可以了,可以把这个理解为广度优先搜索


先爬列表页,然后爬子页面,你现在子页面已经处理好了,多爬加个列表页就行了
用不着什么深度广度算法

【热门文章】
【热门文章】