投稿    登录
  《Python3网络爬虫开发实战》赠书活动正在进行中!详情请戳赠书活动!欢迎参与!非常感谢!

标签:Scrapy

Python

利用Scrapy爬取知乎用户详细信息并存至MongoDB

利用Scrapy爬取知乎用户详细信息并存至MongoDB
本节分享一下爬取知乎用户信息的Scrapy爬虫实战。 本节目标 本节要实现的内容有: 从一个大V用户开始,通过递归抓取粉丝列表和关注列表,实现知乎所有用户的详细信息的抓取。 将抓取到的结果存储到MongoDB,并进行去重操作。 思路分析 我们都知道每个人都有关注列表和粉丝列表...

崔庆才 1年前 (2017-04-14) 17962浏览 16评论 60喜欢