投稿    登录
  《Python3网络爬虫开发实战》赠书活动正在进行中!详情请戳赠书活动!欢迎参与!非常感谢!

密码保护:免登录新浪微博爬虫系列之第一篇 单博主微博及评论数据

Python 四毛 13316浏览 12评论

我的个人微信公众号,联系我请直接在公众号留言即可~

扫码或搜索:进击的Coder

进击的Coder

微信公众号 扫一扫关注

想结交更多的朋友吗?

来进击的Coder瞧瞧吧

进击的Coder

QQ群号 99350970 立即加入

进击的Coder灌水太多?

这里是纯粹的技术领地

激进的Coder

QQ群号 627725766 立即加入

您的支持是博主写作最大的动力,如果您喜欢我的文章,感觉我的文章对您有帮助,请狠狠点击下面的

发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
(12)个小伙伴在吐槽
  1. 看!只有9个
    电话联系2017-06-27 14:55 回复
  2. 大佬!你这样获取只能获取9个微博的全部信息啊!请问怎么获取其他的啊?只针对这一个用户的
    电话联系2017-06-27 14:52 回复
  3. 博主你的3(1)最后我发现我的没有page其他都有,请问是怎么回事吗?
    电话联系2017-06-27 10:52 回复
  4. 不久会被新浪堵上漏洞的[/流汗]
    苏bo啦lazy2017-06-22 10:20 回复
  5. 发这么详细的帖子,就是想被新浪微博封杀啊,要不就删除了吧
    昂首挺胸2017-06-13 11:16 回复
  6. 明白了,浏览器里突然看见了。[/憨笑]
    ppsse2017-05-07 12:15 回复
  7. 博主,我有一个问题不是很懂,就是http://m.weibo.cn/api/container/getIndex?type=uid&value={}这个网址模式是怎么得到的。我在自己network中只获取到http://m.weibo.cn/api/container/getIndex?containerid=1005051713926427但是网址获取的json内容跟你给的网址内容是一样的。
    ppsse2017-05-07 12:08 回复
  8. 看到你回复我才发现我之前写错了[/抓狂]。主页的containerid是100505加博主ID,希望之前的回复不要误导到人……
    哥本哈根的小树2017-05-05 11:42 回复
  9. 多谢指点,谢啦。
    小宇宙2017-05-05 10:36 回复
  10. containnerid也是固定的字段,主页的是230283加博主ID,微博内容的是107603加博主ID,不用请求直接写就好了.
    哥本哈根的小树2017-05-04 17:49 回复
  11. 楼上的根本没读文章[/憨笑]
    Domon2017-05-04 14:12 回复
  12. 小四毛威武,加油![/鼓掌][/鼓掌][/给力][/给力]
    weixin7886302782017-05-04 13:16 回复