搜索
查看: 2847|: 0

[行业数据] 用Python爬取了瓜文评论区,发现更精彩

[复制链接]

15

主题

0

回帖

353

积分

中级会员

积分
353
发表于 2021-12-20 16:32:04 | 显示全部楼层 |阅读模式
这两天打开微博一看,都是关王力宏的热搜,大家在微博上吃瓜真的是吃的很精彩,小编虽然平时不追星,但也是吃瓜群众一枚,但是我比较喜欢看吃瓜群众的评论,有时候真的感觉要被笑死在评论里面,看了李女士的发文,很多人都觉得是欠力宏一座奥斯卡 。
所以我今天就利用我们的python技术,抓取王力宏和李女士微博下的评论数据。但像这么大的瓜,评论量肯定不小,所以在访问的过程中肯定有遇到封ip的,所以这里必须加上代理ip。代理和数据抓取的主要代码如下:
#! -*- encoding:utf-8 -*-    import requests    import random    # 要访问的目标页面    targetUrl = "https://weibo.com/1793285524?refer_flag=1001030103_"    # 要访问的目标HTTPS页面    # targetUrl = "https://weibo.com/1793285524?refer_flag=1001030103_"    # 代理服务器(产品官网 www.16yun.cn)    proxyHost = "t.16yun.cn"    proxyPort = "31111"    # 代理验证信息    proxyUser = "16GVJPUJ"    proxyPass = "446433"    proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {        "host" : proxyHost,        "port" : proxyPort,        "user" : proxyUser,        "pass" : proxyPass,    }    # 设置 http和https访问都是用HTTP代理    proxies = {        "http"  : proxyMeta,        "https" : proxyMeta,    }    #  设置IP切换头    tunnel = random.randint(1,10000)    headers = {"Proxy-Tunnel": str(tunnel)}    resp = requests.get(targetUrl, proxies=proxies, headers=headers)    print resp.status_code    print resp.text
爬取分析过程这里就不说了,数据有了,现在我们再用 Python 来看一下提到比较多的 词汇有哪些,具体的实现示例我们就不展示了。关于吃瓜的最新消息大家可以去微博了解,学习爬虫有代理需求的可以去www.16yun.cn了解。






若有收获,就点个赞吧










您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

大数据中国微信

QQ   

版权所有: Discuz! © 2001-2013 大数据.

GMT+8, 2024-11-21 19:06 , Processed in 0.066432 second(s), 24 queries .

快速回复 返回顶部 返回列表