如何使用Python爬取关键字,并生成图片展示?

发表于:2023-6-21 09:52

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:excellent_1    来源:博客园

#
Python
  比如一则新闻,如下图所示:
  解决思路
  1、先爬取新闻中的所有文字
  2、再把所有的文字分割,使之成为一个个的字
  3、将出现的字进行统计,统计出次数靠前的10位
  4、再生成词云图或饼图
  请看以下代码:
 import jieba as jieba
 import requests
 from bs4 import BeautifulSoup
 from pyecharts.charts import WordCloud, Pie
 
 if __name__ == "__main__":
     headers = {
         "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"
     }
     url="https://new.qq.com/rain/a/20230315A08LAK00"
     res_html = requests.get(url, headers=headers).text
     # print(res_html)
 
     # 创建一个BeautifulSoup对象。对获取的网页进行过滤,获取其内容
     soup = BeautifulSoup(res_html, "lxml")
     # 获取文章的文字
     txt = soup.select(".content-article")[0].text
     # print(txt)
     # 对文章进行分割
     words = jieba.lcut(txt)
 
     # 统计每个词语出现的次数
     counts = {}
     for word in words:
         if len(word) == 1:
             continue
         else:
             counts[word] = counts.get(word, 0) + 1
     # 获取出现次数最多的前10个词语
     # counts.items -----> counts里面的所有项
     # a ------> counts里面的每一项
     sort_data = sorted(counts.items(), key=lambda a: a[1], reverse=True)[:10]
 
     # 词云图
     wc = WordCloud()
     wc.add("", sort_data, word_size_range=[20, 100])
     wc.render("1.html")
 
     # 饼图
     pip = Pie()
     pip.add(
         series_name="次数",
         data_pair=sort_data
     )
     pip.render("2.html")
  结果
  一起看一下运行效果:
  饼图:

  本文内容不用于商业目的,如涉及知识产权问题,请权利人联系51Testing小编(021-64471599-8017),我们将立即处理
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号