8个Python爬虫框架,你用过几个?

发表于:2019-10-09 09:46

字体: | 上一篇 | 下一篇 | 我要投稿

 作者:超酷n    来源:今日头条

  小编收集了一些较为高效的Python爬虫框架。分享给大家。
  1.Scrapy
  Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。。用这个框架可以轻松爬下来如亚马逊商品信息之类的数据。
  
  项目地址:https://scrapy.org/
  2.PySpider
  pyspider 是一个用python实现的功能强大的网络爬虫系统,能在浏览器界面上进行脚本的编写,功能的调度和爬取结果的实时查看,后端使用常用的数据库进行爬取结果的存储,还能定时设置任务与任务优先级等。
  项目地址:https://github.com/binux/pyspider
  3.Crawley
  Crawley可以高速爬取对应网站的内容,支持关系和非关系数据库,数据可以导出为JSON、XML等。
  项目地址:http://project.crawley-cloud.com/
  4.Portia
  Portia是一个开源可视化爬虫工具,可让您在不需要任何编程知识的情况下爬取网站!简单地注释您感兴趣的页面,Portia将创建一个蜘蛛来从类似的页面提取数据。
  项目地址:https://github.com/scrapinghub/portia
  5.Newspaper
  Newspaper可以用来提取新闻、文章和内容分析。使用多线程,支持10多种语言等。
  项目地址:https://github.com/codelucas/newspaper
  6.Beautiful Soup
  Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库.它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式.Beautiful Soup会帮你节省数小时甚至数天的工作时间。
  项目地址:https://www.crummy.com/software/BeautifulSoup/bs4/doc/
  7.Grab
  Grab是一个用于构建Web刮板的Python框架。借助Grab,您可以构建各种复杂的网页抓取工具,从简单的5行脚本到处理数百万个网页的复杂异步网站抓取工具。Grab提供一个API用于执行网络请求和处理接收到的内容,例如与HTML文档的DOM树进行交互。
  项目地址:http://docs.grablib.org/en/latest/#grab-spider-user-manual
  8.Cola
  Cola是一个分布式的爬虫框架,对于用户来说,只需编写几个特定的函数,而无需关注分布式运行的细节。任务会自动分配到多台机器上,整个过程对用户是透明的。
  项目地址:https://github.com/chineking/cola

      本文内容不用于商业目的,如涉及知识产权问题,请权利人联系博为峰小编(021-64471599-8017),我们将立即处理
《2023软件测试行业现状调查报告》独家发布~

关注51Testing

联系我们

快捷面板 站点地图 联系我们 广告服务 关于我们 站长统计 发展历程

法律顾问:上海兰迪律师事务所 项棋律师
版权所有 上海博为峰软件技术股份有限公司 Copyright©51testing.com 2003-2024
投诉及意见反馈:webmaster@51testing.com; 业务联系:service@51testing.com 021-64471599-8017

沪ICP备05003035号

沪公网安备 31010102002173号