重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
今天就跟大家聊聊有关Python写爬虫都会使用什么库,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。
颍泉网站建设公司创新互联,颍泉网站设计制作,有大型网站制作公司丰富经验。已为颍泉上1000+提供企业网站建设服务。企业网站搭建\成都外贸网站制作要多少钱,请找那个售后服务好的颍泉做网站的公司定做!
Python爬虫,全称Python网络爬虫,是一种按照一定的规则,自动地抓取万维网信息的程序或脚本,主要用于抓取证券交易数据、天气数据、网站用户数据和图片数据等,Python为支持网络爬虫正常功能实现,内置了大量的库,主要有几种类型。下面本篇文章就来给大家介绍。
一、Python爬虫网络库
Python爬虫网络库主要包括:urllib、requests、grab、pycurl、urllib3、httplib2、RoboBrowser、MechanicalSoup、mechanize、socket、Unirest for Python、hyper、PySocks、treq以及aiohttp等。
二、Python网络爬虫框架
Python网络爬虫框架主要包括:grab、scrapy、pyspider、cola、portia、restkit以及demiurge等。
三、HTML/XML解析器
● lxml:C语言编写高效HTML/ XML处理库。支持XPath。
● cssselect:解析DOM树和CSS选择器。
● pyquery:解析DOM树和jQuery选择器。
● BeautifulSoup:低效HTML/ XML处理库,纯Python实现。
● html5lib:根据WHATWG规范生成HTML/ XML文档的DOM。该规范被用在现在所有的浏览器上。
● feedparser:解析RSS/ATOM feeds。
● MarkupSafe:为XML/HTML/XHTML提供了安全转义的字符串。
● xmltodict:一个可以让你在处理XML时感觉像在处理JSON一样的Python模块。
● xhtml2pdf:将HTML/CSS转换为PDF。
● untangle:轻松实现将XML文件转换为Python对象。
四、文本处理
用于解析和操作简单文本的库。
● difflib:(Python标准库)帮助进行差异化比较。
● Levenshtein:快速计算Levenshtein距离和字符串相似度。
● fuzzywuzzy:模糊字符串匹配。
● esmre:正则表达式加速器。
● ftfy:自动整理Unicode文本,减少碎片化。
五、特定格式文件处理
解析和处理特定文本格式的库。
● tablib:一个把数据导出为XLS、CSV、JSON、YAML等格式的模块。
● textract:从各种文件中提取文本,比如 Word、PowerPoint、PDF等。
● messytables:解析混乱的表格数据的工具。
● rows:一个常用数据接口,支持的格式很多(目前支持CSV,HTML,XLS,TXT:将来还会提供更多!)。
看完上述内容,你们对Python写爬虫都会使用什么库有进一步的了解吗?如果还想了解更多知识或者相关内容,请关注创新互联行业资讯频道,感谢大家的支持。