重庆分公司,新征程启航

为企业提供网站建设、域名注册、服务器等服务

如何用Scrapy抓取网页

这篇文章将为大家详细讲解有关如何用Scrapy抓取网页,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。

株洲网站制作公司哪家好,找创新互联建站!从网页设计、网站建设、微信开发、APP开发、成都响应式网站建设公司等网站项目制作,到程序开发,运营维护。创新互联建站于2013年开始到现在10年的时间,我们拥有了丰富的建站经验和运维经验,来保证我们的工作的顺利进行。专注于网站建设就选创新互联建站

Scrapy是一种快速的高级Web爬虫和Web抓取框架,用于抓取网站并从其页面中提取结构化数据。它可用于各种用途,从数据挖掘到监控和自动化测试。

老规矩,使用前先用pip install scrapy进行安装,如果安装过程中遇到错误一般为error:Microsoft Visual C++ 14.0 is required. 只需要访问https://www.lfd.uci.edu/~gohlke/pythonlibs/#twisted网站下载Twisted-19.2.1-cp37-cp37m-win_amd64安装即可,注意cp37代表的是我本机python的版本3.7 amd64代表我的操作系统位数。

安装使用 pip install Twisted-19.2.1-cp37-cp37m-win_amd64.whl即可,然后在重新安装scrapy就会成功安装了;安装成功后我们就可以使用scrapy命令进行创建爬虫项目了。

接下来在我的桌面运行cmd命令,使用 scrapy startproject webtutorial创建项目:

如何用Scrapy抓取网页

会在桌面生成一个webtutorial文件夹,我们看下目录结构:

如何用Scrapy抓取网页

然后我们在spiders文件夹下新建一个quotes_spider.py,编写一个爬虫用来爬取http://quotes.toscrape.com网站保存为一个html文件,网站截图如下:

如何用Scrapy抓取网页

代码如下:

import scrapy
#定义爬虫类class QuotesSpider(scrapy.Spider):    #指定爬虫名字 一会要用到    name = "quotes"    #开始请求方法    def start_requests(self):        urls = [                'http://quotes.toscrape.com/page/1/',                'http://quotes.toscrape.com/page/2/']        for url in urls:            yield scrapy.Request(url=url, callback=self.parse)#解析写入返回内容到html中    def parse(self, response):        page = response.url.split("/")[-2]        filename = 'quotes-%s.html' % page        with open(filename, 'wb') as f:            f.write(response.body)        self.log('Saved file %s' % filename)

之后的目录结构为:

如何用Scrapy抓取网页

然后我们在命令行中切换到webtutorial文件夹下,执行命令scrapy crawl quotes进行抓取(quotes为刚才指定的爬虫名):

如何用Scrapy抓取网页

如何用Scrapy抓取网页

发现出错了,No module named  'win32api',这里我们安装一下win32api

使用命令 pip install pypiwin32,然后继续执行scrapy crawl quotes:

如何用Scrapy抓取网页

可知爬虫任务成功执行,这时会在webtutorial文件夹下生成两个html:

如何用Scrapy抓取网页

关于如何用Scrapy抓取网页就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。


网页标题:如何用Scrapy抓取网页
分享链接:http://cqcxhl.com/article/iiijij.html

其他资讯

在线咨询
服务热线
服务热线:028-86922220
TOP