重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
小编给大家分享一下Python爬取表格的步骤,希望大家阅读完这篇文章后大所收获,下面让我们一起去探讨方法吧!
网站的建设成都创新互联公司专注网站定制,经验丰富,不做模板,主营网站定制开发.小程序定制开发,H5页面制作!给你焕然一新的设计体验!已为成都高空作业车租赁等企业提供专业服务。
Python爬取表格的步骤:
1、检查url地址,用raise_for_status()检查url地址;
2、爬取资源,用BeautifulSoup()爬取数据,并且用find_all('tr')抓取其中的表格;
3、保存资源,用write()将表格保存到指定目录。
from bs4 import BeautifulSoup import requests import csv import bs4 #检查url地址 def check_link(url): try: r = requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding return r.text except: print('无法链接服务器!!!') #爬取资源 def get_contents(ulist,rurl): soup = BeautifulSoup(rurl,'lxml') trs = soup.find_all('tr') for tr in trs: ui = [] for td in tr: ui.append(td.string) ulist.append(ui) #保存资源 def save_contents(urlist): with open("D:/2016年中国企业500强排行榜.csv",'w') as f: writer = csv.writer(f) writer.writerow(['2016年中国企业500强排行榜']) for i in range(len(urlist)): writer.writerow([urlist[i][1],urlist[i][3],urlist[i][5]]) def main(): urli = [] url = "http://www.maigoo.com/news/463071.html" rs = check_link(url) get_contents(urli,rs) save_contents(urli) main()
运行结果:
看完了这篇文章,相信你对Python爬取表格的步骤有了一定的了解,想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!