重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章给大家分享的是有关怎样使用python爬虫新闻的内容。小编觉得挺实用的,因此分享给大家做个参考。一起跟随小编过来看看吧。
文安ssl适用于网站、小程序/APP、API接口等需要进行数据传输应用场景,ssl证书未来市场广阔!成为创新互联的ssl证书销售渠道,可以享受市场价格4-6折优惠!如果有意向欢迎电话联系或者加微信:13518219792(备注:SSL证书合作)期待与您的合作!
首先,打开开发者模式,分析网页。
具体做法:按F12,并用ctrl+f对elements进行搜索,关键字为新闻内容的几个字即可。
找到内容文字
利用这个方法,我们很轻松就找到了新闻文字内容的位置,通过分析发现其内容都为p标签下的字符串,并且其class="one-p",这可以作为定位该内容的唯一特征。
通过以上的分析,我们确定了定位关键信息的方法,接下来就可以编写python程序了:
实例代码:
# -*- coding:utf-8 -*-import requests from bs4 import BeautifulSoup url = "https://new.qq.com/omn/20190704/20190704A0EHMR00.html"r = requests.get(url) rr = r.content bs = BeautifulSoup(rr,"lxml") news_contents = bs.find_all("p",{'class':'one-p'}) news_final = ""for i in news_contents: print(i.string) if i.string: news_final = news_final +i.string + "\n"f = open("news_contents.txt",'w') f.write(news_final) f.close()
最终打开保存的文件,里面就是获取的新闻内容了哦~
感谢各位的阅读!关于怎样使用python爬虫新闻就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到吧!