重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
这篇文章将为大家详细讲解有关使用python怎么爬取指定微信公众号的文章,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。
成都创新互联公司是一家集网站建设,鸡东企业网站建设,鸡东品牌网站建设,网站定制,鸡东网站建设报价,网络营销,网络优化,鸡东网站推广为一体的创新建站企业,帮助传统企业提升企业形象加强企业竞争力。可充分满足这一群体相比中小企业更为丰富、高端、多元的互联网需求。同时我们时刻保持专业、时尚、前沿,时刻以成就客户成长自我,坚持不断学习、思考、沉淀、净化自己,让我们为更多的企业打造出实用型网站。首先你需要安装好你的python环境,然后安装urllib2库
程序的起始方法(返回值是公众号文章列表):
def openUrl(): print("启动爬虫,打开搜狗搜索微信界面") # 加载页面 url = 'http://weixin.sogou.com/weixin?type=1&s_from=input&query=要爬取的公众号名称' htmlContentObj = urllib2.urlopen(url) # 将页面转化为文本 html = htmlContentObj.read() # 正则匹配 str = re.findall(r"http://mp.weixin.qq.com/profile.+==",html) # 替换转义符得到可访问的链接地址 tempHref = re.sub(r"&","&",str[0]) return tempHref
根据获取到的文章列表的页的链接地址(注意是文章列表页面的得链接地址,不是文章的地址)将页面读取为文本
# 获取页面文本方法 def getHtmlStr(conurl): # 相当于把页面转化为文本 response = urllib2.urlopen(conurl) # 读取文本的字符串 htmlStr = response.read() return htmlStr
对读取为文本的页面进行分析并利用正则匹配获得公众号里面文章的标题,链接地址等内容得json对象
# 文本转换为所需要的json对象 def htmlToJsonObj(htmlStr): # 正则匹配并得到需要的json字符串 jsonObjstr = re.findall(r"{\"list\":\[.+\]\}", htmlStr) # 字符串转json jsonObj = json.loads(jsonObjstr[len(jsonObjstr)-1]) return jsonObj
然后从json对象中取出title,拼接url等(我这里只是获取了链接地址和标题),将两个内容分别存在两个数组,以json对象的方式返回出去(注意拼接url的时候要替换掉转义符(&))
# 从json对象中取出所需要的url def jsonObjToArray(jsonObj): hrefs = [] titles = [] # url中的&在html中是& ,故需要替换,下面为正则 patten = re.compile(r"&") # 数组 arr = jsonObj["list"] # 循环添加 for i in range(len(arr)): # 每次替换字符串 fixHref = re.sub(patten,"&",arr[i]["app_msg_ext_info"]["content_url"]) # 添加到数组 titles.append(arr[i]["app_msg_ext_info"]["title"]) hrefs.append("https://mp.weixin.qq.com"+fixHref) jsons = {"hrefs":hrefs,"titles":titles} return jsons #打开浏览器,进行工作 def start(): tempHref = openUrl() # 获取页面文本 htmlStr = getHtmlStr(tempHref) # 文本转json对象 jsonObj = htmlToJsonObj(htmlStr) # f返回所需要的url数组 return jsonObjToArray(jsonObj)
最后通过启动程序的方法启动爬虫并打印爬取到的信息
if __name__=='__main__': try: hrefs = start() count = len(hrefs["hrefs"]) for i in range(count): print("标题:"+hrefs["titles"][i].encode("utf-8")) print("爬取到的路径:"+hrefs["hrefs"][i].encode("utf-8")) print("------------->>爬取并打印完毕") except Exception as e: print(str(e))
程序需要导入的包
import urllib2 import json import re
依次赋值以上代码,填写要爬取的公众号,运行即可
关于使用python怎么爬取指定微信公众号的文章就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。