标题:[python] 常用正则表达式爬取网页信息及分析HTML标签总结
出处:沧海一粟
时间:Thu, 19 May 2016 22:41:34 +0000
作者:jed
地址:http://www.dzhope.com/post/1018/
内容:
这篇文章主要是介绍Python爬取网页信息时,经常使用的正则表达式及方法。它是一篇总结性文章,实用性比较大,主要解决自己遇到的爬虫问题,也希望对你有所帮助~
当然如果会Selenium基于自动化测试爬虫、BeautifulSoup分析网页DOM节点,这就更方便了,但本文更多的是介绍基于正则的底层爬取分析。
涉及内容如下:
常用正则表达式爬取网页信息及HTML分析总结
1.获取
标签之间内容
2.获取超链接之间内容
3.获取URL最后一个参数命名图片或传递参数
4.爬取网页中所有URL链接
5.爬取网页标题title两种方法
6.定位table位置并爬取属性-属性值
7.过滤等标签
8.获取等标签内容
推荐基础文章:Python正则表达式指南 - AstralWind
------------------------------------------------------------------------------------------------------------------------------
1.获取
标签之间内容
该部分主要是通过正则表达式获取两个标签之间的内容,通常这种标签都是成对出现的。
开始标签如:、、 | 、、、...
核心代码:
res_tr = r' |
(.*?)
'
m_tr = re.findall(res_tr,language,re.S|re.M)
例子:
# coding=utf-8
import re
language = '''性別: | 男 |
---|
'''
#正则表达式获取
之间内容
res_tr = r'(.*?)
'
m_tr = re.findall(res_tr,language,re.S|re.M)
for line in m_tr:
print line
#获取表格第一列th 属性
res_th = r'(.*?) | '
m_th = re.findall(res_th,line,re.S|re.M)
for mm in m_th:
print unicode(mm,'utf-8'), #unicode防止乱
#获取表格第二列td 属性值
res_td = r'(.*?) | '
m_td = re.findall(res_td,line,re.S|re.M)
for nn in m_td:
print unicode(nn,'utf-8')
输出如下所示:
>>>
性別: | 男 |
性別: 男
>>>
python通过re模块提供对正则表达式的支持。使用re的一般步骤是先将正则表达式的字符串形式编译为Pattern实例,然后使用Pattern实例处理文本并获得匹配结果(一个Match实例),最后使用Match实例获得信息,进行其他的操作。
findall(string[, pos[, endpos]]) | re.findall(pattern, string[, flags]): 搜索string,以列表形式返回全部能匹配的子串。其中RE的常见参数包括:
re.I(re.IGNORECASE): 忽略大小写(括号内是完整写法)
re.M(re.MULTILINE): 多行模式,改变'^'和'$'的行为
re.S(re.DOTALL): 点任意匹配模式,改变'.'的行为
------------------------------------------------------------------------------------------------------------------------------
2.获取超链接之间内容
通常在使用正则表达式时,需要分析网页链接,获取URL或网页内容。核心代码如下:
res = r'(.*?)'
mm = re.findall(res, content, re.S|re.M)
urls=re.findall(r"", content, re.I|re.S|re.M)
例子:
# coding=utf-8
import re
content = '''
浙江省主题介绍
贵州省主题介绍
|
'''
#获取之间的内容
print u'获取链接文本内容:'
res = r'(.*?)'
mm = re.findall(
res, content, re.S|re.M)
for value in mm:
print value
#获取所有链接所有内容
print u'\n获取完整链接内容:'
urls=re.findall(r"", content, re.I|re.S|re.M)
for i in urls:
print i
#获取中的URL
print u'\n获取链接中URL:'
res_url = r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')"
link = re.findall(res_url , content, re.I|re.S|re.M)
for url in link:
print url
输出如下图所示:
>>>
获取链接文本内容:
浙江省主题介绍
贵州省主题介绍
获取完整链接内容:
浙江省主题介绍
贵州省主题介绍
获取链接中URL:
https://www.baidu.com/articles/zj.html
https://www.baidu.com//articles/gz.html
>>>
当然如果是通过Selenium分析DOM树结构获取href对应的url或title中的值,其核心代码如下所示,这里主要是给大家做个对比,理解不同方法的优势:
driver.get(link)
elem = driver.find_elements_by_xpath("//div[@class='piclist']/tr/dd[1]")
for url in elem:
pic_url = url.get_attribute("href")
print pic_url
参考文章:[python爬虫] Selenium定向爬取虎扑篮球海量精美图片
------------------------------------------------------------------------------------------------------------------------------
3.获取URL最后一个参数命名图片或传递参数
通常在使用Python爬取图片过程中,会遇到图片对应的URL最后一个字段通常用于命名图片,如虎扑孙悦妻子图片:
http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg
此时需要通过该URL的"/"后面的参数命名图片,则方法如下:
urls = "http://i1.hoopchina.com.cn/blogfile/201411/11/BbsImg141568417848931_640*640.jpg"
values = urls.split('/')[-1]
print values
输出如下所示:
>>>
BbsImg141568417848931_640*640.jpg
>>>
在使用Python获取GET方法的URL链接中,还可能存在传递参数的值。
此时获取参数方法如下:
url = 'http://localhost/test.py?a=hello&b=world'
values = url.split('?')[-1]
print values
for key_value in values.split('&'):
print key_value.split('=')
输出如下所示:
>>>
a=hello&b=world
['a', 'hello']
['b', 'world']
>>>
------------------------------------------------------------------------------------------------------------------------------
4.爬取网页中所有URL链接
在学习爬虫过程中,你肯定需要从固有网页中爬取URL链接,再进行下一步的循环爬取或URL抓取。如下,爬取CSDN首页的所有URL链接。
# coding=utf-8
import re
import urllib
url = "http://www.csdn.net/"
content = urllib.urlopen(url).read()
urls = re.findall(r"", content, re.I)
for url in urls:
print unicode(url,'utf-8')
link_list = re.findall(r"(?<=href=\").+?(?=\")|(?<=href=\').+?(?=\')", content)
for url in link_list:
print url
输出如下所示:
>>>
登录
注册
帮助
...
https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn
http://passport.csdn.net/account/mobileregister?action=mobileRegister
https://passport.csdn.net/help/faq
...
>>>
------------------------------------------------------------------------------------------------------------------------------
5.爬取网页标题title两种方法
获取网页标题也是一种常见的爬虫,如我在爬取维基百科国家信息时,就需要爬取网页title。通常位于标题中。
下面是爬取CSDN标题的两种方法介绍:
# coding=utf-8
import re
import urllib
url = "http://www.csdn.net/"
content = urllib.urlopen(url).read()
print u'方法一:'
title_pat = r'(?<=).*?(?=)'
title_ex = re.compile(title_pat,re.M|re.S)
title_obj = re.search(title_ex, content)
title = title_obj.group()
print title
print u'方法二:'
title = re.findall(r'(.*?)', content)
print title[0]
输出如下所示:
>>>
方法一:
CSDN.NET - 全球最大中文IT社区,为IT专业技术人员提供最全面的信息传播和服务平台
方法二:
CSDN.NET - 全球最大中文IT社区,为IT专业技术人员提供最全面的信息传播和服务平台
>>>
------------------------------------------------------------------------------------------------------------------------------
6.定位table位置并爬取属性-属性值
如果使用Python库的一些爬取,通常可以通过DOM树结构进行定位,如代码:
login = driver.find_element_by_xpath("//form[@id='loginForm']")
参考文章:[Python爬虫] Selenium实现自动登录163邮箱和Locating Elements介绍
但如果是正则表达式这种相对传统傻瓜式的方法,通过通过find函数寻找指定table方法进行定位。如:获取Infobox的table信息。
通过分析源代码发现“程序设计语言列表”的消息盒如下:
start = content.find(r'')
infobox = language[start:end]
print infobox
print infobox 输出其中一门语言ActionScript的InfoBox消息盒部分源代码如下:
参考文章:[python学习] 简单爬取维基百科程序语言消息盒
然后再在这个infobox内容中通过正则表达式进行分析爬取。下面讲述爬取属性-属性值:
爬取格式如下:
其中th表示加粗处理,td和th中可能存在属性如title、id、type等值;同时 | 之间的内容可能存在或或
等值,都需要处理。下面先讲解正则表达式获取td值的例子:
参考:http://bbs.csdn.net/topics/390353859?page=1
序列号 | DEIN3-39CD3-2093J3 |
日期 | 2013年1月22日 |
售价 | 392.70 元 |
说明 | 仅限5用户使用 |
Python代码如下:
# coding=utf-8
import re
s = '''
序列号 | DEIN3-39CD3-2093J3 |
日期 | 2013年1月22日 |
售价 | 392.70 元 |
说明 | 仅限5用户使用 |
'''
res = r'(.*?) | (.*?) | '
m = re.findall(res,s,re.S|re.M)
for line in m:
print unicode(line[0],'utf-8'),unicode(line[1],'utf-8') #unicode防止乱码
#输出结果如下:
#序列号 DEIN3-39CD3-2093J3
#日期 2013年1月22日
#售价 392.70 元
#说明 仅限5用户使用
如果包含该属性则正则表达式为r' | (.*?) | ';同样如果不一定是id属性开头,则可以使用正则表达式r'(.*?) | '。
------------------------------------------------------------------------------------------------------------------------------
7.过滤等标签
在获取值过程中,通常会存在、
、等标签,下面举个例子过滤。
(字) 翔宇 | 过滤标签核心代码:
elif "span" in nn: #处理标签
res_value = r'(.*?)'
m_value = re.findall(res_value,nn,re.S|re.M)
for value in m_value:
print unicode(value,'utf-8'),
代码如下,注意print中逗号连接字符串:
# coding=utf-8
import re
language = '''
'''
#获取table中tr值
res_tr = r'(.*?)
'
m_tr = re.findall(res_tr,language,re.S|re.M)
for line in m_tr:
#获取表格第一列th 属性
res_th = r'(.*?) | '
m_th = re.findall(res_th,line,re.S|re.M)
for mm in m_th:
if "href" in mm: #如果获取加粗的th中含超链接则处理
restr = r'(.*?)'
h = re.findall(restr,mm,re.S|re.M)
print unicode(h[0],'utf-8'), #逗号连接属性值 防止换行
else:
print unicode(mm,'utf-8'), #unicode防止乱
#获取表格第二列td 属性值
res_td = r'(.*?) | ' #r'(.*?) | '
m_td = re.findall(res_td,line,re.S|re.M)
for nn in m_td:
if "href" in nn: #处理超链接
res_value = r'(.*?)'
m_value = re.findall(res_value,nn,re.S|re.M)
for value in m_value:
print unicode(value,'utf-8'),
elif "span" in nn: #处理标签
res_value = r'(.*?)'
m_value = re.findall(res_value,nn,re.S|re.M) #(字) 翔宇 |
for value in m_value:
print unicode(value,'utf-8'),
else:
print unicode(nn,'utf-8'),
print ' ' #换行
输出如下所示:
>>>
性別: 男
異名: (字) 翔宇
政黨: 中国共产党
籍貫: 浙江省 绍兴市
>>>
------------------------------------------------------------------------------------------------------------------------------
8.获取等标签内容
比如在获取游讯网图库中,图集对应的原图它是存储在script中,其中获取原图-original即可,缩略图-thumb,大图-big,通过正则表达式下载URL:
res_original = r'"original":"(.*?)"' #原图
m_original = re.findall(res_original,script)
代码如下:
# coding=utf-8
import re
import os
content = '''
'''
html_script = r''
m_script = re.findall(html_script,content,re.S|re.M)
for script in m_script:
res_original = r'"original":"(.*?)"' #原图
m_original = re.findall(res_original,script)
for pic_url in m_original:
print pic_url
filename = os.path.basename(pic_url) #去掉目录路径,返回文件名
urllib.urlretrieve(pic_url, 'E:\\'+filename) #下载图片
运行结果如下图所示,同时下载图片至E盘。
Generated by Bo-blog 2.1.1 Release