正则表达式库的使用

Posted blackclody

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了正则表达式库的使用相关的知识,希望对你有一定的参考价值。

正则表达式的概念Regular Expression RE
优势:简洁 一行胜千言
用于对字符串的匹配
在文本处理中十分常用 
表达文本类型的特征(病毒,入侵检测)
同时查找或替换一组字符串
匹配字符串的局部和全部
正则表达式的使用
首先将符合正则表达式语法的字符串转化成正则表达式 特征
p = re.compile(regx)


操作符说明实例
.表示任何单个字符
[ ]字符集,对单个字符给出取值范围[abc]表示a、b、c,[a-z]表示所有的小写字母
[^]
[^abc]表示非a或b或c的单个字符
*前一个字符0次或无限次扩展abc*表示ab,abc,abcc,abccc等
+前一个字符1次或无限次扩展abc+表示abc,abcc,abccc等
?前一个字符0次或1次扩展abc?表示ab,abc
|左右表达式任意一个abc|def表示abc或def
{m}扩展前一个字符m次ab{2}c表示abbc
{m,n}扩展前一个字符m至n次(含n)ab{1,2}c表示abc,abbc
^匹配字符串开头^abc表示abc在一个字符串的开头
$匹配字符串结尾abc$表示abc在一个字符串的结尾
()分组标识,内部只能使用|操作符(abc)表示abc,(abc|def)表示abc,def
\\d数字,等价于[0-9]
\\w单词字符等价于[A-Za-z0-9_]


^[A-Za-z]+$由26个字母组成的字符串
^[A-Za-z0-9]+$由26个字母和数字组成的字符串
^-?\\d+$数据形式的字符串
^[0-9]*[1-9][0-9]*$正整数形式的字符串
[1-9]\\d{5}中国境内的邮政编码
[\\u4e00-\\u9fa5]匹配中文字符
\\d{3}-\\d{8}|\\d{4}-\\d{7}国内电话号码
(([1-9]?\\d|1\\d{2}|2[0-4]\\d|25[0-5]).){3}([1-9]?\\d|1\\d{2}|2[0-4]\\d|25[0-5])IP地址
Re库是python的标准库
import re
re库采用raw string类型表示正则表达式,表示为
r\'text\'
如: r\'[1-9]\\d{5}\'
r\'\\d{3}-\\d{8}|\\d{4}-\\d{7}\'
raw string是不包括对转义字符再次转义的字符串,建议使用raw string
Re库的主要功能函数


函数说明
re.search(pattern,string,flags=0)在一个字符串中匹配正则表达式的第一个位置,返回match对象
re.match(pattern,string,flags=0)从一个字符串的开始位置起匹配正则表达式,返回match对象
re.findall(pattern,string,flags=0)搜索字符串,以列表类型返回全部能匹配的子串
re.split(pattern,string,maxsplit=0,flags=0)将一个字符串按照正则表达式匹配结果进行侵害,返回列表类型, maxsplit表示最大分割数,剩余部分作为最后一个元素输出
re.finditer(pattern,string,flags=0)搜索字符串,返回一个匹配结果的迭代类型,每个迭代元素是match对象
re.sub(pattern,repl,string,count=0,flags = 0)在一个字符串中替换所有匹配正则表达式的子串,返回替换后的字符串,repl为替换匹配字符串的字符串,count为最大替换次数
re.compile(pattern,flags = 0)将正则表达式的字符串形式编译所正则表达式对象
flags说明
re.I re.IGONRECASE忽略正则表达式的大小写,[A-Z]能匹配小写字符
re.M re.MULTILINE正则表达式的中的^操作符能够将给定字符串的每行当作匹配开始位置
re.S re.DOTALL正则表达式的中的.操作符能够匹配所有字符,默认匹配除换行外的所有字符
re库的另一种等价用法
函数式用法,一次性操作
           rst = re.search(r\'[1-9]\\d{5}\',\'BIT 10081\')
面向对象用法,编译后多次操作
pat = re.compile(r\'[1-9]\\d{5}\')
rst = pat.search(\'BIT 10081\')

Match对象 是一次匹配的结果,包含匹配的很多信息

Match对象的属性
属性说明
.string待匹配的文本
.re匹配进使用pattern对象(正则表达式)
.pos正则表达式搜索文本的开始位置
.endpos正则表达式搜索文本的结束位置


方法说明
.group(0)获得匹配的字符串
.start()匹配字符串在原始字符串的开始位置
.end()匹配字符串在原始字符串的结束位置
.span()返回(.start(),.end())
Re库的贪婪匹配和最小匹配
贪婪匹配:re库默认采用贪婪匹配,即输出匹配最长的子串
如:
 最小匹配:如何输出最短的子串


操作符说明
*?前一个字符0次或无限次扩展,最小匹配
+?前一个字符1次或无限次扩展,最小匹配
??前一个字符0次或1次扩展,最小匹配
{m,n}?前一个字符m至n次(含n),最小匹配
只要长度输出可能不同,都可以通过在操作符后增加?变成最小匹配
实例1:淘宝比价爬虫
  1. #CrowTaobaoPrice.py
  2. import requests
  3. import re
  4. def gethtmlText(url):
  5. try:
  6. r = requests.get(url, timeout=30)
  7. r.raise_for_status()
  8. r.encoding = r.apparent_encoding
  9. return r.text
  10. except:
  11. return ""
  12. def parsePage(ilt, html):
  13. try:
  14. plt = re.findall(r\'\\"view_price\\"\\:\\"[\\d\\.]*\\"\',html)
  15. tlt = re.findall(r\'\\"raw_title\\"\\:\\".*?\\"\',html)
  16. for i in range(len(plt)):
  17. price = eval(plt[i].split(\':\')[1])
  18. title = eval(tlt[i].split(\':\')[1])
  19. ilt.append([price , title])
  20. except:
  21. print("")
  22. def printGoodsList(ilt):
  23. tplt = "{:4}\\t{:8}\\t{:16}"
  24. print(tplt.format("序号", "价格", "商品名称"))
  25. count = 0
  26. for g in ilt:
  27. count = count + 1
  28. print(tplt.format(count, g[0], g[1]))
  29. def main():
  30. goods = \'书包\'
  31. depth = 3
  32. start_url = \'https://s.taobao.com/search?q=\' + goods
  33. infoList = []
  34. for i in range(depth):
  35. try:
  36. url = start_url + \'&s=\' + str(44*i)
  37. html = getHTMLText(url)
  38. parsePage(infoList, html)
  39. except:
  40. continue
  41. printGoodsList(infoList)
  42. main()
实例2 股票数据爬虫
  1. #CrawBaiduStocksB.py
  2. import requests
  3. from bs4 import BeautifulSoup
  4. import traceback
  5. import re
  6. def getHTMLText(url, code="utf-8"):
  7. try:
  8. r = requests.get(url)
  9. r.raise_for_status()
  10. r.encoding = code
  11. return r.text
  12. except:
  13. return ""
  14. def getStockList(lst, stockURL):
  15. html = getHTMLText(stockURL, "GB2312")
  16. soup = BeautifulSoup(html, \'html.parser\')
  17. a = soup.find_all(\'a\')
  18. for i in a:
  19. try:
  20. href = i.attrs[\'href\']
  21. lst.append(re.findall(r"[s][hz]\\d{6}", href)[0])
  22. except:
  23. continue
  24. def getStockInfo(lst, stockURL, fpath):
  25. count = 0
  26. for stock in lst:
  27. url = stockURL + stock + ".html"
  28. html = getHTMLText(url)
  29. try:
  30. if html=="":
  31. continue
  32. infoDict = {}
  33. soup = BeautifulSoup(html, \'html.parser\')
  34. stockInfo = soup.find(\'div\',attrs={\'class\':\'stock-bets\'})
  35. name = stockInfo.find_all(attrs={\'class\':\'bets-name\'})[0]
  36. infoDict.update({\'股票名称\': name.text.split()[0]})
  37. keyList = stockInfo.find_all(\'dt\')
  38. valueList = stockInfo.find_all(\'dd\')
  39. for i in range(len(keyList)):
  40. key = keyList[i].text
  41. val = valueList[i].text
  42. infoDict[key] = val
  43. with open(fpath, \'a\', encoding=\'utf-8\') as f:
  44. f.write( str(infoDict) + \'\\n\' )
  45. count = count + 1
  46. print("\\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
  47. except:
  48. count = count + 1
  49. print("\\r当前进度: {:.2f}%".format(count*100/len(lst)),end="")
  50. continue
  51. def main():
  52. stock_list_url = \'http://quote.eastmoney.com/stocklist.html\'
  53. stock_info_url = \'https://gupiao.baidu.com/stock/\'
  54. output_file = \'D:/BaiduStockInfo.txt\'
  55. slist=[]
  56. getStockList(slist, stock_list_url)
  57. getStockInfo(slist, stock_info_url, output_file)
  58. main()







以上是关于正则表达式库的使用的主要内容,如果未能解决你的问题,请参考以下文章

正则表达式库的使用

asp.net 使用正则表达式验证包含打开/关闭括号片段的属性字符串

python爬虫学习记录基本库的使用——正则表达式

text 正则表达式片段

markdown 正则表达式模式片段

循环通过 python 正则表达式匹配