「Python爬虫」:破解网站字体加密和反反爬虫
itomcoil 2024-12-30 04:42 24 浏览
前言:字体反爬,也是一种常见的反爬技术,例如58同城,猫眼电影票房,汽车之家,天眼查,实习僧等网站。这些网站采用了自定义的字体文件,在浏览器上正常显示,但是爬虫抓取下来的数据要么就是乱码,要么就是变成其他字符,是因为他们采用自定义字体文件,通过在线加载来引用样式,这是CSS3的新特性,通过 CSS3,web 设计师可以使用他们喜欢的任意字体 ,然后因为爬虫不会主动加载在线的字体,
字体加密一般是网页修改了默认的字符编码集,在网页上加载他们自己定义的字体文件作为字体的样式,可以正确地显示数字,但是在源码上同样的二进制数由于未加载自定义的字体文件就由计算机默认编码成了乱码。
目标
目标:我们今天来学习爬取58同城的租房信息,获取房源信息。
数据爬取
我们先按照前面学的爬虫基本知识,拿起键盘直接开干(无经验不知道字体反爬是啥玩意),一直在用xpath进行解析,都忘记了BeautifulSoup提取了,这里来用这个提取,回顾回顾。
import requests
from bs4 import BeautifulSoup
url = 'https://cs.58.com/chuzu/?PGTID=0d100000-0019-e310-48ff-c90994a335ae&ClickID=4'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.108 Safari/537.36'
}
response = requests.get(url,headers=headers)
html_text = response.text
bs = BeautifulSoup(html_text, 'lxml')
# 获取房源列表信息,通过css选择器来
lis = bs.select('li.house-cell')
# 获取每个li下的信息
for li in lis:
title = li.select('h2 a')[0].stripped_strings # stripped_strings获取某个标签下的子孙非标签字符串,会去掉空白字符。返回来的是个生成器
room = li.select('div.des p')[0].stripped_strings
money = li.select('.money b')[0].string # 获取某个标签下的非标签字符串。返回来的是个字符串。
print(list(title)[0], list(room)[0], money)
输出的结果:
显示乱码,在页面上看也是乱码
我们右击选择查看网页源代码
看起来是unicode 编码导致的,这种就是对字体进行了加密了,通用解决办法是找到字体文件,分析文件中的映射关系,一般来说,字体文件都是作为样式加在加密字体的部位,所以我们在html头部里面找相关样式,找了头部信息字体样式font-face,CSS中的@font-face,它允许网页开发者为其网页指定在线字体。
我们ctrl+f搜索@font-face
发现58同城的页面中的字体文件是经过base64加密之后放在js里面的,一大串字符串,从base64后面开始一直到后面format前面的括号中的内容,应该是字体文件的内容。是经过了base64编码后的形式,我们把其中加密的部分取出,通过正则表达式将其中的内容取出来,然后用base64解码后再保存成本地ttf文件(ttf是字体的一种类型)。
关于字体
fontTools操作相关
这里我们使用到一个模块fontTools,它是用来操作字体的库,用于将woff或ttf这种字体文件转化成XML文件。
1.我们可以直接使用pip进行安装:
pip install fontTools
2.加载字体文件:
font = TTFont('58.woff')
3.转为xml文件:
font.saveXML('58.xml')
4.各节点名称:
font.keys()
5.按序获取GlyphOrder节点name值:
font.getGlyphOrder() 或 font['cmap'].tables[0].ttFont.getGlyphOrder()
6.获取cmap节点code与name值映射:
font.getBestCmap()
7.获取字体坐标信息:
font['glyf'][i].coordinates
8.获取坐标的0或1:
font['glyf'][i].flags **注:** 0表示弧形区域 1表示矩形
字体基础与XML
一个字体由数个表(ta-ble)构成,字体的信息储存在表中。1、一个最基本的字体文件一定会包含以下的表:
- cmap: Char-ac-ter to glyph map-ping unicode跟 Name的映射关系
- head: Font header 字体全局信息
- hhea: Hor-i-zon-tal header 定义了水平header
- hmtx: Hor-i-zon-tal met-rics 定义了水平metric
- maxp: Max-i-mum pro-file 用于为字体分配内存
- name: Nam-ing ta-ble 定义字体名称、风格名以及版权说明等
- glyf: 字形数据即轮廓定义和调整指令
- OS2: OS2 and Win-dows spe-cific met-rics
- post: Post-Script in-for-ma-tion
我们将字体解密并保存到本地看看:
import requests
from fontTools.ttLib import TTFont
import re
import base64
url = 'https://cs.58.com/chuzu/?PGTID=0d100000-0019-e310-48ff-c90994a335ae&ClickID=4'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.108 Safari/537.36'
}
response = requests.get(url,headers=headers)
html_text = response.text
# print(html_text)
pattern = r"base64,(.*?)'" # 提取加密信息
result = re.findall(pattern, html_text) # 返回列表
if result: # 避免有的页面没有使用加密
print(type(result), len(result))
base64str = result[0]
fontfile_content = base64.b64decode(base64str) # 通过base64编码的数据进行解码,输出二进制
with open('58.ttf', 'wb') as f: # 生成字体文件
f.write(fontfile_content)
font = TTFont('58.ttf') # 加载字体文件
font.saveXML('58.xml') # 转换成xml文件
else:
print('没有内容')
base64str = ""
生成的字体库文件58.ttf。
生成的xml文件:
分析xml文件
我们来分析xml文件中映射关系。
点开GlyphOrder标签,可以看到Id和name。这里id仅表示序号而已,而不是对应具体的数字:
点开glyf标签,看到的是name和一些坐标点,这些座标点就是描绘字体形状的,这里不需要关注这些坐标点。
点开cmap标签,是编码和name的对应关系:
这里将字体文件导入到 http://fontstore.baidu.com/static/editor/index.html 网页将其打开,显示如下:
网页源码中显示的 鑶 跟这里显示的是不是有点像?事实上确实如此,去掉开头的 和结尾的 ; 后,剩余的4个16进制显示的数字加上 uni 就是字体文件中的编码。所以鑶对应的就是数字“6”,按照此就对应到glyph00007从这2张图我们可以发现,glyph00001对应的是数字0,glyph00002对应的是数字1,以此类推……glyph00010对应的是数字9。
用代码来获取编码和name的对应关系:
from fontTools.ttLib import TTFont
font = TTFont('58.ttf') # 打开本地的ttf文件
font.saveXML('58.xml') # 转换为xml文件
bestcmap = font['cmap'].getBestCmap() # 获取cmap节点code与name值映射
print(bestcmap)
输出:
{38006: 'glyph00010', 38287: 'glyph00006', 39228: 'glyph00007', 39499: 'glyph00005', 40506: 'glyph00009', 40611: 'glyph00002', 40804: 'glyph00008', 40850: 'glyph00003', 40868: 'glyph00001', 40869: 'glyph00004'}
输出的是一个字典,key是编码的int型,我们要将其转换为我们在xml看到的16进制一样以及与具体的数字映射关系:
for key,value in bestcmap.items():
key = hex(key) # 10进制转16进制
value = int(re.search(r'(\d+)', value).group()) -1 # 通过上面分析得出glyph00001对应的是数字0依次类推。
print(key,value)
输出结果:
0x9476 6
0x958f 5
0x993c 4
0x9a4b 3
0x9e3a 7
0x9ea3 2
0x9f64 9
0x9f92 1
0x9fa4 0
0x9fa5 8
现在就可以把页面上的自定义字体替换成正常字体,再解析了,全部代码如下:
import requests
from bs4 import BeautifulSoup
from fontTools.ttLib import TTFont
import re
import base64
import io
def base46_str(html_text):
pattern = r"base64,(.*?)'" # 提取加密部分
result = re.findall(pattern, html_text) # 返回列表
if result: # 避免有的页面没有使用加密
# print(type(result), len(result))
base64str = result[0]
bin_data = base64.b64decode(base64str) # 通过base64编码的数据进行解码,输出二进制
# # print(fontfile_content)
# with open('58.ttf', 'wb') as f:
# f.write(bin_data)
# font = TTFont('58.ttf') # 打开本地的ttf文件
# font.saveXML('58.xml')
# bestcmap = font['cmap'].getBestCmap()
# print(bestcmap)
fonts = TTFont(io.BytesIO(bin_data)) # BytesIO实现了在内存中读写bytes,提高性能
bestcmap = fonts['cmap'].getBestCmap()
# print(bestcmap) # 字典
# for key,value in bestcmap.items():
# key = hex(key) # 10进制转16进制
# value = int(re.search(r'(\d+)', value).group()) -1
# print(key,value)
# 使用字典推导式
cmap = {hex(key).replace('0x', '') + ';' : int(re.search(r'(\d+)', value).group(1)) - 1 for key, value in bestcmap.items()}
# print(cmap)
for k,v in cmap.items():
html_text = html_text.replace(k, str(v))
return html_text
else:
print('没有内容')
base64str = ""
return html_text
def parse_html(html_text):
bs = BeautifulSoup(html_text, 'lxml')
# 获取房源列表信息,通过css选择器来
lis = bs.select('li.house-cell')
# 获取每个li下的信息
for li in lis:
href = li.select('h2 a')[0]['href']
title = li.select('h2 a')[0].stripped_strings # stripped_strings获取某个标签下的子孙非标签字符串,会去掉空白字符。返回来的是个生成器
room = li.select('div.des p')[0].stripped_strings
money = li.select('.money')[0].get_text().replace('\n','') # 获取某个标签下的非标签字符串。返回来的是个字符串。
print(href, list(title)[0], list(room)[0], money)
if __name__ == '__main__':
url = 'https://cs.58.com/chuzu/?PGTID=0d100000-0019-e310-48ff-c90994a335ae&ClickID=4'
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.108 Safari/537.36'
}
response = requests.get(url, headers=headers)
html_text = response.text
html_text = base46_str(html_text)
parse_html(html_text)
输出结果:
至此,58同城字体相关差不多了。
拓展
上面只是简单的字体反爬,像汽车之家,猫眼电影,我们可以去挑战一下。
最后,小编想说:我是一名python开发工程师,
整理了一套最新的python系统学习教程,
想要这些资料的可以关注私信小编“01”即可(免费分享哦)希望能对你有所帮助.
相关推荐
- selenium(WEB自动化工具)
-
定义解释Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7,8,9,10,11),MozillaF...
- 开发利器丨如何使用ELK设计微服务中的日志收集方案?
-
【摘要】微服务各个组件的相关实践会涉及到工具,本文将会介绍微服务日常开发的一些利器,这些工具帮助我们构建更加健壮的微服务系统,并帮助排查解决微服务系统中的问题与性能瓶颈等。我们将重点介绍微服务架构中...
- 高并发系统设计:应对每秒数万QPS的架构策略
-
当面试官问及"如何应对每秒几万QPS(QueriesPerSecond)"时,大概率是想知道你对高并发系统设计的理解有多少。本文将深入探讨从基础设施到应用层面的解决方案。01、理解...
- 2025 年每个 JavaScript 开发者都应该了解的功能
-
大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发。1.Iteratorhelpers开发者...
- JavaScript Array 对象
-
Array对象Array对象用于在变量中存储多个值:varcars=["Saab","Volvo","BMW"];第一个数组元素的索引值为0,第二个索引值为1,以此类推。更多有...
- Gemini 2.5编程全球霸榜,谷歌重回AI王座,神秘模型曝光,奥特曼迎战
-
刚刚,Gemini2.5Pro编程登顶,6美元性价比碾压Claude3.7Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。谷歌,彻底打了一场漂亮的翻...
- 动力节点最新JavaScript教程(高级篇),深入学习JavaScript
-
JavaScript是一种运行在浏览器中的解释型编程语言,它的解释器被称为JavaScript引擎,是浏览器的一部分,JavaScript广泛用于浏览器客户端编程,通常JavaScript脚本是通过嵌...
- 一文看懂Kiro,其 Spec工作流秒杀Cursor,可移植至Claude Code
-
当Cursor的“即兴编程”开始拖累项目质量,AWS新晋IDEKiro以Spec工作流打出“先规范后编码”的系统工程思维:需求-设计-任务三件套一次生成,文档与代码同步落地,复杂项目不...
- 「晚安·好梦」努力只能及格,拼命才能优秀
-
欢迎光临,浏览之前点击上面的音乐放松一下心情吧!喜欢的话给小编一个关注呀!Effortscanonlypass,anddesperatelycanbeexcellent.努力只能及格...
- JavaScript 中 some 与 every 方法的区别是什么?
-
大家好,很高兴又见面了,我是姜茶的编程笔记,我们一起学习前端相关领域技术,共同进步,也欢迎大家关注、点赞、收藏、转发,您的支持是我不断创作的动力在JavaScript中,Array.protot...
- 10个高效的Python爬虫框架,你用过几个?
-
小型爬虫需求,requests库+bs4库就能解决;大型爬虫数据,尤其涉及异步抓取、内容管理及后续扩展等功能时,就需要用到爬虫框架了。下面介绍了10个爬虫框架,大家可以学习使用!1.Scrapysc...
- 12个高效的Python爬虫框架,你用过几个?
-
实现爬虫技术的编程环境有很多种,Java、Python、C++等都可以用来爬虫。但很多人选择Python来写爬虫,为什么呢?因为Python确实很适合做爬虫,丰富的第三方库十分强大,简单几行代码便可实...
- pip3 install pyspider报错问题解决
-
运行如下命令报错:>>>pip3installpyspider观察上面的报错问题,需要安装pycurl。是到这个网址:http://www.lfd.uci.edu/~gohlke...
- PySpider框架的使用
-
PysiderPysider是一个国人用Python编写的、带有强大的WebUI的网络爬虫系统,它支持多种数据库、任务监控、项目管理、结果查看、URL去重等强大的功能。安装pip3inst...
- 「机器学习」神经网络的激活函数、并通过python实现激活函数
-
神经网络的激活函数、并通过python实现whatis激活函数感知机的网络结构如下:左图中,偏置b没有被画出来,如果要表示出b,可以像右图那样做。用数学式来表示感知机:上面这个数学式子可以被改写:...
- 一周热门
- 最近发表
- 标签列表
-
- ps图案在哪里 (33)
- super().__init__ (33)
- python 获取日期 (34)
- 0xa (36)
- super().__init__()详解 (33)
- python安装包在哪里找 (33)
- linux查看python版本信息 (35)
- python怎么改成中文 (35)
- php文件怎么在浏览器运行 (33)
- eval在python中的意思 (33)
- python安装opencv库 (35)
- python div (34)
- sticky css (33)
- python中random.randint()函数 (34)
- python去掉字符串中的指定字符 (33)
- python入门经典100题 (34)
- anaconda安装路径 (34)
- yield和return的区别 (33)
- 1到10的阶乘之和是多少 (35)
- python安装sklearn库 (33)
- dom和bom区别 (33)
- js 替换指定位置的字符 (33)
- python判断元素是否存在 (33)
- sorted key (33)
- shutil.copy() (33)