动态数据爬取的方法,你都知道吗!
itomcoil 2025-06-13 14:04 5 浏览
网络爬虫,是当前一个灰产项目,俗话说爬虫用的好,捞饭吃的饱!
个人爬一些公开数据用来自己研究分析,不用于商业用途,倒是没有什么风险!
部门项目定制版本众多,又经常重叠发布,导致在测试过程中出现了低级错误,就是页面404的错误!
不要问为啥不接口测试,其实之前也有做,包括通过流量跑接口比较、还有浏览器获取HAR文件解析自动生成自动化用例等;但是项目大多是定制版本,然后每个版本都有差别,而且工期紧任务急,导致这些系统都没怎么用上,最近大版本要进行发布,领导说之前版本有404的低级bug,我就再想能不能通过爬取页面的URL然后请求进行实现!
想到就做,于是乎被狠狠打脸了!
首先我想到的是使用scrapy进行爬取系统的所有URL,然后进行请求解析,把异常的页面通过管道写入到CSV文件中,当我完成登录第一步进入到首页时,发现了些问题,就是访问的页面获取到的数据都是一样的:
看到We're sorry but safe-cactus-v2 doesn't work properly without JavaScript enabled. Please enable it to continue.提示时,以为是javascript没有开启,于是乎就折腾了好长时间。
先是查询前端vue的路由模式,在确定是hash模式后,又查询nginx配置;确认一切无误后开始启用首选方案:
通过 Splash 集成 Scrapy 和 JavaScript
- github: https://github.com/scrapy-plugins/scrapy-splash
- 安装:pip install scrapy-splash
- 运行:docker run -p 8050:8050 scrapinghub/splash
- scrapy项目settings.py文件配置
- settings.py像这样将 Splash 服务器地址添加到您的 Scrapy 项目;
- 将 Splash 中间件添加到DOWNLOADER_MIDDLEWARES ,并更改HttpCompressionMiddleware 优先级来启用它;
- 添加中间件SplashDeduplicateArgsMiddleware到 SPIDER_MIDDLEWARES;
- 设置自定义DUPEFILTER_CLASS;
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter'
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'
SPLASH_URL = 'http://10.16.53.17:8050'
HTTPCACHE_ENABLED = True
HTTPCACHE_EXPIRATION_SECS = 0
HTTPCACHE_DIR = 'httpcache'
DOWNLOADER_MIDDLEWARES = {
'scrapy_splash.SplashCookiesMiddleware': 723,
'scrapy_splash.SplashMiddleware': 725,
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}
SPIDER_MIDDLEWARES = {
'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}
- 项目应用
在业务请求时,只需要更换SplashRequest类进行请求就可以了,是不是很简单!
from scrapy_splash import SplashRequest
def parse_login(self, response):
result = response.body.decode('utf-8')
result = json.loads(result) if isinstance(result, str) else result
if result.get("errno") != 0:
logger.info("登录失败,用户名或密码错误")
exit(0)
else:
logger.info(f"用户:{self.data['username']}, 登录成功!")
_cookie = response.headers['Set-Cookie']
self.headers["Cookie"] = _cookie
for url in self.start_urls:
yield SplashRequest(url, self.parse_page, headers=self.headers,
cookies=_cookie, dont_filter=True)
# dont_filter=True 忽略allowed_domains的过滤
- splash启动页面
- 爬虫获取的数据
通过调用splash返回的数据竟然是乱码,乱码,由于时间关系,碰到这个问题,就只能放弃这个方案了。
使用scrapy_Playwright和scrapy_selenium进行获取动态数据
playwright、selenium都是模拟浏览器行为渲染数据,然后把获取的页面元素通过scrapy进行解析;但是配置完也不得行。
- 首先配置playwright
安装:pip install
scrapy-playwright/scrapy-selenium
settings.py配置
DOWNLOADER_MIDDLEWARES = {
'spider_projects.downloadermiddlewares.PlaywrightMiddleware': 543,
}
GERAPY_PLAYWRIGHT_HEADLESS = True #无头、浏览器不弹窗
GERAPY_PLAYWRIGHT_PRETEND = True
GERAPY_PLAYWRIGHT_PROXY = 'http://vpn:3333' # 代理设置
GERAPY_PLAYWRIGHT_PROXY_CREDENTIAL = { 'username': 'xxx', 'password': 'xxxx'}
- 运行结果
执行爬虫时才发现,playwright竟然不支持windows环境,这是一个悲剧哇,然后配置服务器环境测试,发现获取到的数据依然是vue配置的全局的index页面;于是改成scrapy_selenium配置。本质上playwright和selenium是相同的,所以结果也是相同的。
最后的绝招:selenium
既然scrapy搭配Splash、playwright和selenium不得行,那就单独使用selenium,这个一定是可行的。于是开始写selenium;
def main():
driver = webdriver.Chrome(executable_path=CHROME_DRIVER_PATH)
driver.get("http://10.20.21.185:8081/dist/#/login")
driver.maximize_window()
driver.implicitly_wait(3)
driver.find_element_by_xpath("*//input[@class='el-input__inner'][1]").send_keys('admin')
driver.find_element_by_xpath("*//input[@type='password']").send_keys("Admin@123456")
driver.find_element_by_xpath("*//button[contains(@class,'el-button btn-login')]").click()
driver.implicitly_wait(3)
elem = driver.find_element_by_xpath("*//div[text()=' 数据总览 ']")
all_href = driver.find_elements_by_xpath("(//div[@class='overflow-hidden']//ul)[1]/li/a")
urls = [i.get_attribute('href') for i in all_href[1:]]
print(urls)
titles = driver.find_elements_by_xpath("//p[@class='title']")
for i in titles:
spans = i.find_elements_by_xpath("span")
if len(spans) == 3:
print(f'菜单:{spans[1].text}')
spans[2].click()
for t in spans[2].find_elements_by_xpath():
pass
else:
print(f'按钮:{spans[1].text}')
spans[1].click()
driver.forward()
虽然selenium可以行,但是工作量却很大,每一个元素都需要识别验证,工作量大,成果小,感觉得不偿失,尤其是在时间紧急的情况下。
但是工作还需要做,答应了的事情,哭着也得完成,于是通过浏览器操作生成har文件,然后通过系统解析生成接口测试用例,总算把这个工作搞定;
HAR解析生成接口用例
- 上传har文件
- 解析文件
- 生成代码
- 上传执行
然后上传到服务器进行执行结果,然后把报告发送出去!
工作需要调研,不经过调研就承诺,到时候还是要被打脸,赤果果的例子,多么生动,幸好有备选方案可以使用!
相关推荐
- zabbix企业微信告警(zabbix5.0企业微信告警详细)
-
zabbix企业微信告警的前提是用户有企业微信且创建了一个能够发送消息的应用,具体怎么创建可以协同用户侧企业微信的管理员。第一步:企业微信准备我们需要的内容包括企业ID,应用的AgentId和应用的S...
- 基于centos7部署saltstack服务器管理自动化运维平台
-
概述SaltStack是一个服务器基础架构集中化管理平台,具备配置管理、远程执行、监控等功能,基于Python语言实现,结合轻量级消息队列(ZeroMQ)与Python第三方模块(Pyzmq、PyCr...
- 功能实用,效率提升,Python开发的自动化运维工具
-
想要高效的完成日常运维工作,不论是代码部署、应用管理还是资产信息录入,都需要一个自动化运维平台。今天我们分享一个开源项目,它可以帮助运维人员完成日常工作,提高效率,降低成本,它就是:OpsManage...
- centos定时任务之python脚本(centos7执行python脚本)
-
一、crontab的安装默认情况下,CentOS7中已经安装有crontab,如果没有安装,可以通过yum进行安装。yuminstallcrontabs二、crontab的定时语法说明*代表取...
- Fedora 41 终于要和 Python 2.7 说再见了
-
红帽工程师MiroHroncok提交了一份变更提案,建议在Fedora41中退役Python2.7,并放弃仍然依赖Python2的软件包。Python2已于2020年1...
- 软件测试|使用docker搞定 Python环境搭建
-
前言当我们在公司的电脑上搭建了一套我们需要的Python环境,比如我们的版本是3.8的Python,那我可能有一天换了一台电脑之后,我整套环境就需要全部重新搭建,不只是Python,我们一系列的第三方...
- 环境配置篇:Centos如何安装Python解释器
-
有小伙伴时常会使用Python进行编程,那么如何配置centos中的Python环境呢?1)先安装依赖yuminstallgccgcc-c++sqlite-devel在root用户下操作:1...
- (三)Centos7.6安装MySql(centos8.3安装docker)
-
借鉴文章:centos7+django+python3+mysql+阿里云部署项目全流程。这里我只借鉴安装MySql这一部分。链接:https://blog.csdn.net/a394268045/a...
- Centos7.9 如何安装最新版本的Docker
-
在CentOS7.9系统中安装最新版本的Docker,需遵循以下步骤,并注意依赖项的兼容性问题:1.卸载旧版本Docker(如已安装)若系统中存在旧版Docker,需先卸载以避免冲突:sudoy...
- Linux 磁盘空间不够用?5 招快速清理文件,释放 10GB 空间不是梦!
-
刚收到服务器警告:磁盘空间不足90%!装软件提示Nospaceleftondevice!连日志都写不进去,系统卡到崩溃?别慌!今天教你5个超实用的磁盘清理大招,从临时文件到无用软件一键搞定...
- Playwright软件测试框架学习笔记(playwright 官网)
-
本文为霍格沃兹测试开发学社学员学习笔记,人工智能测试开发进阶学习文末加群。一,Playwright简介Web自动化测试框架。跨平台多语言支持。支持Chromium、Firefox、WebKit...
- 为SpringDataJpa集成QueryObject模式
-
1.概览单表查询在业务开发中占比最大,是所有CRUDBoy的入门必备,所有人在JavaBean和SQL之间乐此不疲。而在我看来,该部分是最枯燥、最没有技术含量的“伪技能”。1.1.背景...
- 金字塔测试原理:写好单元测试的8个小技巧,一文总结
-
想必金字塔测试原理大家已经很熟悉了,近年来的测试驱动开放在各个公司开始盛行,测试代码先写的倡议被反复提及。鉴于此,许多中大型软件公司对单元测试的要求也逐渐提高。那么,编写单元测试有哪些小技巧可以借鉴和...
- 测试工程师通常用哪个单元测试库来测试Java程序?
-
测试工程师在测试Java程序时通常使用各种不同的单元测试库,具体选择取决于项目的需求和团队的偏好。我们先来看一些常用的Java单元测试库,以及它们的一些特点: 1.JUnit: ·描述:JUn...
- JAVA程序员自救之路——SpringAI评估
-
背景我们用SpringAI做了大模型的调用,RAG的实现。但是我们做的东西是否能满足我们业务的要求呢。比如我们问了一个复杂的问题,大模型能否快速准确的回答出来?是否会出现幻觉?这就需要我们构建一个完善...
- 一周热门
- 最近发表
-
- zabbix企业微信告警(zabbix5.0企业微信告警详细)
- 基于centos7部署saltstack服务器管理自动化运维平台
- 功能实用,效率提升,Python开发的自动化运维工具
- centos定时任务之python脚本(centos7执行python脚本)
- Fedora 41 终于要和 Python 2.7 说再见了
- 软件测试|使用docker搞定 Python环境搭建
- 环境配置篇:Centos如何安装Python解释器
- (三)Centos7.6安装MySql(centos8.3安装docker)
- Centos7.9 如何安装最新版本的Docker
- Linux 磁盘空间不够用?5 招快速清理文件,释放 10GB 空间不是梦!
- 标签列表
-
- ps图案在哪里 (33)
- super().__init__ (33)
- python 获取日期 (34)
- 0xa (36)
- super().__init__()详解 (33)
- python安装包在哪里找 (33)
- linux查看python版本信息 (35)
- python怎么改成中文 (35)
- php文件怎么在浏览器运行 (33)
- eval在python中的意思 (33)
- python安装opencv库 (35)
- python div (34)
- sticky css (33)
- python中random.randint()函数 (34)
- python去掉字符串中的指定字符 (33)
- python入门经典100题 (34)
- anaconda安装路径 (34)
- yield和return的区别 (33)
- 1到10的阶乘之和是多少 (35)
- python安装sklearn库 (33)
- dom和bom区别 (33)
- js 替换指定位置的字符 (33)
- python判断元素是否存在 (33)
- sorted key (33)
- shutil.copy() (33)