百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

如何利用Python开发一个Web网站路径扫描工具?

itomcoil 2024-12-19 13:43 72 浏览

随着互联网技术的普及Web应用程序的增加,如何保证Web网站的安全性成了一个不可被忽视的问题。而Web路径扫描工具是在渗透测试和安全审计中一个比较常见的工具,它可以帮助开发者或者时候安全人员快速的识别到Web应用程序中可能存在漏洞的路径。

路径扫描器的作用就是对目标网站上的文件和目录进行遍历扫描,找到存在敏感信息和敏感资源的路径目录,下面我们就来详细介绍一下如何通过Python开发一个简单的网站路径扫描工具。

需求分析

在开发之前,首先明确需求,首先需要根据用户提供的网站的URL,我们需要构建出不同的网站路径组合,然后通过发送HTTP请求来检查这些路径是否存在并且是否存在可疑信息,另外就是由于扫描的路径会很多,所以需要用到多线程相关的知识点来提高扫描的速度避免单线程扫描导致的时间过长问题。

环境搭建

根据需求分析,我们可以知道,需要用到如下的一些Python第三方开发库。

  • requests:用于发送HTTP请求,检查路径是否存在。
  • threading:实现多线程,提高扫描效率。
  • argparse:解析命令行参数,方便用户配置扫描任务。
  • os:用于处理文件路径和创建文件。

我们可以通过pip命令来安装对应的第三方开发库。

pip install requests

基本实现流程

构建URL

根据给定的域名和路径字典构建URL,进行路径扫描,如下所示。

url = f"{self.base_url}/{path}"

发送HTTP请求

通过requests提供的get()方法向构建的URL发送请求,检查路径是否存在,如下所示。

response = requests.get(url)

响应判断

根据HTTP状态码判断路径是否存在。常见的判断标准如下:

  • 200:路径存在。
  • 301/302:路径被重定向。
  • 403:禁止访问,但路径存在。
  • 404:路径不存在。
if response.status_code == 200:
    self._add_to_results(url)
elif response.status_code == 301 or response.status_code == 302:
    self._add_to_results(url, "Redirect")
elif response.status_code == 403:
    self._add_to_results(url, "Forbidden")
elif response.status_code == 404:
    pass  # 路径不存在,不做任何处理

多线程扫描

为了加快扫描的速度,我们可以通过Python的threading库来并发发送请求。

   def scan(self):
        """开始路径扫描"""
        threads = []
        for path in self.wordlist:
            t = threading.Thread(target=self.scan_path, args=(path,))
            threads.append(t)
            if len(threads) >= self.threads:
                for t in threads:
                    t.start()
                for t in threads:
                    t.join()
                threads = []

        # 等待剩余线程完成
        for t in threads:
            t.start()
        for t in threads:
            t.join()

最终将扫描结果保存到文件或终端,如下所示将扫描的结果保存到文件中以便后续分析使用。

    def save_results(self, filename="scan_results.txt"):
        """保存扫描结果到文件"""
        with open(filename, "w") as f:
            for path, status in self.found_paths:
                f.write(f"{path} - {status}\n")
        print(f"Results saved to {filename}")

完整代码

import requests
import threading
import argparse
import os

# 定义扫描类
class PathScanner:
    def __init__(self, base_url, wordlist, threads=10):
        self.base_url = base_url
        self.wordlist = wordlist
        self.threads = threads
        self.lock = threading.Lock()
        self.found_paths = []

    def scan_path(self, path):
        """扫描单个路径,检查路径是否存在"""
        url = f"{self.base_url}/{path}"
        try:
            response = requests.get(url)
            if response.status_code == 200:
                self._add_to_results(url)
            elif response.status_code == 301 or response.status_code == 302:
                self._add_to_results(url, "Redirect")
            elif response.status_code == 403:
                self._add_to_results(url, "Forbidden")
            elif response.status_code == 404:
                pass  # 路径不存在,不做任何处理
        except requests.exceptions.RequestException as e:
            print(f"Error scanning {url}: {e}")

    def _add_to_results(self, url, status="Found"):
        """添加扫描结果"""
        with self.lock:
            self.found_paths.append((url, status))

    def scan(self):
        """开始路径扫描"""
        threads = []
        for path in self.wordlist:
            t = threading.Thread(target=self.scan_path, args=(path,))
            threads.append(t)
            if len(threads) >= self.threads:
                for t in threads:
                    t.start()
                for t in threads:
                    t.join()
                threads = []

        # 等待剩余线程完成
        for t in threads:
            t.start()
        for t in threads:
            t.join()

    def save_results(self, filename="scan_results.txt"):
        """保存扫描结果到文件"""
        with open(filename, "w") as f:
            for path, status in self.found_paths:
                f.write(f"{path} - {status}\n")
        print(f"Results saved to {filename}")

# 解析命令行参数
def parse_args():
    parser = argparse.ArgumentParser(description="Web Path Scanner")
    parser.add_argument("url", help="Base URL of the target website")
    parser.add_argument("wordlist", help="Path to the wordlist file")
    parser.add_argument("-t", "--threads", type=int, default=10, help="Number of threads (default: 10)")
    return parser.parse_args()

# 主函数
def main():
    args = parse_args()

    # 读取字典文件
    if not os.path.exists(args.wordlist):
        print(f"Wordlist file {args.wordlist} not found.")
        return

    with open(args.wordlist, "r") as f:
        wordlist = [line.strip() for line in f.readlines()]

    # 创建PathScanner对象并执行扫描
    scanner = PathScanner(args.url, wordlist, args.threads)
    scanner.scan()
    scanner.save_results()

if __name__ == "__main__":
    main()

这里需要注意,由于需要扫描字典,所以我们需要提前利用爬虫技术获取到路径扫描的字典,例如比较常用的一些路径字典如下所示,当然还有很多篇幅有限不做展示。

admin
login
uploads
images
config.php
test.php

最终我们可以通过如下的的命令来运行上面的代码并且实现路径扫描操作。

python path_scanner.py http://example.com wordlist.txt -t 20

其中-t 20表示使用20个线程进行扫描,http://example.com是目标网站的URL,wordlist.txt是路径字典文件。工具会扫描目标站点上是否存在字典文件中的路径,并将结果保存到scan_results.txt文件中。

扩展功能

为了增加扫描的隐蔽性,可以在requests.get()方法中添加代理支持,我们可以通过通过设置proxies参数使用代理。

proxies = {
    "http": "http://10.10.1.10:8080",
    "https": "http://10.10.1.10:8080",
}
response = requests.get(url, proxies=proxies)

可以根据不同的状态码更精确地判断路径的可用性。例如,某些路径可能返回403但实际上是有效的,具体判断可以根据项目需求进一步调整。

总结

本文介绍了如何利用Python开发一个简单的Web路径扫描工具,通过构建URL、发送HTTP请求、并发扫描、结果保存等功能,快速实现了一个基本的扫描工具在实际使用中,用户可以根据自己的需求进一步优化字典文件、代理设置以及扫描策略,使工具更符合特定的渗透测试或安全审计需求。

相关推荐

《Queendom》宣布冠军!女团MAMAMOO四人激动落泪

网易娱乐11月1日报道据台湾媒体报道,南韩女团竞争回归的生死斗《Queendom》昨(10/31)晚播出大决赛,并以直播方式进行,6组女团、女歌手皆演唱新歌,并加总前三轮的赛前赛、音源成绩与直播现场投...

正确复制、重写别人的代码,不算抄袭

我最近在一篇文章提到,工程师应该怎样避免使用大量的库、包以及其他依赖关系。我建议的另一种方案是,如果你没有达到重用第三方代码的阈值时,那么你就可以自己编写代码。在本文中,我将讨论一个在重用和从头开始编...

HTML DOM tr 对象_html event对象

tr对象tr对象代表了HTML表格的行。HTML文档中出现一个<tr>标签,就会创建一个tr对象。tr对象集合W3C:W3C标签。集合描述W3Ccells返回...

JS 打造动态表格_js如何动态改变表格内容

后台列表页最常见的需求:点击表头排序+一键全选。本文用原生js代码实现零依赖方案,涵盖DOM查询、排序算法、事件代理三大核心技能。效果速览一、核心思路事件入口:为每个<th>绑...

连肝7个晚上,总结了66条计算机网络的知识点

作者|哪吒来源|程序员小灰(ID:chengxuyuanxiaohui)计算机网络知识是面试常考的内容,在实际工作中经常涉及。最近,我总结了66条计算机网络相关的知识点。1、比较http0....

Vue 中 强制组件重新渲染的正确方法

作者:MichaelThiessen译者:前端小智来源:hackernoon有时候,依赖Vue响应方式来更新数据是不够的,相反,我们需要手动重新渲染组件来更新数据。或者,我们可能只想抛开当前的...

为什么100个前端只有1人能说清?浏览器重排/重绘深度解析

面试现场的"致命拷问""你的项目里做过哪些性能优化?能具体讲讲重排和重绘的区别吗?"作为面试官,我在秋招季连续面试过100多位前端候选人,这句提问几乎成了必考题。但令...

HTML DOM 介绍_dom4j html

HTMLDOM(文档对象模型)是一种基于文档的编程接口,它是HTML和XML文档的编程接口。它可以让开发人员通过JavaScript或其他脚本语言来访问和操作HTML和XML文档...

JavaScript 事件——“事件流和事件处理程序”的注意要点

事件流事件流描述的是从页面中接收事件的顺序。IE的事件流是事件冒泡流,而NetscapeCommunicator的事件流是事件捕获流。事件冒泡即事件开始时由最具体的元素接收,然后逐级向上传播到较为不...

探秘 Web 水印技术_水印制作网页

作者:fransli,腾讯PCG前端开发工程师Web水印技术在信息安全和版权保护等领域有着广泛的应用,对防止信息泄露或知识产品被侵犯有重要意义。水印根据可见性可分为可见水印和不可见水印(盲水印)...

国外顶流网红为流量拍摄性侵女学生?仅被封杀三月,回归仍爆火

曾经的油管之王,顶流网红DavidDobrik复出了。一切似乎都跟他因和成员灌酒性侵女学生被骂到退网之前一样:住在950万美元的豪宅,开着20万美元的阿斯顿马丁,每条视频都有数百万观看...人们仿佛...

JavaScript 内存泄漏排查方法_js内存泄漏及解决方法

一、概述本文主要介绍了如何通过Devtools的Memory内存工具排查JavaScript内存泄漏问题。先介绍了一些相关概念,说明了Memory内存工具的使用方式,然后介绍了堆快照的...

外贸独立站,网站优化的具体内容_外贸独立站,网站优化的具体内容有哪些

Wordpress网站优化,是通过优化代码、数据库、缓存、CSS/JS等内容,提升网站加载速度、交互性和稳定性。网站加载速度,是Google搜索引擎的第一权重,也是SEO优化的前提。1.优化渲染阻塞。...

这8个CSS工具可以提升编程速度_css用什么编译器

下面为大家推荐的这8个CSS工具,有提供函数的,有提供类的,有提取代码的,还有收集CSS的统计数据的……请花费两分钟的时间看完这篇文章,或许你会找到意外的惊喜,并且为你的编程之路打开了一扇新的大门。1...

vue的理解-vue源码 历史 简介 核心特性 和jquery区别 和 react对比

一、从历史说起Web是WorldWideWeb的简称,中文译为万维网我们可以将它规划成如下的几个时代来进行理解石器时代文明时代工业革命时代百花齐放时代石器时代石器时代指的就是我们的静态网页,可以欣...