Python目录规范:呐,这个就叫专业!
itomcoil 2025-09-13 01:14 2 浏览
和大家分享一下Python目录规范,也就是文件夹、py文件、数据、日志文件等如何命名和存放。
合理的目录规范就像一个整洁的房间,能让你快速找到想要的东西,也让团队协作更高效。
1. 概述
这目录规范分为两级:
- 一级目录是必须遵守的规范,像文档、代码、数据、配置、日志、工具、测试这 7 大类目录;
- 二级目录就灵活多了,根据实际情况调整。而且,代码目录(src)还能按功能复杂程度分为复杂项目和简单项目两种情况。
# 标准项目结构示例
project_root/
├── docs/ # 文档中心:项目说明、API文档
├── src/ # 核心代码区:业务逻辑主战场
│ ├── interface/ # 接口层
│ └── service/ # 服务层
│ └── ……
├── data/ # 数据仓库:原始数据与加工数据
├── conf/ # 配置中心:所有配置文件
├── logs/ # 运行日志:项目执行历史
├── tools/ # 工具库:数据运维脚本
└── test/ # 测试区:单元测试与验证
2. 一级目录介绍
2.1 docs 目录(文档目录)
这可是项目的说明书,得好好写。
- README.md :项目门面担当,打开项目第一个看到的就是它。里面要简明扼要地写项目介绍、功能、运行环境、安装步骤、运行方法、测试报告位置等基本信息。比如:
# 项目名称:数据分析小助手
# 功能:实现数据清洗、分析和可视化
# 运行环境:Python 3.8+、pandas、matplotlib
# 安装步骤:pip install -r requirements.txt
# 运行方法:python main.py
# 测试报告位置:test/test_report.html
- 代码说明文档 :详细记录每个模块的功能、类和方法的作用、输入输出等,方便后续维护和别人查看。比如对一个数据清洗模块的说明:
# 模块:data_cleaning
# 功能:对原始数据进行清洗,包括去除重复值、处理缺失值、异常值检测等
# 类:DataCleaner
# 方法:
# __init__(data):初始化,传入原始数据
# remove_duplicates():去除重复值
# handle_missing_values(strategy):处理缺失值,strategy 可选"删除"、"均值填充"、"中位数填充"等
# detect_outliers(method):异常值检测,method 可选"Z-Score"、"IQR"等
- 代码部署文档 :写清楚如何将代码部署到生产环境,包括服务器环境配置、部署步骤、启动停止方法等。比如:
# 部署步骤:
# 1. 在服务器上创建项目目录:mkdir /data/analytics_project
# 2. 将代码拷贝到服务器:scp -r * username@server:/data/analytics_project
# 3. 安装项目依赖:cd /data/analytics_project && pip install -r requirements.txt
# 启动方法:python /data/analytics_project/main.py --env production
# 停止方法:通过任务管理器或进程 ID 停止 python 进程
2.2 src 目录(代码目录)
这可是放核心代码的地儿。
2.2.1 复杂项目中的目录结构
- interface :接口处理层,负责接收外部请求、验证参数等。比如一个接口文件:
from flask import Flask, request, jsonify
app = Flask(__name__)
@app.route('/api/data_analysis', methods=['POST'])
def data_analysis_interface():
# 验证请求参数
ifnot request.json or'data'notin request.json:
return jsonify({'error': 'Invalid request data'}), 400
# 调用业务处理层
from service.data_analysis_service import analyze_data
result = analyze_data(request.json['data'])
return jsonify({'result': result})
- service :业务处理层,包含项目的核心业务逻辑。比如数据处理业务逻辑:
def analyze_data(data):
# 数据分析业务逻辑
# 示例:计算数据的平均值、最大值、最小值
avg = sum(data) / len(data)
max_val = max(data)
min_val = min(data)
return {'average': avg, 'max': max_val, 'min': min_val}
- module :模块功能层,将相关的功能封装成模块。比如一个数据可视化模块:
import matplotlib.pyplot as plt
class DataVisualizer:
def __init__(self, data):
self.data = data
def plot_line_chart(self):
# 绘制折线图
plt.plot(self.data)
plt.title('Data Trend')
plt.xlabel('Index')
plt.ylabel('Value')
plt.savefig('line_chart.png')
plt.close()
- common :通用工具层,放一些通用的工具函数或类。比如常用的数据处理工具:
def is_valid_data(value):
# 判断数据是否有效(非空、非异常值等)
return value isnotNoneandnot isinstance(value, (str, bool)) and abs(value) < 1e10
def format_date(date_str):
# 格式化日期字符串
from datetime import datetime
try:
return datetime.strptime(date_str, '%Y-%m-%d').strftime('%Y-%m-%d')
except ValueError:
returnNone
- utils :第三方工具层,放一些对第三方库的封装或工具类。比如对 pandas 的封装工具:
import pandas as pd
def read_csv_with_encoding(file_path, encoding='utf-8'):
# 尝试用不同编码读取 CSV 文件
encodings = ['utf-8', 'gbk', 'latin-1']
for enc in encodings:
try:
return pd.read_csv(file_path, encoding=enc)
except UnicodeDecodeError:
continue
return pd.DataFrame()
2.2.2 简单模型中的目录结构
- predict :模型预测相关的代码。比如一个简单的预测脚本:
import pickle
import numpy as np
# 加载训练好的模型
with open('model.pkl', 'rb') as f:
model = pickle.load(f)
def predict(data):
# 预测函数
data_array = np.array(data).reshape(1, -1)
prediction = model.predict(data_array)
return prediction[0]
- train :模型训练相关的代码。比如训练脚本:
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestClassifier
import pickle
# 生成模拟数据
X, y = make_classification(n_samples=1000, n_features=20, n_classes=2)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)
# 训练模型
model = RandomForestClassifier()
model.fit(X_train, y_train)
# 保存模型
with open('model.pkl', 'wb') as f:
pickle.dump(model, f)
2.3 data 目录(数据目录)
存放项目所需的基础数据,比如 POI 词典数据等。数据文件可以是 CSV、Excel 等格式。
比如一个 POI 词典数据文件(poi_dict.csv):
id,poi_type,name
1,餐饮,"麦当劳"
2,餐饮,"肯德基"
3,酒店,"如家酒店"
4,酒店,"汉庭酒店"
2.4 conf 目录(配置目录)
- config.py :代码配置文件,放一些项目的配置参数。比如:
# 数据库配置
DB_CONFIG = {
'host': 'localhost',
'port': 3306,
'user': 'root',
'password': 'password',
'database': 'analytics_db'
}
# 模型超参数
MODEL_PARAMS = {
'n_estimators': 100,
'max_depth': 10,
'learning_rate': 0.1
}
- logging.conf :日志配置文件,可以配置日志的输出格式、级别、文件路径等。比如:
[loggers]
keys=root
[handlers]
keys=consoleHandler,fileHandler
[formatters]
keys=simpleFormatter
[logger_root]
level=DEBUG
handlers=consoleHandler,fileHandler
[handler_consoleHandler]
class=StreamHandler
level=INFO
formatter=simpleFormatter
args=(sys.stdout,)
[handler_fileHandler]
class=FileHandler
level=DEBUG
formatter=simpleFormatter
args=('app.log', 'a')
[formatter_simpleFormatter]
format=%(asctime)s - %(name)s - %(levelname)s - %(message)s
datefmt=%Y-%m-%d %H:%M:%S
2.5 logs 目录(日志目录)
- 业务应用日志 :记录项目运行过程中的业务相关操作和信息。比如:
import logging
from logging.config import fileConfig
fileConfig('conf/logging.conf')
logger = logging.getLogger()
def process_order(order_id):
logger.info(f"Processing order {order_id}")
# 业务逻辑处理
logger.debug(f"Order {order_id} details: ...")
logger.info(f"Order {order_id} processed successfully")
- 底层框架日志 :记录底层框架(如 Flask、Django 等)的日志信息。比如 Flask 的日志:
from flask import Flask
app = Flask(__name__)
@app.route('/')
def home():
app.logger.info("Home page accessed")
return "Welcome to Analytics Project"
2.6 tools 目录(工具目录)
- data_operation.sh :数据运维工具,比如用来补数据的脚本。比如:
#!/bin/bash
# 补数据脚本
echo "Starting data backfill..."
python src/data_backfill.py --start_date 2024-01-01 --end_date 2024-01-31
echo "Data backfill completed"
- perf_analysis.sh :性能分析工具。比如:
#!/bin/bash
# 性能分析脚本
echo "Starting performance analysis..."
python -m cProfile src/main.py > perf_analysis.log
echo "Performance analysis completed, results saved to perf_analysis.log"
- log_analysis.sh :日志分析工具。比如:
#!/bin/bash
# 日志分析脚本
echo "Starting log analysis..."
grep "ERROR" logs/app.log | awk '{print $1, $2, $NF}' > error_log_analysis.log
echo "Log analysis completed, error logs saved to error_log_analysis.log"
2.7 test 目录(测试目录)
包含测试报告、测试数据、测试脚本等。比如一个测试脚本(test_data_cleaning.py):
import unittest
from src.module.data_cleaning import DataCleaner
class TestDataCleaning(unittest.TestCase):
def setUp(self):
self.raw_data = [1, 2, None, 4, 5, 'invalid', 10000000000]
self.cleaner = DataCleaner(self.raw_data)
def test_remove_duplicates(self):
cleaned_data = self.cleaner.remove_duplicates()
self.assertEqual(len(cleaned_data), len(set(cleaned_data)))
def test_handle_missing_values(self):
handled_data = self.cleaner.handle_missing_values(strategy="均值填充")
self.assertFalse(Nonein handled_data)
def test_detect_outliers(self):
outliers = self.cleaner.detect_outliers(method="Z-Score")
self.assertIn(10000000000, outliers)
if __name__ == '__main__':
unittest.main()
3. 目录规范的应用场景和示例
3.1 项目开发中的目录规范应用
在开发一个数据分析项目时,严格按照目录规范来操作。
- 先在 docs 目录写好 README.md ,介绍项目的基本信息。
- 把核心代码按照业务逻辑、模块功能等分别放在 src/interface 、src/service 、src/module 等子目录。
- 准备好项目需要的数据文件,放到 data 目录。
- 在 conf 目录配置好数据库、模型参数等配置文件。
- 开启项目后,日志会自动输出到 logs 目录。
- 编写好数据处理、性能分析等工具脚本,放到 tools 目录。
- 项目开发过程中,不断补充和完善 docs 目录中的代码说明文档。
- 最后,在 test 目录编写测试脚本,对项目进行全面测试。
3.2 团队协作中的目录规范重要性
当多个小伙伴一起开发一个项目时,目录规范就像团队的 “暗号”,让大家能快速明白彼此的代码结构。
- 代码交接 :新来的小伙伴只要熟悉了目录规范,就能快速上手,找到需要修改或添加功能的代码位置。比如,想修改接口参数验证规则,就直接去 src/interface 目录找对应的接口文件。
- 协同开发 :不同小伙伴负责不同模块的开发,按照目录规范,大家各司其职,避免了代码混乱和重复劳动。比如,A 同事负责业务逻辑层(src/service )的开发,B 同事负责通用工具层(src/common )的开发,大家互不干扰。
相关推荐
- python数据分析中你必须知道的陷阱和技巧
-
数据分析是一门既有趣又有挑战的技能,它可以帮助我们从海量的数据中提取有价值的信息,为决策提供支持。但是,数据分析也不是一件轻松的事情,它需要我们掌握一定的编程、统计、可视化等知识,同时也要注意避免一些...
- python常见五大坑及避坑指南_python解决什么问题
-
python是一门非常流行和强大的编程语言,但是也有一些容易让初学者或者不熟悉的人掉入的坑。这里列举了一些python常见五大坑,以及如何避免或者解决它们。缩进问题。python使用缩进来表示代码块,...
- 收藏!2022年国家职业资格考试时间表公布
-
人社部14日公布2022年度专业技术人员职业资格考试工作计划,包括中小学生教师资格、会计师、精算师、建造师等各项考试日期。其中,证券期货基金业从业人员资格各次考试地点不同,具体安排以相关行业协会考试公...
- 苹果mac系统必须安装python3_macbook安装python3.7
-
苹果mac系统必须安装python3苹果mac系统口碑很好,但不能像linux系统一样同时提供python2和python3环境,对程序员来说是非常不友善的。资深程序员都知道,Python3才是P...
- 通过python实现猴子吃桃问题_python小猴子吃桃的问题
-
1、问题描述:猴子第一天摘下若干个桃子,当即吃了一半,还不过瘾,又多吃了一个,第二天早上又将剩下的桃子吃掉一半,又多吃了一个。以后每天早上都吃了前一天剩下的一半零一个。到第10天早上想再吃时,就只剩...
- python 中的第一个 hello world 程序输出
-
程序运行:print("helloworld")我使用的是Python程序3.7.0版本介绍下print概念print字面意思打印,将文本输出内容打印出来输入:print(&...
- 持久化 Python 会话:实现数据持久化和可重用性
-
Midjourney生成R语言会话持久化熟悉或常用R语言进行数据分析/数据挖掘/数据建模的数据工作者可能对R语言的会话保存和会话恢复印象比较深刻,它可以将当前session会话持久化保存,以便分...
- 如何将Python算法模型注册成Spark UDF函数实现全景模型部署
-
背景Background对于算法业务团队来说,将训练好的模型部署成服务的业务场景是非常常见的。通常会应用于三个场景:部署到流式程序里,比如风控需要通过流式处理来实时监控。部署到批任务中部署成API服...
- Python 字典l转换成 JSON_python转化字典
-
本文需要5分钟。如果对您有用可以点赞评论关注.Python字典到JSONJSON(JavaScriptObjectNotation)是一种轻量级的数据交换格式,它基于ECMAScrip...
- [python] 基于PyOD库实现数据异常检测
-
PyOD是一个全面且易于使用的Python库,专门用于检测多变量数据中的异常点或离群点。异常点是指那些与大多数数据点显著不同的数据,它们可能表示错误、噪声或潜在的有趣现象。无论是处理小规模项目还是大型...
- 总结90条写Python程序的建议_python写程序的步骤
-
1.首先 建议1、理解Pythonic概念—-详见Python中的《Python之禅》 建议2、编写Pythonic代码 (1)避免不规范代码,比如只用大小写区分变量、使用容易...
- ptrade系列第六天:持久化处理2_持久化的三种状态
-
前一次跟大家分享了利用pickle进行策略数据的持久化。但是这种方式有个问题,就是保存下来的数据无法很直观的看到,比较不方便,所以今天给大家带来另一种方式,将数据通过json保存。importjso...
- Python数据持久化:JSON_python的json用法
-
编程派微信号:codingpy上周更新的《ThinkPython2e》第14章讲述了几种数据持久化的方式,包括dbm、pickle等,但是考虑到篇幅和读者等因素,并没有将各种方式都列全。本文将介绍...
- 干货 | 如何利用Python处理JSON格式的数据,建议收藏
-
作者:俊欣来源:关于数据分析与可视化JSON数据格式在我们的日常工作中经常会接触到,无论是做爬虫开发还是一般的数据分析处理,今天,小编就来分享一下当数据接口是JSON格式时,如何进行数据处理进行详...
- Python中Pyyaml模块的使用_python模块介绍
-
一、YAML是什么YAML是专门用来写配置文件的语言,远比JSON格式方便。YAML语言的设计目标,就是方便人类读写。YAML是一种比XML和JSON更轻的文件格式,也更简单更强大,它可以通过缩进来表...
- 一周热门
- 最近发表
- 标签列表
-
- ps图案在哪里 (33)
- super().__init__ (33)
- python 获取日期 (34)
- 0xa (36)
- super().__init__()详解 (33)
- python安装包在哪里找 (33)
- linux查看python版本信息 (35)
- python怎么改成中文 (35)
- php文件怎么在浏览器运行 (33)
- eval在python中的意思 (33)
- python安装opencv库 (35)
- python div (34)
- sticky css (33)
- python中random.randint()函数 (34)
- python去掉字符串中的指定字符 (33)
- python入门经典100题 (34)
- anaconda安装路径 (34)
- yield和return的区别 (33)
- 1到10的阶乘之和是多少 (35)
- python安装sklearn库 (33)
- dom和bom区别 (33)
- js 替换指定位置的字符 (33)
- python判断元素是否存在 (33)
- sorted key (33)
- shutil.copy() (33)