百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Python CSV 模块通关秘籍:数据表格处理不求人

itomcoil 2025-05-30 15:11 4 浏览

对话实录

小白:(苦恼)我导出的CSV用Excel打开全是乱码!
专家:(递上秘籍)(掏出魔法书)**编码问题!用utf-8-sigma保存!

CSV格式初体验

CSV后缀的文件是标准文件格式,可以通过文本编辑器或者excel表格打开,

使用非常广泛;使用文本编辑器打开后,每一行都以英文逗号隔开。

基础操作,初窥门径

1. 模块导入

Python 内置了csv模块,无需额外安装,直接导入即可:

import csv

2.常用函数速查表

函数 / 类名

作用

示例场景

csv.reader

按行读取 CSV 文件

逐行解析日志文件

csv.writer

按行写入 CSV 文件

批量写入用户数据

csv.DictReader

以字典形式读取 CSV 文件

按字段名提取学生成绩

csv.DictWriter

以字典形式写入 CSV 文件

生成结构化报表

3.使用csv.reader逐行读取CSV文件

with open('data.csv', 'r', encoding='utf-8') as f:
    reader = csv.reader(f)
    for row in reader:
        print(row)  # 输出 ['name', 'age'], ['Alice', '25'], ['Bob', '30']

4. 使用csv.writer写入CSV文件

data = [
    ['Charlie', 35],
    ['David', 40]
]
with open('new_data.csv', 'w', encoding='utf-8-sig', newline='') as f:
    writer = csv.writer(f)
    writer.writerows(data)

专家提醒:使用utf-8-sig编码解决Excel的乱码问题!

5. 使用csv.DictReader以字典形式读取 CSV 文件

with open('data.csv', 'r', encoding='utf-8') as f:
    reader = csv.DictReader(f)
    reader.fieldnames = ['a','b']
    for row in reader:
        print(row['a'])  # 输出 'Alice', 'Bob'

专家提醒:csv_read.fieldnames = ['a','b'] 表示设置每一行数据对应的字典的key值,如果不设置,会使用csv第一行的内容作为字典的key

6. 使用csv.DictWriter以字典形式写入 CSV 文件

fieldnames = ['name', 'age']
with open('new_dict_data.csv', 'w', encoding='utf-8', newline='') as f:
    writer = csv.DictWriter(f, fieldnames=fieldnames)
    writer.writeheader()
    writer.writerow({'name': 'Eve', 'age': 28})
    writer.writerows([{'name': 'Eve', 'age': 28}])

专家提醒:使用csv.DictWriter()函数,参数fieldnames定义字典的key,通过writeheader函数写入csv文件的第一行,通过writerows函数写入列表中的所有字典对象的value值或者writerow函数写入单个字典对象。

实际案例

案例 1:按列提取数据

从scores.csv中提取数学成绩:

math_scores = []
with open('scores.csv', 'r', encoding='utf-8') as f:
    reader = csv.DictReader(f)
    for row in reader:
        math_scores.append(int(row['math']))
print(math_scores)  # 输出 [85, 78]

案例 2:数据清洗与转换

将日期格式dd/mm/yyyy转为yyyy-mm-dd:

new_data = []
with open('dates.csv', 'r', encoding='utf-8') as f:
    reader = csv.reader(f)
    for row in reader:
        date_parts = row[0].split('/')
        new_date = f"{date_parts[2]}-{date_parts[1]}-{date_parts[0]}"
        new_data.append([new_date])

with open('new_dates.csv', 'w', encoding='utf-8', newline='') as f:
    writer = csv.writer(f)
    writer.writerows(new_data)

案例 3:合并多个 CSV 文件

合并file1.csv和file2.csv:

merged_data = []
for filename in ['file1.csv', 'file2.csv']:
    with open(filename, 'r', encoding='utf-8') as f:
        reader = csv.reader(f)
        merged_data.extend([row for row in reader])

with open('merged.csv', 'w', encoding='utf-8', newline='') as f:
    writer = csv.writer(f)
    writer.writerows(merged_data)

闭坑指南

换行符问题

错误示范(Windows 下多出空行):

with open('test.csv', 'w', encoding='utf-8') as f:
    writer = csv.writer(f)
    writer.writerow(['test'])

正确做法(添加newline=''):

with open('test.csv', 'w', encoding='utf-8', newline='') as f:
    writer = csv.writer(f)
    writer.writerow(['test'])

数据类型转换

错误示范(直接比较字符串):

with open('scores.csv', 'r', encoding='utf-8') as f:
    reader = csv.DictReader(f)
    for row in reader:
        if row['math'] > 80:  #  字符串比较错误
            print(row)

正确做法(转换为数值):

with open('scores.csv', 'r', encoding='utf-8') as f:
    reader = csv.DictReader(f)
    for row in reader:
        if int(row['math']) > 80:
            print(row)

专家工具箱

1. 处理复杂分隔符

读取制表符分隔的文件:

with open('tab_separated.csv', 'r', encoding='utf-8') as f:
    reader = csv.reader(f, delimiter='\t')
    for row in reader:
        print(row)

2 自定义CSV格式

csv.register_dialect('my_dialect',
                    delimiter='|',
                    quoting=csv.QUOTE_MINIMAL)

with open('data.csv', 'w') as f:
    writer = csv.writer(f, dialect='my_dialect')

3. 处理百万级大文件

def process_large_file(file_path):
    with open(file_path) as f:
        reader = csv.reader(f)
        for row in reader:
            process(row)  # 逐行处理,避免内存爆炸

4. 与Pandas配合使用

import pandas as pd

# 读取CSV
df = pd.read_csv('big_data.csv')

# 写入CSV
df.to_csv('output.csv', index=False)

小白:(豁然开朗)原来 CSV 模块能这么高效处理数据!
专家:(微笑)记住:掌握 CSV 模块,数据表格处理就能得心应手!

相关推荐

蚂蚁金服用什么技术这么厉害?(蚂蚁金服是怎么赚钱的?)

阿里妹导读:本文来自蚂蚁金服人工智能部认知计算组的基础算法团队,文章提出一整套创新算法与架构,通过对TensorFlow底层的弹性改造,解决了在线学习的弹性特征伸缩和稳定性问题,并以GroupLass...

R数据分析:逻辑斯蒂回归与泊松回归

今天将逻辑回归和泊松回归放一起给大家写写,因为它两在R中的做法都非常的相似和非常的简单,同时还有两个回归的图形化表达。什么时候用逻辑回归Logisticregression,alsoknown...

想学好Python数据分析,一定要掌握的重要模块之Statsmodels

Statsmodels是Python中一个功能强大且广泛使用的统计建模和经济计量学库。它允许用户构建各种统计模型,执行假设检验,进行预测,并对模型结果进行详细的诊断和可视化。以下是statsmodel...

Python实现概率分布,学数据统计的需要收藏

作者:Runsen二项分布包含n个相同的试验每次试验只有两个可能的结果:“成功”或“失败”。出现成功的概率p对每一次试验是相同的,失败的概率q也是如此,且p+q=1。试验是互相独立的。试验成功或失败...

60行代码实现经典论文:0.7秒搞定泊松盘采样,比Numpy快100倍

编辑整理自太极图形量子位|公众号QbitAI由随机均匀的点组成的图案,在动植物身上已经很常见了。像杨梅、草莓、荔枝、红毛丹这样的水果,表面都有颗粒或者毛发状的结构,它们随机、均匀地散布在水果表...

linux ubuntu 安装mongo教程(实践步骤)

最近需要在linux上安装mongdb由于之前没安装过。在网上搜索到很多安装方法,但有的按照步骤操作是不行的。前后共花费了半天时间找到一个可行的步骤,分享给大家,不必走弯路。如果安装过程遇到技术问题...

MongoDB 分片集群方案及其优缺点分析

一、MongoDB分片集群架构核心组件1.Mongos(路由节点)-无状态代理,客户端连接入口-负责查询路由、结果聚合-需部署多个以实现高可用2.ConfigServer(配置服务器)-...

CentOS7安装Mongodb 4.x.x(CentOS7安装yum源的方法)

1、下载安装包curl-Ohttps://fastdl.mongodb.org/linux/mongodb-linux-x86_64-4.0.6.tgz2、解压安装包tar-zxvfmon...

MongoDB+GridFS存储文件方案(mongodb存储在哪里)

GridFS是MongoDB的一个内置功能,它提供一组文件操作的API以利用MongoDB存储文件,GridFS的基本原理是将文件保存在两个Collection中,一个保存文件索引,一个保存文...

如何使用 GridFS 、 Node.js、Mongodb和Multer 管理文件存储?

什么是GridFs?GridFs是用于存储音频、视频或图像等大型文件的mongodb规范……它最适用于存储超过mongodb文档大小限制(16MB)的文件。此外,无论文件大小如何,当您想...

Mongodb 集群搭建方法(mongodb集群状态startup2)

#大有学问#MongoDB是一个非关系型数据库(NoSQL),提供高性能、高可用性和自动扩展的特点。在MongoDB中,可以通过搭建集群实现这些特性。MongoDB集群主要有两种类型:副本集(...

记一次生产事故:MongoDB数据分布不均的解决方案

推荐阅读:我为什么放弃MySQL,选择了MongoDB?看到这个数据你就会明白了事故集合:可以很明显可以看到我们这个集合的数据严重分布不均匀。一共有8个分片,面对这个情况我首先想到的是手动拆分数据块,...

百万级高并发mongodb集群性能数十倍提升优化实践

背景线上某集群峰值TPS超过100万/秒左右(主要为写流量,读流量很低),峰值tps几乎已经到达集群上限,同时平均时延也超过100ms,随着读写流量的进一步增加,时延抖动严重影响业务可用性。该集群采用...

MongoDB 常见问题处理(二)(mongodb数据处理)

MongoDB数据库中,删除请求数超过阈值的处理方案?数据删除发生在文档迁移过程中,MongoDB4.0以上版本均衡阈值很小,容易发生迁移,频繁的迁移数据导致delete数据较大,同时还会导致CPU负...

实战:docker搭建FastDFS文件系统并集成SpringBoot

实战:docker搭建FastDFS文件系统并集成SpringBoot前言15年的时候,那时候云存储还远远没有现在使用的这么广泛,归根结底就是成本和安全问题,记得那时候我待的公司是做建站开发的,前期用...