百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

pandas 循环读取文件夹下的 excel,并汇总到一张表格

itomcoil 2025-01-04 20:22 22 浏览

-- coding:utf-8 –-

"""

利用 pandas 将多张 excel 表中的指定列数据合并成一张;因为原始的多张数据存在同样列名的数据,

因为原始多张 excel 是从 csv 文件转换股

并且我们只需要其中的部分列数据,所以进行指定列提取并汇总至 res 文件中

"""

import os

import pandas as pd

输入参数为 excel 表格所在目录

def to_one_excel(dir):

dfs = []

# 遍历文件目录,将所有表格表示为 pandas 中的 DataFrame 对象

# for root_dir, sub_dir, files in os.walk(r'' + dir): # 第一个为起始路径,第二个为起始路径下的文件夹,第三个是起始路径下的文件。

for root_dir, sub_dir, files in os.walk(dir): # 第一个为起始路径,第二个为起始路径下的文件夹,第三个是起始路径下的文件。

for file in files:

if file.endswith(‘xlsx’):

# 构造绝对路径

file_name = os.path.join(root_dir, file)

# df = pd.read_excel(file_name)

df_1 = list(pd.read_excel(file_name, nrows=1)) # 读取 excel 第一行数据并放进列表

# excel 第一行数据返回列表

print(file_name)

print(type(df_1))

print(df_1)

# 根据第一行列名获取每个文件中需要列的列索引,返回索引数值

suo_yin_1 = df_1.index(“Billing Country”)

suo_yin_2 = df_1.index(“Created at”)

suo_yin_3 = df_1.index(“Updated at”)

suo_yin_4 = df_1.index(“Paid Price”)

suo_yin_5 = df_1.index(“Shipment Type Name”)

suo_yin_6 = df_1.index(“Status”)

# 读取文件内容 usecols=[1, 3, 4] 读取第 1,3,4 列

df = pd.read_excel(file_name, usecols=[suo_yin_1, suo_yin_2, suo_yin_3, suo_yin_4, suo_yin_5, suo_yin_6]

, sheet_name=‘data’)

# pf = pd.read_excel('xxx.xls', usecols=[1, 3, 4], sheet_name='data')

# print(pf)

# 追加一列数据,将每个文件的名字追加进该文件的数据中,确定每条数据属于哪个文件

excel_name = file.replace(".xlsx", "") # 提取每个excel文件的名称,去掉.xlsx后缀

df["店铺"] = excel_name # 新建列名为“店铺”,列数据为excel文件名

dfs.append(df) # 将新建店铺列追加进汇总excel中

# 行合并

df_concated = pd.concat(dfs)

# 构造输出目录的绝对路径

out_path = os.path.join(dir, 'res.xlsx')

# 输出到excel表格中,并删除pandas默认的index列

df_concated.to_excel(out_path, sheet_name='Sheet1', index=None)

调用并执行函数

to_one_excel(r’C:\Users\Administrator\Desktop\ceshi\xlsx 文件’)

相关推荐

selenium(WEB自动化工具)

定义解释Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7,8,9,10,11),MozillaF...

开发利器丨如何使用ELK设计微服务中的日志收集方案?

【摘要】微服务各个组件的相关实践会涉及到工具,本文将会介绍微服务日常开发的一些利器,这些工具帮助我们构建更加健壮的微服务系统,并帮助排查解决微服务系统中的问题与性能瓶颈等。我们将重点介绍微服务架构中...

高并发系统设计:应对每秒数万QPS的架构策略

当面试官问及"如何应对每秒几万QPS(QueriesPerSecond)"时,大概率是想知道你对高并发系统设计的理解有多少。本文将深入探讨从基础设施到应用层面的解决方案。01、理解...

2025 年每个 JavaScript 开发者都应该了解的功能

大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发。1.Iteratorhelpers开发者...

JavaScript Array 对象

Array对象Array对象用于在变量中存储多个值:varcars=["Saab","Volvo","BMW"];第一个数组元素的索引值为0,第二个索引值为1,以此类推。更多有...

Gemini 2.5编程全球霸榜,谷歌重回AI王座,神秘模型曝光,奥特曼迎战

刚刚,Gemini2.5Pro编程登顶,6美元性价比碾压Claude3.7Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。谷歌,彻底打了一场漂亮的翻...

动力节点最新JavaScript教程(高级篇),深入学习JavaScript

JavaScript是一种运行在浏览器中的解释型编程语言,它的解释器被称为JavaScript引擎,是浏览器的一部分,JavaScript广泛用于浏览器客户端编程,通常JavaScript脚本是通过嵌...

一文看懂Kiro,其 Spec工作流秒杀Cursor,可移植至Claude Code

当Cursor的“即兴编程”开始拖累项目质量,AWS新晋IDEKiro以Spec工作流打出“先规范后编码”的系统工程思维:需求-设计-任务三件套一次生成,文档与代码同步落地,复杂项目不...

「晚安·好梦」努力只能及格,拼命才能优秀

欢迎光临,浏览之前点击上面的音乐放松一下心情吧!喜欢的话给小编一个关注呀!Effortscanonlypass,anddesperatelycanbeexcellent.努力只能及格...

JavaScript 中 some 与 every 方法的区别是什么?

大家好,很高兴又见面了,我是姜茶的编程笔记,我们一起学习前端相关领域技术,共同进步,也欢迎大家关注、点赞、收藏、转发,您的支持是我不断创作的动力在JavaScript中,Array.protot...

10个高效的Python爬虫框架,你用过几个?

小型爬虫需求,requests库+bs4库就能解决;大型爬虫数据,尤其涉及异步抓取、内容管理及后续扩展等功能时,就需要用到爬虫框架了。下面介绍了10个爬虫框架,大家可以学习使用!1.Scrapysc...

12个高效的Python爬虫框架,你用过几个?

实现爬虫技术的编程环境有很多种,Java、Python、C++等都可以用来爬虫。但很多人选择Python来写爬虫,为什么呢?因为Python确实很适合做爬虫,丰富的第三方库十分强大,简单几行代码便可实...

pip3 install pyspider报错问题解决

运行如下命令报错:>>>pip3installpyspider观察上面的报错问题,需要安装pycurl。是到这个网址:http://www.lfd.uci.edu/~gohlke...

PySpider框架的使用

PysiderPysider是一个国人用Python编写的、带有强大的WebUI的网络爬虫系统,它支持多种数据库、任务监控、项目管理、结果查看、URL去重等强大的功能。安装pip3inst...

「机器学习」神经网络的激活函数、并通过python实现激活函数

神经网络的激活函数、并通过python实现whatis激活函数感知机的网络结构如下:左图中,偏置b没有被画出来,如果要表示出b,可以像右图那样做。用数学式来表示感知机:上面这个数学式子可以被改写:...