百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

告别重复工作,Python操作xlwings实例演示

itomcoil 2025-02-03 13:21 21 浏览

作者:SSW

来源:Python 技术

阿里云产品费用巡检,一般流程是登录账号,再逐项核对填写。虽然简单,但如果帐号多表格多,帐号间的数据有关联,填写起来就比较费力气。几张表格,可能从下载数据到核写完毕,辗转半个小时。

因此在保留excel原文件格式不变的基础上,自动填写相关数值变得重要。

python操作excel的模块多,xlrd,pandas,xlwings,openpyxl。经常搞不清这么多功能类似的模块有什么区别,这里发现xlwings可以派上用场,因为我有个保留excel格式的需求,文件格式:

表1-1

注意:主要修改第10、11行,其它不变。

数据来源

通过爬虫登录阿里云,下载数据写入csv。带上日期,如data_07-25.csv

表1-2




爬虫脚本

# -*- coding: utf-8 -*-
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import time,os,glob,csv
from datetime import datetime

options = Options()
options.add_argument('--disable-infobars')
options.add_argument('--incognito')
# options.add_argument('--headless')
bro = webdriver.Chrome(executable_path='C:\drf2\drf2\chromedriver.exe', chrome_options=options)
bro.maximize_window()
bro.get('https://www.aliyun.com/')
bro.implicitly_wait(10)

#点击首页的登录按钮
bro.find_element_by_xpath('//*[@id="J_3207526240"]/div/div/div[1]/div[2]/div[2]/a[4]').click()
time.sleep(1)
#点击RAM用户
bro.find_element_by_xpath('//*[@id="root"]/div/div[2]/div/div[2]/div[1]/div[2]/div[2]/div/div[2]/div[2]/span/div').click()

u = bro.find_element_by_xpath('//*[@id="--aliyun-xconsole-app"]/div[1]/div[2]/div/div/div[1]/div[2]/div/div/div[2]/div/div/div/form/div[1]/div[2]/div[1]/span/input')
#用户名
u.send_keys('')
time.sleep(5)
#点击下一步
bro.find_element_by_xpath('//*[@id="--aliyun-xconsole-app"]/div[1]/div[2]/div/div/div[1]/div[2]/div/div/div[2]/div/div/div/form/div[5]/button/span').click()
p = bro.find_element_by_xpath('//*[@id="--aliyun-xconsole-app"]/div[1]/div[2]/div/div/div[1]/div[2]/div/div/div[2]/div/div/div/form/div[2]/div[2]/span/input')
#密码
p.send_keys('')
time.sleep(5)
# 点击登录按钮
bro.find_element_by_xpath('//*[@id="--aliyun-xconsole-app"]/div[1]/div[2]/div/div/div[1]/div[2]/div/div/div[2]/div/div/div/form/div[5]/button/span').click()
time.sleep(3)
# 点击控制台
bro.find_element_by_xpath(
    '//*[@id="J_3207526240"]/div/div/div[1]/div[2]/div[2]/a[3]').click()
time.sleep(6)
#切换窗口
bro.switch_to.window(bro.window_handles[-1])
# 点击费用
bro.find_element_by_xpath(
    '/html/body/div[1]/div/div/nav/div[1]/a').click()
time.sleep(3)
bro.switch_to.window(bro.window_handles[-1])
available_credit = bro.find_element_by_xpath('//*[@id="app__home"]/div/div/div/div[2]/div[1]/div[1]/div[2]/div/div[1]/span[1]/span').text
time.sleep(3)
#点击帐单详情
bro.find_element_by_xpath(
    '//*[@id="root-app"]/div[1]/div/div[6]/div[3]/a').click()
time.sleep(1.5)
#点击产品量价汇总
bro.find_element_by_xpath(
    '//*[@id="app__ent-expense"]/div/div/div[1]/div[1]/div/div/div/ul/li[4]/div/span').click()
time.sleep(1.5)

trs = bro.find_elements_by_xpath('//tbody/tr[position()> 1]')

for f in os.listdir('C:/Users/Administrator/Desktop/费用巡检/'):
    if f.startswith('fee'):
        os.remove('C:/Users/Administrator/Desktop/费用巡检/%s' % f)
with open('C:/Users/Administrator/Desktop/费用巡检/fee_%s.csv' % datetime.now().__format__('%m-%d'), 'a+', newline='', encoding='gb18030') as f:
    f_csv = csv.writer(f)
    f_csv.writerow(['可用额度',available_credit.split(' ')[1]])
    for tr in trs:
        tr = tr.text.split('\n')
        f_csv.writerow([tr[0],tr[1].split(' ')[1]])

bro.quit()

上手

pandas读取表1-2的数据

为了方便识别,变量名直接用中文了

import pandas as pd

df = pd.read_csv('data_%s.csv' % datetime.now().__format__('%m-%d'), encoding='gbk', names=['内容', '金额'])
内容安全 = eval(df.iloc[5, 1])
系统短信 = 0
云服务器ECS流量 = eval(df.iloc[4, 1])
对象存储 = eval(df.iloc[8, 1])
文件存储 = eval(df.iloc[6, 1])
视频点播 = eval(df.iloc[11, 1])
大数据 = eval(df.iloc[2, 1]) + eval(df.iloc[7, 1])
CDN = eval(df.iloc[1, 1])
日志服务 = eval(df.iloc[10, 1])
块存储 = eval(df.iloc[3, 1])
合计 = round(内容安全 + 系统短信 + 云服务器ECS流量 + 对象存储 + 文件存储 + 视频点播 + 大数据 + CDN + 日志服务 + 块存储, 2)
余额 = eval(df.iloc[0, 1].replace(',', ''))

xlwings获取表1-1sheet

import xlwings as xw
from datetime import datetime
import os

app = xw.App(visible=False,add_book=False)
app.display_alerts = False
app.screen_updating = False

wb = app.books.open(filename)
ws = wb.sheets[0]

xlwings修改表1-1数据

# 修改第10行,expand参数可以方便的按顺序一行写完
ws.range('B10').options(expand='table').value = [内容安全, 系统短信, 云服务器ECS流量, 对象存储, 文件存储, 视频点播, 大数据, CDN, 日志服务, 块存储, 合计,
                                                    余额]

# 修改第11行
ws.range('e41').value = '本月(%s月)已使用%s元,实际账户余额为%s元。' % (datetime.now().month, 合计, 余额)
path = 'D:/桌面/巡检/%s' % datetime.now().__format__('%m-%d')
if not os.path.exists(path):
    os.mkdir(path)
wb.save(os.path.join(path,'教育费用_%s.xlsx' % datetime.now().__format__('%m-%d')))
wb.close()
app.quit()

总结

通过使用xlwings自动修改表格,我的6张表格从原先的操作半小时,到现在鼠标duang~duang~duang~几下即可做好。减少上百次的复制粘贴点击后,工作更轻松了。

本文是由 Python技术 公众号粉丝 SSW 投稿,欢迎大家继续踊跃投稿!

相关推荐

selenium(WEB自动化工具)

定义解释Selenium是一个用于Web应用程序测试的工具。Selenium测试直接运行在浏览器中,就像真正的用户在操作一样。支持的浏览器包括IE(7,8,9,10,11),MozillaF...

开发利器丨如何使用ELK设计微服务中的日志收集方案?

【摘要】微服务各个组件的相关实践会涉及到工具,本文将会介绍微服务日常开发的一些利器,这些工具帮助我们构建更加健壮的微服务系统,并帮助排查解决微服务系统中的问题与性能瓶颈等。我们将重点介绍微服务架构中...

高并发系统设计:应对每秒数万QPS的架构策略

当面试官问及"如何应对每秒几万QPS(QueriesPerSecond)"时,大概率是想知道你对高并发系统设计的理解有多少。本文将深入探讨从基础设施到应用层面的解决方案。01、理解...

2025 年每个 JavaScript 开发者都应该了解的功能

大家好,很高兴又见面了,我是"高级前端进阶",由我带着大家一起关注前端前沿、深入前端底层技术,大家一起进步,也欢迎大家关注、点赞、收藏、转发。1.Iteratorhelpers开发者...

JavaScript Array 对象

Array对象Array对象用于在变量中存储多个值:varcars=["Saab","Volvo","BMW"];第一个数组元素的索引值为0,第二个索引值为1,以此类推。更多有...

Gemini 2.5编程全球霸榜,谷歌重回AI王座,神秘模型曝光,奥特曼迎战

刚刚,Gemini2.5Pro编程登顶,6美元性价比碾压Claude3.7Sonnet。不仅如此,谷歌还暗藏着更强的编程模型Dragontail,这次是要彻底翻盘了。谷歌,彻底打了一场漂亮的翻...

动力节点最新JavaScript教程(高级篇),深入学习JavaScript

JavaScript是一种运行在浏览器中的解释型编程语言,它的解释器被称为JavaScript引擎,是浏览器的一部分,JavaScript广泛用于浏览器客户端编程,通常JavaScript脚本是通过嵌...

一文看懂Kiro,其 Spec工作流秒杀Cursor,可移植至Claude Code

当Cursor的“即兴编程”开始拖累项目质量,AWS新晋IDEKiro以Spec工作流打出“先规范后编码”的系统工程思维:需求-设计-任务三件套一次生成,文档与代码同步落地,复杂项目不...

「晚安·好梦」努力只能及格,拼命才能优秀

欢迎光临,浏览之前点击上面的音乐放松一下心情吧!喜欢的话给小编一个关注呀!Effortscanonlypass,anddesperatelycanbeexcellent.努力只能及格...

JavaScript 中 some 与 every 方法的区别是什么?

大家好,很高兴又见面了,我是姜茶的编程笔记,我们一起学习前端相关领域技术,共同进步,也欢迎大家关注、点赞、收藏、转发,您的支持是我不断创作的动力在JavaScript中,Array.protot...

10个高效的Python爬虫框架,你用过几个?

小型爬虫需求,requests库+bs4库就能解决;大型爬虫数据,尤其涉及异步抓取、内容管理及后续扩展等功能时,就需要用到爬虫框架了。下面介绍了10个爬虫框架,大家可以学习使用!1.Scrapysc...

12个高效的Python爬虫框架,你用过几个?

实现爬虫技术的编程环境有很多种,Java、Python、C++等都可以用来爬虫。但很多人选择Python来写爬虫,为什么呢?因为Python确实很适合做爬虫,丰富的第三方库十分强大,简单几行代码便可实...

pip3 install pyspider报错问题解决

运行如下命令报错:>>>pip3installpyspider观察上面的报错问题,需要安装pycurl。是到这个网址:http://www.lfd.uci.edu/~gohlke...

PySpider框架的使用

PysiderPysider是一个国人用Python编写的、带有强大的WebUI的网络爬虫系统,它支持多种数据库、任务监控、项目管理、结果查看、URL去重等强大的功能。安装pip3inst...

「机器学习」神经网络的激活函数、并通过python实现激活函数

神经网络的激活函数、并通过python实现whatis激活函数感知机的网络结构如下:左图中,偏置b没有被画出来,如果要表示出b,可以像右图那样做。用数学式来表示感知机:上面这个数学式子可以被改写:...