百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

使用通义灵码带你完成Python程序调试排错

itomcoil 2025-02-15 15:55 24 浏览

通义灵码是由国内阿里云推出的一款AI辅助编程插件,可以极大提升开发效率,降低了程序员开发难度和技术门槛。

本文带你使用通义灵码协助我们完成Python程序调错。

一、准备开发工具

1.1安装社区版IDE

Python程序常用的IDE开发工具是PyCharm,下载地址:https://www.jetbrains.com/pycharm/download/

我们作为个人使用,下载社区版就够啦:

下载下来后,安装即可,建议安装路径不要放在C盘,预留磁盘空间,放入其他盘符。

1.2安装Anaconda环境

Anaconda是一款Python环境工具,下载地址:https://www.anaconda.com/products/distribution

在下载页面上,您可以选择不同的版本:

(1)Anaconda Individual Edition: 免费版,适合个人使用。

(2)Anaconda Team Edition: 需要购买许可,适合团队协作。

根据您的操作系统(Windows, macOS 或 Linux)选择合适的安装包操作系统。

个人使用建议选择免费版windows操作系统,下载后一步步安装即可,避免安装在C盘。

二、PyCharm安装通义灵码插件

打开安装好的PyCharm:

2.1新建project

选择菜单:File->New Project

配置环境,环境地址选择刚才下载安装的Anaconda安装路径:

默认打开如图所示:

2.2安装通义灵码插件

点击菜单File->Settings

带设置页面输入plugins:

然后在Marketplace输入框输入:tongyi,按下回车

选择安装,安装好后重启PyCharm。

再次打开PyCharm,右侧就出现了通义灵码插件:

第一次使用通义灵码要求登录阿里云账号,各位用手机号、验证码登录阿里云后就可以使用通义灵码插件了。

三、使用通义灵码帮助调试程序

3.1生成csv样本文件程序

将我们昨天博文写过的代码,在Project新环境中再拷贝一份:

generate_data.py:

import pandas as pd


# 创建示例数据

data = {

'text': [

'This is a good movie.',

'I did not like the book.',

'The weather is nice.',

'Terrible service.',

'MyName is AI Teacher.'

],

'label': [1.0, 0.0, 1.0, 0.0, 1.0]

}


# 创建 DataFrame

df = pd.DataFrame(data)


# 保存为 CSV 文件

df.to_csv('text_data.csv', index=False)


可以看到右上角pandas爆红,环境缺少这个组件(就跟Java项目缺少jar包一样):

运行报错,缺少组件:

这个时候可以借助通义灵码了,打开通义灵码输入:No module named 'pandas'

通义灵码告诉了你问题原因及解决之道:

我们按照通义灵码说的,打开PyCharm终端:

输入:pip install pandas


安装组件。

不一会儿,组件安装好了,PyCharm刷新环境索引,加载依赖包:

程序已正常:

我们再次运行程序,得到结果文件:

3.2调试深度学习训练&预测程序

将昨天分享的文本模型训练代码复制到Project中:

train_new1.py文件:


import torch

import torch.nn as nn

import torch.optim as optim

from torch.utils.data import DataLoader, Dataset

from sklearn.model_selection import train_test_split

from sklearn.feature_extraction.text import CountVectorizer

from sklearn.preprocessing import LabelEncoder

import pandas as pd


class TextDataset(Dataset):

def __init__(self, texts, labels):

self.texts = texts

self.labels = labels


def __len__(self):

return len(self.labels)


def __getitem__(self, idx):

text = torch.tensor(self.texts[idx], dtype=torch.long)

label = torch.tensor(self.labels[idx], dtype=torch.long)

return text, label

class TextClassifier(nn.Module):

def __init__(self, input_dim, hidden_dim, output_dim):

super(TextClassifier, self).__init__()

self.fc1 = nn.Linear(input_dim, hidden_dim)

self.relu = nn.ReLU()

self.fc2 = nn.Linear(hidden_dim, output_dim)


def forward(self, x):

out = self.fc1(x)

out = self.relu(out)

out = self.fc2(out)

return out



# 加载数据

data = pd.read_csv('text_data.csv')

texts = data['text'].values

labels = data['label'].values


# 分词和向量化

vectorizer = CountVectorizer(max_features=5000) # 可以调整特征数量

X = vectorizer.fit_transform(texts).toarray()


# 标签编码

label_encoder = LabelEncoder()

y = label_encoder.fit_transform(labels)


# 划分训练集和验证集

X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2, random_state=42)


# 创建数据集实例

train_dataset = TextDataset(X_train, y_train)

val_dataset = TextDataset(X_val, y_val)


# 创建数据加载器

train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True)

val_loader = DataLoader(val_dataset, batch_size=32, shuffle=False)


input_dim = X_train.shape[1] # 输入维度

hidden_dim = 128

output_dim = len(label_encoder.classes_) # 输出维度


model = TextClassifier(input_dim, hidden_dim, output_dim)

optimizer = optim.Adam(model.parameters(), lr=0.001)

criterion = nn.CrossEntropyLoss()

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

model.to(device)


def train(model, dataloader, optimizer, criterion, device):

model.train()

total_loss = 0

for inputs, labels in dataloader:

inputs, labels = inputs.to(device), labels.to(device)

inputs = inputs.float()

optimizer.zero_grad()

outputs = model(inputs)

loss = criterion(outputs, labels)

loss.backward()

optimizer.step()

total_loss += loss.item()

return total_loss / len(dataloader)


# 训练模型

num_epochs = 10

for epoch in range(num_epochs):

train_loss = train(model, train_loader, optimizer, criterion, device)

print(f'Epoch [{epoch+1}/{num_epochs}], Loss: {train_loss:.4f}')


def predict(model, dataloader, device):

model.eval()

predictions = []

with torch.no_grad():

for inputs, _ in dataloader:

inputs = inputs.to(device)

inputs = inputs.float()

outputs = model(inputs)

_, preds = torch.max(outputs, 1)

predictions.extend(preds.tolist())

return predictions


# 使用验证集进行预测

predictions = predict(model, val_loader, device)

print(predictions[:5])


查看程序一大堆包找不到:

二话不说,先运行程序,看看报错信息:

询问通义灵码:No module named 'torch'

通义灵码给出了提示信息:

按照提示信息,在Terminal终端安装: pip install torch torchvision torchaudio

完成安装后刷新环境索引:

再次运行程序:

缺少深度学习sklearn包:

询问通义灵码:No module named 'sklearn'

按照解决方案提示,需要安装:pip install scikit-learn

打开终端安装:pip install scikit-learn

安装完成后刷新环境索引:

程序已无报错:

右键运行,看训练和预测结果:

顺利利用少量样本,完成10轮训练和预测:

详细AI技术学习可关注,获取更多AI实用技术学习。

相关推荐

Python Qt GUI设计:将UI文件转换Python文件三种妙招(基础篇—2)

在开始本文之前提醒各位朋友,Python记得安装PyQt5库文件,Python语言功能很强,但是Python自带的GUI开发库Tkinter功能很弱,难以开发出专业的GUI。好在Python语言的开放...

Connect 2.0来了,还有Nuke和Maya新集成

ftrackConnect2.0现在可以下载了--重新设计的桌面应用程序,使用户能够将ftrackStudio与创意应用程序集成,发布资产等。这个新版本的发布中还有两个Nuke和Maya新集成,...

Magicgui:不会GUI编程也能轻松构建Python GUI应用

什么是MagicguiMagicgui是一个Python库,它允许开发者仅凭简单的类型注解就能快速构建图形用户界面(GUI)应用程序。这个库基于Napari项目,利用了Python的强大类型系统,使得...

Python入坑系列:桌面GUI开发之Pyside6

阅读本章之后,你可以掌握这些内容:Pyside6的SignalsandSlots、Envents的作用,如何使用?PySide6的Window、DialogsandAlerts、Widgets...

Python入坑系列-一起认识Pyside6 designer可拖拽桌面GUI

通过本文章,你可以了解一下内容:如何安装和使用Pyside6designerdesigner有哪些的特性通过designer如何转成python代码以前以为Pyside6designer需要在下载...

pyside2的基础界面(pyside2显示图片)

今天我们来学习pyside2的基础界面没有安装过pyside2的小伙伴可以看主页代码效果...

Python GUI开发:打包PySide2应用(python 打包pyc)

之前的文章我们介绍了怎么使用PySide2来开发一个简单PythonGUI应用。这次我们来将上次完成的代码打包。我们使用pyinstaller。注意,pyinstaller默认会将所有安装的pack...

使用PySide2做窗体,到底是怎么个事?看这个能不能搞懂

PySide2是Qt框架的Python绑定,允许你使用Python创建功能强大的跨平台GUI应用程序。PySide2的基本使用方法:安装PySide2pipinstallPy...

pycharm中conda解释器无法配置(pycharm安装的解释器不能用)

之前用的好好的pycharm正常配置解释器突然不能用了?可以显示有这个环境然后确认后可以conda正在配置解释器,但是进度条结束后还是不成功!!试过了pycharm重启,pycharm重装,anaco...

Conda使用指南:从基础操作到Llama-Factory大模型微调环境搭建

Conda虚拟环境在Linux下的全面使用指南:从基础操作到Llama-Factory大模型微调环境搭建在当今的AI开发与数据分析领域,conda虚拟环境已成为Linux系统下管理项目依赖的标配工具。...

Python操作系统资源管理与监控(python调用资源管理器)

在现代计算环境中,对操作系统资源的有效管理和监控是确保应用程序性能和系统稳定性的关键。Python凭借其丰富的标准库和第三方扩展,提供了强大的工具来实现这一目标。本文将探讨Python在操作系统资源管...

本地部署开源版Manus+DeepSeek创建自己的AI智能体

1、下载安装Anaconda,设置conda环境变量,并使用conda创建python3.12虚拟环境。2、从OpenManus仓库下载代码,并安装需要的依赖。3、使用Ollama加载本地DeepSe...

一文教会你,搭建AI模型训练与微调环境,包学会的!

一、硬件要求显卡配置:需要Nvidia显卡,至少配备8G显存,且专用显存与共享显存之和需大于20G。二、环境搭建步骤1.设置文件存储路径非系统盘存储:建议将非安装版的环境文件均存放在非系统盘(如E盘...

使用scikit-learn为PyTorch 模型进行超参数网格搜索

scikit-learn是Python中最好的机器学习库,而PyTorch又为我们构建模型提供了方便的操作,能否将它们的优点整合起来呢?在本文中,我们将介绍如何使用scikit-learn中的网格搜...

如何Keras自动编码器给极端罕见事件分类

全文共7940字,预计学习时长30分钟或更长本文将以一家造纸厂的生产为例,介绍如何使用自动编码器构建罕见事件分类器。现实生活中罕见事件的数据集:背景1.什么是极端罕见事件?在罕见事件问题中,数据集是...