摄影网站策划书官网如何推广
- 作者: 五速梦信息网
- 时间: 2026年04月20日 09:22
当前位置: 首页 > news >正文
摄影网站策划书,官网如何推广,免费网站建设知识,重庆市工程建设信息网打不开#x1f368; 本文为#x1f517;365天深度学习训练营 中的学习记录博客R8中的内容#xff0c;为了便于自己整理总结起名为R6#x1f356; 原作者#xff1a;K同学啊 | 接辅导、项目定制 目录 0. 总结1. 数据集介绍2. 数据预处理3. 模型构建4. 初始化模型及优化器5. 训练函… 本文为365天深度学习训练营 中的学习记录博客R8中的内容为了便于自己整理总结起名为R6 原作者K同学啊 | 接辅导、项目定制 目录 0. 总结1. 数据集介绍2. 数据预处理3. 模型构建4. 初始化模型及优化器5. 训练函数6. 测试函数7. 模型评估8. 模型保存及加载9. 使用训练好的模型进行预测 0. 总结 数据导入及处理部分在 PyTorch 中我们通常先将 NumPy 数组转换为 torch.Tensor再封装到 TensorDataset 或自定义的 Dataset 里然后用 DataLoader 按批次加载。 模型构建部分RNN 设置超参数在这之前需要定义损失函数学习率动态学习率以及根据学习率定义优化器例如SGD随机梯度下降用来在训练中更新参数最小化损失函数。 定义训练函数函数的传入的参数有四个分别是设置好的DataLoader(),定义好的模型损失函数优化器。函数内部初始化损失准确率为0接着开始循环使用DataLoader()获取一个批次的数据对这个批次的数据带入模型得到预测值然后使用损失函数计算得到损失值。接下来就是进行反向传播以及使用优化器优化参数梯度清零放在反向传播之前或者是使用优化器优化之后都是可以的一般是默认放在反向传播之前。 定义测试函数函数传入的参数相比训练函数少了优化器只需传入设置好的DataLoader(),定义好的模型损失函数。此外除了处理批次数据时无需再设置梯度清零、返向传播以及优化器优化参数其余部分均和训练函数保持一致。 训练过程定义训练次数有几次就使用整个数据集进行几次训练初始化四个空list分别存储每次训练及测试的准确率及损失。使用model.train()开启训练模式调用训练函数得到准确率及损失。使用model.eval()将模型设置为评估模式调用测试函数得到准确率及损失。接着就是将得到的训练及测试的准确率及损失存储到相应list中并合并打印出来得到每一次整体训练后的准确率及损失。 结果可视化 模型的保存调取及使用。在PyTorch中通常使用 torch.save(model.state_dict(), ‘model.pth’) 保存模型的参数使用 model.load_state_dict(torch.load(‘model.pth’)) 加载参数。 需要改进优化的地方确保模型和数据的一致性都存到GPU或者CPU;注意numclasses不要直接用默认的1000需要根据实际数据集改进实例化模型也要注意numclasses这个参数此外注意测试模型需要用3,224,2243表示通道数这和tensorflow定义的顺序是不用的224,224,3做代码转换时需要注意。 关于优化 目前的尝试 可以采用采用了L2正则化及dropout
数据集介绍 数据信息 PatientID分配给每个患者4751 到 6900的唯一标识符。 Age 患者的年龄从 60 岁到 90 岁不等。 Gender患者的性别其中 0 代表男性1 代表女性。 Ethnicity患者的种族编码如下
0 高加索人 1非裔美国人 2亚洲 3其他 EducationLevel患者的教育水平编码如下 无 1高中 2学士学位 3更高 BMI患者的体重指数范围从 15 到 40。 Smoking吸烟状态其中 0 表示否1 表示是。 AlcoholConsumption 酒精消费量每周酒精消费量以 0 到 20 为单位范围从 0 到 20。 PhysicalActivity每周身体活动以小时为单位范围从 0 到 10。 DietQuality饮食质量评分范围从 0 到 10。 SleepQuality睡眠质量分数范围从 4 到 10。 FamilyHistoryAlzheimers:阿尔茨海默病家族史其中 0 表示否1 表示是。 CardiovascularDisease存在心血管疾病其中 0 表示否1 表示是。 Diabetes存在糖尿病其中 0 表示否1 表示是。 Depression存在抑郁其中 0 表示否1 表示是。 HeadInjury头部受伤史其中 0 表示否1 表示是。 Hypertension存在高血压其中 0 表示否1 表示是。 SystolicBP收缩压范围为 90 至 180 mmHg。 DiastolicBP: 舒张压范围为 60 至 120 mmHg。 CholesterolTotal总胆固醇水平范围为 150 至 300 mg/dL。 CholesterolLDL低密度脂蛋白胆固醇水平范围为 50 至 200 mg/dL。 CholesterolHDL高密度脂蛋白胆固醇水平范围为 20 至 100 mg/dL。 CholesterolTriglycerides甘油三酯水平范围为 50 至 400 mg/dL。
… Diagnosis阿尔茨海默病的诊断状态其中 0 表示否1 表示是。数据预处理 import numpy as np import pandas as pd import torch from torch import nn import torch.nn.functional as F import seaborn as sns#设置GPU训练也可以使用CPU devicetorch.device(cuda if torch.cuda.is_available() else cpu) devicedevice(typecuda)# 数据导入 df pd.read_csv(./data/alzheimers_disease_data.csv)
删除第一列和最后一列
df df.iloc[:, 1:-1] dfAgeGenderEthnicityEducationLevelBMISmokingAlcoholConsumptionPhysicalActivityDietQualitySleepQuality…FunctionalAssessmentMemoryComplaintsBehavioralProblemsADLConfusionDisorientationPersonalityChangesDifficultyCompletingTasksForgetfulnessDiagnosis07300222.927749013.2972186.3271121.3472149.025679…6.518877001.72588300010018900026.82768104.5425247.6198850.5187677.151293…7.118696002.59242400001027303117.795882019.5550857.8449881.8263359.673574…5.895077007.11954801010037410133.800817112.2092668.4280017.4356048.392554…8.965106016.48122600000048900020.716974018.4543566.3104610.7954985.597238…6.045039000.014691001100…………………………………………………………21446100139.12175701.5611264.0499646.5553067.535540…0.238667004.49283810000121457500217.857903018.7672611.3606672.9046628.555256…8.687480019.20495200000121467700115.47647904.5946709.8860028.1200255.769464…1.972137005.03633400000121477813115.29991108.6745056.3542821.2634278.322874…5.173891003.78539900001121487200233.28973807.8907036.5709937.9414049.878711…6.307543018.327563010010 2149 rows × 33 columns
标准化
from sklearn.preprocessing import StandardScaler from sklearn.model_selection import train_test_splitX df.iloc[:,:-1] y df.iloc[:,-1]# 将每一列特征标准化为标准正太分布注意标准化是针对每一列而言的 sc StandardScaler() X sc.fit_transform(X)# 划分数据集 X torch.tensor(np.array(X),dtype torch.float32) y torch.tensor(np.array(y),dtype torch.int64)X_train,X_test,y_train,y_test train_test_split(X,y,test_size 0.1,random_state 1) X_train.shape,y_train.shape(torch.Size([1934, 32]), torch.Size([1934]))# 构建数据加载器 from torch.utils.data import TensorDataset,DataLoadertrain_dl DataLoader(TensorDataset(X_train,y_train),batch_size 64,shuffle False) test_dl DataLoader(TensorDataset(X_test,y_test),batch_size 64,shuffle False)3. 模型构建 class model_rnn(nn.Module):def init(self):super(model_rnn, self).init()self.rnn0 nn.RNN(input_size32, hidden_size200, num_layers1, batch_firstTrue)self.fc0 nn.Linear(200, 50)self.fc1 nn.Linear(50, 2)def forward(self, x):out, hidden1 self.rnn0(x) out self.fc0(out) out self.fc1(out) return out model model_rnn().to(device) modelmodel_rnn((rnn0): RNN(32, 200, batch_firstTrue)(fc0): Linear(in_features200, out_features50, biasTrue)(fc1): Linear(in_features50, out_features2, biasTrue) )model(torch.rand(30,32).to(device)).shapetorch.Size([30, 2])4. 初始化模型及优化器 model model_rnn().to(device) print(model)loss_fn nn.CrossEntropyLoss() # 创建损失函数 weight_decay 1e-4 # 尝试加入权重衰减;一般来说较小的值如1e-5到1e-4就可以起到一定的正则化作用。
weight_decay 1e-3
learn_rate 1e-3 # 学习率
learn_rate 3e-4 # 学习率
lambda1 lambda epoch:(0.92**(epoch//2))optimizer torch.optim.Adam(model.parameters(),lr learn_rate, weight_decay 1e-4) scheduler torch.optim.lr_scheduler.LambdaLR(optimizer,lr_lambdalambda1) # 选定调整方法 epochs 50model_rnn((rnn0): RNN(32, 200, batch_firstTrue)(fc0): Linear(in_features200, out_features50, biasTrue)(fc1): Linear(in_features50, out_features2, biasTrue) )5. 训练函数
训练循环
def train(dataloader, model, loss_fn, optimizer):size len(dataloader.dataset) # 训练集的大小num_batches len(dataloader) # 批次数目, (size/batch_size向上取整)train_loss, train_acc 0, 0 # 初始化训练损失和正确率for X, y in dataloader: # 获取图片及其标签X, y X.to(device), y.to(device)# 计算预测误差pred model(X) # 网络输出loss loss_fn(pred, y) # 计算网络输出和真实值之间的差距targets为真实值计算二者差值即为损失# 反向传播optimizer.zero_grad() # grad属性归零loss.backward() # 反向传播optimizer.step() # 每一步自动更新# 记录acc与losstrain_acc (pred.argmax(1) y).type(torch.float).sum().item()train_loss loss.item()train_acc / sizetrain_loss / num_batchesreturn train_acc, train_loss6. 测试函数 def test (dataloader, model, loss_fn):size len(dataloader.dataset) # 测试集的大小num_batches len(dataloader) # 批次数目, (size/batch_size向上取整)test_loss, test_acc 0, 0# 当不进行训练时停止梯度更新节省计算内存消耗with torch.no_grad():for X, y in dataloader:X, y X.to(device), y.to(device)# 计算losstarget_pred model(X)loss loss_fn(target_pred, y)test_loss loss.item()test_acc (target_pred.argmax(1) y).type(torch.float).sum().item()test_acc / sizetest_loss / num_batchesreturn test_acc, test_lossimport copytrain_loss [] train_acc [] test_loss [] test_acc []best_acc 0.0for epoch in range(epochs):model.train()epoch_train_acc, epoch_train_loss train(train_dl, model, loss_fn, optimizer)# 更新学习率scheduler.step() # 更新学习率——调用官方动态学习率时使用model.eval()epoch_test_acc, epoch_test_loss test(test_dl, model, loss_fn)# 保存最佳模型if epoch_test_acc best_acc:best_acc epoch_test_accbest_model copy.deepcopy(model)train_acc.append(epoch_train_acc)train_loss.append(epoch_train_loss)test_acc.append(epoch_test_acc)test_loss.append(epoch_test_loss)# 获取当前的学习率lr optimizer.state_dict()[param_groups][0][lr]template (Epoch:{:2d}, Train_acc:{:.1f}%, Train_loss:{:.3f}, Test_acc:{:.1f}%, Test_loss:{:.3f}, Lr:{:.2E})print(template.format(epoch1, epoch_train_acc*100, epoch_train_loss, epoch_test_acc*100, epoch_test_loss, lr))print(Done. Best test acc: , best_acc)Epoch: 1, Train_acc:71.8%, Train_loss:0.544, Test_acc:79.1%, Test_loss:0.431, Lr:1.00E-03 Epoch: 2, Train_acc:82.8%, Train_loss:0.397, Test_acc:80.0%, Test_loss:0.392, Lr:9.20E-04 Epoch: 3, Train_acc:84.6%, Train_loss:0.362, Test_acc:77.7%, Test_loss:0.400, Lr:9.20E-04 Epoch: 4, Train_acc:85.8%, Train_loss:0.348, Test_acc:77.7%, Test_loss:0.409, Lr:8.46E-04 Epoch: 5, Train_acc:86.3%, Train_loss:0.335, Test_acc:79.5%, Test_loss:0.420, Lr:8.46E-04 Epoch: 6, Train_acc:86.9%, Train_loss:0.324, Test_acc:80.9%, Test_loss:0.431, Lr:7.79E-04 Epoch: 7, Train_acc:87.8%, Train_loss:0.310, Test_acc:80.0%, Test_loss:0.464, Lr:7.79E-04 Epoch: 8, Train_acc:87.9%, Train_loss:0.301, Test_acc:78.1%, Test_loss:0.494, Lr:7.16E-04 Epoch: 9, Train_acc:88.9%, Train_loss:0.286, Test_acc:76.3%, Test_loss:0.536, Lr:7.16E-04 Epoch:10, Train_acc:88.8%, Train_loss:0.283, Test_acc:78.6%, Test_loss:0.536, Lr:6.59E-04 Epoch:11, Train_acc:90.3%, Train_loss:0.268, Test_acc:78.6%, Test_loss:0.541, Lr:6.59E-04 Epoch:12, Train_acc:90.8%, Train_loss:0.256, Test_acc:78.1%, Test_loss:0.566, Lr:6.06E-04 Epoch:13, Train_acc:91.5%, Train_loss:0.238, Test_acc:77.7%, Test_loss:0.622, Lr:6.06E-04 Epoch:14, Train_acc:92.1%, Train_loss:0.227, Test_acc:78.6%, Test_loss:0.641, Lr:5.58E-04 Epoch:15, Train_acc:92.0%, Train_loss:0.220, Test_acc:78.1%, Test_loss:0.659, Lr:5.58E-04 Epoch:16, Train_acc:92.4%, Train_loss:0.204, Test_acc:75.3%, Test_loss:0.716, Lr:5.13E-04 Epoch:17, Train_acc:93.4%, Train_loss:0.181, Test_acc:74.0%, Test_loss:0.815, Lr:5.13E-04 Epoch:18, Train_acc:94.2%, Train_loss:0.165, Test_acc:73.5%, Test_loss:0.891, Lr:4.72E-04 Epoch:19, Train_acc:94.6%, Train_loss:0.145, Test_acc:70.7%, Test_loss:0.975, Lr:4.72E-04 Epoch:20, Train_acc:95.2%, Train_loss:0.147, Test_acc:71.6%, Test_loss:1.088, Lr:4.34E-04 Epoch:21, Train_acc:96.1%, Train_loss:0.121, Test_acc:74.4%, Test_loss:1.075, Lr:4.34E-04 Epoch:22, Train_acc:97.1%, Train_loss:0.101, Test_acc:71.2%, Test_loss:1.114, Lr:4.00E-04 Epoch:23, Train_acc:97.3%, Train_loss:0.087, Test_acc:72.6%, Test_loss:1.214, Lr:4.00E-04 Epoch:24, Train_acc:98.0%, Train_loss:0.070, Test_acc:73.0%, Test_loss:1.246, Lr:3.68E-04 Epoch:25, Train_acc:98.9%, Train_loss:0.056, Test_acc:73.0%, Test_loss:1.352, Lr:3.68E-04 Epoch:26, Train_acc:99.0%, Train_loss:0.047, Test_acc:73.5%, Test_loss:1.370, Lr:3.38E-04 Epoch:27, Train_acc:99.3%, Train_loss:0.037, Test_acc:71.6%, Test_loss:1.401, Lr:3.38E-04 Epoch:28, Train_acc:99.5%, Train_loss:0.032, Test_acc:73.0%, Test_loss:1.535, Lr:3.11E-04 Epoch:29, Train_acc:99.6%, Train_loss:0.025, Test_acc:73.0%, Test_loss:1.533, Lr:3.11E-04 Epoch:30, Train_acc:99.7%, Train_loss:0.021, Test_acc:72.6%, Test_loss:1.596, Lr:2.86E-04 Epoch:31, Train_acc:99.7%, Train_loss:0.016, Test_acc:70.7%, Test_loss:1.698, Lr:2.86E-04 Epoch:32, Train_acc:99.8%, Train_loss:0.013, Test_acc:70.7%, Test_loss:1.744, Lr:2.63E-04 Epoch:33, Train_acc:99.8%, Train_loss:0.012, Test_acc:70.2%, Test_loss:1.792, Lr:2.63E-04 Epoch:34, Train_acc:99.8%, Train_loss:0.011, Test_acc:70.7%, Test_loss:1.836, Lr:2.42E-04 Epoch:35, Train_acc:99.8%, Train_loss:0.010, Test_acc:69.8%, Test_loss:1.875, Lr:2.42E-04 Epoch:36, Train_acc:99.8%, Train_loss:0.009, Test_acc:69.8%, Test_loss:1.914, Lr:2.23E-04 Epoch:37, Train_acc:99.8%, Train_loss:0.009, Test_acc:68.8%, Test_loss:1.949, Lr:2.23E-04 Epoch:38, Train_acc:99.8%, Train_loss:0.008, Test_acc:68.8%, Test_loss:1.985, Lr:2.05E-04 Epoch:39, Train_acc:99.8%, Train_loss:0.008, Test_acc:68.4%, Test_loss:2.017, Lr:2.05E-04 Epoch:40, Train_acc:99.8%, Train_loss:0.007, Test_acc:68.4%, Test_loss:2.050, Lr:1.89E-04 Epoch:41, Train_acc:99.8%, Train_loss:0.007, Test_acc:68.4%, Test_loss:2.080, Lr:1.89E-04 Epoch:42, Train_acc:99.8%, Train_loss:0.006, Test_acc:68.4%, Test_loss:2.111, Lr:1.74E-04 Epoch:43, Train_acc:99.8%, Train_loss:0.006, Test_acc:69.3%, Test_loss:2.139, Lr:1.74E-04 Epoch:44, Train_acc:99.8%, Train_loss:0.005, Test_acc:69.3%, Test_loss:2.168, Lr:1.60E-04 Epoch:45, Train_acc:99.8%, Train_loss:0.005, Test_acc:69.3%, Test_loss:2.194, Lr:1.60E-04 Epoch:46, Train_acc:99.8%, Train_loss:0.005, Test_acc:68.8%, Test_loss:2.221, Lr:1.47E-04 Epoch:47, Train_acc:99.8%, Train_loss:0.005, Test_acc:68.8%, Test_loss:2.245, Lr:1.47E-04 Epoch:48, Train_acc:99.8%, Train_loss:0.004, Test_acc:68.8%, Test_loss:2.270, Lr:1.35E-04 Epoch:49, Train_acc:99.9%, Train_loss:0.004, Test_acc:68.8%, Test_loss:2.293, Lr:1.35E-04 Epoch:50, Train_acc:99.9%, Train_loss:0.004, Test_acc:68.8%, Test_loss:2.316, Lr:1.24E-04 Done. Best test acc: 0.80930232558139547. 模型评估 import matplotlib.pyplot as plt #隐藏警告 import warnings warnings.filterwarnings(ignore) #忽略警告信息 plt.rcParams[font.sans-serif] [SimHei] # 用来正常显示中文标签 plt.rcParams[axes.unicode_minus] False # 用来正常显示负号 plt.rcParams[figure.dpi] 100 #分辨率epochs_range range(epochs)plt.figure(figsize(12, 3)) plt.subplot(1, 2, 1)plt.plot(epochs_range, train_acc, labelTraining Accuracy) plt.plot(epochs_range, test_acc, labelTest Accuracy) plt.legend(loclower right) plt.title(Training and Validation Accuracy)plt.subplot(1, 2, 2) plt.plot(epochs_range, train_loss, labelTraining Loss) plt.plot(epochs_range, test_loss, labelTest Loss) plt.legend(locupper right) plt.title(Training and Validation Loss) plt.show()
混淆矩阵
print(输入数据Shape为) print(X_test.shape,X_test.shape) print(y_test.shape,y_test.shape)pred model(X_test.to(device)).argmax(1).cpu().numpy()print(\n输出数据Shape为) print(pred.shape,pred.shape)输入数据Shape为 X_test.shape torch.Size([215, 32]) y_test.shape torch.Size([215])输出数据Shape为 pred.shape (215,)import numpy as np import matplotlib.pyplot as plt from sklearn.metrics import confusion_matrix, ConfusionMatrixDisplay# 计算混淆矩阵 cm confusion_matrix(y_test, pred)plt.figure(figsize(6,5)) plt.suptitle() sns.heatmap(cm, annotTrue, fmtd, cmapBlues)# 修改字体大小 plt.xticks(fontsize10) plt.yticks(fontsize10) plt.title(Confusion Matrix, fontsize12) plt.xlabel(Predicted Label, fontsize10) plt.ylabel(True Label, fontsize10)# 显示图 plt.tight_layout() # 调整布局防止重叠 plt.show()
模型保存及加载
自定义模型保存
状态字典保存
torch.save(model.state_dict(),./模型参数/R7_rnn_model_state_dict.pth) # 仅保存状态字典# 定义模型用来加载参数 best_model model_rnn().to(device)best_model.load_state_dict(torch.load(./模型参数/R7_rnn_model_state_dict.pth)) # 加载状态字典到模型All keys matched successfully9. 使用训练好的模型进行预测 test_X X_test[0].reshape(1, -1) # X_test[0]即我们的输入数据pred best_model(test_X.to(device)).argmax(1).item() print(模型预测结果为,pred) print(*20) print(0未患病) print(1已患病)模型预测结果为 00未患病 1已患病
- 上一篇: 摄影网站备案顺德人才市场招聘信息
- 下一篇: 摄影网站的模板软件设计工具有哪些
相关文章
-
摄影网站备案顺德人才市场招聘信息
摄影网站备案顺德人才市场招聘信息
- 技术栈
- 2026年04月20日
-
摄影网站 蜂鸟python做网站的开发
摄影网站 蜂鸟python做网站的开发
- 技术栈
- 2026年04月20日
-
摄影手机网站模板展会网站建设 服务器选择很重要
摄影手机网站模板展会网站建设 服务器选择很重要
- 技术栈
- 2026年04月20日
-
摄影网站的模板软件设计工具有哪些
摄影网站的模板软件设计工具有哪些
- 技术栈
- 2026年04月20日
-
摄影网站模板下载制作app软件的公司
摄影网站模板下载制作app软件的公司
- 技术栈
- 2026年04月20日
-
摄影网站设计报告免费互联主机
摄影网站设计报告免费互联主机
- 技术栈
- 2026年04月20日
