网站做多久流量网站续费会计分录怎样做

当前位置: 首页 > news >正文

网站做多久流量,网站续费会计分录怎样做,dw软件怎么下载,武清做网站的公司目录 1. 层和块1.1 自定义块1.2 顺序块1.3 在前向传播函数中执行代码 2. 参数管理2.1 参数访问2.1.1 目标参数2.1.2 一次性访问所有参数2.1.3 从嵌套块收集参数 2.2 参数初始化2.2.1 内置初始化2.2.2 自定义初始化 2.3 参数绑定 3. 自定义层3.1 不带参数的层3.2 带参数的层 4. … 目录 1. 层和块1.1 自定义块1.2 顺序块1.3 在前向传播函数中执行代码 2. 参数管理2.1 参数访问2.1.1 目标参数2.1.2 一次性访问所有参数2.1.3 从嵌套块收集参数 2.2 参数初始化2.2.1 内置初始化2.2.2 自定义初始化 2.3 参数绑定 3. 自定义层3.1 不带参数的层3.2 带参数的层 4. 读写文件4.1 加载和保存张量4.2 加载和保存模型参数 5. GPU 1. 层和块 块可以描述单个层、由多个层组成的组件或整个模型本身。

生成一个网络其中包含一个具有256个单元和ReLU激活函数的全连接隐藏层

然后是一个具有10个隐藏单元且不带激活函数的全连接输出层

import torch from torch import nn from torch.nn import functional as Fnet nn.Sequential(nn.Linear(20,256), nn.ReLU(), nn.Linear(256,10))X torch.rand(2, 20) net(X)1.1 自定义块 自定义块1、将输入数据作为其前向传播函数的参数。2、通过前向传播函数来生成输出输出的形状可能与输入的形状不同。3、计算其输出关于输入的梯度可通过其反向传播函数进行访问。4、存储和访问前向传播计算所需的参数。5、根据需要初始化模型参数。多层感知机1、输入是一个20维的输入。2、具有256个隐藏单元的隐藏层和一个10维输出层。class MLP(nn.Module):# 用模型参数声明层。这里我们声明两个全连接层def init(self):# 调用MLP父类Module的构造函数来执行必要的初始化# 这样在类实例化中也可以指定其他函数的参数例如模型参数paramssuper().init()self.hidden nn.Linear(20, 256) # 隐藏层self.out nn.Linear(256, 10) # 输出层# 定义模型的前向传播即如何根据输入X返回所需的模型输出def forward(self, X):# 注意这里我们使用ReLU的函数版本其在nn.functional模块定义return self.out(F.relu(self.hidden(X)))1.2 顺序块 顺序块相当于Sequential类1、一种将块逐个追加到列表中的函数2、一种前向传播函数用于将输入按追加块的顺序传递给块组成的“链条”。class MySequential(nn.Module):def init(self, *args):# init函数将每个模块逐个添加到有序字典_modules中super().init()for idx, module in enumerate(args):# 这里module是Module子类的一个实例。我们把它保存在Module类的成员# _module的类型是OrderedDict在模块的参数初始化过程中 系统知道在_modules字典中查找需要初始化参数的子块。self._modules[str(idx)] moduledef forward(self, X):# OrderedDict保证了按照成员添加的顺序遍历它们for block in self._modules.values():X block(X)return X1.3 在前向传播函数中执行代码 实现FixedHiddenMLP模型类1、实现一个隐藏层 其权重self.rand_weight在实例化时被随机初始化之后为常量。2、这个权重不是一个模型参数因此它永远不会被反向传播更新。3、神经网络将这个固定层的输出通过一个全连接层。4、返回输出时做一个循环操作输出需小于1class FixedHiddenMLP(nn.Module):def init(self):super().init()# 不计算梯度的随机权重参数。因此其在训练期间保持不变self.rand_weight torch.rand((20, 20), requires_gradFalse)self.linear nn.Linear(20 ,20)def forward(self, X):X self.linear(X)# 使用创建的常量参数以及relu和mm函数X F.relu(torch.mm(X, self.rand_weight) 1)# 复用全连接层。这相当于两个全连接层共享参数X self.linear(X)# 控制流while X.abs().sum() 1:X / 2return X.sum()# 混合搭配各种组合块 class NestMLP(nn.Module):def init(self):super().init()self.net nn.Sequential(nn.Linear(20, 64), nn.ReLU(),nn.Linear(64, 32), nn.ReLU())self.linear nn.Linear(32, 16)def forward(self, X):return self.linear(self.net(X))chimera nn.Sequential(NestMLP(), nn.Linear(16, 20), FixedHiddenMLP()) chimera(X)2. 参数管理 访问参数用于调试、诊断和可视化参数初始化在不同模型组件间共享参数。 import torch from torch import nnnet nn.Sequential(nn.Linear(4, 8), nn.ReLU(), nn.Linear(8, 1)) X torch.rand(size(2, 4)) net(X)2.1 参数访问 检查第二个全连接层的参数1、这个全连接层包含两个参数分别是该层的权重和偏置。2、两者都存储为单精度浮点数float32。print(net[2].state_dict())2.1.1 目标参数

访问目标参数

print(type(net[2].bias)) print(net[2].bias) print(net[2].bias.data)2.1.2 一次性访问所有参数

一次性访问所有参数

print([(name, param.shape) for name, param in net[0].named_parameters()]) print([(name, param.shape) for name, param in net.named_parameters()])2.1.3 从嵌套块收集参数

从嵌套块收集参数

def block1():return nn.Sequential(nn.Linear(4, 8), nn.ReLU(),nn.Linear(8, 4), nn.ReLU())def block2():net nn.Sequential()for i in range(4):# 在这里嵌套net.add_module(fblock {i}, block1())return netrgnet nn.S2.2 参数初始化 参数初始化1、内置初始化2、自定义初始化# 将所有权重参数初始化为标准差为0.01的高斯随机变量 且将偏置参数设置为0 def initnormal(m):if type(m) nn.Linear:nn.init.normal(m.weight, mean0, std0.01)nn.init.zeros_(m.bias)# model.apply(fn)会递归地将函数fn应用到父模块的每个子模块submodule也包括model这个父模块自身 net.apply(init_normal) net[0].weight.data[0], net[0].bias.data[0]2.2.1 内置初始化

将所有参数初始化为给定的常数比如初始化为1

def initconstant(m):if type(m) nn.Linear:nn.init.constant(m.weight, 1)nn.init.zeros_(m.bias)net.apply(init_constant) net[0].weight.data[0], net[0].bias.data[0]# 使用Xavier初始化方法初始化第一个神经网络层 然后将第三个神经网络层初始化为常量值42。 def init_xavier(m):if type(m) nn.Linear:nn.init.xavieruniform(m.weight) def init42(m):if type(m) nn.Linear:nn.init.constant(m.weight, 42)net[0].apply(init_xavier) net[2].apply(init_42) print(net[0].weight.data[0]) print(net[2].weight.data)2.2.2 自定义初始化

自定义初始化

def my_init(m):if type(m) nn.Linear:print(Init, *[(name, param.shape)for name, param in m.namedparameters()][0])nn.init.uniform(m.weight, -10, 10)m.weight.data * m.weight.data.abs() 5net.apply(my_init) net[0].weight[:2]

net[0].weight[0:]2.3 参数绑定

在多个层间共享参数 我们可以定义一个稠密层然后使用它的参数来设置另一个层的参数。

我们需要给共享层一个名称以便可以引用它的参数

参数绑定1、第三个和第五个神经网络层的参数是绑定的。 它们不仅值相等而且由相同的张量表示。2、如果我们改变其中一个参数另一个参数也会改变。3、由于模型参数包含梯度因此在反向传播期间第二个隐藏层 即第三个神经网络层和第三个隐藏层即第五个神经网络层的梯度会加在一起。shared nn.Linear(8, 8) net nn.Sequential(nn.Linear(4, 8), nn.ReLU(),shared, nn.ReLU(),shared, nn.ReLU(),nn.Linear(8 ,1)) net(X)

检查参数是否相同

print(net[2].weight.data[0] net[4].weight.data[0]) net[2].weight.data[0, 0] 100

确保它们实际上是同一个对象而不是只有相同的值

print(net[2].weight.data[0] net[4].weight.data[0])3. 自定义层 我们可以用创造性的方式组合不同的层从而设计出适用于各种任务的架构。 3.1 不带参数的层 自定义CenteredLayer类1、要从其输入中减去均值2、要构建它我们只需继承基础层类并实现前向传播功能。import torch import torch.nn.functional as F from torch import nnclass CenteredLayer(nn.Module):def init(self):super().init()def forward(self, X):return X - X.mean()3.2 带参数的层 自定义带参数的全连接层1、该层需要两个参数一个用于表示权重另一个用于表示偏置项2、使用修正线性单元作为激活函3、in_units和units分别表示输入数和输出数。class MyLinear(nn.Module):def init(self, in_units, units):super().init()self.weight nn.Parameter(torch.randn(in_units, units))self.bias nn.Parameter(torch.randn(units,))def forward(self, X):linear torch.matmul(X, self.weight.data) self.bias.datareturn F.relu(linear)4. 读写文件 有时我们希望保存训练的模型 以备将来在各种环境中使用比如在部署中进行预测。 4.1 加载和保存张量 import torch from torch import nn from torch.nn import functional as Fx torch.arange(4) torch.save(x, x-file)# 存储一个张量列表然后把它们读回内存。 y torch.zeros(4) torch.save([x, y], x-files) x2, y2 torch.load(x-files) (x2, y2)# 写入或读取从字符串映射到张量的字典 mydict {x: x, y: y} torch.save(mydict, mydict) mydict2 torch.load(mydict) mydict24.2 加载和保存模型参数 加载和保存模型参数1、深度学习框架提供了内置函数来保存和加载整个网络2、保存模型的参数而不是保存整个模型。class MLP(nn.Module):def init(self):super().init()self.hidden nn.Linear(20, 256)self.output nn.Linear(256, 10)def forward(self, x):return self.output(F.relu(self.hidden(x)))net MLP() X torch.randn(size(2, 20)) Y net(X)# 为了恢复模型我们实例化了原始多层感知机模型的一个备份 clone MLP() clone.load_state_dict(torch.load(mlp.params)) clone.eval()5. GPU GPU能够帮助我们更好地进行计算使用nvidia-smi命令来查看显卡信息。 !nvidia-smi# 定义了两个方便的函数 这两个函数允许我们在不存在所需所有GPU的情况下运行代码 def try_gpu(i0): #save如果存在则返回gpu(i)否则返回cpu()if torch.cuda.device_count() i 1:return torch.device(fcuda:{i})return torch.device(cpu)def try_all_gpus(): #save返回所有可用的GPU如果没有GPU则返回[cpu(),]devices [torch.device(fcuda{i})for i in range(torch.cuda.device_count())]return devices if devices else [torch.device(cpu)]try_gpu(), try_gpu(10), try_all_gpus()