当前位置: 首页 > news >正文

东莞营销网站建设哪个平台好给别人做网站去掉版权

东莞营销网站建设哪个平台好,给别人做网站去掉版权,营销型网站的定义,seo网络优化公司排名torch.nn 与 torch.nn.functional 说起torch.nn#xff0c;不得不说torch.nn.functional! 这两个库很类似#xff0c;都涵盖了神经网络的各层操作#xff0c;只是用法有点不同#xff0c;比如在损失函数Loss中实现交叉熵! 但是两个库都可以实现神经网络的各层运算。其他包…torch.nn 与 torch.nn.functional 说起torch.nn不得不说torch.nn.functional! 这两个库很类似都涵盖了神经网络的各层操作只是用法有点不同比如在损失函数Loss中实现交叉熵! 但是两个库都可以实现神经网络的各层运算。其他包括卷积、池化、padding、激活(非线性层)、线性层、正则化层、其他损失函数Loss两者都可以实现不过nn.functional毕竟只是nn的子库nn的功能要多一些还可以实现如Sequential()这种将多个层弄到一个序列这样复杂的操作。 nn.functional.xxx 是**函数接口**nn.Xxx 是 .nn.functional.xxx 的**类封装** nn.Xxx 除了具有 nn.functional.xxx 功能之外内部附带 nn.Module 相关的属性和方法eg. train(), eval(), load_state_dict, state_dict如何看关于torch.nn的 API 首先看左侧这些都是功能的分类 比如Containers中就包含了 集合各种神经网络的操作的 容器 而Convolution Layers则是抱哈了各种卷积操作 如果我们想要调用的话不是torch.nn.Containers而是torch.nn.Moule()、torch.nn.Sequential() 等 torch.nn中某些函数 1. torch.nn.Parameter() 一种张量被认为是一个模参数。 Parameter是Tensor的子类当与Module s一起使用时它们有一个非常特殊的属性——当它们被分配为模块属性时它们会自动添加到参数列表中并将出现在Parameters()迭代器中(可以通过nn.Moudle.Parameter()获得)。 赋值一个张量没有这样的效果。这是因为人们可能想要在模型中缓存一些临时状态比如RNN的最后一个隐藏状态。如果没有Parameter这样的类这些临时对象也会被注册。 参数 data(张量)–parameter tensor。Requires_grad (booloptional)—如果参数需要渐变。有关更多细节请参阅局部禁用梯度计算。默认值:True Parameter Vs Tensor 首先可以把这个函数理解为类型转换函数将一个不可训练的类型Tensor转换成可以训练的类型parameter并将这个parameter绑定到这个module里面(net.parameter()中就有这个绑定的parameter所以在参数优化的时候可以进行优化的)所以经过类型转换这个self.v变成了模型的一部分成为了模型中根据训练可以改动的参数了。使用这个函数的目的也是想让某些变量在学习的过程中不断的修改其值以达到最优化。 所以如果只是单纯的线性层or卷积层是可以使用tensor的 但是如果是在模型中也就是Containers容器中的那么就必须是Parameter类型 在concat注意力机制中权值V是不断学习的所以要是parameter类型。 通过做下面的实验发现linear里面的weight和bias就是parameter类型且不能够使用tensor类型替换还有linear里面的weight甚至可能通过指定一个不同于初始化时候的形状进行模型的更改。 与torch.tensor([1,2,3],requires_gradTrue)的区别这个只是将参数变成可训练的并没有绑定在module的parameter列表中。 Containers() 2. torch.nn.Module() 所有神经网络模块的基类。 可以看博客 3. torch.nn.Sequential() 顺序容器。 顺序容器。Modules将按照它们在构造函数中传递的顺序添加到它中。另外Modules的OrderedDict可以被传入。Sequential的forward()方法接受任何输入并将其转发到它包含的第一个Module。然后它将输出按顺序链接到每个后续Module的输入最后返回最后一个Module的输出。 一个Sequential通过手动调用模块序列提供的值是它允许将整个容器视为单个Module这样在Sequential上执行转换将应用于它存储的每个Module(每个Module都是Sequential的注册subModule)。 Sequential和torch.nn.ModuleList的区别是什么?ModuleList就是一个用来存储Module的列表!另一方面Sequential中的各层以级联方式连接。 举例 # Using Sequential to create a small model. When model is run, # input will first be passed to Conv2d(1,20,5). The output of # Conv2d(1,20,5) will be used as the input to the first # ReLU; the output of the first ReLU will become the input # for Conv2d(20,64,5). Finally, the output of # Conv2d(20,64,5) will be used as input to the second ReLU model nn.Sequential(nn.Conv2d(1,20,5),nn.ReLU(),nn.Conv2d(20,64,5),nn.ReLU())# Using Sequential with OrderedDict. This is functionally the # same as the above code model nn.Sequential(OrderedDict([(conv1, nn.Conv2d(1,20,5)),(relu1, nn.ReLU()),(conv2, nn.Conv2d(20,64,5)),(relu2, nn.ReLU())]))4. torch.nn.ModuleDict() 在字典中保存子模块。 ModuleDict可以像普通的Python字典一样被索引但它包含的Module是正确注册的所有Module方法都可以看到它。 ModuleDict是一个有序字典它反映了 插入的顺序和在update()中合并的OrderedDict、dict(从Python 3.6开始)或另一个ModuleDict (**update()**的参数)的顺序。 注意对于其他无序映射类型的update()(例如Python 3.6版之前的普通dict)不会保留合并映射的顺序。 参数 Modules (iterable, optional)——(string: module)的映射(字典)或键值对类型的可迭代对象(string, module) 实例 class MyModule(nn.Module):def __init__(self):super(MyModule, self).__init__()self.choices nn.ModuleDict({conv: nn.Conv2d(10, 10, 3),pool: nn.MaxPool2d(3)})self.activations nn.ModuleDict([[lrelu, nn.LeakyReLU()],[prelu, nn.PReLU()]])def forward(self, x, choice, act):x self.choices[choice](x)x self.activations[act](x)return x项目中的实例 self.conv_filters nn.ModuleDict({str(x): nn.Conv2d(3 if self.config.use_context else 2,self.config.num_filters,(x, self.config.word_embedding_dim))for x in self.config.window_sizes})方法 1、 clear() 从ModuleDict中删除所有项。 2、items() 返回ModuleDict键/值对的可迭代对象。 3、keys() 返回ModuleDict键的可迭代对象。 4、pop(key) 从ModuleDict中移除key并返回它的模块。 参数key (string) -从ModuleDict中弹出的键 5、update(modules) 使用映射或可迭代对象的键值对更新ModuleDict覆盖现有的键。 如果modules是OrderedDict、ModuleDict或键值对的可迭代对象则其中新元素的顺序将保留。 参数 modules (iterable)——一个从字符串到模块的映射(字典)或者一个键值对类型的可迭代对象(string, Module) 6、values() 返回ModuleDict值的可迭代对象。 Convolution Layers 5. torch.nn.Conv1d 6. torch.nn.Conv2d 方法 torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_mode‘zeros’, deviceNone, dtypeNone) 参数 in_channels (int) -输入图像中的通道数 out_channels (int) -由卷积产生的信道数 kernel_size (int或tuple) -卷积内核的大小 stride (int或tupleoptional)——卷积的stride。默认值:1 padding (int, tuple或stroptional)-添加到输入所有四方的padding。默认值:0 Padding_mode (stringoptional)- ‘zeros’ ‘reflect’ ’ replication ‘或’circular’。默认值:“0” dilationint或tupleoptional)-内核元素之间的间距。默认值:1 groups (intoptional)-从输入通道到输出通道的阻塞连接数。默认值:1 bias (booloptional)-如果为True则在输出中添加一个可学习的偏差。默认值:True 变量 ~Conv2d.weight (Tensor)(out_channels,in−channelsgroups\frac{ in-channels}{groups}groupsin−channels​ , kernel_size[0], kernel_size[1]). 这些权重的值是从U(−k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k})U(−k​,k​)取样其中kgroups Cin ∗∏i01kernel-size [i]k\frac{\text { groups }}{C_{\text {in }} * \prod_{i0}^{1} \text { kernel-size }[i]}kCin ​∗∏i01​ kernel-size [i] groups ​~Conv2d.bias (Tensor) : 可学习bias的形状(out_channels)。如果偏差是True 那么这些权重的值将从从U(−k,k)\mathcal{U}(-\sqrt{k}, \sqrt{k})U(−k​,k​)取样其中kgroups Cin ∗∏i01kernel-size [i]k\frac{\text { groups }}{C_{\text {in }} * \prod_{i0}^{1} \text { kernel-size }[i]}kCin ​∗∏i01​ kernel-size [i] groups ​。 举例 # 正方形的核和相同的步长m nn.Conv2d(16, 33, 3, stride2)# 非正方形的核和不一样的步长和填充m nn.Conv2d(16, 33, (3, 5), stride(2, 1), padding(4, 2))# non-square kernels and unequal stride and with padding and dilationm nn.Conv2d(16, 33, (3, 5), stride(2, 1), padding(4, 2), dilation(3, 1))input torch.randn(20, 16, 50, 100)output m(input)etc Pooling Layers torch.nn.MaxPool1d torch.nn.MaxPool2d
http://www.zqtcl.cn/news/840666/

相关文章:

  • 网站改版设计微信淘宝购物券网站是怎么做的
  • 网站建设基本流程心得网站设计开发报价
  • 泉州网站建设网站制作电商网站建设需要
  • 沈阳工程建设信息网深圳seo网站排名优化
  • wordpress仿dz长沙seo网站优化
  • 西宁做网站公司电话关键词快速排名怎么做
  • 昆山网站建设秦皇岛淘宝关键词推广
  • 建设娱乐网站的要求微网站开发多少钱
  • 海港区网站快排seo网站怎么添加流量
  • 肇庆做网站aspaccess做网站
  • 郑州网站建设索q479185700wordpress输出用户中心链接
  • 网站重要三要素网站建设 找vx cp5173
  • 河北网站开发价格三个字简洁的公司名称
  • 网站建设案例分析wordpress 页面固定
  • 杭州网站备案机械加工网站有哪些
  • 360网站运营wordpress 免费版广告
  • 龙文网站建设有域名可以自己做网站吗
  • 东莞优化网站建设肥猫网站建设
  • 东莞住房和建设局网站dedecms如何做网站
  • 广州商城网站建设地址义马网站开发
  • 全球购物网站排名高端网站定制开发设计制作
  • 软件开发专业课程有哪些seo比较好的优化
  • 重庆网站建设坤思特seo关键词报价查询
  • 重庆装修公司排名前十口碑推荐南京做网站seo
  • 佛山网站优化美姿姿seo网站策划方案 优帮云
  • 阿里巴巴国际站网站做销售方案东莞营销推广
  • 电子商城网站开发流程wordpress 文章发布时间
  • 莆田建网站公司盱眙县住房和城乡建设局网站
  • 2018年的网站制作室内设计网站哪些号
  • 做网站有包括哪些东西抖音seo关键词优化排名