做化工的 有那些网站,深圳外贸建设网站,石家庄网站制作软件,网站建设流程效果深度学习-CNN网络改进版LetNet5
深度学习中#xff0c;经典网络引领一波又一波的技术革命#xff0c;从LetNet到当前最火的GPT所用的Transformer#xff0c;它们把AI技术不断推向高潮。
用pytorch构建CNN经典网络模型改进版LetNet5#xff0c;还可以用数据进行训练模型经典网络引领一波又一波的技术革命从LetNet到当前最火的GPT所用的Transformer它们把AI技术不断推向高潮。
用pytorch构建CNN经典网络模型改进版LetNet5还可以用数据进行训练模型得到一个优化的模型。
数据分析
数据分析-Pandas如何转换产生新列
数据分析-Pandas如何统计数据概况
数据分析-Pandas如何轻松处理时间序列数据
数据分析-Pandas如何选择数据子集
数据分析-Pandas如何重塑数据表-CSDN博客
经典算法
经典算法-遗传算法的python实现
经典算法-模拟退火算法的python实现
经典算法-粒子群算法的python实现-CSDN博客
LeNet5概述
LeNet诞生后于1998年改进版本LeNet5在LeNet初期版本上迭代进化而来。卷积核大小为5x5。
网络结构
输入图像分辨率32x32 单通道
结构
7层不含输入包括3层卷积层2层池化层2层全连接层
1卷积层15x5 —输出6个28×28大小的特征图
2池化层1平均池化层 2x2
3卷积层25x5 —输出16个10x10大小的特征图
4池化层22x2
5卷积层35x5 —输出120个1x1大小的特征图
6全连接层1 ---- 输出84特征
7全连接层2 ---- 输出
优势与不足
优势采用CNN自动提取特征具备卷积神经网络的雏形网络层级由5层增加为7层图像尺寸由28x28扩大32x32。
不足使用了平均池化一般而言不如Max-Pooling提取特征具有分类辨识度。
Pytorch实现
以下便是使用Pytorch实现的经典网络结构LeNet5
class LeNet5(nn.Module):def __init__(self, num_classes, grayscaleFalse): num_classes: 分类的数量grayscale是否为灰度图super(LeNet5, self).__init__()self.grayscale grayscaleself.num_classes num_classesif self.grayscale: # 可以适用单通道和三通道的图像in_channels 1else:in_channels 3# 卷积神经网络self.features nn.Sequential(nn.Conv2d(in_channels, 6, kernel_size5),nn.ReLU(),nn.MaxPool2d(kernel_size2),nn.Conv2d(6, 16, kernel_size5),nn.ReLU(),nn.MaxPool2d(kernel_size2) # 原始的模型使用的是 平均池化)# 分类器self.classifier nn.Sequential(nn.Linear(16*5*5, 120), # 这里把第三个卷积当作是全连接层了nn.ReLU(),nn.Linear(120, 84), nn.ReLU(),nn.Linear(84, num_classes))def forward(self, x):x self.features(x) # 输出 16*5*5 特征图x torch.flatten(x, 1) # 展平 1 16*5*5logits self.classifier(x) # 输出 10probas F.softmax(logits, dim1)return logits, probas大家可以和LetNet对照差异也可以一窥DeepLearning技术的突破点。
后来CNN网络结构不断发展为深度学习在计算机视觉的蓬勃发展奠定基础。
觉得有用 收藏 收藏 收藏
点个赞 点个赞 点个赞
End
GPT专栏文章
GPT实战系列-ChatGLM3本地部署CUDA111080Ti显卡24G实战方案
GPT实战系列-LangChain ChatGLM3构建天气查询助手
大模型查询工具助手之股票免费查询接口
GPT实战系列-简单聊聊LangChain
GPT实战系列-大模型为我所用之借用ChatGLM3构建查询助手
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型到底做了什么(二)
GPT实战系列-P-Tuning本地化训练ChatGLM2等LLM模型到底做了什么(一)
GPT实战系列-ChatGLM2模型的微调训练参数解读
GPT实战系列-如何用自己数据微调ChatGLM2模型训练
GPT实战系列-ChatGLM2部署UbuntuCuda11显存24G实战方案
GPT实战系列-Baichuan2本地化部署实战方案
GPT实战系列-Baichuan2等大模型的计算精度与量化
GPT实战系列-GPT训练的PretrainingSFTReward ModelingRLHF
GPT实战系列-探究GPT等大模型的文本生成-CSDN博客