当前位置: 首页 > news >正文

设计购物网站咋做黑龙江开放网站备案

设计购物网站咋做,黑龙江开放网站备案,开发网站有什么用,网站建设的目标与期望为了构建有效的图像深度学习模型#xff0c;数据增强是一个非常行之有效的方法。图像的数据增强是一套使用有限数据来提高训练数据集质量和规模的数据空间解决方案。广义的图像数据增强算法包括#xff1a;几何变换、颜色空间增强、核滤波器、混合图像、随机擦除、特征空间增…为了构建有效的图像深度学习模型数据增强是一个非常行之有效的方法。图像的数据增强是一套使用有限数据来提高训练数据集质量和规模的数据空间解决方案。广义的图像数据增强算法包括几何变换、颜色空间增强、核滤波器、混合图像、随机擦除、特征空间增强、对抗训练、生成对抗网络和风格迁移等内容。增强的数据代表一个分布覆盖性更广、可靠性更高的数据点集使用增强数据能够有效增加训练样本的多样性最小化训练集和验证集以及测试集之间的距离。使用数据增强后的数据集训练模型可以达到提升模型稳定性、泛化能力的效果。 使用生成对抗网络GAN提取原数据集特征对抗生成新的目标域图像已成为众多学者在数据增强技术研究中的优选方法。相比于传统的图像数据增强方法通过基于GAN的生成式建模技术进行数据增强的思路来源于博弈论中的二人零和博弈由网络中包含的生成器和判别器利用对抗学习的方法来指导网络训练在两个网络对抗过程中估计原始数据样本的分布并生成与之相似的新数据。 近期的研究在原始生成对抗网络框架的基础上又提出了多种不同的改进方案通过设计不同的神经网络架构和损失函数等手段不断提升生成对抗网络的性能。生成对抗网络应用在图像数据增强任务上的思想主要是其通过生成新的训练数据来扩充模型的训练数据通过样本空间的扩充实现图像分类等任务效果的提升。但目前基于GAN的图像数据增强技术普遍存在模型收敛不稳定、生成图像质量低等问题如何正确引入高频信息提升图像数据质量是破解这一系列问题的关键。 MATLAB环境配置如下 MATLAB 2021bDeep Learning ToolboxParallel Computing Toolbox (optional for GPU usage) 目录如下 Generative Adversarial Network (GAN) [paper]Least Squares Generative Adversarial Network (LSGAN) [paper]Deep Convolutional Generative Adversarial Network (DCGAN) [paper]Conditional Generative Adversarial Network (CGAN)[paper]Auxiliary Classifier Generative Adversarial Network (ACGAN) [paper]InfoGAN [paper]Adversarial AutoEncoder (AAE)[paper]Pix2Pix[paper]Wasserstein Generative Adversarial Network (WGAN) [paper]Semi-Supervised Generative Adversarial Network (SGAN) [paper]CycleGAN [paper]DiscoGAN [paper] 部分代码如下 首先导入相关的mnist手写数字图 load(mnistAll.mat)然后对训练、测试图像进行预处理 trainX preprocess(mnist.train_images); trainY mnist.train_labels;%训练标签 testX preprocess(mnist.test_images); testY mnist.test_labels;%测试标签preprocess为归一化函数如下 function x preprocess(x) x double(x)/255; x (x-.5)/.5; x reshape(x,28*28,[]); end然后进行参数设置包括潜变量空间维度batch_size大小学习率最大迭代次数等等 settings.latent_dim 10; settings.batch_size 32; settings.image_size [28,28,1]; settings.lrD 0.0002; settings.lrG 0.0002; settings.beta1 0.5; settings.beta2 0.999; settings.maxepochs 50;下面进行编码器初始化代码还是很容易看懂的 paramsEn.FCW1 dlarray(initializeGaussian([512,...prod(settings.image_size)],.02)); paramsEn.FCb1 dlarray(zeros(512,1,single)); paramsEn.FCW2 dlarray(initializeGaussian([512,512])); paramsEn.FCb2 dlarray(zeros(512,1,single)); paramsEn.FCW3 dlarray(initializeGaussian([2*settings.latent_dim,512])); paramsEn.FCb3 dlarray(zeros(2*settings.latent_dim,1,single));解码器初始化 paramsDe.FCW1 dlarray(initializeGaussian([512,settings.latent_dim],.02)); paramsDe.FCb1 dlarray(zeros(512,1,single)); paramsDe.FCW2 dlarray(initializeGaussian([512,512])); paramsDe.FCb2 dlarray(zeros(512,1,single)); paramsDe.FCW3 dlarray(initializeGaussian([prod(settings.image_size),512])); paramsDe.FCb3 dlarray(zeros(prod(settings.image_size),1,single));判别器初始化 paramsDis.FCW1 dlarray(initializeGaussian([512,settings.latent_dim],.02)); paramsDis.FCb1 dlarray(zeros(512,1,single)); paramsDis.FCW2 dlarray(initializeGaussian([256,512])); paramsDis.FCb2 dlarray(zeros(256,1,single)); paramsDis.FCW3 dlarray(initializeGaussian([1,256])); paramsDis.FCb3 dlarray(zeros(1,1,single));%平均梯度和平均梯度平方数组 avgG.Dis []; avgGS.Dis []; avgG.En []; avgGS.En []; avgG.De []; avgGS.De [];开始训练 dlx gpdl(trainX(:,1),CB); dly Encoder(dlx,paramsEn); numIterations floor(size(trainX,2)/settings.batch_size); out false; epoch 0; global_iter 0; while ~outtic; shuffleid randperm(size(trainX,2));trainXshuffle trainX(:,shuffleid);fprintf(Epoch %d\n,epoch) for i1:numIterationsglobal_iter global_iter1;idx (i-1)*settings.batch_size1:i*settings.batch_size;XBatchgpdl(single(trainXshuffle(:,idx)),CB);[GradEn,GradDe,GradDis] ...dlfeval(modelGradients,XBatch,...paramsEn,paramsDe,paramsDis,settings);% 更新判别器网络参数[paramsDis,avgG.Dis,avgGS.Dis] ...adamupdate(paramsDis, GradDis, ...avgG.Dis, avgGS.Dis, global_iter, ...settings.lrD, settings.beta1, settings.beta2);% 更新编码器网络参数[paramsEn,avgG.En,avgGS.En] ...adamupdate(paramsEn, GradEn, ...avgG.En, avgGS.En, global_iter, ...settings.lrG, settings.beta1, settings.beta2);% 更新解码器网络参数[paramsDe,avgG.De,avgGS.De] ...adamupdate(paramsDe, GradDe, ...avgG.De, avgGS.De, global_iter, ...settings.lrG, settings.beta1, settings.beta2);if i1 || rem(i,20)0progressplot(paramsDe,settings);if i1 h gcf;% 捕获图像frame getframe(h); im frame2im(frame); [imind,cm] rgb2ind(im,256); % 写入 GIF 文件if epoch 0imwrite(imind,cm,AAEmnist.gif,gif, Loopcount,inf); else imwrite(imind,cm,AAEmnist.gif,gif,WriteMode,append); end endendendelapsedTime toc;disp(Epoch epoch. Time taken for epoch elapsedTime s)epoch epoch1;if epoch settings.maxepochsout true;end end下面是完整的辅助函数 模型的梯度计算函数 function [GradEn,GradDe,GradDis]modelGradients(x,paramsEn,paramsDe,paramsDis,settings) dly Encoder(x,paramsEn); latent_fake dly(1:settings.latent_dim,:)...dly(settings.latent_dim1:2*settings.latent_dim)*...randn(settings.latent_dim,settings.batch_size); latent_real gpdl(randn(settings.latent_dim,settings.batch_size),CB);%训练判别器 d_output_fake Discriminator(latent_fake,paramsDis); d_output_real Discriminator(latent_real,paramsDis); d_loss -.5*mean(log(d_output_realeps)log(1-d_output_fakeeps));%训练编码器和解码器 x_ Decoder(latent_fake,paramsDe); g_loss .999*mean(mean(.5*(x_-x).^2,1))-.001*mean(log(d_output_fakeeps));%对于每个网络计算关于损失函数的梯度 [GradEn,GradDe] dlgradient(g_loss,paramsEn,paramsDe,RetainData,true); GradDis dlgradient(d_loss,paramsDis); end提取数据函数 function x gatext(x) x gather(extractdata(x)); endGPU深度学习数组wrapper函数 function dlx gpdl(x,labels) dlx gpuArray(dlarray(x,labels)); end权重初始化函数 function parameter initializeGaussian(parameterSize,sigma) if nargin 2sigma 0.05; end parameter randn(parameterSize, single) .* sigma; enddropout函数 function dly dropout(dlx,p) if nargin 2p .3; end [n,d] rat(p); mask randi([1,d],size(dlx)); mask(maskn)0; mask(maskn)1; dly dlx.*mask; end编码器函数 function dly Encoder(dlx,params) dly fullyconnect(dlx,params.FCW1,params.FCb1); dly leakyrelu(dly,.2); dly fullyconnect(dly,params.FCW2,params.FCb2); dly leakyrelu(dly,.2); dly fullyconnect(dly,params.FCW3,params.FCb3); dly leakyrelu(dly,.2); end解码器函数 function dly Decoder(dlx,params) dly fullyconnect(dlx,params.FCW1,params.FCb1); dly leakyrelu(dly,.2); dly fullyconnect(dly,params.FCW2,params.FCb2); dly leakyrelu(dly,.2); dly fullyconnect(dly,params.FCW3,params.FCb3); dly leakyrelu(dly,.2); dly tanh(dly); end判别器函数 function dly Discriminator(dlx,params) dly fullyconnect(dlx,params.FCW1,params.FCb1); dly leakyrelu(dly,.2); dly fullyconnect(dly,params.FCW2,params.FCb2); dly leakyrelu(dly,.2); dly fullyconnect(dly,params.FCW3,params.FCb3); dly sigmoid(dly); end工学博士担任《Mechanical System and Signal Processing》审稿专家担任 《中国电机工程学报》优秀审稿专家《控制与决策》《系统工程与电子技术》《电力系统保护与控制》《宇航学报》等EI期刊审稿专家。 擅长领域现代信号处理机器学习深度学习数字孪生时间序列分析设备缺陷检测、设备异常检测、设备智能故障诊断与健康管理PHM等。
http://www.zqtcl.cn/news/925325/

相关文章:

  • 免费发帖的网站网站空间服务器费用
  • 商城类的网站一般怎么做做ps从哪个网站上下载图片大小
  • 怎么做网站链接支付免费推广网站搭建
  • 威海 网站建设刚刚北京传来重大消息
  • 深圳返利网站开发做网站版权怎么写
  • 上传网站内容做社交电商第一步怎么做
  • 网站icp查询系统wordpress 页面 首页
  • wordpress安装教程wamp搜索引擎优化的英文缩写是什么
  • 成都旅行社网站建设网站建设包含哪些方面
  • 找不到网站后台怎么办韩国网站域名分类
  • 建设商务网站作用积极参与网站信息建设工作
  • 网站开发阶段Oss怎么做静态网站
  • 做科学小制作的视频网站怎么才能建立自己的网站啊
  • 跳蚤市场网站开发背景网站优点
  • 长春网站建设方案咨询怎么做自己的网站平台
  • 网站建设谈单技巧做网站建设科技公司
  • 品牌网站建设4a小蝌蚪网页设计分类
  • 域名注册以后会给你一个账户名密码上传做好的网站文化网站建设需要的功能
  • 企业站用wordpress做好吗那些做环保网站的好
  • 天津有哪些有名的网站建设公司商城网站模板免费
  • 安徽省途顺建设工程有限公司网站制作网站公
  • 北京建设职工大学网站成都网站建设比较好的公司
  • 网站建设品牌策wordpress怎么做企业网站
  • 网站正在建设中 html 模板医院网站建设预算表
  • 哪个网站能接施工图来做购物网站黑白
  • 网站开发课设心得企业宣传页模板
  • 中学生怎么做网站ghost 卸载wordpress
  • 网站诊断报告案例用户浏览网站的方式
  • 网站开发流程抚州做网站需要看的书
  • wordpress 禁止目录浏览网站seo推广优化