购物网站怎么做优化,廉洁甘孜权威发布,现在企业做网站一般用什么框架,郑州做网站公司 卓美文章目录1、MLP的BP过程2、maxpool层BP怎么做的2.1 **mean pooling**2.2 max pooling3、opencv遍历像素的方式#xff0c;讲两种#xff1f;4、传统图像处理有了解过吗#xff0c;比如去噪 特征提取5、问在linux下写过代码吗#xff1f; 问用了什么软件工具6、LDA#xff…
文章目录1、MLP的BP过程2、maxpool层BP怎么做的2.1 **mean pooling**2.2 max pooling3、opencv遍历像素的方式讲两种4、传统图像处理有了解过吗比如去噪 特征提取5、问在linux下写过代码吗 问用了什么软件工具6、LDA狄利克雷分布7、PR曲线、ROC曲线7.1、查准率、查全率、F17.2、ROC和AUC7.3、偏差和方差8、特征工程8.1、特征工程是什么9、数据预处理的方法10、特征选择的方法有哪些11、写K-means、GMM的公式11.1 k-means11.2 GMM12、CNN与RNN的区别13、你所知道的距离度量方式、损失函数13.1 距离度量13.2 损失函数1、MLP的BP过程
MLP(multilayer perceptron)多层神经网络 1、单层神经网络的BP算法 反向误差传播 delta就是误差的反向传播用来更新网络参数w,b 使得损失函数向最小值靠近 2、深层前向、后向 3、MLP(multilayer perceptron)的BP
无监督预训练 RBM有监督微调 BP
2、maxpool层BP怎么做的
2.1 mean pooling
mean pooling的前向传播就是把一个patch中的值求取平均来做pooling那么反向传播的过程也就是把某个元素的梯度等分为n份分配给前一层这样就保证池化前后的梯度残差之和保持不变还是比较理解的
2.2 max pooling
max pooling也要满足梯度之和不变的原则max pooling的前向传播是把patch中最大的值传递给后一层而其他像素的值直接被舍弃掉。那么反向传播也就是把梯度直接传给前一层某一个像素而其他像素不接受梯度也就是为0。
Max Pooling比较有意思forward的时候需要记录 每个窗口内部最大元素的位置然后bp的时候对于窗口内最大元素的gradient是1否则是0。原理和ReLu是一样的。
3、opencv遍历像素的方式讲两种
(1). C操作符[] (指针方式访问) (2). 迭代器iterator (3). 动态地址计算
像素遍历方式在速度上不同用C操作符[]是最快的访问方式
at()函数和行首指针
4、传统图像处理有了解过吗比如去噪 特征提取
1、图像去噪
图像去噪是指减少数字图像中噪声的过程称为图像去噪。现实中的数字图像在数字化和传输过程中常受到成像设备与外部环境噪声干扰等影响称为含噪图像或噪声图像。
噪声是图象干扰的重要原因。一幅图象在实际应用中可能存在各种各样的噪声,这些噪声可能在传输中产生,也可能在量化等处理中产生。
去除图像噪声的方法简介
均值滤波器采用邻域平均法自适应维纳滤波器中值滤波器小波去噪(1)对图象信号进行小波分解 (2)对经过层次分解后的高频系数进行阈值量化 (3)利用二维小波重构图象信号
2、图像特征提取
HOG特征方向梯度直方图LBP特征局部二值模式编码中心像素做阈值Haar-like特征
5、问在linux下写过代码吗 问用了什么软件工具
写过
一般写Python简单的C/C程序用的是sublime然后通过终端去运行调试写Linux界面程序的话用QT软件比较多写Linux下的驱动程序用的是交差编译的环境是在win下面开发然后将工程通过网络传输到Linux机子上去然后通过终端运行命令进行编译和执行。驱动程序编写使用VSwin
6、LDA狄利克雷分布
Dirichlet Distribution狄利克雷分布的定义和性质
隐含狄利克雷分布Latent Dirichlet Allocation简称LDA是由 David M. Blei、Andrew Y. Ng、Michael I. Jordan 在2003年提出的是一种词袋模型它认为文档是一组词构成的集合词与词之间是无序的。一篇文档可以包含多个主题文档中的每个词都是由某个主题生成的LDA给出文档属于每个主题的概率分布同时给出每个主题上词的概率分布。LDA是一种无监督学习在文本主题识别、文本分类、文本相似度计算和文章相似推荐等方面都有应用。
multinomial distribution多项式分布
LDA中多项式分布 和狄利克雷分布的 形式一致所以称为共轭
共轭分布共轭先验分布在贝叶斯统计中如果后验分布与先验分布属于同类则先验分布与后验分布被称为共轭分布而先验分布被称为似然函数的共轭先验。
7、PR曲线、ROC曲线
PR曲线、ROC曲线、AUC、Accuracy
7.1、查准率、查全率、F1
对于二分类问题可将样例根据其真实类别与学习器预测类别的组合划分为真正例TP假反例FN假正例FP真反例TN具体分类结果如下 查准率P和查全率R分别定义为
查准率关心的是”预测出正例的正确率”即从正反例子中挑选出正例的问题。 查全率关心的是”预测出正例的保证性”即从正例中挑选出正例的问题。
这两者是一对矛盾的度量查准率可以认为是”宁缺毋滥”适合对准确率要求高的应用例如商品推荐网页检索等。 查全率可以认为是”宁错杀一百不放过1个”适合类似于检查走私、逃犯信息等。
下图为查准率-查全率曲线P-R图
若一个学习器的P-R曲线被另一个学习器完全”包住”则后者的性能优于前者。当存在交叉时可以计算曲线围住面积但比较麻烦平衡点查准率查全率BEP是一种度量方式。
但BEP还是过于简化了些更常用的是F1和Fp度量它们分别是查准率和查全率的调和平均和加权调和平均。定义如下
7.2、ROC和AUC
很多学习器是为测试样本产生一个实值或概率预测然后将这个预测值与一个分类阈值进行比较若大于阈值分为正类否则为反类因此分类过程可以看作选取一个截断点。
不同任务中可以选择不同截断点若更注重”查准率”应选择排序中靠前位置进行截断反之若注重”查全率”则选择靠后位置截断。因此排序本身质量的好坏可以直接导致学习器不同泛化性能好坏ROC曲线则是从这个角度出发来研究学习器的工具。
曲线的坐标分别为真正例率TPR和假正例率FPR定义如下 下图为ROC曲线示意图因现实任务中通常利用有限个测试样例来绘制ROC图因此应为无法产生光滑曲线如右图所示。
计算曲线围住的面积(AUC)来评价性能优劣
7.3、偏差和方差
泛化误差可以分解为偏差、方差与噪声之和
偏差度量了学习算法的期望预测和真实结果偏离程度。
方差度量了同样大小的训练集的变动所导致的学习性能的变化即刻画了数据扰动所造成的影响。
噪声可以认为数据自身的波动性表达了目前任何学习算法所能达到泛化误差的下限。
偏差大说明欠拟合方差大说明过拟合。
8、特征工程 8.1、特征工程是什么
有这么一句话在业界广泛流传数据和特征决定了机器学习的上限而模型和算法只是逼近这个上限而已。那特征工程到底是什么呢顾名思义其本质是一项工程活动目的是最大限度地从原始数据中提取特征以供算法和模型使用。通过总结和归纳人们认为特征工程包括以下方面 特征处理是特征工程的核心部分sklearn提供了较为完整的特征处理方法包括数据预处理特征选择降维等。首次接触到sklearn通常会被其丰富且方便的算法模型库吸引但是这里介绍的特征处理库也十分强大
9、数据预处理的方法
我们使用sklearn中的preproccessing库来进行数据预处理
通过特征提取我们能得到未经处理的特征这时的特征可能有以下问题
不属于同一量纲信息冗余定性特征不能直接使用存在缺失值信息利用率低 10、特征选择的方法有哪些
根据特征选择的形式又可以将特征选择方法分为3种
Filter过滤法按照发散性或者相关性对各个特征进行评分设定阈值或者待选择阈值的个数选择特征。Wrapper包装法根据目标函数通常是预测效果评分每次选择若干特征或者排除若干特征。(每次增加或者减少一维特征观察模型的结果从而决定是否添加或删除该特征)Embedded嵌入法先使用某些机器学习的算法和模型进行训练得到各个特征的权值系数根据系数从大到小选择特征。类似于Filter方法但是是通过训练来确定特征的优劣。通过最终训练好的模型的参数来选择特征,LASSO回归RF模型等
我们使用sklearn中的feature_selection库来进行特征选择。
11、写K-means、GMM的公式
11.1 k-means 11.2 GMM 12、CNN与RNN的区别
在普通的全连接网络或CNN中每层神经元的信号只能向上一层传播样本的处理在各个时刻独立因此又被成为前向神经网络(Feed-forward Neural Networks)。而在RNN中神经元的输出可以在下一个时间戳直接作用到自身即第i层神经元在m时刻的输入除了(i-1)层神经元在该时刻的输出外还包括其自身在(m-1)时刻的输出表示成图就是这样的
我们可以看到在隐含层节点之间增加了互连。为了分析方便我们常将RNN在时间上进行展开得到如图6所示的结构
13、你所知道的距离度量方式、损失函数
13.1 距离度量
距离函数种类欧式距离、曼哈顿距离、明式距离闵可夫斯基距离、马氏距离、切比雪夫距离、标准化欧式距离、汉明距离、夹角余弦等常用距离函数欧式距离、马氏距离、曼哈顿距离、明式距离
1.欧式距离 欧式距离是最容易直观理解的距离度量方法我们小学中学高中所接触的两个空间中的距离一般都是指的是欧式距离。 2.曼哈顿距离(Manhattan Distance) 两个点在标准坐标系上的绝对轴距总和 3.切比雪夫距离 各坐标数值差的最大值 4.闵可夫斯基距离 闵氏距离不是一种距离而是一组距离的定义是对多个距离度量公式的概括性的表述。
5.标准化欧氏距离 定义 标准化欧氏距离是针对欧氏距离的缺点而作的一种改进。标准欧氏距离的思路既然数据各维分量的分布不一样那先将各个分量都**“标准化”**到均值、方差相等。
6.马氏距离 **概念**马氏距离是基于样本分布的一种距离。物理意义就是在规范化的主成分空间中的欧氏距离。所谓规范化的主成分空间就是利用主成分分析对一些数据进行主成分分解。再对所有主成分分解轴做归一化形成新的坐标轴。由这些坐标轴张成的空间就是规范化的主成分空间。 马氏距离的优点与量纲无关排除变量之间的相关性干扰
7.余弦距离
夹角余弦取值范围为[-1,1]。余弦越大表示两个向量的夹角越小余弦越小表示两向量的夹角越大。当两个向量的方向重合时余弦取最大值1当两个向量的方向完全相反余弦取最小值-1。
8.汉明距离 定义两个等长字符串s1与s2的汉明距离为将其中一个变为另外一个所需要作的最小字符替换次数。
9.信息熵 以上的距离度量方法度量的皆为两个样本向量之间的距离而信息熵描述的是整个系统内部样本之间的一个距离或者称之为系统内样本分布的集中程度一致程度、分散程度、混乱程度不一致程度。系统内样本分布越分散(或者说分布越平均)信息熵就越大。分布越有序或者说分布越集中信息熵就越小。
13.2 损失函数
log对数 损失函数逻辑回归平方损失函数最小二乘法指数损失函数AdaBoostHinge损失函数SVM0-1损失函数绝对值损失函数
损失函数loss function是用来估量你模型的预测值f(x)与真实值Y的不一致程度它是一个非负实值函数,通常使用L(Y, f(x))来表示损失函数越小模型的鲁棒性就越好。
损失函数是经验风险函数的核心部分也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项
1.log对数 损失函数 在逻辑回归的推导中它假设样本服从伯努利分布0-1分布然后求得满足该分布的似然函数。
log函数是单调递增的凸函数避免局部最优
在使用梯度下降来求最优解的时候它的迭代式子与平方损失求导后的式子非常相似
2.平方损失函数最小二乘法, Ordinary Least Squares 最小二乘法是线性回归的一种OLS将问题转化成了一个凸优化问题。
在线性回归中它假设样本和噪声都服从高斯分布为什么假设成高斯分布呢其实这里隐藏了一个小知识点就是中心极限定理最后通过极大似然估计MLE可以推导出最小二乘式子。
为什么它会选择使用欧式距离作为误差度量呢即Mean squared error MSE主要有以下几个原因
简单计算方便欧氏距离是一种很好的相似性度量标准在不同的表示域变换后特征性质不变
3.指数损失函数AdaBoost
4.hinge损失 在机器学习算法中hinge损失函数和SVM是息息相关的。在线性支持向量机中最优化问题可以等价于下列式子
损失函数总结