当前位置: 首页 > news >正文

做网站是什么专业什么工作wordpress地址和站点地址错

做网站是什么专业什么工作,wordpress地址和站点地址错,海门公司网站制作费用,做一个小程序需要多少钱?0 写在前面 这个文档主要总结YOLO系列的创新点#xff0c;以YOLOv3为baseline。参考(抄)了不少博客#xff0c;就自己看看吧。有些模型的trick不感兴趣就没写进来#xff0c;核心的都写了。 YOLO系列的网络都由四个部分组成#xff1a;Input、Backbone、Neck、Prediction…0 写在前面 这个文档主要总结YOLO系列的创新点以YOLOv3为baseline。参考(抄)了不少博客就自己看看吧。有些模型的trick不感兴趣就没写进来核心的都写了。 YOLO系列的网络都由四个部分组成Input、Backbone、Neck、Prediction head。 Input主要是在训练开始之前进行resize、数据增强等操作不同的YOLO在数据增强方面也有很多改进。在测试阶段则只会进行resize。其中resize操作中先将图像进行灰度值填充成正方形再resize等比缩放常用的尺寸为640 * 640这个值越大模型预测的越准确但消耗的显存越大。Backbone主要对图像进行下采样。在YOLOv3以后的网络都会在BackBone不同的深度经过Neck层拿到3种深度的特征图。一般会进行5次下采样(好像)所以输入的图像的宽高会被resize成32的倍数。YOLO的思想是把图像经过下采样将图像划分成 S * S 个区域每个区域由对应的节点进行预测框的生成。Neck与Backbone配合取3种深度/尺寸的特征图。拿416 * 416的图为例最底层为13 * 13相当于把原图划分成13 * 13个区域因为深度最深所以感受野最大利于大目标的检测其他的尺度类似。Prediction Head基于Neck层取到的特征图进行预测框的生成每一个节点负责对应小区域的预测框生成每个预测框包括预测框位置与大小、置信度、分类结果。例如在YOLOv3中13 * 13 * 25513 * 13是区域2553 * (4 1 80)其中3表示会基于3种锚框进行预测4为预测框的位置(中心点坐标、宽高)1为置信度80为分类结果(COCO数据集有80个类)。在YOLO系列中有anchor based和anchor free两种方法。 1 YOLOv3(Anchor based) 1.1 动机 YOLOv3借鉴了FPN的方法采用多尺度的特征图对不同大小的物体进行检测以提升小物体的预测能力。例如输入416X416的图像则会得到13 * 13 (416/32)26 * 26(416/16) 以及52 * 52(416/8)这3个尺度的特征图。 1.2 值得注意的地方 Backbone使用Darknet53其中包括残差卷积每一次卷积的时候进行L2正则化完成卷积后进行BN与LeakyReLU激活。 置信度部分则继续沿用v1v2中的IoU作为标签IoU的表达式如下 I o U A ∩ B A ∪ B IoU\frac{A \cap B}{A \cup B} IoUA∪BA∩B​ 使用anchor based方法生成预测框(其实是YOLOv2就有的)。在训练开始前基于训练集所有的ground-truth利用k-means进行聚类得到9个聚类中心/锚框(anchor boxes也有叫先验框的)。9个锚框被分成3组分别用于三种深度的Prediction Head锚框的中心点位置为每个网格的中心点。9种锚框的尺寸随着不同的数据集而变化。 由Prediction Head生成框的位置与尺寸结果 [ t x , t y , t w , t h ] [t_x, t_y, t_w, t_h] [tx​,ty​,tw​,th​] 还需要基于锚框进行解码映射计算过程如下 b x σ ( t x ) c x b y σ ( t y ) c y b w p w e t w b h p h e t h b_x\sigma(t_x) c_x \\ b_y\sigma(t_y) c_y \\ b_wp_we^{t_w} \\ b_hp_he^{t_h} bx​σ(tx​)cx​by​σ(ty​)cy​bw​pw​etw​bh​ph​eth​ 其中 c x , c y c_x, c_y cx​,cy​ 代表网格的左上角距离最左上角相差的格子数 p w , p h p_w, p_h pw​,ph​ 代表锚框的宽高 t x , t y t_x, t_y tx​,ty​ 代表目标中心点到网格左上角顶点的偏移量 t w , t h t_w, t_h tw​,th​ 代表宽高偏移量 [ b x , b y , b w , b h ] [b_x, b_y, b_w, b_h] [bx​,by​,bw​,bh​] 即为最终的预测框。图解如下 使用非极大值抑制(Non_max Suppression, NMS)对重叠过高的框进行筛选NMS对不同类别的框分开操作。以单独类举例首先将框按照置信度降序排序构建集合H并建造一个存放最优框的集合M初始化为空集。每次在集合H取最高置信度的框跟同类别其他的框计算IoU如果IoU超过一定的阈值则抛弃后取出的框遍历结束则将最高置信度的框放入集合M接着循环这个操作直到集合H为空集。集合M中所有的框即为最优检测结果。 YOLO系列的损失函数都由三个大部分构成即框位置与尺寸误差、置信度误差、分类误差。 L o s s L o b j L c o n L c l s LossL_{obj}L_{con}L_{cls} LossLobj​Lcon​Lcls​ 具体一点可以分为box的中心点误差、框尺寸误差、置信度误差、不存在box时置信度误差、分类的误差。YOLOv3的损失函数如下 L o s s − λ c o o r d ∑ i 0 S 2 ∑ j 0 B I i j o b j [ x ^ i j log ⁡ ( x i j ) ( 1 − x ^ i j ) log ⁡ ( 1 − x i j ) y ^ i j log ⁡ ( y i j ) ( 1 − y ^ i j ) log ⁡ ( 1 − y i j ) ] λ c o o r d 1 2 ∑ i 0 S 2 ∑ j 0 B I i j o b j [ ( w i j − w ^ i j ) 2 ( h i j − h ^ i j ) 2 ] − ∑ i 0 S 2 ∑ j 0 B I i j o b j [ C ^ i j log ⁡ ( C i j ) ( 1 − log ⁡ C ^ i j ) log ⁡ ( 1 − C i j ) ] − λ n o o b j ∑ i 0 S 2 ∑ j 0 B I i j n o o b j [ C ^ i j log ⁡ ( C i j ) ( 1 − C ^ i j ) log ⁡ ( 1 − C i j ) ] − ∑ i 0 S 2 ∑ j 0 B I i j o b j ∑ c ∈ c l a s s s e s [ P ^ i , c j log ⁡ ( P i , c j ) ( 1 − P ^ i , c j ) log ⁡ ( 1 − P i , c j ) ] Loss-\lambda_{coord}\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\left[\hat{x}_i^j\log{(x_i^j)} (1-\hat{x}_i^j)\log{(1-x_i^j)} \hat{y}_i^j\log{(y_i^j)}(1-\hat{y}_i^j)\log{(1-y_i^j)} \right] \\ \lambda_{coord}\frac{1}{2}\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\left[(w_i^j-\hat{w}_i^j)^2 (h_i^j-\hat{h}_i^j)^2 \right] \\ -\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\left[\hat{C}_i^j\log{(C_i^j)(1-\log{\hat{C}_i^j})\log{(1-C_i^j)}} \right] \\ -\lambda_{noobj}\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{noobj}\left[\hat{C}_i^j\log{(C_i^j)}(1-\hat{C}_i^j)\log{(1-C_i^j)} \right] \\ -\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\sum_{c\in{classses}}\left[\hat{P}_{i,c}^j\log{(P_{i,c}^j)}(1-\hat{P}_{i,c}^j)\log{(1-P_{i,c}^j)} \right] Loss−λcoord​i0∑S2​j0∑B​Iijobj​[x^ij​log(xij​)(1−x^ij​)log(1−xij​)y^​ij​log(yij​)(1−y^​ij​)log(1−yij​)]λcoord​21​i0∑S2​j0∑B​Iijobj​[(wij​−w^ij​)2(hij​−h^ij​)2]−i0∑S2​j0∑B​Iijobj​[C^ij​log(Cij​)(1−logC^ij​)log(1−Cij​)]−λnoobj​i0∑S2​j0∑B​Iijnoobj​[C^ij​log(Cij​)(1−C^ij​)log(1−Cij​)]−i0∑S2​j0∑B​Iijobj​c∈classses∑​[P^i,cj​log(Pi,cj​)(1−P^i,cj​)log(1−Pi,cj​)] 中心点误差 L o s s − λ c o o r d ∑ i 0 S 2 ∑ j 0 B I i j o b j [ x ^ i j log ⁡ ( x i j ) ( 1 − x ^ i j ) log ⁡ ( 1 − x i j ) y ^ i j log ⁡ ( y i j ) ( 1 − y ^ i j ) log ⁡ ( 1 − y i j ) ] Loss-\lambda_{coord}\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\left[\hat{x}_i^j\log{(x_i^j)} (1-\hat{x}_i^j)\log{(1-x_i^j)} \hat{y}_i^j\log{(y_i^j)}(1-\hat{y}_i^j)\log{(1-y_i^j)} \right] Loss−λcoord​i0∑S2​j0∑B​Iijobj​[x^ij​log(xij​)(1−x^ij​)log(1−xij​)y^​ij​log(yij​)(1−y^​ij​)log(1−yij​)] I i j o b j I_{ij}^{obj} Iijobj​ 表示该预测框是否负责检测目标物体 ( x i j , y i j ) (x_i^j,y_i^j) (xij​,yij​) 为预测框中心点坐标 ( x ^ i j , y ^ i j ) (\hat{x}_i^j,\hat{y}_i^j) (x^ij​,y^​ij​) 为ground-truth中心点坐标 λ c o o r d \lambda_{coord} λcoord​ 为权重系数。总体为交叉熵的形式。正例由NMS得到。 框尺寸误差 λ c o o r d 1 2 ∑ i 0 S 2 ∑ j 0 B I i j o b j [ ( w i j − w ^ i j ) 2 ( h i j − h ^ i j ) 2 ] \lambda_{coord}\frac{1}{2}\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\left[(w_i^j-\hat{w}_i^j)^2 (h_i^j-\hat{h}_i^j)^2 \right] λcoord​21​i0∑S2​j0∑B​Iijobj​[(wij​−w^ij​)2(hij​−h^ij​)2] ( w i j , h i j ) (w_i^j,h_i^j) (wij​,hij​) 为预测框宽高 ( w ^ i j , h ^ i j ) (\hat{w}_i^j,\hat{h}_i^j) (w^ij​,h^ij​) 为ground-truth宽高。总体为欧几里得距离的形式。 置信度误差 − ∑ i 0 S 2 ∑ j 0 B I i j o b j [ C ^ i j log ⁡ ( C i j ) ( 1 − log ⁡ C ^ i j ) log ⁡ ( 1 − C i j ) ] − λ n o o b j ∑ i 0 S 2 ∑ j 0 B I i j n o o b j [ C ^ i j log ⁡ ( C i j ) ( 1 − C ^ i j ) log ⁡ ( 1 − C i j ) ] -\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\left[\hat{C}_i^j\log{(C_i^j)(1-\log{\hat{C}_i^j})\log{(1-C_i^j)}} \right] \\ -\lambda_{noobj}\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{noobj}\left[\hat{C}_i^j\log{(C_i^j)}(1-\hat{C}_i^j)\log{(1-C_i^j)} \right] −i0∑S2​j0∑B​Iijobj​[C^ij​log(Cij​)(1−logC^ij​)log(1−Cij​)]−λnoobj​i0∑S2​j0∑B​Iijnoobj​[C^ij​log(Cij​)(1−C^ij​)log(1−Cij​)] C i j C_i^j Cij​ 为置信度即预测框内含目标物体的概率得分 C ^ i j \hat{C}_i^j C^ij​ 为真实值 I i j n o o b j 1 − I i j o b j I_{ij}^{noobj}1-I_{ij}^{obj} Iijnoobj​1−Iijobj​ 。公式的后者为负例产生的loss负例为与所有ground-truth的IoU均小于0.5的框负样例只对置信度产生loss的贡献置信度的标签均为0。除了正例和负例还有忽略样例不对loss产生任何贡献。忽略样例为除正例外与任意一个ground-truth的IoU大于0.5的框。 分类损失 − ∑ i 0 S 2 ∑ j 0 B I i j o b j ∑ c ∈ c l a s s s e s [ P ^ i , c j log ⁡ ( P i , c j ) ( 1 − P ^ i , c j ) log ⁡ ( 1 − P i , c j ) ] -\sum_{i0}^{S^2}\sum_{j0}^{B}I_{ij}^{obj}\sum_{c\in{classses}}\left[\hat{P}_{i,c}^j\log{(P_{i,c}^j)}(1-\hat{P}_{i,c}^j)\log{(1-P_{i,c}^j)} \right] −i0∑S2​j0∑B​Iijobj​c∈classses∑​[P^i,cj​log(Pi,cj​)(1−P^i,cj​)log(1−Pi,cj​)] 对每个类别和每个框与真实框做交叉熵。 2 YOLOv4(Anchor based) 整体感觉YOLOv4就是堆trick和调参的结果没提出自己的东西。 2.1 创新点 Input训练时对输入端的改进主要包括Mosaic数据增强、cmBN、SAT自对抗训练。 Mosaic是参考2019年底提出的CutMix数据增强的方式但CutMix只使用了两张图片进行拼接而Mosaic数据增强则采用了4张图片随机缩放、随机裁剪、随机排布的方式进行拼接。cmBN把大batch内部的4个mini batch当做一个整体进行BN(大概不太关心这种改动)主要改变在于BN层的统计量计算方面。SAT自对抗训练主要目标是通过改变输入图像使得网络难以识别从而迫使网络提高泛化性能。(不太关心) Backbone使用CSPDarknet53、Mish激活函数、Dropblock。 CSPDarknet53中的最小组件是CBM由ConvBNMish组成。Mish激活函数ReLU 和 Mish 的对比Mish 的梯度更平滑。表达式与图像如下 f ( x ) x ∗ tanh ⁡ ( ln ⁡ ( 1 e x ) ) f(x)x*\tanh{(\ln(1e^x))} f(x)x∗tanh(ln(1ex)) Dropblock在卷积的过程中随机丢弃一些块的图像信息。池化层本身就是对相邻单元起作用随机丢弃信息后卷积层仍然可以从相邻的激活单元学习到相同的信息。这样做是为了缓解过拟合。 NeckSPP模块和FPNPAN结构。 SPP模块采用1×15×59×913×13的最大池化的方式进行多尺度融合。 FPNPAN结构抄的是18年CVPR的PANet当时主要应用于图像分割领域。FPN层自顶向下传达强语义特征而PAN则自底向上传达强定位特征。 原本的PANet网络的PAN结构中两个特征图结合是采用shortcut操作而YOLOv4中则采用concat操作特征图融合后的尺寸发生了变化。(效果好才这样的吧笑) Prediction Head与YOLOv3相同训练时框的位置损失用的CIoU_LossNMS用的是DIoU。关于不同的IoU有怎样的特点与不适用于怎样的场景网上有很多这东西能写很长我以前在论文里也提到过懒得写随便找找别的博客看看吧逃。 3 YOLOv5(Anchor based) YOLOv5整体跟YOLOv4很相似可以看成在YOLOv4的基础上改的属于狂堆trick的产物。 3.1 创新点 Input自适应图片缩放。之前的resize方式是先将图片利用灰度值填充至正方形再resize成416 * 416等尺寸。YOLOv5的作者认为这样做太慢了而且填多了则会产生大量冗余信息所以提出了自适应图片缩放。假设我现在有一张800 * 600的图片需要resize成416 * 416的。步骤如下 计算两个维度上的缩放比例416/8000.52,416/6000.69选小的先进行resize得到416*312的图。之后再进行灰度值填充至416 * 416。 Backbone采用CSPNet在CSPNet之前提出一种Focus结构。 CSPNet最小组件CSP结构感觉没啥好说的他效果好他有理。Focus对图片进行切片(slice)操作具体操作是在一张图片中每隔一个像素拿到一个值类似于邻近下采样这样就拿到了四张图片这样就在没丢失信息的情况下扩充了特征图量。YOLOv5中的Focus先切片通道数变为12再利用1 * 1卷积再次扩充通道数至32。(感觉会丢失小目标的特性信息后面的模型都没用这个trick了) Neck依旧沿用YOLOv4的FPNPAN结构。(FPN是金字塔层级结构PAN是利用浅层特征信息对深层特征信息的补充) Prediction Head计算预测框损失的时候改用GIoU_Loss懒得过多解释。利用不同的IoU对NMS也做了一点改进好像就是用CIoU和DIoU加权改进的。YOLOv5还改了预测框回归计算公式。 之前的回归公式中宽和高的映射关系由于存在exp的操作可能导致梯度过大不稳定不利于训练YOLOv5的预测框回归计算公式 b x 2 σ ( t x ) − 0.5 c x b y 2 σ ( t y ) − 0.5 c y b w p w ( 2 σ ( t w ) 2 ) b h p h ( 2 σ ( t h ) 2 ) b_x2\sigma(t_x)-0.5c_x \\ b_y2\sigma(t_y)-0.5c_y \\ b_wp_w(2\sigma(t_w)^2) \\ b_hp_h(2\sigma(t_h)^2) bx​2σ(tx​)−0.5cx​by​2σ(ty​)−0.5cy​bw​pw​(2σ(tw​)2)bh​ph​(2σ(th​)2) 其中 c x , c y c_x, c_y cx​,cy​ 代表网格的左上角距离最左上角相差的格子数 p w , p h p_w, p_h pw​,ph​ 代表锚框的宽高 t x , t y t_x, t_y tx​,ty​ 代表目标中心点到网格左上角顶点的偏移量 t w , t h t_w, t_h tw​,th​ 代表宽高偏移量 [ b x , b y , b w , b h ] [b_x, b_y, b_w, b_h] [bx​,by​,bw​,bh​] 即为最终的预测框。图解如下 4 YOLOv6(Anchor free) 美团开发的模型抄了YOLOv5和YOLOX。有点搞笑的是现在YOLOv6的github仍然在维护甚至在YOLOv7和v8出来之后又把他们比下去了乐。但似乎也就嘴硬YOLOv7的引用量已经四位数了而YOLOv6才三位数。 4.1 创新点 Input跟YOLOv5差不多但是没用Focus。(发现端倪) Backbone设计了EfficientRep见下图相比于 YOLOv5 采用的CSP-Backbone该 Backbone 能够高效利用硬件(如 GPU)算力的同时还具有较强的表征能力。(他们在博客里这么说的) 将Backbone中stride2的普通Conv替换成了stride2的RepConv。同时将原始的CSP-Block都重新设计为 RepBlock其中RepBlock的第一个RepConv会做channel维度的变换和对齐。还将原始的SPPF优化设计为更加高效的SimSPPF。好像是他们发现Inception结构比单路径网络分类效果好但Inception结构并行性降低耗时。他们在训练的时候用(a)结构推理的时候则用(b)结构。 NeckYOLOv6的颈部被表示为Rep-PAN。Rep-PAN基于PAN拓扑方式用RepBlock替换了YOLOv5中使用的CSP-Block同时对整体Neck中的算子进行了调整目的是在硬件上达到高效推理的同时保持较好的多尺度特征融合能力。(这个结构有点像EfficientDet) Prediction Head解耦头(Decoupled head)、Anchor free、SimOTA、SIoU 边界框回归损失。(看起来改了很多地方实则前三个都是YOLOX里面的今天少点一份外卖笑) **解耦头(Decoupled head)**就是把分类任务与置信度框位置尺寸分成两个分支这一概念最早由YOLOX的作者提出他们就是小改了一下。 Anchor free对于Anchor based方法需要对数据集进行k-means聚类生成9个锚框说实话这种方法就像打CSGO用鼠标宏压枪一样(雾)像挂又不是挂。Anchor free也是YOLOX先用的主要是速度快。 SimOTA这个也是YOLOX先用的用于区分正负样本此前的模型都是用IoU判的。步骤如下 ①计算成对预测框与ground-truth代价由分类及回归loss构成 ②计算前k小个loss对应的预测框与ground-truth的IoU其和为Dynamic k(需要向下取整)因此对于不同真值框其Dynamic k存在差异 ③最后选择代价最小的前Dynamic k个预测框作为正样本。 SIoU 边界框回归损失这个之前看过没看懂现在看又没看懂看啥时候把这个坑填上吧。逃 还有一些杂七杂八的改进主要用于工业界处理不细讲了。 5 YOLOv7(Anchor based) 图从YOLOv7网络结构图拿的画的好啊 YOLOv7是基于YOLOv5改的跟YOLOv6不是一个团队同规模乱杀能锤YOLOv8说是。Trick略多。。。 5.1 创新点 Input好像并无变化。 BackboneELAN、MP、RepVGG。 在原ELAN架构上提出**E-ELAN(extended ELAN)**用于改进Backbone。E-ELAN只改变了计算块的架构而过渡层的架构完全没有改变其作用是引导不同组的计算块学习更多样化的特征。ELAN结构采用组卷积来扩展计算块的通道数和基数。 MP模块主要由Maxpool和CBS组成。MP模块主要对特征图进行下采样与扩充通道数大概的作用就是将FPN的浅层特征通过下采样与深层特征进行融合以扩充深层特征的信息量。 RepVGG在Prediction Head出现主要表现为训练和推理的时候使用不同的网络结构即训练的时候使用多流结构推理的时候将分支的参数重参数化到主分支上。(感觉这样只是为了加速推理速度) RepConv中的identity-connection破坏了ResNet中的残差和DenseNet中的拼接为不同的特征映射提供了更多的梯度多样性。作者使用without identity connection的**RepConvN (RepConv without identity connection)**来设计计划重参数化模型的体系结构见下图 模型缩放模型缩放的主要目的是调整模型的某些属性并生成不同比例的模型以满足不同推理速度的需要(像YOLOv5和YOLOX)。作者提出了一种复合模型方法在考虑计算模块深度因子缩放的同时也考虑过渡层宽度因子做同等量的变化。当对连接结构的网络进行尺度缩放时只缩放计算块的深度转换层的其余部分只进行宽度的缩放。 Prediction Head深度监督、标签分配策略。 深度监督在网络的中间层增加额外的Auxiliary head以及以Auxiliary损失为导向的浅层网络权值图5(b)。将负责最终输出的head为Lead head用于辅助训练的head称为Auxiliary head。 标签分配策略与其他YOLO系列基于ground-truth的IoU分配soft label不同本文将网络预测结果与基本事实一起考虑提出两种soft label分配机制Lead guided assigner(图5d)与Coarse-to-fine lead guided assigner(图5e)。目前的基操是独立标签匹配结构将Auxiliary head和Lead head分离然后使用它们自己的预测结果和真实标签来进行标签分配。 Lead guided assigner主要基于Lead head的预测结果和ground-truth来计算并通过优化过程生成soft label。这组soft label将用作Auxiliary head和Lead head的训练。(看的别人的博客我也没明白留个坑) Coarse-to-fine lead guided assigner在这个过程中生成了两组不同的soft label即粗标签和细标签。细标签与Lead head在标签分配器上生成的soft label相同粗标签是通过放宽认定positive target的条件生成的也就是允许更多的grids作为positive target。(没看代码晕的) 6 YOLOv8(Anchor free) YOLOv8是基于YOLOv5改进的没改多少东西把YOLOX的解耦头、Anchor free抄过来了。本身是更侧重于实用trick不多甚至没找到论文。 4.1 创新点 Input学YOLOX在训练的最后10个epoch关闭Mosiac猛涨点。 Backbone将YOLOv5的C3结构换成了梯度流更丰富的C2F结构并对不同尺度模型调整了不同的通道数像是调参的产物都给我调 Neck无。 Prediction Head解耦头、Anchor free、Distribution Focal Loss、TaskAlignedAssigner。 解耦头似乎把置信度丢了两个分支为分类分支与回归分支。分类的损失函数用的交叉熵。回归的损失函数用的CIOU_LossDistribution Focal Loss。 Distribution Focal Loss不懂但是尊重留个坑。[DFL](大白话 Generalized Focal Loss - 知乎 (zhihu.com)) TaskAlignedAssigner根据分类与回归的分数加权的分数选择正样本。分数公式为 t s α × μ β ts^{\alpha} \times \mu^{\beta} tsα×μβ s s s 是标注类别对应的预测分值 μ \mu μ 是预测框与ground-truth的IoU。首先对于每个ground-truth计算对应类别的所有预测框的分数alignment_metrics。对于每个ground-truth基于alignment_metrics选取最大TopK大的分数对应的预测框作为正样本。
http://www.zqtcl.cn/news/210903/

相关文章:

  • 工程网站模板制作教程具有价值的专业网站建设平台
  • 用wex5可以做网站吗邯郸seo快速排名
  • 高端品牌网站建设兴田德润可信赖网络运营方案怎么写
  • 新公司网站建设合肥关键词排名优化
  • 网站排名优化+o+m西安网络推广平台公司
  • 找网站建设公司需要注意什么常州网站建设公司好么
  • 不备案的网站很慢网站双线主机优势
  • 南京电子商务网站建设23个营销专业术语
  • 建设银行官网官方网站学习网页制作的网站
  • 开发网站需要什么硬件今年最流行的装修风格
  • 门户网站建设中标结果百度资讯指数
  • 定制企业网站开发公司网站建设的6个基本步骤
  • 网站建设与维护案列网站作品怎么做
  • 茂名放心营销网站开发seo收费
  • 旅游网站品牌建设本地使用宝塔安装wordpress
  • 专门做外链的网站制作论坛类网站模板免费下载
  • 靖江建设行业协会网站投资做网站
  • 做网站视频背景潍坊网站制作建设
  • 深圳市官网网站建设哪家好百度抓取网站登录
  • 免费做cpa单页网站友情链接买卖代理
  • 免费网站建站排名中国最大的软件公司
  • 码云pages做静态网站广西建设培训网
  • 建设网站需要花钱吗网站seo方案策划书
  • 德阳网站怎么做seo陈木胜个人资料
  • 电子规划书商务网站建设wordpress主机推荐
  • wordpress设置多站点html5开发手机app
  • 移动互联和网站开发哪个好做推广便宜的网站有哪些
  • 极速网站建设定制价格微信公众号运营助手
  • .net制作网站开发教程在线修图编辑器
  • 哪些网站可以做详情页聊城高新区建设局网站