当前位置: 首页 > news >正文

房产中介如何做网站温州哪里有做网站的

房产中介如何做网站,温州哪里有做网站的,网络营销管理师,战队头像在线制作免费日期#xff1a;2024.1.22 - 2024.1.28 本周工作#xff1a; 1. 阅读论文 本周阅读了以下论文#xff1a; 《BRAU-Net#xff1a;用于医学图像分割的U形混合CNN-Transformer网络》 背景 精确的医学图像分割对于临床量化、疾病诊断、治疗计划和许多其他应用至关重要。基…日期2024.1.22 - 2024.1.28 本周工作 1. 阅读论文 本周阅读了以下论文 《BRAU-Net用于医学图像分割的U形混合CNN-Transformer网络》 背景 精确的医学图像分割对于临床量化、疾病诊断、治疗计划和许多其他应用至关重要。基于卷积和基于Transformer的u形结构在各种医学图像分割任务中都取得了显著的成功。前者可以有效地学习图像的局部信息同时需要卷积运算所固有的更多特定于图像的归纳偏差。后者可以使用自注意在不同的特征尺度上有效地捕捉长程依赖性而随着序列长度的增加它通常会遇到二次计算和内存需求的挑战。为了解决这个问题通过将这两种范式的优点集成到设计良好的u形架构中本论文提出了一种混合但有效的CNN-Transformer网络称为BRAU-Net用于精确的医学图像分割任务。 主要内容 研究目的这篇论文介绍了一种新的用于医学影像分割的网络架构BRAU-Net。该架构旨在有效处理医学图像以助力临床量化、疾病诊断和治疗规划等重要任务。 概述 架构BRAU-Net是一种将卷积神经网络CNN和Transformer技术结合在U型结构中的混合网络。这种设计利用了CNN在学习局部图像信息方面的优势以及Transformer在捕捉长距离依赖关系方面的优势。 贡献 介绍了一种u形混合CNN Transformer网络该网络以双层路由注意力为核心构建块来设计编码器-解码器结构其中编码器和解码器都是分层构建的以便在降低计算复杂度的同时有效地学习局部全局语义信息。利用通道空间注意机制重新设计了传统的跳跃连接并提出了具有通道空间注意的跳跃连接SCCSA旨在增强通道和空间两个方面的跨维度交互补偿下采样造成的空间信息损失。三个常用的数据集上验证了BRAU-Net的有效性Synapse多器官分割、ISIC-2018挑战和CVC ClinicDB数据集。因此在几乎所有的评估指标下所提出的BRAUNet都比其他最先进的SOTA方法表现出更好的性能。 创新点 双层路由注意力BRAU-Net的核心组件之一是其U型编码器-解码器结构中使用的双层路由注意力。这个特性使网络能够有效地学习全局语义信息同时控制计算复杂度。重新设计的跳跃连接网络在其跳跃连接中加入了通道-空间注意力使用卷积操作。这种方法旨在最小化局部空间信息的损失并增强多尺度特征在不同维度间的交互。 性能 论文报告了在三个公共基准数据集上进行的广泛实验的印象深刻结果。值得注意的是BRAU-Net在几乎所有评估指标上都超越了其他最先进的方法包括其前身BRAU-Net。网络在Dice相似系数DSC和平均交并比mIoU等多个数据集上都取得了高分显示出其在医学图像分割任务中的有效性。 应用提出的网络在推动医学图像分割方面具有重要潜力这是疾病诊断和治疗规划等多种临床应用中不可或缺的一步。 这种详细且创新的方法在BRAU-Net中体现出医学图像处理领域的重大进步利用了CNN和Transformer的结合优势提高了图像分割任务的准确性和效率。 方法 整体框架 BRAU-Net包括编码器、解码器、瓶颈和SCCSA模块。编码器给定大小为H×W×3的输入医学图像将医学图像分割为重叠的块并通过块嵌入将每个块的特征维数投影到任意维数定义为C。变换后的补丁令牌通过多个BiFormer块和补丁合并层来生成层次特征表示。具体来说补丁合并用于降低特征图的分辨率和增加维度而BiFormer块用于学习特征表示。对于瓶颈特征图的分辨率和维度保持不变。解码器设计了一种基于对称变换器的解码器该解码器由BiFormer块和补丁扩展层组成。补片扩展层负责上采样和降维。通过SCCSA模块将提取的上下文特征与编码器的多尺度特征融合以弥补下采样造成的空间信息损失并放大全局维度的相互作用。最后一个补丁扩展层用于4×上采样以恢复特征图的原始分辨率H×W然后使用线性投影层生成像素级分割预测。 编码器 BiFormer模块 编码器是通过使用三级金字塔结构来分层构造的 在阶段1中由两个3×3卷积层组成的补丁嵌入层; 在阶段1-3中使用具有3×3卷积层的补丁合并层来降低输入空间分辨率同时增加通道数量; 在阶段1中将分辨率为H/4×W/4和C通道的标记化输入馈送到两个连续的BiFormer块中以执行表示学习; 阶段2-3中的标记化输入也以类似的方式执行; 补丁合并层执行2×下采样以将标记数量减少一半并将特征维数增加2×。 解码器 与编码器类似解码器也是基于BiFormer块构建的。 采用了补丁扩展层对解码器中提取的深层特征进行上采样。 补丁扩展层主要用于将特征图重塑为更高分辨率的特征图即将分辨率提高2×并将特征维数降低一半。 最后一个补丁扩展层执行4×上采样以输出分辨率为H×W的特征图用于预测像素级分割。 跳跃连接Skip Connection Channel-Spatial Attention SCCSA 与使用单一注意力机制相比通道和空间注意力的结合可以增强模型捕捉更广泛上下文特征的能力。 提出了一种跳跃连接通道空间注意力简称SCCSA。 SCCSA模块可以有效补偿下采样造成的空间信息损失增强解码器每层多尺度特征的全局维度交互从而在生成输出掩码的同时恢复细粒度细节。 SCCSA模块包括通道注意力子模块和空间注意力子模块。 首先通过级联编码器和解码器的输出导出 F 1 ϵ R h × w × 2 n F1\epsilon R^{h\times w\times 2n} F1ϵRh×w×2n 然后通道注意力子模块使用多层感知器MLP的编码器-解码器结构放大跨维度信道空间相关性其缩减率为e4。使用两个7×7卷积层来关注来自通道注意力子模块的具有相同缩减率e的空间信息。给定输入特征图 x 1 , x 2 ϵ R h × w × n x_{1}, x_{2}\epsilon R^{h\times w\times n} x1​,x2​ϵRh×w×n 中间状态F1F2F3然后输出x3定义为 其中F2和F3分别是通道和空间注意力子模块的输出⊗和σ分别表示元素乘法和sigmoid激活函数。 算法训练流程 算法接收两个输入一组图像 S 和一组对应的掩码 T目标是训练模型参数。 对于每个批次中的图像 xi执行以下步骤 a. Patch Embedding将输入图像 xi 分解成小块patches并将它们转换成嵌入embedding这是一个向量表示。 b. 进行多个阶段num_stage的处理每个阶段包含多个块num_stage_block对于每个块执行以下操作 加入位置嵌入 pos_embed这有助于网络理解图像中各个部分的位置信息。应用BRA可能是某种注意力机制或块重复的处理和MLP多层感知机来提取特征和进行非线性转换。 c. Patch Merging在每个阶段结束时合并小块以减少维度增加每个小块的信息内容。 在经过初始阶段后进行反向阶段num_stage - 2 到 -1的处理这可能是一个解码或上采样过程包括 a. Patch Expanding与 Patch Merging 相反它增加了特征的维度恢复了一些分辨率。 b. Concat将扩展的特征与之前的某个阶段的输出进行拼接。 c. 应用SCSA这可能是另一种特殊的注意力机制或特征选择步骤。 在所有阶段处理完成后执行最终的 Patch Expanding 以进一步提高特征的分辨率。 应用 Linear Projection 来产生输出 yi这可能是一个分类、分割或其他类型的预测。 计算损失函数 L结合了 Ldice 和 Lce 两种损失这通常是在图像分割任务中用于比较预测掩码和真实掩码之间的相似性。 使用梯度反向传播算法更新模型参数。 整体来看这个算法是一个多阶段的特征提取和转换网络用于图像处理任务可能是图像分割。通过在多个尺度上处理图像特征并通过损失函数优化来学习复杂的表示。 实验结果 消融实验 结论 本论文提出了一种精心设计的U形混合CNN转换器架构BRAU-Net它利用动态稀疏注意力而不是全注意力或静态手工制作的稀疏注意力可以有效地学习局部全局语义信息同时降低计算复杂度。本文提出了一个新的模块跳跃连接通道空间注意力SCCSA来整合多尺度特征以补偿空间信息的损失增强跨维度的交互作用。实验结果表明在Synapse多器官分割、ISIC-2018 Challenge和CVCClinicDB数据集的几乎所有评估指标下本论文提出的方法都能实现SOTA性能尤其擅长捕捉小目标的特征。 个人感悟 本文介绍了一种先进的分割模型该模型集成了CNN和transformer架构的优势用于医学成像。 BRAU-Net使用双级路由注意机制并包括一个重新设计的跳跃连接通道-空间注意(SCCSA)来解决下采样空间信息丢失问题。该模型旨在有效地捕获局部和全局信息在保持计算效率的同时提高分割精度。 作者已经在几个基准数据集上测试了他们的模型显示出比以前最先进的方法更有希望的结果。他们强调在医学图像中准确分割的精细细节和全局背景之间的平衡这对诊断和治疗计划至关重要。 本文对提高医学图像分析的认识和能力具有重要意义。然而可能还有改进的空间例如进一步优化模型的计算效率探索其可转移到其他类型的医学成像数据或研究模型在有限数据或无监督学习场景下的表现。这些潜在的改进可以使模型更加通用并适用于各种现实世界的临床环境。 2. 学习内容 双层路由注意Bi-Level Routing Attention 双重路由注意力Dual-Path Routing Attention是一种用于增强神经网络模型性能的注意力机制。这个注意力机制的目标是在处理序列数据或图数据时有效地捕捉不同级别的信息交互以提高模型的性能。它在处理序列或图像时采用双层结构。这种机制通常涉及到两个层次的注意力分配在较低的层次上模型专注于局部特征或序列的细节在较高的层次上模型则把注意力放在全局上下文或更广泛的序列特征上。这样模型可以同时捕捉到细节信息和全局信息从而提高处理复杂数据时的性能。在医学图像分割中这种机制有助于精准定位和区分不同的解剖结构或病理特征。 背景 在深度学习中序列数据或图数据通常需要考虑不同层级或不同分辨率的信息交互以更好地理解和表示数据。传统的注意力机制通常依赖于一个注意力矩阵该矩阵用于计算输入的加权和但它们有时会限制模型的能力特别是当需要处理多层次的信息时。 双重路由注意力的思想 双重路由注意力引入了两个不同的路径或通道来处理输入数据分别称为“通道注意力”和“空间注意力”。这两个路径允许模型在不同的维度上学习如何关注数据。 通道注意力通道注意力关注输入数据的不同通道或特征维度。它的目标是确定哪些特征通道对当前任务更重要以便更好地表示数据。通道注意力的计算通常涉及计算特征通道之间的相关性或重要性权重。 空间注意力空间注意力关注输入数据的不同位置或空间维度。它的目标是确定哪些位置或区域在当前任务中更重要。空间注意力的计算通常涉及计算不同位置之间的相关性或重要性权重。 计算过程 双重路由注意力的计算过程如下 a. 通道注意力计算首先通过对输入数据的通道维度进行操作计算出通道注意力权重。这可以使用不同的机制例如全局平均池化或1x1卷积等。 b. 空间注意力计算接下来通过对输入数据的空间维度进行操作计算出空间注意力权重。这可以使用卷积操作或其他空间操作来实现。 c. 融合路径最后将通道注意力和空间注意力权重相乘然后将它们应用于原始输入数据以生成最终的注意力增强表示。这可以通过加权和的方式来实现。 应用领域 双重路由注意力可以应用于多个领域如自然语言处理、计算机视觉和图神经网络。它可以帮助模型更好地理解和表示数据从而提高性能。 总的来说双重路由注意力是一种强大的注意力机制它通过引入两个不同的关注路径允许模型在通道和空间维度上更好地捕捉信息交互从而提高模型在各种任务中的性能。这种注意力机制的应用可以根据具体任务和数据类型进行定制。
http://www.zqtcl.cn/news/72995/

相关文章:

  • 网站建设金手指排名霸屏国外做宠物用品的网站
  • 最新在线免费网站在网站设计中 网页框架设计
  • 做网站要以单位北京住房与建设部网站
  • 深圳html5网站推广价格建网站要多少费用
  • 嘉定建站公司网络维护人员必备技能
  • 三元区建设小学网站深圳做手机网站
  • 支付网站建设费开发工具设置控件格式
  • 住房和城乡建设部网站统计唐山市里做网站的
  • 网站建设微信商城开发军事新闻头条
  • 搜狐快站做淘宝客网站儿童手工制作大全
  • 做站用什么网站程序自己在家可以做网站吗
  • 仿手表网站河北邯郸中考成绩查询网站
  • 北京做网站定制价格公司网站怎么维护
  • wordpress theme 删除seo网络营销外包公司
  • 电商网站建设课程设计实验报告手游传奇开服网站
  • 电子商务网站开发是什么互联网相关行业有哪些
  • 公司网站市场价在线网站软件免费下载安装
  • it网站建设方案响应式学校网站模板下载
  • 徐州网站建设青州陈酿公众平台账号授权怎么弄
  • 介绍家乡的网站怎么做简单网页素材
  • 常州网站建设要多少钱wordpress 导航菜单 居中
  • 百度景安空间网站网站建设方案书 个人备案
  • 做团队网站源码有哪些wordpress免费中文模板
  • 如何做团购网站中的美食地处地图功能大淘客网站logo怎么做
  • 没有网站如何做cpa关于外贸公司的网站模板
  • 网站开发主要语言零基础学ui设计怎么样
  • wordpress编辑器增强插件做360网站优化快
  • 主题资源网站创建时 如何突出设计的特点html制作个人主页
  • 重庆在百度做个网站多少钱网上做网站网站代理
  • 珠海做网站哪家最专业简单描述网络营销的特点