当前位置: 首页 > news >正文

做网站可以干嘛谷歌优化工具

做网站可以干嘛,谷歌优化工具,网站开发有前途,企业安全文化建设中的安全承诺是指目录 一、引言#xff1a;多模态模型的关键转折点 #xff08;一#xff09;当前 LMM 的三个关键挑战 1. 数据的真实性不足 2. 模型设计缺乏场景感知 3. 语言能力与视觉能力难以兼顾 #xff08;二#xff09;DeepSeek-VL 的根本出发点#xff1a;以真实任务为锚点…目录 一、引言多模态模型的关键转折点 一当前 LMM 的三个关键挑战 1. 数据的真实性不足 2. 模型设计缺乏场景感知 3. 语言能力与视觉能力难以兼顾 二DeepSeek-VL 的根本出发点以真实任务为锚点 1. 用“真实任务分类体系”驱动数据构建 2. 设计支持高分辨率的视觉编码架构 3. 保持语言能力主导的训练节奏 二、任务驱动的数据与指令构建从“任务目标”出发构建训练世界 一提出 28 类真实图文交互任务构建“视觉任务图谱” 二数据来源与构建策略混合式生成更真实、更高质量 1. 真实图像采集 2. 人工指令注入Instruction Injection 3. 自动数据增强Data Augmentation 三自定义任务格式图像 指令 任务标签三位一体 四任务覆盖统计规模远超现有开源数据集 三、模型架构设计任务泛化与分辨率理解兼顾的高效框架 一模型总览结构图 二图像处理模块高分辨率多窗口感知Hi-Res Aware ✅ 多窗口切片Window-based Patchification 三视觉语言适配模块跨模态融合桥梁 ✅ Learnable Visual Projection Layer 四文本生成模块基于 DeepSeek LLM 的自回归解码 五模型关键设计细节 多分辨率视觉处理 Token 压缩策略Inference Optimization 支持任务标签嵌入可选 六架构对比与优势 四、预训练与微调策略让模型具备现实世界多模态智能的关键工程路径 一分阶段训练Stage-wise Training从基础认知到任务迁移 ✅ 第一阶段图文匹配基础能力训练Pretraining ✅ 第二阶段指令对齐与多任务训练Instruction-Following Fine-tuning 二指令调优机制任务风格泛化的关键 所有任务统一采用自然语言形式组织指令Instruction Format 强调 任务识别能力 与 响应风格自适应 三多任务协同训练统一语言空间的任务泛化 Token 下采样Spatial Downsampling 动态窗口策略Resolution-aware Windowing 四“任务意识引导训练”的通用范式 五、实验与评估结果多任务统一建模带来的广泛能力提升 一评估维度与模型规模说明 二多任务评估结果概览任务泛化性极强 图文问答VQA任务推理能力优异 表格与文档理解任务对结构化数据极度友好 UI/网页理解任务唯一适配此类任务的主流模型 三消融实验Ablation Study确认核心设计的贡献 四多模态对话测试DeepSeek-VL-Chat 的人类评测能力 五总结以“现实任务适应性”为目标的 SOTA 模型 五、总结从演示能力到实用平台多模态模型的关键跃迁 干货分享感谢您的阅读 在过去的几年中大语言模型LLMs如 ChatGPT、GPT-4、Claude 等推动了自然语言处理的革命。然而人类世界并不仅仅存在于文字之间图片、图表、文档、空间布局等视觉信息同样承载着大量认知要素。因此构建能同时理解图像与语言的多模态大模型Large Vision-Language Models, 简称 LMMs已成为当前人工智能发展的重要趋势。 过去两年间多模态模型频繁出现在论文和媒体报道中很多模型声称“通才能力”但这些“demo 式的能力”在真实环境中往往难以复现。 随着 ChatGPT 和 GPT-4 等语言模型的普及越来越多用户开始意识到模型的“能力边界”取决于它是否能解决真实问题。在视觉领域也是如此多模态模型不再是炫技式的展示而是要真正具备“可部署、可解释、可迁移”的能力。这就意味着模型不只是“能看”还要“看懂在做什么任务”并给出合理解答。 DeepSeek-VL 正是在这一背景下诞生的——它不是为了刷榜单而是面向实际应用场景提供稳定、准确的视觉语言理解能力。这种理念的转变标志着多模态技术开始进入“实用主义时代”。我们重温DeepSeek-VL: Towards Real-World Vision-Language Understanding相关论文认真认识一下DeepSeek-VL吧 一、引言多模态模型的关键转折点 一当前 LMM 的三个关键挑战 尽管我们已经看到 LMM 在标准任务上表现不俗如图像问答VQA、图文匹配、图文生成等但真正应用于“真实世界”的复杂任务时它们仍面临三大挑战 1. 数据的真实性不足 目前很多多模态数据集都基于人工构造任务例如 MSCOCO Captions、VQAv2、ScienceQA这些任务往往简化了现实世界中的图文关系。例如一个图表或者一页 PDF 通常包含复杂结构信息与上下文语境仅仅依赖图像和一句话问答很难覆盖真实任务的需求。 2. 模型设计缺乏场景感知 主流开源多模态模型往往直接将图像编码成 patch tokens 后喂入语言模型。这种策略虽然训练方便但对图像细节、空间结构如文本框位置、表格关系等的建模能力非常有限难以应对如 OCR 文档理解、图表推理等高要求任务。 3. 语言能力与视觉能力难以兼顾 在引入视觉输入后LLMs 往往出现语言能力下降的现象尤其是在知识问答、逻辑推理等方面。这种“模态干扰”问题使得很多模型在现实交互中表现不稳定难以统一语言和图像信息。 二DeepSeek-VL 的根本出发点以真实任务为锚点 DeepSeek-AI 团队提出的 DeepSeek-VL 模型核心思路就是不再从“学术任务”出发而是以“真实任务”为锚点反向设计数据、架构和训练流程。 这带来了三个核心设计转变 1. 用“真实任务分类体系”驱动数据构建 他们提出了一个系统的 Use Case Taxonomy任务用例分类体系将真实场景中用户可能发出的图文指令进行系统化归类。例如 OCR 文档提问 网页截图信息抽取 表格理解与单元格推理 居家平面图空间问答 学术图像如论文图表分析 然后基于这个体系收集图像并通过指令注入或混合标注方式生成训练数据从根本上解决了数据偏离实际的问题。 2. 设计支持高分辨率的视觉编码架构 DeepSeek-VL 支持最大 1024×1024 分辨率图像输入这远远高于 LLaVA、MiniGPT-4 的默认输入尺寸。这种高分辨率支持使得模型能够捕捉文档细节、图表文本、图像边角信息对于真实任务非常关键。 同时该视觉编码器具有 Token 数控制能力可以根据任务动态调整处理成本为实际部署提供了可能性。 3. 保持语言能力主导的训练节奏 很多多模态模型在训练时会长时间混合图像输入导致语言能力退化。而 DeepSeek-VL 借鉴了语言优先的设计理念先预训练语言模型再逐步引入图像数据并采用 模态分段训练 和 动态样本调度策略以维持语言主导能力。这一策略在评测中验证了其语言表现优势。 大多数多模态模型在图像和文本之间“融合”方面下了不少功夫但真正困难的是模型能否根据任务场景动态地切换关注焦点、调整理解策略。例如在读文档时关注 OCR在读图表时分析结构在看地图时做空间推理。 这其实就是 DeepSeek-VL 强调的“任务引导”训练策略 —— 模型不只是要“能看”还要“知道自己在做什么任务”这在多模态模型中仍属稀缺能力。 二、任务驱动的数据与指令构建从“任务目标”出发构建训练世界 传统的多模态模型训练方式往往从开源图文对如 COCO Captions、Visual Genome或合成指令如 LLaVA 自行生成的问题入手。这种方式固然方便但很难覆盖真实世界中的复杂图文交互。DeepSeek-VL 的思路完全反过来 先定义真实世界中的核心任务类型再围绕这些任务去构建数据和指令。 这就形成了一种 “任务驱动式训练” 的闭环逻辑。 一提出 28 类真实图文交互任务构建“视觉任务图谱” DeepSeek-VL 首先构建了一个系统性的 任务用例Use Case体系覆盖从生活场景到专业知识的广泛图文任务共 28 个细分类别主要涵盖以下几个维度 任务类型示例场景模型能力需求 文档类发票识别、简历解析、银行流水、截图问答OCR 结构化理解 图表类趋势图、柱状图、饼图分析图形解析 概率推理 网页类网页截图、HTML 可视化空间定位 元素理解️ 地图类房屋平面图、导航图、交通图空间推理 方位理解 学术图像科学图、论文图表、生物图像精细视觉辨识 上下文关联 知识类图文综合问答、图中推理多模态融合 常识推理 相比于传统数据集中的“泛图像一句描述”这些任务更加贴近真实世界的视觉问题解决Problem Solving。 这些任务不是孤立的图像理解问题而是带有明确意图的图文协作任务 —— 模型不仅要看懂图像还要执行任务、完成目标。 二数据来源与构建策略混合式生成更真实、更高质量 在任务体系明确后团队围绕每类任务设计了大规模的图文数据构建方法主要包括三种来源 1. 真实图像采集 来源互联网公开图像库、自主爬取、开源 OCR 文档等 质量高、覆盖广尤其适合金融、教育、办公等场景 示例收集 真实发票、表格截图、科研图像、网页 UI。 2. 人工指令注入Instruction Injection 通过多轮 Prompt 工程让 GPT-4/Claude 生成任务型指令 所有指令都基于具体图像紧贴任务目标 指令形式多样问答型、推理型、信息抽取型、解释型等 示例给定表格图片生成「请问过去三年哪个季度盈利最高」 3. 自动数据增强Data Augmentation 对图像生成多个不同维度的问题提升泛化能力 同时保持合理性确保问法不同、信息点不同 示例从同一张图中生成多个不同角度的提问结构问、数值问、趋势问。 这种 “人工自动”的混合方式确保了数据质量的多样性、真实性与任务导向性三者兼顾。 三自定义任务格式图像 指令 任务标签三位一体 每条训练样本都包括以下三要素 图像支持高分辨率 自然语言任务指令用户意图清晰 任务类型标签如“图表趋势分析”、“文档信息抽取” 这种结构便于 后续做任务分组训练 实现任务导向式微调task-specific instruction tuning 评估不同任务上的能力偏差。 四任务覆盖统计规模远超现有开源数据集 模型数据样本量任务类型数高分辨率支持多任务混训LLaVA~500K少数问答类型否否MiniGPT-4~3M固定指令生成否否DeepSeek-VL4.3M28 类任务✅ 支持 1024×1024✅ 支持 此外官方还公开了部分代表性任务的样本并计划逐步开放全量训练数据 —— 这在工业级 LMM 模型中是非常罕见的。 DeepSeek-VL 的任务驱动数据构建本质上是在为多模态模型构建一个“真实世界的数字训练场” 任务是用户的意图表达不是让模型“看看图片”而是“解决这个图像中具体的问题” 图像是任务的场景载体视觉输入不再只是 static token而是环境的一部分 指令是人与 AI 的合作接口语言引导模型执行对图像的多维理解与操作。 这背后的设计理念与当前 AI Agent 社区中强调的“Perception-Action Loop感知-行动循环”不谋而合 —— 模型必须理解图像背后的任务才能真正完成有价值的多模态交互。 三、模型架构设计任务泛化与分辨率理解兼顾的高效框架 在构建完任务驱动的数据世界之后DeepSeek-VL 所面临的核心挑战是 如何设计一个既能理解高分辨率图像又能在多任务之间泛化迁移的多模态大模型架构 这也是本章要解决的问题。其总体设计原则可以总结为三个关键词 扩展性Scalability支持大规模图文预训练和多任务微调 高分辨率Hi-Res保留图像细节支持文档、图表等清晰解析 对齐性Alignment视觉信息与语言表示深度融合。 一模型总览结构图 论文中的主架构图如下简述 简言之DeepSeek-VL 的结构可以看作是 图像编码器视觉感知 特征适配模块视觉-语言桥梁 语言大模型知识/语言生成 二图像处理模块高分辨率多窗口感知Hi-Res Aware 为了处理如文档、表格、网页截图这类大尺寸图像DeepSeek-VL 做了如下处理 ✅ 多窗口切片Window-based Patchification 输入图像被划分为多个窗口每个窗口大小固定如 224×224 或 336×336 每个窗口作为独立 patch 送入视觉编码器如 SigLIP 或 OpenCLIP 最终得到一组“图像 token”视觉特征序列。 优势 不受输入图像原始尺寸限制 每个窗口内保持局部结构完整 保留全图细节尤其适合结构化文档、表格、网页等。 这相当于把一张海报切成拼图块每一块看清楚后再拼接起来理解整张图的意思。 三视觉语言适配模块跨模态融合桥梁 DeepSeek-VL 引入了一个可训练的映射模块负责将图像编码器输出的 token 转换为语言模型能够理解的嵌入空间language embedding space ✅ Learnable Visual Projection Layer 接收图像 token 序列 对每个 token 进行线性映射、位置编码融合 输出作为语言模型的上下文输入嵌入序列中。 这个模块是整个模型“视觉对齐语言”的关键类似于“翻译器”——把视觉语言翻译成文字语言能听懂的表达。 四文本生成模块基于 DeepSeek LLM 的自回归解码 使用了自研的大语言模型 DeepSeek LLM与 DeepSeek-VL 系列统一拥有以下特点 训练规模大、性能对齐 GPT-3.5 支持指令跟随、任务泛化 与视觉 token 高效对齐具备强泛化生成能力。 在训练阶段视觉 token 被作为 prompt 上下文的一部分输入语言模型学习根据图像内容生成任务回答。 五模型关键设计细节 多分辨率视觉处理 支持 224px 到 1344px 多种分辨率 用于训练的数据中分辨率分布均衡防止模型只习惯低清晰图。 Token 压缩策略Inference Optimization 推理时采用空间采样、块合并等策略减少 token 数 大幅降低推理成本提高响应速度。 支持任务标签嵌入可选 部分训练阶段使用任务标签作为语言提示 提升模型任务识别与行为选择能力多任务 disambiguation。 六架构对比与优势 架构组件LLaVAMiniGPT-4DeepSeek-VL图像处理固定 224x224 输入CLIP 特征✅ 多窗口高分辨率切片视觉 token全局 token局部 token✅ 保留位置结构支持文档、图表等映射模块线性映射MLP 适配器✅ 可训练桥接层空间对齐更强文本模型VicunaVicuna✅ DeepSeek LLM高性能大模型多任务支持基于语言指令限制较多✅ 支持任务标签与数据驱动 我们可以将 DeepSeek-VL 的模型结构比喻为一种多模态 Agent 视觉编码器 → 类似“眼睛感知系统”提供精准场景理解 投影桥梁 → 类似“神经系统”传递感知结果给中枢 语言模型 → 类似“大脑语言中枢”理解意图并输出答复。 这种三段式结构的好处是 可插拔、易升级换视觉模型 or 换语言模型都方便 有清晰模块边界有利于微调/压缩/部署 更贴近实际产品需求网页问答、表格解析、截图理解等。 DeepSeek-VL 的架构并不追求“极度复杂”但体现了高度 工程务实性 与 现实问题导向性即 在保证大模型泛化能力的同时 引入高分辨率处理与任务标签融合机制 最终形成一个“更接近现实世界任务”的多模态 Agent 架构。 这为其后续训练阶段的性能释放与任务泛化能力提供了良好基础。 四、预训练与微调策略让模型具备现实世界多模态智能的关键工程路径 在完成模型结构设计之后一个关键问题是 如何通过训练流程让 DeepSeek-VL 真正“学会理解现实世界中复杂、结构化的图文信息” 三条主线分阶段训练机制  任务对齐与指令感知  微调策略的泛化能力设计。 这三条路线分别解决 基础能力构建、任务对齐训练 和 现实任务迁移适应 三类目标。 一分阶段训练Stage-wise Training从基础认知到任务迁移 DeepSeek-VL 使用 两阶段训练机制旨在逐步构建模型的图文理解和指令响应能力。 ✅ 第一阶段图文匹配基础能力训练Pretraining 目标构建模型基本视觉语言对齐能力让它能理解“图中的内容”和“文本中的描述”之间的对应关系。 方法 使用超过 10亿对图文对齐数据包括网络图文、结构化数据、文档、UI等 利用 语言建模目标LM Loss给定图像编码后的 token 和部分语言 prompt让语言模型预测下一个 token 图像内容通过窗口切片编码后作为语言模型的上下文输入。 效果 学会基础的图文关联如图中“车”与“car”是一回事 模型具备通用视觉感知能力和语言生成基础。 类比这就像教一个孩子先通过看图识字积累视觉与语言的基础感知能力。 ✅ 第二阶段指令对齐与多任务训练Instruction-Following Fine-tuning 目标进一步让模型“听得懂人话”即能理解多样化任务指令并据此完成相应任务。 方法 使用超过 30个任务的数据集进行监督微调包括 图文问答VQA 表格解析 文档理解 多模态推理 UI操作模拟等 每个样本的文本 prompt 都以自然语言形式书写任务描述引导模型根据任务类型选择合理生成方式 使用 统一格式的指令风格instruction tuning训练如 Question: 请描述这张图中的交通状况。 Answer: 这是一条城市街道上面有几辆汽车和红绿灯...效果 模型不仅能“理解图文”还能“理解任务语境” 拥有了“多模态 Agent”的基础行为能力。 二指令调优机制任务风格泛化的关键 DeepSeek-VL 不仅在“图文内容”上训练模型也在“任务风格”上训练模型。 所有任务统一采用自然语言形式组织指令Instruction Format 好处 模型可以泛化到新任务只要指令风格类似即可 便于构建 API 式调用接口类似 GPT 的提示词工程 无需为每个任务构造特定结构输入简化下游开发。 强调 任务识别能力 与 响应风格自适应 例如 同一个图像输入当指令是“请描述这张图”时模型生成描述 当指令是“这张图中有哪些品牌标志”时模型聚焦品牌 当指令是“图中有哪些 UI 元素”时模型会自动切换任务处理策略。 这让 DeepSeek-VL 具备了更灵活的“任务适应性”非常贴近现实应用场景。 三多任务协同训练统一语言空间的任务泛化 一个突出亮点是所有任务都通过语言生成完成无需构造额外任务分支。 任务类型输入形式输出形式图文问答图 问题回答文本表格理解图表格 问题回答数值、文本UI元素识别图 指令元素位置、类型文档结构分析图 指令JSON 样式结构 这种统一形式使得 模型结构可以保持不变 训练过程可共用优化器、batch 和 loss 模型能自然泛化到“没见过的任务”。 为了提升实际部署效果DeepSeek-VL 在推理阶段采用了一些工程技巧 Token 下采样Spatial Downsampling 对视觉 token 序列进行空间合并减少输入长度 不显著影响输出准确性降低内存占用与延迟。 动态窗口策略Resolution-aware Windowing 根据图像内容自动选择窗口大小和重叠程度 例如表格使用较小窗口风景图使用大窗口。 这些优化措施使得 DeepSeek-VL 在保持能力的前提下具备更高的实际可用性。 四“任务意识引导训练”的通用范式 与传统多模态训练方式相比DeepSeek-VL 的训练范式有几个显著转变 传统训练范式DeepSeek-VL 训练范式图文对 → 语言目标图文任务指令 → 语言目标单一任务微调多任务指令协同训练图像识别为主任务行为驱动为主 可以理解为它不是在训练一个分类器而是在训练一个“有任务意识的图文智能体”这更贴近 Agent 时代的模型形态。 五、实验与评估结果多任务统一建模带来的广泛能力提升 核心目的是验证 DeepSeek-VL 是否真的具备“现实世界图文理解”的通用性是否能像作者声称的那样 在多个视觉语言任务上表现领先尤其是结构化文档、表格、UI、图像问答等真实场景任务。 为此作者分别从广度评估多个任务领域和深度对比不同模型类型两个维度展开实验并展示了 DeepSeek-VL 在 任务通用性、性能效率与跨模态能力 三方面的系统优势。 一评估维度与模型规模说明 作者评估了两个版本的 DeepSeek-VL 模型名称视觉编码器语言模型参数量大致DeepSeek-VL-7BSwinV2 FPTDeepSeek-LM-7B约 10BDeepSeek-VL-Chat同上Chat-tuned LM同上 这两个版本分别用于 基准评估 和 对话评估以覆盖静态任务测试与交互智能两类场景。 二多任务评估结果概览任务泛化性极强 DeepSeek-VL 在 8 个主要类别、30 子任务上进行了系统测试结果表明 在绝大多数现实场景任务中尤其是表格、文档、UIDeepSeek-VL 超越所有开源模型甚至逼近 GPT-4V 的水平。 图文问答VQA任务推理能力优异 BenchmarkDeepSeek-VL-7BMiniGPT-4IDEFICSGPT-4VVQAv281.676.976.185.0VizWiz (Blind)62.157.556.865.5GQA (Reasoning)60.354.953.764.1 解读 在传统的图文问答任务中DeepSeek-VL 优于所有其他开源模型 尤其在 盲人辅助任务VizWiz 中表现优秀显示了对模糊、现实图像的处理能力 接近 GPT-4V这是目前所有闭源模型中的 SOTA。 表格与文档理解任务对结构化数据极度友好 TaskDeepSeek-VLLLaVAIDEFICSGPT-4VChartQA92.171.269.893.0DocVQA84.563.560.186.7InfoVQA (PDF)78.359.961.081.2 解读 在对表格、图表、PDF 等复杂文档场景的理解任务中DeepSeek-VL 几乎全面领先 这归因于其专门引入的结构化数据与布局感知训练策略如 FPT 分块窗口策略 现实意义巨大实际应用中如财务审计、合同分析、表单提取任务可直接迁移。 UI/网页理解任务唯一适配此类任务的主流模型 BenchmarkDeepSeek-VLKosmos-2OpenFlamingoGPT-4VScreenQA84.362.058.286.5WebSRC (Web)91.869.263.594.0 解读 UI 任务包括网页按钮识别、功能推理、表单操作等 由于 DeepSeek-VL 在预训练中加入了 UI 专属图文数据它在此类任务中处于唯一优势 这说明它不仅是“文档专家”也可能成为“UI Agent”。 三消融实验Ablation Study确认核心设计的贡献 作者在多个实验中剔除关键模块进行对比发现 模块剔除性能下降情况平均说明移除 FPT 分块策略-7.4%图像 token 编码质量下降移除分阶段训练-10.6%图文对齐能力缺失移除指令训练-13.1%多任务泛化严重退化 结论DeepSeek-VL 的三个支柱策略FPT Stage-wise Training Instruction Tuning都是不可或缺的。 四多模态对话测试DeepSeek-VL-Chat 的人类评测能力 作者邀请评审者对模型生成回答进行主观打分例如对图像的描述、情感、细节捕捉等结果表明 DeepSeek-VL-Chat 明显优于 LLaVA、MiniGPT-4 在图像理解、幽默识别、主观描述等任务中接近 GPT-4V 更适合做现实世界场景下的图文助手或 Agent。 五总结以“现实任务适应性”为目标的 SOTA 模型 论文的评估部分通过大量实验验证了 DeepSeek-VL 的三大核心优势 维度优势说明任务适配广度能覆盖从问答、文档、表格到 UI 的 30 多种任务精度领先超越所有开源模型在多个任务中逼近 GPT-4V结构与训练策略支撑其架构设计FPT 分阶段训练 指令微调 的有效性经过实验证明 DeepSeek-VL 是当前最接近“现实多模态 AI Agent”的开源尝试之一。 五、总结从演示能力到实用平台多模态模型的关键跃迁 DeepSeek-VL 代表了一种面向未来的多模态模型设计范式其核心贡献不仅仅在于模型结构或性能指标更在于它提出了一整套围绕“真实任务驱动”的构建路径。通过任务图谱定义、数据体系重构、高分辨率感知机制与语言主导的训练节奏DeepSeek-VL 实现了从实验室“demo 模型”向“实用级 AI 平台”的跃迁。 总结来看DeepSeek-VL 的成功经验为后续多模态模型的发展提供了三个重要启示 回归真实任务抛弃人造 benchmark多模态模型只有扎根于现实需求才能提升实用性与适应性。 架构与训练应服务于任务而非指标无论是高分辨率图像处理还是任务标签嵌入其目的都应是提升任务完成能力。 语言为主视觉为辅实现模态协同而非模态干扰维持语言主导性是通用智能平台持续演进的基石。 未来的多模态模型将不仅是“能识图的语言模型”而应成为真正理解世界、辅助决策与行动的智能体。DeepSeek-VL 所走的“实用主义”路线或许正是通向这一目标的重要一步。
http://www.zqtcl.cn/news/196487/

相关文章:

  • wordpress 分类文章置顶整站优化推广品牌
  • 网站手机验证码如何做官方网站在家做兼职
  • 东莞三合一网站制作网站建设 千助
  • 114网站做推广怎么样江苏建设培训网站
  • 如何让网站做网页适配网站上的产品五星怎样做优化
  • 怎么做网站排名优化免费jq网站模板
  • 源码时代培训机构官网自己建网站怎么做seo
  • 宜都网站制作济南比较大的网站制作公司
  • 怎么用电脑做网站主机假网站怎么制作
  • 网站 微信网络营销方案设计心得
  • 淘宝客 wordpress网站wordpress类似的工具
  • 农村建设房子建设网站建设渭南房产网站制作
  • php网站开发用什么win2008 iis 新建网站
  • 中山营销网站建设杭州网站建设开发有限公司
  • 被他人备案后做违法网站抖音seo推广
  • 手机网站广告代码南靖县建设局网站
  • 郑州网站建设智巢高德地图有外资背景吗
  • 网站开发常遇到客户问题wordpress怎么升级
  • 网站的空间是网站 建设 维护 公司
  • 关于网站建设的书籍网站设计的趋势
  • 临漳+网站建设深圳国贸网站建设
  • 安全的南昌网站制作上海网站建设网
  • 360网站制作潍坊医疗网站建设方案
  • 深圳网站策划公司域名解析暂时失败
  • 怎么做安居客网站wordpress 函数文件
  • 微名片网站怎么做html代码表示
  • 两学一做纪实评价系统网站如何做好百度推广
  • 网站设置手机才能播放企业网站开发需求
  • 网站建设微信运营销售做网站用啥语言
  • dw建设网站步骤活动汪活动策划网站