当前位置: 首页 > news >正文

学网站建设培训机构重庆大渡口营销型网站建设公司哪家专业

学网站建设培训机构,重庆大渡口营销型网站建设公司哪家专业,网站访问很慢,家具行业建设网站Kafka是最初由Linkedin公司开发#xff0c;是一个分布式、支持分区的#xff08;partition#xff09;、多副本的#xff08;replica#xff09;#xff0c;基于zookeeper协调的分布式消息系统#xff0c;它的最大的特性就是可以实时的处理大量数据以满足各种需求场景是一个分布式、支持分区的partition、多副本的replica基于zookeeper协调的分布式消息系统它的最大的特性就是可以实时的处理大量数据以满足各种需求场景比如基于hadoop的批处理系统、低延迟的实时系统、Storm/Spark流式处理引擎web/nginx日志、访问日志消息服务等等用scala语言编写Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。分布式的流处理平台 Kafka的使用场景 日志收集一个公司可以用Kafka收集各种服务的log通过kafka以统一接口服务的方式开放给各种consumer例如hadoop、Hbase、Solr等。消息系统解耦和生产者和消费者、缓存消息等。用户活动跟踪Kafka经常被用来记录web用户或者app用户的各种活动如浏览网页、搜索、点击等活动这些活动信息被各个服务器发布到kafka的topic中然后订阅者通过订阅这些topic来做实时的监控分析或者装载到hadoop、数据仓库中做离线分析和挖掘。运营指标Kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据生产各种操作的集中反馈比如报警和报告。 Kafka基本概念 kafka是一个分布式的分区的消息(官方称之为commit log)服务。它提供一个消息系统应该具备的功能但是确有着独特的设计。可以这样来说Kafka借鉴了JMS规范的思想但是确并没有完全遵循JMS规范。 首先让我们来看一下基础的消息(Message)相关术语 名称解释Broker消息中间件处理节点一个Kafka节点就是一个broker一个或者多个Broker可以组成一个Kafka集群TopicKafka根据topic对消息进行归类发布到Kafka集群的每条消息都需要指定一个topicProducer消息生产者向Broker发送消息的客户端Consumer消息消费者从Broker读取消息的客户端ConsumerGroup每个Consumer属于一个特定的Consumer Group一条消息可以被多个不同的Consumer Group消费但是一个Consumer Group中只能有一个Consumer能够消费该消息Partition物理上的概念一个topic可以分为多个partition每个partition内部消息是有序的 因此从一个较高的层面上来看producer通过网络发送消息到Kafka集群然后consumer来进行消费如下图集群架构broker就相当于服务端处理消息的节点producer将消息pushconsumer将消息pull 依赖第三方的zk类似nameservertopic类似消息队列最终存放的是在topic下面的partition里面。 服务端(brokers)和客户端(producer、consumer)之间通信通过TCP协议来完成。 kafka基本使用(2.4) https://kafka.apache.org/documentation/ 安装前的环境准备 由于Kafka是用Scala语言开发的运行在JVM上因此在安装Kafka之前需要先安装JDK。 yum install java-1.8.0-openjdk* -y kafka依赖zookeeper所以需要先安装zookeeper wget https://mirror.bit.edu.cn/apache/zookeeper/zookeeper-3.5.8/apache-zookeeper-3.5.8-bin.tar.gz tar -zxvf apache-zookeeper-3.5.8-bin.tar.gz cd apache-zookeeper-3.5.8-bin cp conf/zoo_sample.cfg conf/zoo.cfg # 启动zookeeper bin/zkServer.sh start bin/zkCli.sh ls / #查看zk的根目录相关节点 查看zk的目录树 第一步下载安装包 下载2.4.1 release版本并解压 wget https://mirror.bit.edu.cn/apache/kafka/2.4.1/kafka_2.11-2.4.1.tgz # 2.11是scala的版本2.4.1是kafka的版本 tar -xvf kafka_2.11-2.4.1.tgz cd kafka_2.11-2.4.1 第二步修改配置 修改配置文件config/server.properties: #broker.id属性在kafka集群中必须要是唯一 broker.id0 #kafka部署的机器ip和提供服务的端口号 listenersPLAINTEXT://192.168.65.60:9092 #kafka的消息存储文件 log.dir/usr/local/data/kafka-logs #kafka连接zookeeper的地址 zookeeper.connect192.168.65.60:2181 第三步启动服务 现在来启动kafka服务 启动脚本语法kafka-server-start.sh [-daemon] server.properties 可以看到server.properties的配置路径是一个强制的参数-daemon表示以后台进程运行否则ssh客户端退出后就会停止服务。(注意在启动kafka时会使用linux主机名关联的ip地址所以需要把主机名和linux的ip映射配置到本地host里用vim /etc/hosts) # 启动kafka运行日志在logs目录的server.log文件里 bin/kafka-server-start.sh -daemon config/server.properties #后台启动不会打印日志到控制台 或者用 bin/kafka-server-start.sh config/server.properties # 我们进入zookeeper目录通过zookeeper客户端查看下zookeeper的目录树 bin/zkCli.sh ls / #查看zk的根目录kafka相关节点 ls /brokers/ids #查看kafka节点# 停止kafka bin/kafka-server-stop.sh kafka启动的时候会把自己的信息注册到zk里面去 server.properties核心配置详解 PropertyDefaultDescriptionbroker.id0每个broker都可以用一个唯一的非负整数id进行标识这个id可以作为broker的“名字”你可以选择任意你喜欢的数字作为id只要id是唯一的即可。log.dirs/tmp/kafka-logskafka存放数据的路径。这个路径并不是唯一的可以是多个路径之间只需要使用逗号分隔即可每当创建新partition时都会选择在包含最少partitions的路径下进行。listenersPLAINTEXT://192.168.65.60:9092server接受客户端连接的端口ip配置kafka本机ip即可zookeeper.connectlocalhost:2181zooKeeper连接字符串的格式为hostname:port此处hostname和port分别是ZooKeeper集群中某个节点的host和portzookeeper如果是集群连接方式为 hostname1:port1, hostname2:port2, hostname3:port3log.retention.hours168每个日志文件删除之前保存的时间。默认数据保存时间对所有topic都一样。num.partitions1创建topic的默认分区数default.replication.factor1自动创建topic的默认副本数量建议设置为大于等于2min.insync.replicas1当producer设置acks为-1时min.insync.replicas指定replicas的最小数目必须确认每一个repica的写数据都是成功的如果这个数目没有达到producer发送消息会产生异常delete.topic.enablefalse是否允许删除主题 第四步创建主题 现在我们来创建一个名字为“test”的Topic这个topic只有一个partition并且备份因子也设置为1 sh bin/kafka-topics.sh --create --bootstrap-server localhost:9092 --topic test_topic --partitions 3 --replication-factor 1 现在我们可以通过以下命令来查看kafka中目前存在的topic主题的元数据在zk中具体的消息在kafka中保存 bin/kafka-topics.sh --list --zookeeper 192.168.65.60:2181 除了我们通过手工的方式创建Topic当producer发布一个消息到某个指定的Topic这个Topic如果不存在就自动创建。 删除主题 bin/kafka-topics.sh --delete --topic test --zookeeper 192.168.65.60:2181 第五步发送消息 kafka自带了一个producer命令客户端可以从本地文件中读取内容或者我们也可以以命令行中直接输入内容并将这些内容以消息的形式发送到kafka集群中。在默认情况下每一个行会被当做成一个独立的消息。 首先我们要运行发布消息的脚本然后在命令中输入要发送的消息的内容 bin/kafka-console-producer.sh --broker-list 192.168.65.60:9092 --topic test this is a msg this is a another msg 第六步消费消息 对于consumerkafka同样也携带了一个命令行客户端会将获取到内容在命令中进行输出默认是消费最新的消息 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --topic test 如果想要消费之前的消息可以通过–from-beginning参数指定如下命令 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --from-beginning --topic test 如果你是通过不同的终端窗口来运行以上的命令你将会看到在producer终端输入的内容很快就会在consumer的终端窗口上显示出来。 以上所有的命令都有一些附加的选项当我们不携带任何参数运行命令的时候将会显示出这个命令的详细用法。 消费多主题 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --whitelist test|test-2 单播消费 一条消息只能被某一个消费者消费的模式类似queue模式只需让所有消费者在同一个消费组里即可 分别在两个客户端执行如下消费命令然后往主题里发送消息结果只有一个客户端能收到消息 同一个消费组中同一条消息只能有一个消费者消费消息 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --consumer-property group.idtestGroup --topic test 多播消费 一条消息能被多个消费者消费的模式类似publish-subscribe模式针对Kafka同一条消息只能被同一个消费组下的某一个消费者消费的特性要实现多播只要保证这些消费者属于不同的消费组即可。我们再增加一个消费者该消费者属于testGroup-2消费组结果两个客户端都能收到消息 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092 --consumer-property group.idtestGroup-2 --topic test 查看消费组名 bin/kafka-consumer-groups.sh --bootstrap-server 192.168.65.60:9092 --list 查看消费组的消费偏移量 bin/kafka-consumer-groups.sh --bootstrap-server 192.168.65.60:9092 --describe --group testGroup current-offset当前消费组的已消费偏移量 log-end-offset主题对应分区消息的结束偏移量(HW) lag当前消费组未消费的消息数 以组为单位保存消费的偏移量组来决定消费情况 kafka消息消费完不会删除消息是存储在文件里面消息会根据offset来进行逐个消费还可以指定偏移量进行消费。每一个消费者会维护自己的偏移量。在某一个地方存上一次消费的偏移量。 消费情况和组绑定不同的消费者只影响当前的组 主题Topic和消息日志Log 可以理解Topic是一个类别的名称同类消息发送到同一个Topic下面。对于每一个Topic下面可以有多个分区(Partition)日志文件: Partition是一个有序的message序列这些message按顺序添加到一个叫做commit log的文件中。每个partition中的消息都有一个唯一的编号称之为offset用来唯一标示某个分区中的message。 为什么要多个分区 真正大数据的系统会有很多很多消息的不会主动删除最多可以保存7天这里面会放很多的消息如果一个分区放在一起存在一个磁盘同一台机器肯定存不下所以这个思想就是分布式存储把一个主题划分很多分区一个分区在一个文件里面放在不同的机器上面去达到分布式存储的效率。 不同的分区可以由不同的消费者消费同时也提高了消费的能力。 每个partition都对应一个commit log文件。一个partition中的message的offset都是唯一的但是不同的partition中的message的offset可能是相同的。 kafka一般不会删除消息不管这些消息有没有被消费。只会根据配置的日志保留时间(log.retention.hours)确认消息多久被删除默认保留最近一周的日志消息。 针对业务场景设置这个值。 kafka的性能与保留的消息数据量大小没有关系因此保存大量的数据消息日志信息不会有什么影响。 每个consumer是基于自己在commit log中的消费进度(offset)来进行工作的。在kafka中消费offset由consumer自己来维护一般情况下我们按照顺序逐条消费commit log中的消息当然我可以通过指定offset来重复消费某些消息或者跳过某些消息。 这意味kafka中的consumer对集群的影响是非常小的添加一个或者减少一个consumer对于集群或者其他consumer来说都是没有影响的因为每个consumer维护各自的消费offset。 创建多个分区的主题 bin/kafka-topics.sh --create --zookeeper 192.168.65.60:2181 --replication-factor 1 --partitions 2 --topic test1 查看下topic的情况 bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:2181 --topic test1 以下是输出内容的解释第一行是所有分区的概要信息之后的每一行表示每一个partition的信息。 leader节点负责给定partition的所有读写请求。replicas 表示某个partition在哪几个broker上存在备份。不管这个几点是不是”leader“甚至这个节点挂了也会列出。isr 是replicas的一个子集它只列出当前还存活着的并且已同步备份了该partition的节点。 我们可以运行相同的命令查看之前创建的名称为”test“的topic bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:2181 --topic test 之前设置了topic的partition数量为1备份因子为1因此显示就如上所示了。 消息日志文件的存储 可以进入kafka的数据文件存储目录查看我们创建的主题的消息日志文件cd /tmpkafka-logs/ 消息日志文件主要存放在分区文件夹里的以log结尾的日志文件里如下是test_topic-0主题对应的分区0的消息日志 分区的扩容 消费者消费肯定会发生变化reblance机制 当然我们也可以通过如下命令增加topic的分区数量(目前kafka不支持减少分区) bin/kafka-topics.sh -alter --partitions 3 --zookeeper 192.168.65.60:2181 --topic test 那么分区扩容之后消费者会不会发生变化呢肯定会触发它rebalance机制。 可以这么来理解TopicPartition和Broker 一个topic代表逻辑上的一个业务数据集比如按数据库里不同表的数据操作消息区分放入不同topic订单相关操作消息放入订单topic用户相关操作消息放入用户topic对于大型网站来说后端数据都是海量的订单消息很可能是非常巨量的比如有几百个G甚至达到TB级别如果把这么多数据都放在一台机器上可定会有容量限制问题那么就可以在topic内部划分多个partition来分片存储数据不同的partition可以位于不同的机器上每台机器上都运行一个Kafka的进程Broker。 为什么要对Topic下数据进行分区存储 1、commit log文件会受到所在机器的文件系统大小的限制分区之后可以将不同的分区放在不同的机器上相当于对数据做了分布式存储理论上一个topic可以处理任意数量的数据。 2、为了提高并行度。 kafka集群实战 对于kafka来说一个单独的broker意味着kafka集群中只有一个节点。 所以kafka的集群主要是根据分区来的所以它单台机器也叫集群。 要想增加kafka集群中的节点数量只需要多启动几个broker实例即可。为了有更好的理解现在我们在一台机器上同时启动三个broker实例。注册到同一个zk上面。 首先我们需要建立好其他2个broker的配置文件 cp config/server.properties config/server-1.properties cp config/server.properties config/server-2.properties 配置文件的需要修改的内容分别如下 config/server-1.properties: #broker.id属性在kafka集群中必须要是唯一 broker.id1 #kafka部署的机器ip和提供服务的端口号 listenersPLAINTEXT://192.168.65.60:9093 log.dir/usr/local/data/kafka-logs-1 #kafka连接zookeeper的地址要把多个kafka实例组成集群对应连接的zookeeper必须相同 zookeeper.connect192.168.65.60:2181 config/server-2.properties: broker.id2 listenersPLAINTEXT://192.168.65.60:9094 log.dir/usr/local/data/kafka-logs-2 zookeeper.connect192.168.65.60:2181 目前我们已经有一个zookeeper实例和一个broker实例在运行了现在我们只需要在启动2个broker实例即可 bin/kafka-server-start.sh -daemon config/server-1.properties bin/kafka-server-start.sh -daemon config/server-2.properties 查看zookeeper确认集群节点是否都注册成功 现在我们创建一个新的topic副本数设置为3分区数设置为2 bin/kafka-topics.sh --create --zookeeper 192.168.65.60:2181 --replication-factor 3 --partitions 2 --topic my-replicated-topic 查看下topic的情况 bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:2181 --topic my-replicated-topic kafka一启动都会注册到zk的对应的节点下面去 以下是输出内容的解释第一行是所有分区的概要信息之后的每一行表示每一个partition的信息。 leader节点负责给定partition的所有读写请求同一个主题不同分区leader副本一般不一样(为了容灾)leader处理收发数据其他的节点是不可以写的会同步给其他的从节点。replicas 表示某个partition在哪几个broker上存在备份。不管这个几点是不是”leader“甚至这个节点挂了也会列出。isr 是replicas的一个子集已同步的副本集它只列出当前还存活着的并且已同步备份了该partition的节点。 容灾 把每一个分区放到不同的broker上去如果有一个节点挂了那么其他的还可以继续写数据。 写消息都是往leader上面写 副本被分配到三台机器上 现在我们向新建的 my-replicated-topic 中发送一些messagekafka集群可以加上所有kafka节点 bin/kafka-console-producer.sh --broker-list 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094 --topic my-replicated-topic my test msg 1 my test msg 2 现在开始消费 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094 --from-beginning --topic my-replicated-topic my test msg 1 my test msg 2 现在我们来测试我们容错性因为broker1目前是my-replicated-topic的分区0的leader所以我们要将其kill ps -ef | grep server.properties kill 14776 现在再执行命令 bin/kafka-topics.sh --describe --zookeeper 192.168.65.60:9092 --topic my-replicated-topic 我们可以看到分区0的leader节点已经变成了broker 0。要注意的是在Isr中已经没有了1号节点。leader的选举也是从ISR(in-sync replica)中进行的。 此时我们依然可以 消费新消息 bin/kafka-console-consumer.sh --bootstrap-server 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094 --from-beginning --topic my-replicated-topic my test msg 1 my test msg 2 查看主题分区对应的leader信息 kafka将很多集群关键信息记录在zookeeper里保证自己的无状态从而在水平扩容时非常方便。 集群消费 log的partitions分布在kafka集群中不同的broker上每个broker可以请求备份其他broker上partition上的数据。kafka集群支持配置一个partition备份的数量。 针对每个partition都有一个broker起到“leader”的作用0个或多个其他的broker作为“follwers”的作用。leader处理所有的针对这个partition的读写请求而followers被动复制leader的结果不提供读写(主要是为了保证多副本数据与消费的一致性)。如果这个leader失效了其中的一个follower将会自动的变成新的leader。 Producers 生产者将消息发送到topic中去同时负责选择将message发送到topic的哪一个partition中。通过round-robin做简单的负载均衡。也可以根据消息中的某一个关键字来进行区分。通常第二种方式使用的更多。 Consumers 传统的消息传递模式有2种队列( queue) 和publish-subscribe queue模式多个consumer从服务器中读取数据消息只会到达一个consumer。publish-subscribe模式消息会被广播给所有的consumer。 Kafka基于这2种模式提供了一种consumer的抽象概念consumer group。 queue模式所有的consumer都位于同一个consumer group 下。publish-subscribe模式所有的consumer都有着自己唯一的consumer group。 上图说明由2个broker组成的kafka集群某个主题总共有4个partition(P0-P3)分别位于不同的broker上。这个集群由2个Consumer Group消费 A有2个consumer instances B有4个。 通常一个topic会有几个consumer group每个consumer group都是一个逻辑上的订阅者 logical subscriber 。每个consumer group由多个consumer instance组成从而达到可扩展和容灾的功能。 消费顺序 一个partition同一个时刻在一个consumer group中只能有一个consumer instance在消费从而保证消费顺序。 consumer group中的consumer instance的数量不能比一个Topic中的partition的数量多否则多出来的consumer消费不到消息。 Kafka只在partition的范围内保证消息消费的局部顺序性不能在同一个topic中的多个partition中保证总的消费顺序性。 如果有在总体上保证消费顺序的需求那么我们可以通过将topic的partition数量设置为1将consumer group中的consumer instance数量也设置为1但是这样会影响性能所以kafka的顺序消费很少用。 Java客户端访问Kafka 引入maven依赖 dependencygroupIdorg.apache.kafka/groupIdartifactIdkafka-clients/artifactIdversion2.4.1/version /dependency 消息发送端代码 package com.tuling.kafka.kafkaDemo;import com.alibaba.fastjson.JSON; import org.apache.kafka.clients.producer.*; import org.apache.kafka.common.serialization.StringSerializer;import java.util.Properties; import java.util.concurrent.CountDownLatch; import java.util.concurrent.ExecutionException; import java.util.concurrent.TimeUnit;public class MsgProducer {private final static String TOPIC_NAME my-replicated-topic;public static void main(String[] args) throws InterruptedException, ExecutionException {Properties props new Properties();props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, 192.168.65.60:9092,192.168.65.60:9093,192.168.65.60:9094);/*发出消息持久化机制参数1acks0 表示producer不需要等待任何broker确认收到消息的回复就可以继续发送下一条消息。性能最高但是最容易丢消息。2acks1 至少要等待leader已经成功将数据写入本地log但是不需要等待所有follower是否成功写入。就可以继续发送下一条消息。这种情况下如果follower没有成功备份数据而此时leader又挂掉则消息会丢失。3acks-1或all 需要等待 min.insync.replicas(默认为1推荐配置大于等于2) 这个参数配置的副本个数都成功写入日志这种策略会保证只要有一个备份存活就不会丢失数据。这是最强的数据保证。一般除非是金融级别或跟钱打交道的场景才会使用这种配置。*//*props.put(ProducerConfig.ACKS_CONFIG, 1);*//*发送失败会重试默认重试间隔100ms重试能保证消息发送的可靠性但是也可能造成消息重复发送比如网络抖动所以需要在接收者那边做好消息接收的幂等性处理*//*props.put(ProducerConfig.RETRIES_CONFIG, 3);//重试间隔设置props.put(ProducerConfig.RETRY_BACKOFF_MS_CONFIG, 300);//设置发送消息的本地缓冲区如果设置了该缓冲区消息会先发送到本地缓冲区可以提高消息发送性能默认值是33554432即32MBprops.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);*//*kafka本地线程会从缓冲区取数据批量发送到broker设置批量发送消息的大小默认值是16384即16kb就是说一个batch满了16kb就发送出去*//*props.put(ProducerConfig.BATCH_SIZE_CONFIG, 16384);*//*默认值是0意思就是消息必须立即被发送但这样会影响性能一般设置10毫秒左右就是说这个消息发送完后会进入本地的一个batch如果10毫秒内这个batch满了16kb就会随batch一起被发送出去如果10毫秒内batch没满那么也必须把消息发送出去不能让消息的发送延迟时间太长*//*props.put(ProducerConfig.LINGER_MS_CONFIG, 10);*///把发送的key从字符串序列化为字节数组props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());//把发送消息value从字符串序列化为字节数组props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());ProducerString, String producer new KafkaProducerString, String(props);int msgNum 5;final CountDownLatch countDownLatch new CountDownLatch(msgNum);for (int i 1; i msgNum; i) {Order order new Order(i, 100 i, 1, 1000.00);//指定发送分区/*ProducerRecordString, String producerRecord new ProducerRecordString, String(TOPIC_NAME, 0, order.getOrderId().toString(), JSON.toJSONString(order));*///未指定发送分区具体发送的分区计算公式hash(key)%partitionNumProducerRecordString, String producerRecord new ProducerRecordString, String(TOPIC_NAME, order.getOrderId().toString(), JSON.toJSONString(order));//等待消息发送成功的同步阻塞方法/*RecordMetadata metadata producer.send(producerRecord).get(); System.out.println(同步方式发送消息结果 topic- metadata.topic() |partition- metadata.partition() |offset- metadata.offset());*///异步回调方式发送消息producer.send(producerRecord, new Callback() {public void onCompletion(RecordMetadata metadata, Exception exception) {if (exception ! null) {System.err.println(发送消息失败 exception.getStackTrace());}if (metadata ! null) {System.out.println(异步方式发送消息结果 topic- metadata.topic() |partition- metadata.partition() |offset- metadata.offset());}countDownLatch.countDown();}});}countDownLatch.await(5, TimeUnit.SECONDS);producer.close();} } 作者京东零售 王雷 来源京东云开发者社区 转载请注明来源
http://www.zqtcl.cn/news/170416/

相关文章:

  • 平台网站建设可行报告工作室注册条件
  • 罗湖附近公司做网站建设哪家便宜做cpa必须要有网站吗
  • 深圳网站开发教程wordpress密码登录插件
  • 农机网站建设目标上海网站建设工资多少
  • 手机做网站过程网站名字做版权需要源代码吗
  • 公司微信网站建设方案现在做外贸前景如何
  • 如何使用微信公众号做网站河南省专业做网站公司
  • 清远市清城区网站建设公司广州黄浦区建设局网站
  • 站长做2个网站网站程序指的是什么
  • 网站建设jw100请拿笔记记下新域名
  • 兰州市住房保障和城乡建设局网站如何有效的推广网站
  • 网站推广做百度还是360北京企业网站建设费用
  • 推荐一个简单的网站制作策划方案免费网站
  • 用vs2012做网站案例企业现在有必要做网站吗
  • 网站建设少用控件wordpress默认分类
  • php网站是什么数据库文件网站开发收
  • 新网网站空间做网站和app哪类商标
  • drupal网站建设数据库厦门市网站建设
  • 解释微信微网站室内设计效果图展板
  • 教做发绳的网站游戏网站建设需要多少钱
  • 那个网站可以做双色球号码对比的网站设计好学吗
  • 网站建设如何获取客户韩国建筑网站
  • 固始网站建设公司wordpress会员功能
  • 在哪找做调查赚钱的网站好自己做网站的成本
  • 网站开发职业xshuan主题wordpress
  • 网站代码框架建设网站需要学什么程序
  • 广州搜索seo网站优化企业邮箱密码忘了怎么重置密码
  • 重庆模板网站建设做新房网站怎么弄
  • 深圳做企业网站公司常用的网络营销方式
  • 建设网站公司怎么建站网站开发笔记