当前位置: 首页 > news >正文

株洲在线网站的目标客户网站推广适合哪种公司做

株洲在线网站的目标客户,网站推广适合哪种公司做,企业做网站的痛点有哪些,商场设计图片前言 今天实在不知道学点什么好了#xff0c;早上学了3个多小时的 Flink #xff0c;整天只学一门技术是很容易丧失兴趣的。那就学点新的东西 Flume#xff0c;虽然 Kafka 还没学完#xff0c;但是大数据生态圈的基础组件也基本就剩这倆了。 Flume 概述 生产环境中的数据一…前言 今天实在不知道学点什么好了早上学了3个多小时的 Flink 整天只学一门技术是很容易丧失兴趣的。那就学点新的东西 Flume虽然 Kafka 还没学完但是大数据生态圈的基础组件也基本就剩这倆了。 Flume 概述 生产环境中的数据一般都是用户在客户端的一些行为操作形成的日志一般操作日志都会先存到服务器而不是直接就存到 HDFS 当中去。那么如何把服务器中的日志数据传输到 HDFS 中呢这就需要一个采集功能。 大数据主要解决的三大问题采集、存储和计算。我们大数据框架也正是围绕着这这三大问题此外还有一些工具框架比如 Azkaban 它是一个任务调度框架。类似我们 linux 中 crontab 命令可以帮我们定时地执行任务。但是 Linux 中的 crontab 不能完全胜任生产中的需求比如依赖管理crontab无法处理任务之间的依赖关系。如果你有一系列的任务需要按照一定的顺序执行crontab可能不是最好的选择。此外 Azkaban 提供了更多专业的功能比如工作流管理、可视化界面以及故障处理和告警等。 Flume 官方文档地址Flume 1.11.0 User Guide — Apache Flume 1、Flume 定义 Flume 是 Cloudera 提供的一个高可用的高可靠的分布式的海量日志采集、聚合和传输的系统。Flume 基于流式架构灵活简单。 这里的分布式的概念不同于 hadoop 这里的分布式指的是它可以从分布式的各个节点的日志数据收集起来而不是说 Flume 需要搭建一个分布式的集群环境。         这里的日志指的是文本数据而视频、音频、ppt这种数据是不能够传输的。         Flume 是动态地传输数据实时你上传一条它就传输一条。 对于服务器本地磁盘中的数据既然我们可以使用 hadoop fs -put 命令来直接上传到 HDFS 为什么还要使用 Flume 呢 因为 Flume 是实时的 2、Flume 基础架构 这里 flume 官网的一个架构图 2.1、Agent Flume agent 是一个 JVMJava 虚拟机进程它以事件的形式将数据从一个外部源传递到下一个目的地hop。 Agent 由 3个部分组成Source、Channel、Sink。 2.2、Source Source是负责接收数据到Flume Agent的组件。Source组件可以处理各种类型、各种格式的日志数据包括avro、thrift、exec、jms、spooling directory、netcat、 taildir 、sequence generator、syslog、http、legacy。 2.3、Sink Sink不断地轮询Channel中的事件且批量地移除它们并将这些事件批量写入到存储或索引系统、或者被发送到另一个Flume Agent。 Sink组件目的地包括hdfs、logger、avro、thrift、ipc、file、HBase、solr、自定义。 2.4、Channel Channel是位于Source和Sink之间的缓冲区。因此Channel允许Source和Sink运作在不同的速率上。Channel是线程安全的可以同时处理几个Source的写入操作和几个Sink的读取操作。 比如我们的 Source 接受日志数据的速度和 Sink 往下游发送数据的速度不对等那么这就需要一个缓冲区来暂时存储我们的数据。 Flume自带两种ChannelMemory Channel 内存速度快但不安全和 File Channel磁盘速度慢但安全。         Memory Channel 是内存中的队列。Memory Channel在不需要关心数据丢失的情景下适用。如果需要关心数据丢失那么Memory Channel就不应该使用因为程序死亡、机器宕机或者重启都会导致数据丢失。         File Channel 将所有事件写到磁盘。因此在程序关闭或机器宕机的情况下不会丢失数据。 2.5、Event Event 是Flume 的传输单元Flume数据传输的基本单元以Event的形式将数据从源头送至目的地。 Event 由 Header 和 Body 两部分组成Header 用来存放该event的一些属性为K-V结构Body 用来存放该条数据形式为字节数组。 Flume 入门案例 1、监控端口数据打印到控制台 这是 flume 官网的一个案例。 1、案例需求 使用Flume监听一个端口收集该端口数据并打印到控制台。 2、需求分析 通过 netcat 工具向本机的 4444 端口发送数据Flume 监听本机的 4444 端口并使用 Source 收集数据Flume 通过 Sink这里用 logSink只做打印如果要上传HDFS 可以使用 hdfsSink 直接打印到控制台 3、实现步骤 1安装 netcat yum -y install nc 2判断端口是否被占用 sudo netstat -nlp | grep 44444 3创建Flume Agent配置文件flume-netcat-logger.conf 我们先在 flume 目录下创建 job目录  touch netcat-flume-logger.conf # Name the components on this agent a1.sources r1 a1.sinks k1 a1.channels c1# source 配置 a1.sources.r1.type netcat a1.sources.r1.bind localhost a1.sources.r1.port 44444# sink 配置 a1.sinks.k1.type logger # 输出到控制台# channel 配置: 这里使用是 memory channel a1.channels.c1.type memory a1.channels.c1.capacity 1000 # 事件容量 a1.channels.c1.transactionCapacity 100 # 事务容量(单个事务最大的发送容量,收集到100个事件再去提交事务,事务容量必须事件容量,事务的作用是保证数据不丢失,回滚)# 绑定 source 和 sink 到 channel a1.sources.r1.channels c1 # 将source 和 channel绑定起来(一个source可以绑定多个channel) a1.sinks.k1.channel c1 #将 sink 和 channel 绑定起来(一个sink只能绑定一个channel) 4 开启 flume 监听端口 bin/flume-ng agent -n a1 -c conf/ -f job/netcat-flume-logger.conf -Dflume.root.loggerINFO,console 5使用netcat工具向本机的44444端口发送内容 nc localhost 44444 hello flume flink spark 6在 flume 窗口查看 2、实时监控单个追加文件 抽时间更新 3、实时监控目录下多个新文件 4、实时监控目录下的多个追加文件 总结
http://www.zqtcl.cn/news/326790/

相关文章:

  • 兼职网站推广如何做西安市商标局
  • 打开网站说建设中是什么问题莱芜金点子招小时工
  • 做网站的相关协议秦皇岛解封最新消息今天
  • 网站托管维护方案新闻媒体发稿平台
  • 网站扩展名四平网站建设怎么选
  • 网站制作价格与售后视频网站建设有什么意义
  • 网站建设+太原1核1g可以做几个网站
  • 电商设计网站有哪些内容西安百度推广外包
  • 深圳网站建设价格多少做废旧金属的网站
  • wordpress 文档超级优化空间
  • 湖北seo网站推广官方网站怎么制作
  • 随州网站seo诊断wordpress 只显示一个主题
  • 建站登录可信网站认证 费用
  • 互站网站源码用jsp做网站一般会用到什么
  • 个人免费设计网站fomo3d 网站怎么做
  • 菏泽做网站公司公关公司经营范围
  • 钓鱼网站营销型网站建设实战
  • 可以下载电影的网站怎么做做网站公司西安
  • 自己做签名网站网店美工培训教程
  • 宁波产品网站设计模板php 网站 教程
  • 制作一个网站的费用是多少免费网站空间怎么
  • 如何建立自己的微网站网站建设教程怎么建
  • seo网站项目讲解沈阳网红
  • 苏州大型网站建设公司网站外链优化
  • 阿里云购买域名后怎么建网站沂南网站设计
  • 网站建设基础考试php网站开发入门
  • 广州五屏网站建设seo诊断报告示例
  • 周浦高端网站建设公司信阳做网站的公司
  • 博客网站怎么建设湛江新闻头条最新消息
  • 外贸网站建设 评价有没有教做网站实例视频