当前位置: 首页 > news >正文

老专家个人网站网片加工厂家

老专家个人网站,网片加工厂家,邮箱购买网站,大学生简历免费制作网站这是一个面试经常面的问题#xff0c;很不幸#xff0c;在没有准备的时候#xff0c;我面到了这个题目#xff0c;反思了下#xff0c;将这部分的内容进行总结#xff0c;给大家一点分享。 hive其实是基于hadoop的数据库管理工具#xff0c;底层是基于MapReduce实现的很不幸在没有准备的时候我面到了这个题目反思了下将这部分的内容进行总结给大家一点分享。 hive其实是基于hadoop的数据库管理工具底层是基于MapReduce实现的用户写的hivesql最终转换成MapReduce的任务运行在hadoop上不过MapReduce会因为磁盘IO的问题会运行较慢因此在Hive sql进行优化就需要考虑到MapReduce的生命周期在各个时间节点上进行调优从而实现Hive sql的整体优化。 如果要从MapReduce角度来分析就需要从MapReducejoin参数设置的角度来分析。 Map阶段 尽早使用where条件提前把不需要计算的数据过滤掉而不是在进行复杂操作后再集中过滤。使用分区裁剪Hive不同分区是按照不同目录存放的指定分区可以访问特定的目录减少数据量。使用列裁剪尽量不要使用select * from ...指定特定列会只扫描特定列而不扫描全表提高执行速度同时select * 会让优化器无法完成索引覆盖扫描这类优化会影响优化器对执行计划的选择也会增加网络带宽消耗更会带来额外的 I/O内存和 CPU 消耗。相似任务尽量使用多路输出相同的计算只需要计算一次减少重复计算同时也能减少reduce task减少case when中的when表中的文件都需要走一遍when流程when越多效率就越低而且在reduce阶段最好做一遍合并压缩操作否则可能会产生很多文件。 reduce 阶段 使用 group by 代替 distinct因为distinct会把所有任务都分配到一个reduce task中。使用 sort by distribute by代替 order byorder by 和 distinct 类似在reduce阶段都会把所有的任务集中到一个reduce task中计算使用 sort by 和 distribute by 后MR会根据情况启动多个reduce来排序不过记得一定要加distribute by否则map后的数据会随机分配到reducer中不能保证全局有序。尽量使用union all代替unionunion去重有shuffleunion all不去重无shuffleshuffle会造成数据在集群中传输并且伴随着读和写很影响任务的执行性能。如果要去重可以最后用group by。 join task过程优化         避免使用笛卡尔积尽量有关联键hive本身不支持笛卡尔积需要先用set hive.mapred.modenonstrict设为非strict模式。多表join查询时小表在前大表在后Hive在解析带join的SQL语句时会默认将最后一个表作为probe table大表将前面的表作为build table小表并试图将它们读进内存是否读入内存可以配置。如果表顺序写反probe table在前面有引发OOM的风险。小表超出内存限制采用多次joinbuild table没有小到可以直接读如内存但是相比probe table又很小可以将build table拆成几个表分别join。小表join大表尽量使用map join将build table和probe table在map端直接完成join过程没有了reduce效率高很多。多表join时如果允许尽量使用相同的key这样会将多个join合并为一个MR job来处理。join时保证关联键类型相同如果不同时也适用cast进行转换否者会导致另外一个类型的key分配到一个reducer上。join的时候如果关联健某一类值较多先过滤比如空值、0等因为这会导致某一个reducer的计算量变得很大可以单独处理倾斜key。left semi join 代替join判断in和existshive0.13前不支持在where 中使用in嵌套查询是否exists使用left semi join代替join。 参数配置上的优化 小表join时尽量开启map join set hive.auto.convert.jointrue; -- 版本0.11.0之后默认是开启状态的但时不时会把这个配置关闭所以最好还是手动配置一下 set hive.mapjoin.smalltable.filesize25000000; -- 默认是25Mb开启mapjoin对于稍微超过这大小的可以适当调大但不能太大 调整map数 如果输入文件是少量大文件就减少mapper数如果输入文件是大量大文件就增大mapper数如果是大量的小文件就先合并小文件。 set mapred.min.split.size10000; -- 最小分片大小 set mapred.max.split.size10000000; -- 最大分片大小 set mapred.map.tasks100; -- 设置map task任务数 map任务数计算规则map_num MIN(split_num, MAX(default_num, mapred.map.tasks)) 合并小文件         set hive.input.format org.apache.hadoop.hive.ql.io.CombineHiveInputFormat; -- 输入阶段合并小文件 set hive.merge.mapredfilestrue; -- 输出阶段小文件合并 set hive.merge.mapfilestrue; -- 开启map端合并小文件默认开启 set hive.merge.mapredfilestrue; -- 开启reduce端合并小文件 set hive.merge.smallfiles.avgsize16000000; -- 平均文件大小默认16M满足条件则自动合并只有在开启merge.mapfiles和merge.mapredfiles两个开关才有效 启用压缩 set hive.exec.compress.intermediatetrue; -- 开启输入压缩 set hive.exec.compress.outputtrue; -- 开启输出压缩 set sethive.intermediate.compression.codecorg.apache.hadoop.io.compress.SnappyCodec; -- 使用Snappy压缩 set mapred.output.compreession.codecorg.apache.hadoop.io.compress.GzipCodec; -- 使用Gzip压缩 set hive.intermediate.compression.typeBLOCK; -- 配置压缩对象 快或者记录 分桶设置 set hive.enforce.bucketingtrue; set hive.enforce.sortingtrue; 设置合适的数据存储格式 hive默认的存储格式是TextFile,但是这种文件格式不使用压缩会占用比较大空间目前支持的存储格式有SequenceFile、RCFile、Avro、ORC、Parquet这些存储格式基本都会采用压缩方式而且是列式存储如果指定存储orc模式 ROW FORMAT SERDE org.apache.hadoop.hive.ql.io.orc.OrcSerdeSTORED AS INPUTFORMAT org.apache.hadoop.hive.ql.io.orc.OrcInputFormat OUTPUTFORMAT org.apache.hadoop.hive.ql.io.orc.OrcOutputFormat 并行化执行 并行化执行 每个查询被hive转化成多个阶段有些阶段关联性不大则可以并行化执行减少执行时间主要针对uoion 操作 set hive.exec.paralleltrue; -- 开启并行模式 set hive.exec.parallel.thread.numbe8; -- 设置并行执行的线程数 本地化执行 本地模式主要针对数据量小操作不复杂的SQL。 set hive.exec.mode.local.auto; -- 开启本地执行模模式 需要满足的条件 job的输入数据大小必须小于参数:hive.exec.mode.local.auto.inputbytes.max(默认128MB) job的map数必须小于参数:hive.exec.mode.local.auto.tasks.max(默认4) job的reduce数必须为0或者1 使用严格模式 严格模式主要是防范用户的不规范操作造成集群压力过大甚至是不可用的情况只对三种情况起左右分别是查询分区表是不指定分区两表join时产生笛卡尔积使用了order by 排序但是没有limit关键字。 set hive.mapred.modestrict; -- 开启严格模式 map端预聚合 预聚合的配置项是 set hive.map.aggrtrue; -- group by时如果先起一个combiner在map端做部分预聚合使用这个配置项可以有效减少shuffle数据量默认值true set hive.groupby.mapaggr.checkinterval100000; -- 也可以设置map端预聚合的行数阈值超过该值就会分拆job默认值100000 倾斜均衡配置项 set hive.groupby.skewindatafalse; -- group by时如果某些key对应的数据量过大就会发生数据倾斜。Hive自带了一个均衡数据倾斜的配置项默认值false 动态分区配置 set hive.exec.dynamic.partitionfalse; -- 是否开启动态分区功能默认false关闭 set hive.exec.dynamic.partition.modestrict; -- 动态分区的模式默认strict表示必须指定至少一个分区为静态分区nonstrict模式表示允许所有的分区字段都可以使用动态分区 set hive.exec.max.dynamic.partitions.pernode100; -- 在每个执行MR的节点上最大可以创建多少个动态分区,根据实际的数据来设定比如hour必须大于等于24day必须大于365 set hive.exec.max.dynamic.partitions1000; -- 在所有执行MR的节点上最大一共可以创建多少个动态分区 set hive.exec.max.created.files100000; -- 整个MR Job中最大可以创建多少个HDFS文件 set hive.error.on.empty.partitionfalse; -- 当有空分区生成时是否抛出异常 JVM重用 set mapred.job.reuse.jvm.num.tasks10; -- 在MR job中默认是每执行一个task就启动一个JVM。如果task非常小而碎那么JVM启动和关闭的耗时就会很长。可以通过调节参数这个参数来重用。例如将这个参数设成5就代表同一个MR job中顺序执行的10个task可以重复使用一个JVM减少启动和关闭的开销。但它对不同MR job中的task无效。
http://www.zqtcl.cn/news/58811/

相关文章:

  • 青岛网站建设公司大全网站要有可留言功能 怎么做
  • 怎么防止网站攻击公司集团网站建设
  • 做阿里巴巴网站怎样修改wordpress版权信息
  • 前端个人介绍网站模板下载怎么样优化网站seo
  • 青海营销网站建设多少钱旅游景区网站建设方案
  • 网站自动化开发企业管理培训课程表
  • 做公众号的网站有哪些做淘宝美工的网站
  • 代加工厂都不做网站毕设网站开发需要做什么
  • 海南专业做网站的公司如何网站做镜像
  • 信阳做网站汉狮网络个人网站 网站名称
  • 阿里巴巴国际站关键词推广网站维护一年一般多少钱
  • 社交类网站开发需求动画设计属于什么专业类别
  • 苏州做网站推广的公司哪家好汉中网络推广
  • seo优化网站多少钱网站 优化 件
  • wordpress 三栏怎么弄墨猴seo排名公司
  • 网站模块图片自搭建网站
  • 井冈山网站建设店铺名称设计logo设计
  • 做响应式网站设计图是多大的东营招聘信息网官网
  • 做商标网站wordpress rss 添加
  • 企业网站的推广方式有哪些北京新闻发布会
  • 工程建设的招标在哪个招标网站wordpress更改链接后网站打不开
  • 域网站名分类苏宁网站建设和推广策略
  • 大丰专业做网站淘宝指数查询
  • 地方门户网站备案知乎seo优化
  • 网站建设的解决方案wordpress addfilter
  • 网站集约化 建设方案物联网名词解释
  • 购物网站开发意义WordPress文章可视化php代码
  • 网站备案账号电商主图一键生成免费
  • 深圳网站开发哪家服务专业湖南长沙房价2022最新价格
  • 公司网站建设问题软件工程学什么及就业前景