当前位置: 首页 > news >正文

2000个免费货源网站原来做网站后来跑国外了

2000个免费货源网站,原来做网站后来跑国外了,wordpress多个插件合并,深圳宝安网站建设迁移类型 同时迁移表及其数据#xff08;使用import和export#xff09; 迁移步骤 将表和数据从 Hive 导出到 HDFS将表和数据从 HDFS 导出到本地服务器将表和数据从本地服务器复制到目标服务器将表和数据从目标服务器上传到目标 HDFS将表和数据从目标 HDFS 上传到目标 Hiv…迁移类型 同时迁移表及其数据使用import和export 迁移步骤 将表和数据从 Hive 导出到 HDFS将表和数据从 HDFS 导出到本地服务器将表和数据从本地服务器复制到目标服务器将表和数据从目标服务器上传到目标 HDFS将表和数据从目标 HDFS 上传到目标 Hive 库如果原始 HDFS 和目标 HDFS 集群连通可使用 DiskCP 工具直接跨集群复制而跳过2~4步 一、Export、Import Export导出将Hive表中的数据导出到外部 Import导入将外部数据导入Hive表中二、Export 1、语法 EXPORT TABLE tablename TO export_target_path;2、用法 #把tshang表导出到hdfs上 hive (default) EXPORT TABLE lijia.tshang TO /tmp/hive_data/lijia; hive (default) exit [root /opt/PE/hive_data]# hadoop fs -ls /tmp/hive_data/lijia/tshang Found 2 items -rw-r--r-- 3 hive hdfs 1262 2024-03-18 17:35 /tmp/hive_data/lijia/tshang/_metadata drwxr-xr-x - hive hdfs 0 2024-03-18 17:35 /tmp/hive_data/lijia/tshang/data HDFS 集群连通时使用 DiskCP 进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp HDFS 集群不连通 hadoop fs -get /tmp/hive_data scp -r hive_data roottargetAP:/tmp/ 上传到目标 HDFS hadoop fs -put /tmp/hive_data /tmp/ 三、Import 1、语法 IMPORT TABLE tablename FROM source_path;2、用法 #先创建lijia库导入数据 hive (default) create database lijia; OK Time taken: 0.012 seconds#导入 hive (db_hive) import table lijia.tshang from /tmp/hive_data/lijia;hive (db_hive) select * from lijia.tshang; OK emp.empno emp.ename emp.job emp.mgr emp.hiredate emp.sal emp.comm emp.deptno 7369 SMITH CLERK 7902 1980-12-17 800.0 NULL 20 7499 ALLEN SALESMAN 7698 1981-2-20 1600.0 300.0 30 7521 WARD SALESMAN 7698 1981-2-22 1250.0 500.0 30 7566 JONES MANAGER 7839 1981-4-2 2975.0 NULL 20 7654 MARTIN SALESMAN 7698 1981-9-28 1250.0 1400.0 30 7698 BLAKE MANAGER 7839 1981-5-1 2850.0 NULL 30 7782 CLARK MANAGER 7839 1981-6-9 2450.0 NULL 10 7788 SCOTT ANALYST 7566 1987-4-19 3000.0 NULL 20 7839 KING PRESIDENT NULL 1981-11-17 5000.0 NULL 10 7844 TURNER SALESMAN 7698 1981-9-8 1500.0 0.0 30 7876 ADAMS CLERK 7788 1987-5-23 1100.0 NULL 20 7900 JAMES CLERK 7698 1981-12-3 950.0 NULL 30 7902 FORD ANALYST 7566 1981-12-3 3000.0 NULL 20 7934 MILLER CLERK 7782 1982-1-23 1300.0 NULL 10 Time taken: 0.029 seconds, Fetched: 14 row(s) 实施过程,迁移数据库不在是一个表 目标集群和服务器检查 df -lh # 查看本地空间使用情况 hadoop dfsadmin -report # 查看HDFS集群使用情况 hadoop fs -find / -name warehouse # 查找Hive库位置 hadoop fs -du -h /user/hive/warehouse # 查看Hive库占用同时迁移表及其数据使用import和export export 工具导出时会同时导出元数据和数据import 工具会根据元数据自行创建表并导入数据如果涉及事物表需要预先开启目标库的事物机制 -- 开启事务 -- https://cwiki.apache.org/confluence/display/Hive/HiveTransactions#HiveTransactions-Configuration SET hive.support.concurrency true; SET hive.enforce.bucketing true; SET hive.exec.dynamic.partition.mode nonstrict; SET hive.txn.manager org.apache.hadoop.hive.ql.lockmgr.DbTxnManager; SET hive.compactor.initiator.on true; SET hive.compactor.worker.threads 1;迁移步骤 #输入需要迁移的数据库default 执行 cat EOF /opt/lijia/hive_sel_tables.HQL use default; show tables; EOF# 罗列要迁移的表清单 执行 beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_sel_tables.HQL \ | grep -e ^| \ | grep -v tab_name \ | sed s/|//g \ | sed s/ //g \/opt/lijia/hive_table_list.txt# 生成导出脚本 cat /opt/lijia/hive_table_list.txt \ | awk {printf export table db_name.%s to |\/tmp/lijia/db_name/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_export_table.HQL执行 cat /opt/lijia/hive_table_list.txt \ | awk {printf export table default.%s to |\/tmp/lijia/default/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_export_table.HQL# 生成导入脚本 cat /opt/lijia/hive_table_list.txt \ | awk {printf import table db_name.%s from |\/tmp/lijia/db_name/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_import_table.HQL执行 cat /opt/lijia/hive_table_list.txt \ | awk {printf import table default.%s from |\/tmp/lijia/default/%s\|;\n,$1,$1} \ | sed s/|//g \ | grep -v tab_name \/opt/lijia/hive_import_table.HQL# 创建 HDFS 导出目录 hadoop fs -mkdir -p /tmp/lijia/db_name/ hadoop fs -mkdir -p /tmp/lijia/default/# 导出表结构到数据到 HDFS beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_export_table.HQL## HDFS 集群连通时使用 DiskCP 进行拷贝 hadoop distcp hdfs://scrNmaeNode/tmp/db_name hdfs://targetNmaeNode/tmp## HDFS 集群不连通 hadoop fs -get /tmp/lijia/default/ scp -r /tmp/lijia/default/ roottargetAP:/tmp/lijia/## 目标服务器# 创建 HDFS 导出目录 hadoop fs -mkdir -p /tmp/lijia/# 上传到目标 HDFS hadoop fs -put /tmp/lijia/default /tmp/lijia/# 导入到目标 Hive beeline -u jdbc:hive2://172.24.3.183:10000 -nhive -f /opt/lijia/hive_import_table.HQL
http://www.zqtcl.cn/news/146780/

相关文章:

  • 网站建设丿金手指专业社交投票论坛网站开发
  • 做一套网站开发多少钱设计高端的国外网站
  • 有没有网站做lol网站的网页设计实验报告书
  • 网站后台域名重庆好的seo平台
  • 文化建设设计公司网站跨境电商亚马逊
  • 建设企业网站官网下载中心游戏网站开发设计报告
  • 外贸网站导航栏建设技巧专做奢侈品品牌的网站
  • 网站开发工程师资格证网站建设代理都有哪些
  • 汕头网站建设技术托管wordpress faq
  • 外贸网站建设系统能联系做仿瓷的网站
  • 阿里云网站域名绑定做网站的需要哪些职位
  • cnnic网站备案dnf网站上怎么做商人
  • 怎么做微拍网站代理记账公司注册
  • 长宁深圳网站建设公司建材公司网站建设方案
  • 做网站哪些软件比较好wordpress的留言功能
  • 域名申请好了怎么做网站山西手机版建站系统信息
  • 维度网络网站建设广东水利建设与管理信息网站
  • 浏阳市商务局网站溪江农贸市场建设做关于车的网站有哪些
  • 网站建设教程资源网站网站制作网站的
  • 公司网页是什么被公司优化掉是什么意思
  • 酒店网站建设方案结束语慈溪企业排名网站
  • 做行业网站广告能赚多少钱百度搜索下载安装
  • 寺院网站建设网页搭建
  • 网站设计报价是多少wordpress登录接口
  • 灵宝网站建设建h5网站费用
  • 泊头做网站的有哪些深圳网页制作与网站建设服务器
  • 网站设计的思路网页无法访问百度
  • 简述你对于网站建设的认识网络工程就业岗位有哪些
  • 征婚网站上教人做恒指期货做网站颜色黑色代码多少
  • 海南省建设工程质量监督网站如何做搞笑原创视频网站