当前位置: 首页 > news >正文

模板下载网站哪个好vue做网站的好处

模板下载网站哪个好,vue做网站的好处,网站缩略图制作,网站建设流程报告Dinky之安装部署与基本使用 Dinky概览Linux安装部署解压到指定目录初始化MySQL数据库修改配置文件加载依赖启动Dinky Docker部署启动dinky-mysql-server镜像启动dinky-standalone-server镜像 Dinky的基本使用上传jar包Flink配置集群管理集群实例管理集群配置管理 创建作业语句编… Dinky之安装部署与基本使用 Dinky概览Linux安装部署解压到指定目录初始化MySQL数据库修改配置文件加载依赖启动Dinky Docker部署启动dinky-mysql-server镜像启动dinky-standalone-server镜像 Dinky的基本使用上传jar包Flink配置集群管理集群实例管理集群配置管理 创建作业语句编写与作业配置发布运行作业查看作业运行情况 Dinky的其他功能服务Catalog变量FlinkSQL环境数据源元数据中心 Dinky概览 Dinky是一个开箱即用的一站式实时计算平台以Apache Flink为基础连接OLAP和数据湖等众多框架致力于流批一体和湖仓一体的建设与实践。 主要功能 原理 核心特性 官网http://www.dlink.top/ GitHubhttps://github.com/DataLinkDC/dinky 文档http://www.dlink.top/docs/next/get_started/quick_experience/ Linux安装部署 解压到指定目录 Dinky不依赖任何外部环境完全解耦支持同时连接多个不同的集群实例进行运维。 下载地址https://github.com/DataLinkDC/dinky/releases wget https://github.com/DataLinkDC/dinky/releases/download/v0.7.3/dlink-release-0.7.3.tar.gz上传安装包并解压 tar -zxvf dlink-release-0.7.3.tar.gz -C /usr/local/programmv dlink-release-0.7.3 dinkycd dinky初始化MySQL数据库 Dinky采用mysql作为后端的存储库Dinky部署需要MySQL5.7 以上版本需要创建Dinky的后端数据库执行初始化sql文件 在Dinky/sql目录下分别放置了dinky.sql 、 upgrade/${version}_schema/mysql/mysql_ddl 如果第一次部署直接执行sql/dinky-mysql.sql 如果之前已经部署根据版本号执行upgrade目录下存放的相应版本升级sql#登录mysql mysql -uroot -p123456#创建数据库 create database dinky;# 切换数据库 use dinky;# 执行初始化sql文件 source /usr/local/program/dinky/sql/dinky.sql修改配置文件 cd dinky/configvim ./application.yml修改Dinky连接 mysql 的配置文件 spring:datasource:url: jdbc:mysql://${MYSQL_ADDR:node01:3306}/${MYSQL_DATABASE:dinky}?useUnicodetruecharacterEncodingUTF-8autoReconnecttrueuseSSLfalsezeroDateTimeBehaviorconvertToNullserverTimezoneAsia/ShanghaiallowPublicKeyRetrievaltrueusername: ${MYSQL_USERNAME:root}password: ${MYSQL_PASSWORD:123456}driver-class-name: com.mysql.cj.jdbc.Driverapplication:name: dlink加载依赖 Dinky需要具备自身的Flink环境该Flink环境的实现需要用户自己在Dinky根目录下 plugins/flink${FLINK_VERSION}文件夹并上传相关的Flink依赖。 下载Flink wget https://repo.huaweicloud.com/apache/flink/flink-1.17.0/flink-1.17.0-bin-scala_2.12.tgz解压Flink tar -zxvf flink-1.17.0-bin-scala_2.12.tgz 加载Flink依赖 对应 Flink 版本的依赖放在Dinky 安装目录下 plugins/flink${FLINK_VERSION}下 cp flink-1.17.0/lib/* dinky/plugins/flink1.17/加载Hadoop依赖 注意Dinky当前版本的yarn的perjob与application执行模式依赖flink-shade-hadoop需要额外添加flink-shade-hadoop-uber-3包。对于dinky来说Hadoop3的uber依赖可以兼容hadoop2。 wget https://repository.cloudera.com/artifactory/cloudera-repos/org/apache/flink/flink-shaded-hadoop-3-uber/3.1.1.7.2.9.0-173-9.0/flink-shaded-hadoop-3-uber-3.1.1.7.2.9.0-173-9.0.jar放到dinky/plugins目录 共享的JAR包放plugins目录否则放不同版本的Flink目录下 cp flink-shaded-hadoop-3-uber-3.1.1.7.2.9.0-173-9.0.jar dinky/plugins/启动Dinky #启动 sh auto.sh start# 启动指令的第二个参数则是版本选择 sh auto.sh start 1.17#停止 sh auto.sh stop#重启 sh auto.sh restart 1.17#查看状态 sh auto.sh status# 查看启动日志信息 tail -f logs/dlink.log -n 200服务启动后默认端口 8888访问http://127.0.0.1:8888 默认用户名/密码: admin/admin Docker部署 启动dinky-mysql-server镜像 Dinky采用mysql作为后端的存储库启动该镜像提供Dinky的MySQL业务库能力 docker run --name dinky-mysql dinkydocker/dinky-mysql-server:0.7.2出现以下日志则启动成功 2023-07-12T08:47:52.930058Z 0 [Note] mysqld: ready for connections. Version: 5.7.41 socket: /var/run/mysqld/mysqld.sock port: 3306 MySQL Community Server (GPL)如果有mysql 服务执行对应版本的SQL文件即可。 docker run --restartalways -p 8888:8888 -p 8081:8081 -e MYSQL_ADDRIP:3306 --name dinky dinkydocker/dinky-standalone-server:0.7.2-flink14启动dinky-standalone-server镜像 提供Dinky实时计算平台 docker run --restartalways -p 8888:8888 -p 8081:8081 -e MYSQL_ADDRdinky-mysql:3306 --name dinky --link dinky-mysql:dinky-mysql dinkydocker/dinky-standalone-server:0.7.2-flink14出现以下日志则启动成功 Dinky pid is not exist in /opt/dinky/run/dinky.pid FLINK VERSION : 1.14 ........................................Start Dinky Successfully........................................ ........................................Restart Successfully........................................Dinky的基本使用 上传jar包 当Flink使用YARN运行模式中的Application模式部署时需要将flink和dinky相关依赖包上传到HDFS 1.上传dinky的JAR包 # 创建HDFS目录 hadoop fs -mkdir -p /dinky/jar/hadoop fs -put /usr/local/program/dinky/jar/dlink-app-1.17-0.7.3-jar-with-dependencies.jar /dinky/jar2.上传flink的JAR包 # 创建HDFS目录 hadoop fs -mkdir /flink/jarhadoop fs -put /usr/local/program/flink/lib /flink/jarhadoop fs -put /usr/local/program/flink/plugins /flink/jarFlink配置 当使用 Application 模式以及 RestAPI 时需要修改相关Flink配置。提交FlinkSQL 的Jar文件路径指向上传到HDFS中的Dinky的JAR包 hdfs://node01:9000/dinky/jar/dlink-app-1.17-0.7.3-jar-with-dependencies.jar集群管理 提交FlinkSQL作业时首先要保证安装了Flink集群。Flink当前支持的集群模式包括Standalone 集群、Yarn 集群、Kubernetes 集群Dinky提供了两种集群管理方式一种是集群实例管理一种是集群配置管理。集群实例管理 Dinky推荐在使用 Yarn Session、K8s Session、StandAlone类型时采用集群实例的方式注册集群其他类型的集群只能查看作业信息。对于已经注册的集群实例可以对集群实例做编辑、删除、搜索、心跳检测和回收等。 1.注册Standalone集群 启动Flink的Standalone模式 [rootnode01 flink]# bin/start-cluster.sh注册集群 配置成功则显示正常 2.注册Yarn Session集群 启动Flink的YARN运行模式 [rootnode01 flink]# bin/yarn-session.sh -d启动日志如下关注日志信息 Found Web Interface node02:42628 of application application_1689258255717_0002. 2023-07-13 22:50:08,081 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - Cannot use kerberos delegation token manager, no valid kerberos credentials provided. 2023-07-13 22:50:08,088 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - Submitting application master application_1689258255717_0002 2023-07-13 22:50:08,393 INFO org.apache.hadoop.yarn.client.api.impl.YarnClientImpl [] - Submitted application application_1689258255717_0002 2023-07-13 22:50:08,393 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - Waiting for the cluster to be allocated 2023-07-13 22:50:08,396 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - Deploying cluster, current state ACCEPTED 2023-07-13 22:50:12,939 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - YARN application has been deployed successfully. 2023-07-13 22:50:12,939 INFO org.apache.flink.yarn.YarnClusterDescriptor [] - Found Web Interface node02:42628 of application application_1689258255717_0002. JobManager Web Interface: http://node02:42628 2023-07-13 22:50:13,131 INFO org.apache.flink.yarn.cli.FlinkYarnSessionCli [] - The Flink YARN session cluster has been started in detached mode. In order to stop Flink gracefully, use the following command: $ echo stop | ./bin/yarn-session.sh -id application_1689258255717_0002 If this should not be possible, then you can also kill Flink via YARNs web interface or via: $ yarn application -kill application_1689258255717_0002 Note that killing Flink might not clean up all job artifacts and temporary files.注册集群根据提示输入相应信息 配置成功则显示正常 集群配置管理 Dinky推荐在使用Yarn Per Job、Yarn Application、K8s Application类型时采用集群配置的方式注册集群。对于已经注册的集群配置可以对集群配置做编辑、删除和搜索等 填写核心参数 Hadoop配置文件路径/usr/local/program/hadoop/etc/hadoop,指服务器Hadoop配置路径lib路径hdfs://node01:9000/flink/jar,指HDFS中包含Flink运行时依赖JAR的路径Flink配置文件路径/usr/local/program/flink/conf,指服务器Flink的配置文件路径点击测试测试连接成功则代表配置无问题 创建作业 创建一个目录demo选中右键创建作业类型选择FlinkSql。创建完成后就可以在作业下编写SQL及配置作业参数 语句编写与作业配置 当FlinkSQL编写完成后即可进行作业的配置。在作业配置中可以选择作业执行模式、Flink 集群、SavePoint策略等配置对作业进行提交前的配置。 作业SQL --创建源表source CREATE TABLE source(id BIGINT,name STRING,age INT ) WITH (connector datagen );--创建结果表sink CREATE TABLE sink(id BIGINT,name STRING,age INT ) WITH (connector print );--将源表数据插入到结果表 INSERT INTO sink SELECT id, name, age from source;语法检查 发布运行作业 保存后选择执行SQL或者提交作业 查看作业运行情况 提交执行后可以到运维中心查看作业的运行情况。 Dinky的其他功能服务 Catalog Dinky可以利用MySQL持久化Flink元数据只需要在FlinkSQL的作业配置中选择DefaultCatalog即可使用MySQL来存储否则Flink采用基于内存catalog Mysql Catalog 持久化目前默认的Catalog为my_catalog,默认的FlinkSQLEnv为DefaultCatalog。 将元数据信息保存到 Mysql以后可以查看MySQL元数据、使用Mysql Catalog即在作业中无需再显式声明DDL 语句如建表操作。 变量 1.局部变量 定义变量的语法如下 key1 : value1;定义及使用变量 -- 定义变量 myKey : source;-- 使用变量 select * from ${myKey};还需要在作业配置中开启全局变量 2.全局变量 执行使用全局变量 -- 使用全局变量 select * from ${MyVariable};3.查看变量 -- 定义变量 myKey : source;-- 查看单个变量 SHOW FRAGMENT myKey;-- 查看所有变量 SHOW FRAGMENTS;FlinkSQL环境 在执行 FlinkSQL 时会先执行FlinkSqlEnv 内的语句。适用于所有作业的SET、DDL语法统一管理的场景。 新建作业类型选择FlinkSqlEnv 定义一些执行环境变量 使用自定义FlinkSQL环境 数据源 创建数据源 配置参考示例 Flink 连接配置: 避免私密信息泄露同时作为全局变量复用连接配置在FlinkSQL中可使用 ${名称} 来加载连接配置如 ${ods}。说明名称指的是英文唯一标识即如图所示的名称。注意需要开启全局变量原片段机制 hostname localhost,port 3306,username root,password 123456,server-time-zone UTCFlink 连接模板: Flink连接模板作用是为生成 FlinkSQL DDL而扩展的功能。 注意引用变量的前后逗号,使用此方式作业右侧必须开启全局变量${schemaName} 动态获取数据库${tableName} 动态获取表名称connector mysql-cdc,hostname localhost,port 3306,username root,password 123456,server-time-zone UTC,scan.incremental.snapshot.enabled true,debezium.snapshot.modelatest-offset ,database-name ${schemaName},table-name ${tableName}注意 定义数据源的名称可以作为的变量键定义数据源的Flink连接配置可以作为变量的值元数据中心 当对数据源配置完成后可以查看表的详细信息与对应的建表语句查看建表语句功能很实用 具体操作 数据开发-左侧点击 元数据-选中当前创建的数据源 - 展开库 - 右键单击 表名 - 点击 SQL生成 - 查看FlinkDDL 也可以在添加完数据源后在元数据中心可以访问
http://www.zqtcl.cn/news/61502/

相关文章:

  • 临沂市网站建设安卓游戏模板下载网站
  • 上栗县建设局网站代理记账客户获取渠道
  • 杭州微网站开发公司电话西宁网站网站建设
  • 外贸建站未来前景比较好的行业有哪些
  • 超酷个人网站室内设计网站公司
  • 网站跳转qq链接怎么做的北京建设监理协会网站
  • 做网站需要多大的内存手机网站页面如何制作
  • php网站开发需要什么软件网站建设期间怎么关闭网站
  • 图库 网站 源码4399在线观看免费高清1080
  • 设计制作数字电压表网站优化网站优化
  • 网站做二级目录跟二级域名的区别做网站都需要建哪些文件夹
  • 什么公司需要做网站服务公司名字
  • 做短连接的网站施工企业质量月活动总结报告
  • 自己建站的网站杭州网站推广服务
  • 江苏广兴建设集团网站网络软营销的案例
  • 昆明网页建站平台做招工的网站排名
  • 如何进行网站维护河北建设工程信息网查看
  • 怎么用ngrok做网站医疗保健网站前置审批文件
  • 家用电脑桌面做网站织梦网站设计
  • 公司如何做网站推广网站开发工具安全性能
  • 平度网站建设公司电话广州网站优化运营
  • 免费资料网站网址下载网站的系统建设方式有哪些
  • 网站建设步骤 文档crm管理系统是什么意思
  • 中国移动网站官网个人电脑做网站服务器
  • 网站建设推广合同网站建设公司每年可以做多少个网站
  • 代充网站怎么做wordpress底部版权插件
  • 吧台 东莞网站建设上海网站开发制作公司
  • 帮别人建网站赚钱吗上海建筑公司排行榜
  • 承德北京网站建设设计网站怎么做的
  • 视频网站建设工具域名有关的网站