Apache DolphinScheduler是一个新一代分布式、易扩展的可视化大数据工作流任务调度平台,致力于“解决大数据任务之间错综复杂的依赖关系,整个数据处理开箱即用”。它以 DAG(有向无环图) 的方式将任务连接起来,可实时监控任务的运行状态,同时支持重试、从指定节点恢复失败、暂停及 Kill 任务等操作。
DolphinScheduler的主要角色如下:
MasterServer采用分布式无中心设计理念, MasterServer主要负责 DAG 任务切分、任务提交、任务监控,并同时监听其它MasterServer和WorkerServer的健康状态 ,MasterServer服务启动时向Zookeeper注册临时节点,通过监听Zookeeper临时节点变化来进行容错处理, MasterServer基于netty提供监听服务。
WorkerServer也采用分布式无中心设计理念, WorkerServer主要负责任务的执行和提供日志服务 ,WorkerServer服务启动时向Zookeeper注册临时节点,并维持心跳。 Server基于netty提供监听服务。
ZooKeeper服务,系统中的 MasterServer和WorkerServer节点都通过ZooKeeper来进行集群管理和容错 ,另外系统还基于ZooKeeper进行事件监听和分布式锁。
Alert服务,提供告警相关服务。
API接口层,主要负责处理前端UI层的请求。
UI,系统的前端页面,提供系统的各种可视化操作界面
DolphinScheduler支持多种部署模式.
单机模式(standalone)模式下,所有服务均集中于一个StandaloneServer进程中,并且其中内置了注册中心Zookeeper和数据库H2。
只需配置JDK环境,就可一键启动DolphinScheduler,快速体验其功能, 只适合学习使用 。
伪集群模式(Pseudo-Cluster)是在单台机器部署 DolphinScheduler 各项服务,该模式下master、worker、api server、logger server等服务都只在同一台机器上。Zookeeper和数据库需单独安装并进行相应配置, 适用于测试环境使用,不可上生产 。
集群模式(Cluster)与伪集群模式的区别就是在多台机器部署 DolphinScheduler各项服务,并且可以配置多个Master及多个Worker, 生产环境使用 。
集群模式下,可配置多个Master及多个Worker。通常可配置2~3个Master,若干个Worker。由于集群资源有限,此处配置一个Master,三个Worker,集群规划如下。
[song@hadoop102 ~]$ sudo yum install -y psmisc
[song@hadoop103 ~]$ sudo yum install -y psmisc
[song@hadoop104 ~]$ sudo yum install -y psmisc
注:解压目录并非最终的安装目录
[song@hadoop102 software]$ tar -zxvf apache-dolphinscheduler-2.0.3-bin
解压后的目录结构如下图所示:
├─bin DS命令存放目录
│ ├─dolphinscheduler-daemon.sh 启动/关闭DS服务脚本
│ ├─start-all.sh 根据配置文件启动所有DS服务
│ ├─stop-all.sh 根据配置文件关闭所有DS服务
├─conf 配置文件目录
│ ├─application-api.properties api服务配置文件
│ ├─datasource.properties 数据库配置文件
│ ├─zookeeper.properties zookeeper配置文件
│ ├─master.properties master服务配置文件
│ ├─worker.properties worker服务配置文件
│ ├─quartz.properties quartz服务配置文件
│ ├─common.properties 公共服务[存储]配置文件
│ ├─alert.properties alert服务配置文件
│ ├─config 环境变量配置文件夹
│ ├─install_config.conf DS环境变量配置脚本[用于DS安装/启动]
│ ├─env 运行脚本环境变量配置目录
│ ├─dolphinscheduler_env.sh 运行脚本加载环境变量配置文件[如: JAVA_HOME,HADOOP_HOME, HIVE_HOME ...]
│ ├─org mybatis mapper文件目录
│ ├─i18n i18n配置文件目录
│ ├─logback-api.xml api服务日志配置文件
│ ├─logback-master.xml master服务日志配置文件
│ ├─logback-worker.xml worker服务日志配置文件
│ ├─logback-alert.xml alert服务日志配置文件
├─sql DS的元数据创建升级sql文件
│ ├─create 创建SQL脚本目录
│ ├─upgrade 升级SQL脚本目录
│ ├─dolphinscheduler_postgre.sql postgre数据库初始化脚本
│ ├─dolphinscheduler_mysql.sql mysql数据库初始化脚本
│ ├─soft_version 当前DS版本标识文件
├─script DS服务部署,数据库创建/升级脚本目录
│ ├─create-dolphinscheduler.sh DS数据库初始化脚本
│ ├─upgrade-dolphinscheduler.sh DS数据库升级脚本
│ ├─monitor-server.sh DS服务监控启动脚本
│ ├─scp-hosts.sh 安装文件传输脚本
│ ├─remove-zk-node.sh 清理zookeeper缓存文件脚本
├─ui 前端WEB资源目录
├─lib DS依赖的jar存放目录
├─install.sh 自动安装DS服务脚本
DolphinScheduler 元数据存储在关系型数据库中,故需创建相应的数据库和用户,便于权限管理。
mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;
mysql> CREATE USER 'dolphinscheduler'@'%' IDENTIFIED BY 'dolphinscheduler';
注:若出现以下错误信息,表明新建用户的密码过于简单。
ERROR 1819 (HY000): Your password does not satisfy the current policy requirements
可提高密码复杂度或者执行以下命令降低MySQL密码强度级别。
mysql> set global validate_password_length=4;
mysql> set global validate_password_policy=0;
mysql> GRANT ALL PRIVILEGES ON dolphinscheduler.* TO 'dolphinscheduler'@'%';
mysql> flush privileges;
[song@hadoop102 apache-dolphinscheduler-2.0.3-bin]$ cp /opt/software/mysql-connector-java-8.0.16.jar lib/
/opt/software/ds/apache-dolphinscheduler-2.0.3-bin/script/
。[song@hadoop102 apache-dolphinscheduler-2.0.3-bin]$ script/create-dolphinscheduler.sh
修改 解压目录 下的conf/config目录下的install_config.conf文件
[song@hadoop102 apache-dolphinscheduler-2.0.3-bin]$ vim conf/config/install_config.conf
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License. You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
## 注意: 该配置文件中如果包含特殊字符,如: `.*[]^${}\+?|()@#&`, 请转义,
# 示例: `[` 转义为 `\[`# 数据库类型, 目前仅支持 postgresql 或者 mysql
dbtype="mysql"# 数据库 地址 & 端口
dbhost="192.168.xx.xx:3306"# 数据库 名称
dbname="dolphinscheduler"# 数据库 用户名
username="xx"# 数据库 密码
password="xx"# Zookeeper地址
zkQuorum="192.168.xx.xx:2181,192.168.xx.xx:2181,192.168.xx.xx:2181"# 将DS安装到哪个目录,如: /data1_1T/dolphinscheduler,
installPath="/data1_1T/dolphinscheduler"# 使用哪个用户部署
# 注意: 部署用户需要sudo 权限, 并且可以操作 hdfs .
# 如果使用hdfs的话,根目录必须使用该用户进行创建.否则会有权限相关的问题.
deployUser="dolphinscheduler"# 以下为告警服务配置
# 邮件服务器地址
mailServerHost="smtp.exmail.qq.com"# 邮件服务器 端口
mailServerPort="25"# 发送者
mailSender="xxxxxxxxxx"# 发送用户
mailUser="xxxxxxxxxx"# 邮箱密码
mailPassword="xxxxxxxxxx"# TLS协议的邮箱设置为true,否则设置为false
starttlsEnable="true"# 开启SSL协议的邮箱配置为true,否则为false。注意: starttlsEnable和sslEnable不能同时为true
sslEnable="false"# 邮件服务地址值,同 mailServerHost
sslTrust="smtp.exmail.qq.com"#业务用到的比如sql等资源文件上传到哪里,可以设置:HDFS,S3,NONE。如果想上传到HDFS,请配置为HDFS;如果不需要资源上传功能请选择NONE。
resourceStorageType="NONE"# if S3,write S3 address,HA,for example :s3a://dolphinscheduler,
# Note,s3 be sure to create the root directory /dolphinscheduler
defaultFS="hdfs://mycluster:8020"# 如果resourceStorageType 为S3 需要配置的参数如下:
s3Endpoint="http://192.168.xx.xx:9010"
s3AccessKey="xxxxxxxxxx"
s3SecretKey="xxxxxxxxxx"# 如果ResourceManager是HA,则配置为ResourceManager节点的主备ip或者hostname,比如"192.168.xx.xx,192.168.xx.xx",否则如果是单ResourceManager或者根本没用到yarn,请配置yarnHaIps=""即可,如果没用到yarn,配置为""
yarnHaIps="192.168.xx.xx,192.168.xx.xx"# 如果是单ResourceManager,则配置为ResourceManager节点ip或主机名,否则保持默认值即可。
singleYarnIp="yarnIp1"# 资源文件在 HDFS/S3 存储路径
resourceUploadPath="/dolphinscheduler"# HDFS/S3 操作用户
hdfsRootUser="hdfs"# 以下为 kerberos 配置# kerberos是否开启
kerberosStartUp="false"
# kdc krb5 config file path
krb5ConfPath="$installPath/conf/krb5.conf"
# keytab username
keytabUserName="hdfs-mycluster@ESZ.COM"
# username keytab path
keytabPath="$installPath/conf/hdfs.headless.keytab"# api 服务端口
apiServerPort="12345"# 部署DS的所有主机hostname
ips="ds1,ds2,ds3,ds4,ds5"# ssh 端口 , 默认 22
sshPort="22"# 部署master服务主机
masters="ds1,ds2"# 部署 worker服务的主机
# 注意: 每一个worker都需要设置一个worker 分组的名称,默认值为 "default"
workers="ds1:default,ds2:default,ds3:default,ds4:default,ds5:default"# 部署alert服务主机
alertServer="ds3"# 部署api服务主机
apiServers="ds1"
#
# Licensed to the Apache Software Foundation (ASF) under one or more
# contributor license agreements. See the NOTICE file distributed with
# this work for additional information regarding copyright ownership.
# The ASF licenses this file to You under the Apache License, Version 2.0
# (the "License"); you may not use this file except in compliance with
# the License. You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
## NOTICE : If the following config has special characters in the variable `.*[]^${}\+?|()@#&`, Please escape, for example, `[` escape to `\[`
# postgresql or mysql
dbtype="mysql"# db config
# db address and port
dbhost="hadoop102:3306"# db username
username="dolphinscheduler"# database name
dbname="dolphinscheduler"# db passwprd
# NOTICE: if there are special characters, please use the \ to escape, for example, `[` escape to `\[`
password="xxx"# zk cluster
zkQuorum="hadoop102:2181,hadoop103:2181,hadoop104:2181"# Note: the target installation path for dolphinscheduler, please not config as the same as the current path (pwd)
installPath="/opt/model/dolphinscheduler"# deployment user
# Note: the deployment user needs to have sudo privileges and permissions to operate hdfs. If hdfs is enabled, the root directory needs to be created by itself
deployUser="song"# alert config
# mail server host 暂时不需要配 一键部署完毕之后 分别单独配置
mailServerHost="smtp.exmail.qq.com"# mail server port
# note: Different protocols and encryption methods correspond to different ports, when SSL/TLS is enabled, make sure the port is correct.
mailServerPort="25"# sender
mailSender="xxxxxxxxxx"# user
mailUser="xxxxxxxxxx"# sender password
# note: The mail.passwd is email service authorization code, not the email login password.
mailPassword="xxxxxxxxxx"# TLS mail protocol support
starttlsEnable="true"# SSL mail protocol support
# only one of TLS and SSL can be in the true state.
sslEnable="false"#note: sslTrust is the same as mailServerHost
sslTrust="smtp.exmail.qq.com"# user data local directory path, please make sure the directory exists and have read write permissions
dataBasedirPath="/tmp/dolphinscheduler"# resource storage type: HDFS, S3, NONE
resourceStorageType="HDFS"# resource store on HDFS/S3 path, resource file will store to this hadoop hdfs path, self configuration, please make sure the directory exists on hdfs and have read write permissions. "/dolphinscheduler" is recommended
resourceUploadPath="/dolphinscheduler"# if resourceStorageType is HDFS,defaultFS write namenode address,HA you need to put core-site.xml and hdfs-site.xml in the conf directory.
# if S3,write S3 address,HA,for example :s3a://dolphinscheduler,
# Note,s3 be sure to create the root directory /dolphinscheduler
defaultFS="hdfs://hadoop102:8020"# if resourceStorageType is S3, the following three configuration is required, otherwise please ignore
s3Endpoint="http://192.168.xx.xx:9010"
s3AccessKey="xxxxxxxxxx"
s3SecretKey="xxxxxxxxxx"# resourcemanager port, the default value is 8088 if not specified
resourceManagerHttpAddressPort="8088"# if resourcemanager HA is enabled, please set the HA IPs; if resourcemanager is single, keep this value empty
yarnHaIps=# if resourcemanager HA is enabled or not use resourcemanager, please keep the default value; If resourcemanager is single, you only need to replace ds1 to actual resourcemanager hostname
singleYarnIp="hadoop103"# who have permissions to create directory under HDFS/S3 root path
# Note: if kerberos is enabled, please config hdfsRootUser=
hdfsRootUser="song"# kerberos config
# whether kerberos starts, if kerberos starts, following four items need to config, otherwise please ignore
kerberosStartUp="false"
# kdc krb5 config file path
krb5ConfPath="$installPath/conf/krb5.conf"
# keytab username
keytabUserName="hdfs-mycluster@ESZ.COM"
# username keytab path
keytabPath="$installPath/conf/hdfs.headless.keytab"
# kerberos expire time, the unit is hour
kerberosExpireTime="2"# api server port
apiServerPort="12345"# install hosts
# Note: install the scheduled hostname list. If it is pseudo-distributed, just write a pseudo-distributed hostname
ips="hadoop102,hadoop103,hadoop104"# ssh port, default 22
# Note: if ssh port is not default, modify here
sshPort="22"# run master machine
# Note: list of hosts hostname for deploying master
masters="hadoop102"# run worker machine
# note: need to write the worker group name of each worker, the default value is "default"
workers="hadoop102:default,hadoop103:default,hadoop104:default"# run alert machine
# note: list of machine hostnames for deploying alert server
alertServer="hadoop102"# run api machine
# note: list of machine hostnames for deploying api server
apiServers="hadoop102"
[song@hadoop102 apache-dolphinscheduler-2.0.3-bin]$ zk.sh start
[song@hadoop102 apache-dolphinscheduler-2.0.3-bin]$ ./install.sh
DolphinScheduler的启停脚本均位于其 安装目录 的bin目录下。
./bin/start-all.sh
./bin/stop-all.sh
注意同Hadoop的启停脚本进行区分。
2. 启停 Master
./bin/dolphinscheduler-daemon.sh start master-server
./bin/dolphinscheduler-daemon.sh stop master-server
./bin/dolphinscheduler-daemon.sh start worker-server
./bin/dolphinscheduler-daemon.sh stop worker-server
./bin/dolphinscheduler-daemon.sh start api-server
./bin/dolphinscheduler-daemon.sh stop api-server
./bin/dolphinscheduler-daemon.sh start logger-server
./bin/dolphinscheduler-daemon.sh stop logger-server
./bin/dolphinscheduler-daemon.sh start alert-server
./bin/dolphinscheduler-daemon.sh stop alert-server
通过类似shell方式提交任务的的时候,会加载该配置文件中的环境变量到主机中. 涉及到的任务类型有: Shell任务、Python任务、Spark任务、Flink任务、Datax任务等等
export HADOOP_HOME=/opt/soft/hadoop
export HADOOP_CONF_DIR=/opt/soft/hadoop/etc/hadoop
export SPARK_HOME1=/opt/soft/spark1
export SPARK_HOME2=/opt/soft/spark2
export PYTHON_HOME=/opt/soft/python
export JAVA_HOME=/opt/soft/java
export HIVE_HOME=/opt/soft/hive
export FLINK_HOME=/opt/soft/flink
export DATAX_HOME=/opt/soft/datax/bin/datax.pyexport PATH=$HADOOP_HOME/bin:$SPARK_HOME1/bin:$SPARK_HOME2/bin:$PYTHON_HOME:$JAVA_HOME/bin:$HIVE_HOME/bin:$PATH:$FLINK_HOME/bin:$DATAX_HOME:$PATH
各服务日志配置文件:
安全中心主要有租户管理、用户管理、告警组管理、告警实例管理、Worker分组管理、Yarn 队列管理、环境管理、令牌管理等功能。安全中心只有管理员账户才有操作权限。
租户对应的是Linux的用户,用于worker提交作业所使用的用户。如果linux没有这个用户,则会导致任务运行失败。你可以通过修改 worker.properties 配置文件中参数 worker.tenant.auto.create=true(默认值为 false)
实现当 linux 用户不存在时自动创建该用户。worker.tenant.auto.create=true 参数会要求 worker 可以免密运行 sudo 命令。
用户对应的是DolphinScheduler的用户,用于登录DolphinScheduler。用户分管理员用户和普通用户。
注意:如果该用户切换了租户,则该用户所在租户下所有资源将复制到切换的新租户下
此处创建一个普通用户song,如下图。
告警组是在启动时设置的参数,在流程结束以后会将流程的状态和其他信息以邮件形式发送给告警组。
管理员进入安全中心->告警组管理页面,点击“创建告警组”按钮,创建告警组。
在任务执行时,可以将任务分配给指定Worker组,最终由该组中的Worker节点执行该任务。每个worker节点都会归属于自己的Worker分组,默认分组为default。
打开要设置分组的worker节点上的"conf/worker.properties
"配置文件. 修改worker.groups参数。
worker.groups参数后面对应的为该worker节点对应的分组名称,默认为default。
如果该worker节点对应多个分组,则以逗号隔开。
示例:
worker.groups=default,test
在运行中修改worker所属的worker分组,如果修改成功,worker就会使用这个新建的分组,忽略worker.properties中的配置。即方式二优先级高于方式一。
修改步骤为 “安全中心 -> worker分组管理 -> 点击 ‘新建worker分组’ -> 输入’组名称’ -> 选择已有worker -> 点击’提交’” 。如下图所示:
队列是在执行spark、mapreduce等程序,需要用到“队列”参数时使用的,此处的队列对应的是Yarn调度器的资源队列。
故队列概念只对跑在Yarn上的任务类型有效。此处创建出的队列,可供后续任务进行选择。需要注意的是,在DolphinScheduler中创建队列,并不会影响到Yarn调度器的队列配置,此处可不创建队列。
令牌用于通过接口访问DolphinScheduler各项服务时的用户验证。普通用户通过UI页面访问各项服务时,无需使用令牌。
若需将DolphinScheduler与第三方服务进行集成,则需调用其接口,此时需使用令牌。
默认不使用管理员用户操作项目和工作流等,故需先切换到创建的普通用户song。
下图为工作流配置页面,共包含三个模快,分别为工作流定义、工作流实例和任务实例。
工作流要求:工作流需包含三个Shell类型的任务节点,分别是A,B,C。三个任务的依赖关系如下图所示:
创建工作流
配置任务节点
节点A
节点B
节点C
配置任务节点的依赖关系
保存工作流定义
上线工作流,工作流须上线之后才能执行。处于上线状态的工作流定义不可修改,如需修改,须先下线。
单次运行工作流
定时执行工作流
点击定时
配置定时规则,此处示例为每秒钟执行一次
配置定时之后,点击“执行时间”查看任务接下来五次执行时间
定时管理
定时上线
查看工作流实例
查看所有工作流实例
查看工作流执行状态
查看所有任务实例
查看任务实例日志
DolphinScheduler支持对任务节点进行灵活的传参,任务节点可通过${参数名}引用参数值。
DolphinScheduler提供了一些时间相关的系统参数,方便定时调度使用。
- 自定义日期格式,可以对 $[yyyyMMddHHmmss] 任意分解组合,如 $[yyyyMMdd], $[HHmmss], $[yyyy-MM-dd]。
- 使用 add_months() 函数,该函数用于加减月份, 第一个入口参数为[yyyyMMdd],表示返回时间的格式 第二个入口参数为月份偏移量,表示加减多少个月。
若执行的脚本需要一个格式为yyyy-MM-dd的前一天日期的参数,进行如下配置即可。
全局参数是指针对整个工作流的所有任务节点都有效的参数,在工作流定义页面配置。
- 节点A配置
- 节点B配置
- 节点C配置
局部参数是指只针对单个任务节点有效的参数
- dt:参数名
- IN:IN 表示局部参数仅能在当前节点使用,OUT 表示局部参数可以向下游传递
- DATE:数据类型,日期
- $[yyyy-MM-dd]:自定义格式的衍生内置参数
通过 ${param} 方式引用全局参数。
目前传递方向仅支持上游单向传递给下游。目前支持这个特性的任务类型有:Shell、SQL、Procedure。
如果要将该节点的结果传递给有依赖关系的下游节点,当定义上游节点时,需要在设置自定义参数时选择方向为 OUT。
设置上游节点 A
设置下游节点 B
若节点之间没有依赖关系,则局部参数无法传递。
查看输出日志,可以看到对应节点日志中输出了其调用参数的值。
设置上游节点本地参数
设置当前节点本地参数
设置全局参数
上线并运行工作流查看 Node-B 运行结果
可见,生效的参数为 Node-B 节点定义的本地参数
使 Node-B 节点定义的本地参数 priority 失效,重新运行工作流
由此可得,优先级由高到低:本地参数 > 全局参数 > 上游任务传递的参数。
节点间依赖关系如下
Node-A 参数设置
Node-B 参数设置
Node-C 节点设置
上线并运行工作流查看 Node-C 日志
将休眠 5 秒的 Node-A 的 upper 参数置空
再次运行工作流,查看 Node-C 的日志
Node-C 依赖于 Node-A 和 Node-B,而 Node-A 节点在执行 echo 之前休眠5秒,Node-B 节点在执行 echo 命令之前休眠 10 秒,Node-A 先于 Node-B 执行完毕,Node-C 最终调用的参数为 Node-A 传递的参数。
交换 Node-A 和 Node-B 的休眠时间使得 Node-B 先执行完毕,发现 Node-C 调用的是 Node-B 传递的参数。多次调整休眠时间,发现 Node-C 调用的参数始终为先执行完毕的上游节点传递的参数。
此外,当先执行完毕的节点参数值为空时,会调用其它上游节点传递的值为非空的参数。
有些任务需要引用一些额外的资源,例如MR、Spark等任务须引用jar包,Shell任务需要引用其他脚本等。DolphinScheduler提供了资源中心来对这些资源进行统一管理。
如果需要用到资源上传功能,针对单机可以选择本地文件目录作为上传文件夹(此操作不需要部署 Hadoop),当然也可以选择上传到 Hadoop or MinIO 集群上,此时则需要有Hadoop (2.6+) 或者 MinIO 等相关环境。本文在部署 DS 集群时指定了文件系统为 HDFS。
文件管理是对各种资源文件的管理,包括创建基本的txt/log/sh/conf/py/java等文件、上传jar包等各种类型文件,可进行编辑、重命名、下载、删除等操作。
创建文件
上传文件
点击"上传文件"按钮进行上传,将文件拖拽到上传区域,文件名会自动以上传的文件名称补全。
引用文件
数据源中心支持MySQL、POSTGRESQL、HIVE/IMPALA、SPARK、CLICKHOUSE、ORACLE、SQLSERVER等数据源,此处仅对 HIVE 数据源进行介绍。
- 数据源:选择HIVE。
- 数据源名称:输入数据源的名称。
- 描述:输入数据源的描述,可置空。
- IP/主机名:输入连接HIVE的IP。
- 端口:输入连接HIVE的端口,默认 10000。
- 用户名:设置连接HIVE的用户名,如果没有配置 HIVE 权限管理,则用户名可以任意,但 HIVE 表数据存储在 HDFS,为了保证对所有表的数据均有操作权限,此处选择 HDFS 超级用户 song(注:HDFS 超级用户名与执行 HDFS 启动命令的 Linux 节点用户名相同)。
- 密码:设置连接HIVE的密码,如果没有配置 HIVE 权限管理,则密码置空即可。
- 数据库名:输入连接HIVE的数据库名称。
- Jdbc连接参数:用于HIVE连接的参数设置,以JSON形式填写,没有参数可置空。
如需使用DolphinScheduler的邮件告警通知功能,需要准备一个电子邮箱账号,并启用SMTP服务。此处以 QQ 邮箱为例。
POP3是Post Office Protocol 3的简称,即邮局协议的第3个版本,它规定怎样将个人计算机连接到Internet的邮件服务器和下载电子邮件的电子协议。
它是因特网电子邮件的第一个离线协议标准,POP3允许用户从服务器上把邮件存储到本地主机(即自己的计算机)上,同时删除保存在邮件服务器上的邮件,而POP3服务器则是遵循POP3协议的接收邮件服务器,用来接收电子邮件的。(与IMAP有什么区别?)
SMTP 的全称是“Simple Mail Transfer Protocol”,即简单邮件传输协议。它是一组用于从源地址到目的地址传输邮件的规范,通过它来控制邮件的中转方式。
SMTP 协议属于 TCP/IP 协议簇,它帮助每台计算机在发送或中转信件时找到下一个目的地。SMTP 服务器就是遵循 SMTP 协议的发送邮件服务器。
SMTP 认证,简单地说就是要求必须在提供了账户名和密码之后才可以登录 SMTP 服务器,这就使得那些垃圾邮件的散播者无可乘之机,增加 SMTP 认证的目的是为了使用户避免受到垃圾邮件的侵扰。
IMAP全称是Internet Mail Access Protocol,即交互式邮件存取协议,它是跟POP3类似邮件访问标准协议之一。不同的是,开启了IMAP后,您在电子邮件客户端收取的邮件仍然保留在服务器上,同时在客户端上的操作都会反馈到服务器上,如:删除邮件,标记已读等,服务器上的邮件也会做相应的动作。
所以无论从浏览器登录邮箱或者客户端软件登录邮箱,看到的邮件以及状态都是一致的。
拖动进度条在页面下方找到下图所示内容,开启 POP3/SMTP | IMAP/SMTP 任一服务即可。
点击“生成授权码”,按照提示信息操作后点击“我已发送”即可生成授权码。授权码可以生成多次,若遗忘重新生成即可。
https://blog.csdn.net/wustzjf/article/details/52481309
下载钉钉 PC 客户端。
部分群聊需要选择归属企业,或不支持 PC 端建群,此处选择创建“培训群”
勾选自定义关键词之后可以添加至多10个关键词,发送的消息中至少包含其中 1 个关键词才可以发送成功。
Keyword 必须至少包含一个创建钉钉机器人时指定的关键词。否则不会发送告警信息。
下载企业微信手机客户端,主界面左滑,选择“全新创建企业”。
选择“其他”
补全信息
“跳过”进入组织
登陆企业微信 web 端管理后台
“我的企业”下的“企业 ID”即为 corp.id
需要上传 logo,且可见范围必须为根部门,此处即“哈哈哈”
点击 Secret 后面的“查看”发送消息至企业微信客户端即可获取 secret。
[song@hadoop102 ~]$ curl -XGET https://qyapi.weixin.qq.com/cgi-bin/gettoken\?corpid\=ww77f65af6ebf41c15\&corpsecret\=nV_G3IcidnKglwfJPydArHLQUuQmQxp7XhGIRatWK7w
注:
①?,=,& 在 Linux 中均有特殊含义,需要转义。
②url 中 corpid 和 corpsecret 后的值应分别用前文获取的 corp.id 和 secret 替换。
返回的结果如下
{"errcode":0,"errmsg":"ok","access_token":"EDpWQWZoj3IJ24gkiXlpRltBwqTkzVa0gbBlUxwrDPSPujOYBf2Cqz54k1LQLSuQqDf1fNbQwwC7Tn4PuDOnhkR4Nuecc3F3xhRR6UAhkULcE-0_gfJhnMeeptL52tw0wGB5JOEc0rgi8JEZuEleVuC8PpZawrRMmerfe0RClkIH8yKKAO0Wi-ZuBRrNs0fdsoVpHxcvIYaEEPoIJLVVtw","expires_in":7200}
其中 “access_token” 字段的值即我们需要的 token。
[song@hadoop102 ~]$ curl -XPOST https://qyapi.weixin.qq.com/cgi-bin/appchat/create\?access_token\=EDpWQWZoj3IJ24gkiXlpRltBwqTkzVa0gbBlUxwrDPSPujOYBf2Cqz54k1LQLSuQqDf1fNbQwwC7Tn4PuDOnhkR4Nuecc3F3xhRR6UAhkULcE-0_gfJhnMeeptL52tw0wGB5JOEc0rgi8JEZuEleVuC8PpZawrRMmerfe0RClkIH8yKKAO0Wi-ZuBRrNs0fdsoVpHxcvIYaEEPoIJLVVtw -d '{"name":"告警通知小组","owner":"HaHaHa","userlist":["HaHaHa", "TieDun"]}
“owner” 和 “userlist” 中的用户id 获取方式与前文一致。
返回结果如下:
{"errcode":0,"errmsg":"ok","chatid":"wrNP1gIQAA2X7nX-g4addQOa-UB6Cudw"}
其中 “chatid” 字段的值即我们需要的 “chatid”。
注意,“userlist” 至少需要两个 “userid”,否则报错:无效的群聊成员列表规模,如下
{"errcode":86006,"errmsg":"invalid chat member list size, hint: [1646903632450091307995180], from ip: 115.171.202.120, more info at https://open.work.weixin.qq.com/devtool/query?e=86006"}
{"chatid": "wrNP1gIQAA2X7nX-g4addQOa-UB6Cudw","msgtype":"text","text":{"content" : "告警信息: \n{msg}"},"safe":0
}
上述为固定格式,替换 chatid 和 content 字段的值即可。chatid 的值为上文获取的群聊id,content 的值为发送到群聊的告警信息,可以自定义。
msg 为 DolphinScheduler 规定的告警信息变量名,{msg} 表示取 msg 变量的值。
电话告警需要通过第三方平台实现,此处选用睿象云。睿象云官网:https://www.aiops.com/
Email 为通用集成,将告警信息以邮件的形式发送到睿象云提供的邮箱,后者会根据用户在睿象云平台配置的告警策略进行各种形式的告警。
收件人指定为睿象云提供的邮箱即可。
任务执行完毕即可接到告警电话。
若工作流执行到一半失败了,需要重新启动工作流。重新启动时可选择从起点开始执行,也可选择从断点开始执行。
修改Node-A配置如下
运行工作流,查看工作流实例
从起点开始
从断点开始
下一篇:Mysql常见的函数介绍