巨鲸任务调度平台为美柚大数据研发的分布式计算任务调度系统,提供Spark、Flink等批处理任务的DAG执行调度和流处理任务的状态监测调度,并具有重复应用检测、大内存应用检测等功能。 服务基于Spring Boot 2.0开发,打包后即可运行。[Github][Gitee]
- Java 1.8+
- Mysql 5.1.0+
- 下载项目或git clone项目
- 为解决 github README.md 图片无法正常加载的问题,请在hosts文件中加入相关域名解析规则,参考:hosts
- 创建数据库:big-whale
- 运行数据库脚本:big-whale.sql
- 根据Spring Boot环境,配置相关数据库账号密码,以及SMTP信息
- 配置:big-whale.properties
- 配置项说明
- ssh.user: 拥有脚本执行权限的ssh远程登录用户名(平台会将该用户作为统一的脚本执行用户)
- ssh.password: ssh远程登录用户密码
- dingding.enabled: 是否开启钉钉告警
- dingding.watcher-token: 钉钉公共群机器人Token
- yarn.app-memory-threshold: Yarn应用内存上限(单位:MB),-1禁用检测
- yarn.app-white-list: Yarn应用白名单列表(列表中的应用申请的内存超过上限,不会进行告警)
- 配置项说明
- 修改:$FLINK_HOME/bin/flink,参考:flink(因flink提交任务时只能读取本地jar包,故需要在执行提交命令时从hdfs上下载jar包并替换脚本中的jar包路径参数)
- 打包:mvn clean package
- 检查端口17070是否被占用,被占用的话,关闭占用的进程或修改项目端口号配置重新打包
- 拷贝target目录下的big-whale.jar,执行命令:java -jar big-whale.jar
- 打开:http://localhost:17070
- 输入账号admin,密码admin
- 点击:权限管理->用户管理,修改当前账号的邮箱为合法且存在的邮箱地址,否则会导致邮件发送失败
- 添加集群
- 添加代理
- 添加集群用户
- 添加计算框架版本
- 脚本管理->新增
- “类型”有shell批处理、spark流处理、spark批处理、flink流处理和flink批处理,示例为:spark流处理
- 因为当前用户为超级管理员,可为所有用户创建脚本,故可以选择“用户”
- 非“shell批处理”类型的脚本应上传与之处理类型相对应的程序包,此处为spark流处理任务打成的jar包
- “资源选项”可不填
- 代码有两种编辑模式,“可视化视图”和“代码视图”,可互相切换
- 脚本管理
- 点击执行上一步新建的脚本
- 执行成功后可查看Yarn应用详情连接(代理实例上Yarn任务提交命令的日志级别请设置为:INFO)
- 执行超时或失败会有相应的邮件告警
- 任务调度->新增->批处理
- 对于类型为“shell批处理”、“spark批处理”和“flink批处理”的脚本,可通过添加此功能实现DAG执行调度 (v1.1开始支持,需要从v1.0升级的,请查阅SchedulingFieldGenerateForV1_1Test.java)
- 说明:为防止平台线程被大量占用,平台提交Saprk或Flink任务的时候都会强制以“后台”的方式执行,对应spark配置:--conf spark.yarn.submit.waitAppCompletion=false,flink配置:-d,但是基于后台“批处理应用状态更新任务”的回调,在实现DAG执行引擎时可以确保当前节点脚本所提交的批处理任务运行完成后再执行下一个节点的脚本
- /openapi/script/execute.api 执行脚本
- /openapi/scheduling/execute.api 执行任务调度(批处理)
- 请求方式: POST Body
- 参数:
- sign: 用户密码Base64
- id: 脚本ID或离线调度ID
- args: 脚本参数(可选)
{
"sign": "c3V4aWFveWFuZzExIQ==",
"id": "8a80813a7154f28a017154f6637c1794",
"args": {
"$output_dir": "/var",
"$dt": "20200415"
}
}
The project is licensed under the Apache 2 license.