快速部署Linkis1.0文档
Posted a772304419
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了快速部署Linkis1.0文档相关的知识,希望对你有一定的参考价值。
注意事项
如果您是首次接触并使用Linkis,您可以忽略该章节;如果您已经是 Linkis 的使用用户,安装或升级前建议先阅读:Linkis1.0 与 Linkis0.X 的区别简述。
请注意:除了 Linkis1.0 安装包默认已经包含的:Python/Shell/Hive/Spark四个EngineConnPlugin以外,如果大家有需要,可以手动安装如 JDBC 引擎等类型的其他引擎,具体请参考 EngineConnPlugin引擎插件安装文档。
Linkis Docker镜像
Linkis 0.10.0 Docker
Linkis1.0 默认已适配的引擎列表如下:
引擎类型 | 适配情况 | 官方安装包是否包含 |
---|---|---|
Python | 1.0已适配 | 包含 |
JDBC | 1.0已适配 | 不包含 |
Shell | 1.0已适配 | 包含 |
Hive | 1.0已适配 | 包含 |
Spark | 1.0已适配 | 包含 |
Pipeline | 1.0已适配 | 不包含 |
Presto | 1.0未适配 | 不包含 |
ElasticSearch | 1.0未适配 | 不包含 |
Impala | 1.0未适配 | 不包含 |
MLSQL | 1.0未适配 | 不包含 |
TiSpark | 1.0未适配 | 不包含 |
一、确定您的安装环境
这里给出每个引擎的依赖信息列表:
引擎类型 | 依赖环境 | 特殊说明 |
---|---|---|
Python | Python环境 | 日志和结果集如果配置hdfs://则依赖HDFS环境 |
JDBC | 可以无依赖 | 日志和结果集路径如果配置hdfs://则依赖HDFS环境 |
Shell | 可以无依赖 | 日志和结果集路径如果配置hdfs://则依赖HDFS环境 |
Hive | 依赖Hadoop和Hive环境 | |
Spark | 依赖Hadoop/Hive/Spark |
要求:安装Linkis需要至少3G内存。
默认每个微服务JVM堆内存为512M,可以通过修改SERVER_HEAP_SIZE
来统一调整每个微服务的堆内存,如果您的服务器资源较少,我们建议修改该参数为128M。如下:
vim ${LINKIS_HOME}/config/linkis-env.sh
# java application default jvm memory.
export SERVER_HEAP_SIZE="128M"
二、Linkis环境准备
a. 基础软件安装
下面的软件必装:
- mysql (5.5+),如何安装MySQL
- JDK (1.8.0_141以上),如何安装JDK
b. 创建用户
例如: 部署用户是hadoop账号
- 在部署机器上创建部署用户,用于安装
sudo useradd hadoop
- 因为Linkis的服务是以 sudo -u ${linux-user} 方式来切换引擎,从而执行作业,所以部署用户需要有 sudo 权限,而且是免密的。
vi /etc/sudoers
hadoop ALL=(ALL) NOPASSWD: NOPASSWD: ALL
-
在每台安装节点设置如下的全局环境变量,以便Linkis能正常使用Hadoop、Hive和Spark。
修改安装用户的.bash_rc,命令如下:
vim /home/hadoop/.bash_rc ##以部署用户Hadoop为例
下方为环境变量示例:
#JDK
export JAVA_HOME=/nemo/jdk1.8.0_141
##如果不使用Hive、Spark等引擎且不依赖Hadoop,则不需要修改以下环境变量
#HADOOP
export HADOOP_HOME=/appcom/Install/hadoop
export HADOOP_CONF_DIR=/appcom/config/hadoop-config
#Hive
export HIVE_HOME=/appcom/Install/hive
export HIVE_CONF_DIR=/appcom/config/hive-config
#Spark
export SPARK_HOME=/appcom/Install/spark
export SPARK_CONF_DIR=/appcom/config/spark-config/
export PYSPARK_ALLOW_INSECURE_GATEWAY=1 # Pyspark必须加的参数
- 如果您的Pyspark和Python想拥有画图功能,则还需在所有安装节点,安装画图模块。命令如下:
python -m pip install matplotlib
c. 安装包准备
从Linkis已发布的release中(点击这里进入下载页面),下载最新安装包。
先解压安装包到安装目录,并对解压后的文件进行配置修改。
tar -xvf wedatasphere-linkis-x.x.x-combined-package-dist.tar.gz
d. 不依赖HDFS的基础配置修改
vi config/linkis-env.sh
#SSH_PORT=22 #指定SSH端口,如果单机版本安装可以不配置
deployUser=hadoop #指定部署用户
LINKIS_INSTALL_HOME=/appcom/Install/Linkis # 指定安装目录
WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop # 指定用户根目录,一般用于存储用户的脚本文件和日志文件等,是用户的工作空间。
RESULT_SET_ROOT_PATH=file:///tmp/linkis # 结果集文件路径,用于存储Job的结果集文件
ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安装路径,需要部署用户有写权限的本地目录
ENTRANCE_CONFIG_LOG_PATH=file:///tmp/linkis/ #ENTRANCE的日志路径
## LDAP配置,默认Linkis只支持部署用户登录,如果需要支持多用户登录可以使用LDAP,需要配置以下参数:
#LDAP_URL=ldap://localhost:1389/
#LDAP_BASEDN=dc=webank,dc=com
e. 依赖HDFS/Hive/Spark的基础配置修改
vi config/linkis-env.sh
SSH_PORT=22 #指定SSH端口,如果单机版本安装可以不配置
deployUser=hadoop #指定部署用户
WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop # 指定用户根目录,一般用于存储用户的脚本文件和日志文件等,是用户的工作空间。
RESULT_SET_ROOT_PATH=hdfs:///tmp/linkis # 结果集文件路径,用于存储Job的结果集文件
ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安装路径,需要部署用户有写权限的本地目录
ENTRANCE_CONFIG_LOG_PATH=hdfs:///tmp/linkis/ #ENTRANCE的日志路径
#因为1.0支持多Yarn集群,使用到Yarn队列资源的一定需要配置YARN_RESTFUL_URL
YARN_RESTFUL_URL=http://127.0.0.1:8088 #Yarn的ResourceManager的地址
# 如果您想配合Scriptis一起使用,CDH版的Hive,还需要配置如下参数(社区版Hive可忽略该配置)
HIVE_META_URL=jdbc://... # HiveMeta元数据库的URL
HIVE_META_USER= # HiveMeta元数据库的用户
HIVE_META_PASSWORD= # HiveMeta元数据库的密码
# 配置hadoop/hive/spark的配置目录
HADOOP_CONF_DIR=/appcom/config/hadoop-config #hadoop的conf目录
HIVE_CONF_DIR=/appcom/config/hive-config #hive的conf目录
SPARK_CONF_DIR=/appcom/config/spark-config #spark的conf目录
## LDAP配置,默认Linkis只支持部署用户登录,如果需要支持多用户登录可以使用LDAP,需要配置以下参数:
#LDAP_URL=ldap://localhost:1389/
#LDAP_BASEDN=dc=webank,dc=com
##如果spark不是2.4.3的版本需要修改参数:
#SPARK_VERSION=3.1.1
##如果hive不是1.2.1的版本需要修改参数:
#HIVE_VERSION=2.3.3
f. 修改数据库配置
vi config/db.sh
# 设置数据库的连接信息
# 包括IP地址、数据库名称、用户名、端口
# 主要用于存储用户的自定义变量、配置参数、UDF和小函数,以及提供JobHistory的底层存储
MYSQL_HOST=
MYSQL_PORT=
MYSQL_DB=
MYSQL_USER=
MYSQL_PASSWORD=
三、安装和启动
1. 执行安装脚本:
sh bin/install.sh
2. 安装步骤
-
install.sh脚本会询问您是否需要初始化数据库并导入元数据。
因为担心用户重复执行install.sh脚本,把数据库中的用户数据清空,所以在install.sh执行时,会询问用户是否需要初始化数据库并导入元数据。
第一次安装必须选是。
请注意:如果您是升级已有环境的 Linkis0.X 到 Linkis1.0,请不要直接选是,请先参考 Linkis1.0升级指南。
请注意:如果您是升级已有环境的 Linkis0.X 到 Linkis1.0,请不要直接选是,请先参考 Linkis1.0升级指南。
请注意:如果您是升级已有环境的 Linkis0.X 到 Linkis1.0,请不要直接选是,请先参考 Linkis1.0升级指南。
3. 是否安装成功:
通过查看控制台打印的日志信息查看是否安装成功。
如果有错误信息,可以查看具体报错原因。
您也可以通过查看我们的常见问题,获取问题的解答。
4. 快速启动Linkis
(1)、启动服务:
在安装目录执行以下命令,启动所有服务:
sh sbin/linkis-start-all.sh
(2)、查看是否启动成功
可以在Eureka界面查看服务启动成功情况,查看方法:
使用http:// E U R E K A I N S T A L L I P : {EUREKA_INSTALL_IP}: EUREKAINSTALLIP:{EUREKA_PORT}, 在浏览器中打开,查看服务是否注册成功。
如果您没有在config.sh指定EUREKA_INSTALL_IP和EUREKA_INSTALL_IP,则HTTP地址为:http://127.0.0.1:20303
如下图,如您的Eureka主页出现以下微服务,则表示服务都启动成功,可以正常对外提供服务了:
默认会启动8个Linkis微服务,其中图下linkis-cg-engineconn服务为运行任务才会启动
(3)、查看服务是否正常
- 服务启动成功后您可以通过,安装前端管理台,来检验服务的正常性,点击跳转管理台安装文档
- 您也可以通过Linkis用户手册来测试Linis是否能正常运行任务,点击跳转用户手册
以上是关于快速部署Linkis1.0文档的主要内容,如果未能解决你的问题,请参考以下文章