cloudera manager的环境变量怎么配置

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了cloudera manager的环境变量怎么配置相关的知识,希望对你有一定的参考价值。

配置文件地址:
Hadoop: /etc/hadoop/conf
hbase: /etc/hadoop/conf
hive: /etc/hive/conf

使用cloudera manager web UI 修改hadoop .xml文件属性方法:

For Cloudera the best way to push this configuration to the nodes is to use the Cloudera manager GUI.

From the Cloudera web page, click on the HDFS service under Status to open the HDFS service.

Click Configuration, and choose View and Edit

On the left panel expand Service-Wide and click advance

Click on Cluster-wide Configuration Safety Valve for core-site.xml
Enter the setting from Table above

Settings entered into core-site safety valve

At the top right of the page, Click Save Change

Go back to the Cloudera Manager Home screen. Using the drop down stop the HDFS service.

Using the drop down next to the Status, deploy the client configuration

g

Using the drop down, restart the Mapreduce service.

Check that the nodes have received the correct configuration. From the CLI on a node do a grep on the core-site.xml and search for HSK
cat /etc/hadoop/conf.cloudera.hdfs1/core-site.xml |grep HSK

Next Upload the Java ViPR client JAR file to a client using WinSCP and copy it to the Hadoop Classpath on all Hadoop nodes.

On the first node where you have uploaded the ViPr client copy it to the Cloudera Classpath
cp hadoop-2.0.x-alpha-viprfs-1.0.1.jar /opt/cloudera/parcels/CDH-4.5.0-1.cdh4.5.0.p0.30/lib/hadoop/lib
参考技术A 使用SVN 配置本地SVN服务器过程中如何使用SVN。我们的设置就完成了,重启一下。可以在浏览器里面输入localhost/M.168.1.)试试看,其他同事也可以看看。使用TortoiseSVN就可以checkin和checkout。

Cloudera Manager环境准备

文章目录

环境准备

1. 集群资源规划

1.1 业务集群规划思路

一般而言,一个集群上很少只跑一个业务,大多数情况都是多个业务共享集群,实际上就是共享系统软硬件资源。

这里通常涉及两大问题,其一是业务之间资源隔离问题,就是将各个业务在逻辑上隔离开来,互相不受影响,这个问题产生于业务共享场景下一旦某一业务一段时间内流量猛增必然会因为过度消耗系统资源而影响其他业务;其二就是共享情况下如何使得系统资源利用率最高,理想情况下当然希望集群中所有软硬件资源都得到最大程度利用。

因为业务隔离场景是不尽相同的,这里主要针对后者进行讲解:使得集群系统资源最大化利用,那首先要看业务对系统资源的需求情况。经过对线上业务的梳理,通常可将这些业务分为如下几类:

1.硬盘容量敏感型业务:这类业务对读写延迟以及吞吐量都没有很大的要求,唯一的需要就是硬盘容量。比如大多数离线读写分析业务,上层应用一般每隔一段时间批量写入大量数据,然后读取也是定期批量读取大量数据。特点:离线写、离线读,需求硬盘容量

2.带宽敏感型业务:这类业务大多数写入吞吐量很大,但对读取吞吐量没有什么要求。比如日志实时存储业务,上层应用通过kafka将海量日志实时传输过来,要求能够实时写入,而读取场景一般是离线分析或者在业务遇到异常的时候对日志进行检索。特点:在线写、离线读,需求带宽

3.IO敏感型业务:相比前面两类业务来说,IO敏感型业务一般都是较为核心的业务。这类业务对读写延迟要求较高,尤其对于读取延迟通常在100ms以内,部分业务可能要求更高。比如在线消息存储系统、历史订单系统、实时推荐系统等。特点:在(离)线写、在线读,需求内存、高IO介质

4.对于CPU资源,HBase本身就是CPU敏感型系统,主要用于数据块的压缩/解压缩,基本所有业务都对CPU有共同的需求,而单纯的HDFS存储对CPU要求不高

一个集群想要资源利用率最大化,一个思路就是各个业务之间‘扬长避短’,合理搭配,各取所需。实际上就是上述几种类型的业务能够混合分布,建议不要将同一种类型的业务太多分布在同一个集群。因此一个集群理论上资源利用率比较高效的配置为:硬盘敏感型业务 + 带宽敏感型业务 + IO敏感型业务。

另外,集群业务规划的时候除了考虑资源使用率最大化这个问题之外,还需要考虑实际运维的需求。建议将核心业务和非核心业务分布在同一个集群,强烈建议不要将太多核心业务同时分布在同一个集群。这主要有两方面的考虑:

1.一方面是因为核心业务共享资源必然会产生竞争,一旦出现竞争无论哪个核心业务出现问题都不是我们愿意看到的;

2.另一方面在特殊场景下方便运维童鞋进行降级处理,比如类似于淘宝双十一这类大促活动,某个核心业务预期会有很大的流量涌入,为了保证核心业务的平稳,在资源共享的情况下只能牺牲其他非核心业务,在和非核心业务方充分交流沟通的基础上限制这些业务的资源使用,在流量极限的时候甚至可以直接停掉这些非核心业务。试想,如果是很多核心业务共享集群的话,哪个核心业务愿意轻易让路?

1.2 真实集群规划

Hadoop 集群实际上就是在一组通过网络连接的物理计算机组成的集群上安装部署Hadoop 相关的软件。所以,Hadoop 集群规划包括两大模块:

(1) 物理集群规划

(2) 软件集群规划

根据实际业务需求,确定哪些软件运行在哪些物理机上,最终以一个整体来对外提供大数据的相关服务。

1.2.1 物理集群规划

Hadoop 物理集群规划主要解决的两个问题:

(1)准备什么样的物理计算机?——机器选型

(2)准备多少台物理计算机?——集群规模

1.2.1.1 机器选型

(1)小型机:价格在百万级别以上,成本太高,Hadoop 的初衷是致力于运行在廉价的机器之上,

这违背了 Hadoop 的初衷。所以不推荐使用。

(2)PCServer:综合考虑价格和性能,这是第一选择。

(3)云主机(比如阿里云、腾讯云):一般创业初期的互联网公司会选用,因为资金不足,

且数据量是逐步增大,可以采用此方式。

(4)普通 PC:稳定性不好,可用于实验环境。

(5)虚拟机:无奈,学习使用。

总结:

(1) 企业开发环境物理集群优选 PCServer

(2) 学习实验环境物理集群优选虚拟机

1.2.1.2 集群规模

影响集群规模的因素:

(1) 功能性需求

数据量包括现有的全量数据、一定时期内的增量数据、数据的副本个数、临时数据、

日志数据、安装包等等。

(2) 每台计算机的资源配置

(3) 非功能性需求

  1. 可靠性需求

  2. 可用性需求

  3. 容错性需求

比如,目前公司过去一年历史数据量为500G,为了保证可靠地容错性,至少要冗余3份,冗余后为1500G。

除此之外,还要考虑数据的不断增长,根据历史数据推算,每年用户量增长1倍,明年一年(或未来三年,根据公司财力来进行规划)内数据将达到3000G,加上1500G历史数据,共需存储4500G。再加上日志数据和软件临时数据等,需提前准备至少5000G(5T)的磁盘容量。假设每台服务器500G的SSD容量,则需要至少10台服务器。

总结:

l 根据实际业务需求的不同,企业物理集群规模大小也各不相同。几台、十几台、几十台、成百上千台的都有。

l 目前先部署三个节点的分布式集群。

1.2.2 软件集群规划

涉及到软件选型,及之后的主机规划。

1.2.2.1 软件选型

即选择使用什么样的软件?哪个版本?是否稳定?各个软件之间是否兼容?

项目软件选型:

jdk:Jdk1.8

Scala2.11.8

CDH 6.2.1: zookeeper-3.4.5-cdh6.2.1、hadoop-3.0.0-cdh6.2.1,hive-2.1.1-cdh6.2.1、hue-4.3.0-cdh6.2.1

sqoop-1.4.7-cdh6.2.1

Mysql 5.7

1.2.2.2 主机规划

主机规划即哪台机器上部署哪些软件。

Hadoop01/192.168.52.150Hadoop02/192.168.52.151Hadoop03/192.168.52.152
CM管理服务
NameNode
DataNode
SecondNameNode
ResourceManager
NodeManager
JobHistory Server
Zookeeper
Hive
Oozie
Hue
Sqoop

总结:

(1)单节点集群是把所有软件都部署在同一台机器上

(2)分布式集群是按照主机规划把对应的软件部署在对应的机器上

1.3 测试集群

目标:部署三个节点的 Hadoop 集群

任务:

(1)安装三台虚拟机——Hadoop 物理集群部署

(2)在虚拟机上安装 Hadoop——Hadoop 软件集群部署

2. Linux虚拟机环境

节点内存CPU硬盘
hadoop0112G450
hadoop023G250
hadoop031G150

详见过程见附件:

3. CM前置工具

3.1 下载包

3.1.1 CDH包

下载地址: https://archive.cloudera.com/cdh6/6.2.1/parcels/

只需要下载对应系统下的包即可,我们使用的是Centos7,所以只需要下载后缀为el7的三个包即可。

在资料中已下载好:Home\\资料\\下载文件\\cdh6。

3.1.2 CM包

下载地址: https://archive.cloudera.com/cm6/6.2.1/redhat7/yum/RPMS/x86_64/

路径下的六个包都需要下载。

在资料中已下载好:Home\\资料\\下载文件\\cm6。

3.1.3 秘钥文件

下载地址: https://archive.cloudera.com/cm6/6.2.1/

在资料中已下载好:Home\\资料\\下载文件\\allkeys.asc。

链接:https://pan.baidu.com/s/1MV4qT3fteyERzdli_ZJX7g?pwd=futg
提取码:futg
–来自百度网盘超级会员V1的分享

3.2 安装依赖包

如果不提前安装这些依赖包,在后面安装CM的时候可能会出现异常。

yum install -y cyrus-sasl-plain cyrus-sasl-gssapi portmap fuse-libs bind-utils libxslt fuse

yum install -y /lib/lsb/init-functions createrepo deltarpm python-deltarpm

yum install -y mod_ssl openssl-devel python-psycopg2 MySQL-python

可以三台虚拟机同时进行安装。

3.3 安装httpd

只需要在部署本地yum源的机器上安装即可,不用三台全部安装。

​ yum install httpd

​ yum install createrepo

3.4 配置host

3.4.1 linux

每一台linux服务器都需要进行配置:

vim /etc/hosts

192.168.52.150 hadoop01192.168.52.151 hadoop02192.168.52.152 hadoop03192.168.52.153 hadoop04

3.4.2 windows

打开hosts文件:【C:\\Windows\\System32\\drivers\\etc\\hosts】

添加一下内容:

# 教育数仓

192.168.52.150 hadoop01

192.168.52.151 hadoop02

192.168.52.152 hadoop03

3.5 关闭防火墙

三台都要执行。

查看防火墙状态: systemctl status firewalld.service

绿的running表示防火墙开启

执行关闭命令: systemctl stop firewalld.service

再次执行查看防火墙命令:systemctl status firewalld.service

执行开机禁用防火墙自启命令 : systemctl disable firewalld.service

完成

3.6 关闭selinux

三台都要执行。

#临时生效setenforce 0 #永久生效#将SELINUX=enforcing改为SELINUX=disabledvim /etc/selinux/config

#在配置文件中第一次设置时需要重启服务器reboot

3.7 安装httpd服务

因为在实际的生产环境中,很有可能是不能联网的,或者从外网下载的速度较慢。这时我们通过本地的镜像来进行安装,效率会大大提升。

只在第一台服务器执行即可。

#前面已执行过yum install httpd -y

#启动httpd服务systemctl start httpd.service #进入域名根目录cd /var/www/html/#需要创建和官网路径一致的目录,yum安装时才能够正确的找到

mkdir -p cm6/6.2.1/redhat7/yum/RPMS/x86_64/

上传cm6中的文件到目录:/var/www/html/cm6/6.2.1/redhat7/yum/RPMS/x86_64/:

上传allkeys.asc文件到目录:/var/www/html/cm6/6.2.1/:

访问测试:http://hadoop01/cm6/6.2.1/redhat7/yum/RPMS/x86_64/

3.8 生成repodata目录

只在第一台服务器执行即可。

可以看到在官网的地址中,有一个repodata目录,而我们新搭建的http服务中是没有的。此文件夹是不能直接复制的,需要使用脚本生成出来,是对现有文件结构的描述。如果http中的文件内容有变更,需要删除后重新生成repodata目录,以在web中生效。

cd /var/www/html/cm6/6.2.1/redhat7/yumcreaterepo .

访问web链接,确认repodata目录已存在:

3.9 配置本地yum源

只在第一台服务器执行即可。

cd /etc/yum.repos.d/vim cloudera-manager.repo[cloudera-manager]name=Cloudera Managerbaseurl=http://hadoop01/cm6/6.2.1/redhat7/yum/gpgcheck=0enabled=1 yum clean allyum list | grep cloudera

3.10 创建cloudera-scm用户

centos7要求必须有,centos6没有要求,每一台服务器都需要执行。

useradd cloudera-scmpasswd cloudera-scmpwd: test123456#免密钥登录echo “cloudera-scm ALL=(root)NOPASSWD:ALL” >> /etc/sudoers#测试用户su - cloudera-scmexit

3.11 安装mysql服务

安装Mysql后续作为元数据库使用。

只在第一台安装即可。

3.11.1 下载repo,并安装mysql-server

安装mysql服务

wget -c -i http://dev.mysql.com/get/mysql57-community-release-el7-10.noarch.rpmyum -y install mysql57-community-release-el7-10.noarch.rpmyum -y install mysql-community-server

这个步骤需要网络,并根据网速会花些时间,安装完成后会覆盖之前的mariadb。

如果提示-bash: wget: 未找到命令,则先运行:

yum -y install wget

3.11.2 mysql设置

启动:

systemctl start mysqld.service

查看运行情况:

systemctl status mysqld.service

3.11.3 登录mysql

查看mysql密码

grep “password” /var/log/mysqld.log

登录mysql

mysql -uroot -p

3.11.4 修改密码

取消mysql密码规范限制

set global validate_password_policy=0;set global validate_password_length=1;

重设密码

alter user ‘root’@‘localhost’ identified by ‘123456’;flush privileges;

3.11.5 卸载repo包

此时还有一个问题,因为安装了yum repository,以后每次yum都会自动更新,耗费时间,所以卸载掉:

yum -y remove mysql57-community-release-el7-10.noarch

3.11.6 设置mysql权限

create database scm DEFAULT CHARACTER SET utf8;

grant all PRIVILEGES on *.* TO 'root'@'%' IDENTIFIED BY '123456' WITH GRANT OPTION;grant all PRIVILEGES on *.* TO 'root'@'localhost' IDENTIFIED BY '123456' WITH GRANT OPTION;

grant all PRIVILEGES on *.* TO 'root'@'hadoop01' IDENTIFIED BY '123456' WITH GRANT OPTION;

flush privileges;

以上是关于cloudera manager的环境变量怎么配置的主要内容,如果未能解决你的问题,请参考以下文章

cloudera manager怎么添加新主机

Cloudera Manager环境搭建

Cloudera Manager环境搭建

Cloudera Manager环境准备

Cloudera Manager环境准备

Centos6.5安装配置Cloudera Manager CDH5.6.0 Hadoop