大数据 shell
Posted zxy151
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据 shell相关的知识,希望对你有一定的参考价值。
大数据shell课程
课时52 课程介绍
1.需看懂运维人员编写的shell程序
2.偶尔会编写一些简单shell程序来管理集群、提高开发效率
3.shell是一个命令行解释器,它接收应用程序/用户命令,然后调用操作系统内核。
课时52 课程介绍
1.需看懂运维人员编写的shell程序
2.偶尔会编写一些简单shell程序来管理集群、提高开发效率
3.shell是一个命令行解释器,它接收应用程序/用户命令,然后调用操作系统内核。
课时53 概述
1.shell是一个命令行解释器,它接收应用程序/用户命令,然后调用操作系统内核。
2.硬件 Linux内核 Shell 外层应用程序
3.Shell是一个功能相当强大的编程语言,易编写、易调试、灵活性强。
1.shell是一个命令行解释器,它接收应用程序/用户命令,然后调用操作系统内核。
2.硬件 Linux内核 Shell 外层应用程序
3.Shell是一个功能相当强大的编程语言,易编写、易调试、灵活性强。
课时54 解析器
1.6种解析器
[jack@hadoop01 ~]$ cat /etc/shells
/bin/sh
/bin/bash
/sbin/nologin
/bin/dash
/bin/tcsh
/bin/csh
2.CentOS 默认是bash
[root@hadoop01 bin]# pwd
/bin
[root@hadoop01 bin]# ll | grep root
[root@hadoop01 bin]# echo $SHELL
/bin/bash
1.6种解析器
[jack@hadoop01 ~]$ cat /etc/shells
/bin/sh
/bin/bash
/sbin/nologin
/bin/dash
/bin/tcsh
/bin/csh
2.CentOS 默认是bash
[root@hadoop01 bin]# pwd
/bin
[root@hadoop01 bin]# ll | grep root
[root@hadoop01 bin]# echo $SHELL
/bin/bash
课时55 helloworld案例
1.脚本格式
脚本以#!/bin/bash开头(指定解析器)
2.创建一个shell脚本,输出helloworld
[root@hadoop01 ~]# mkdir datas
[root@hadoop01 ~]# ll
[root@hadoop01 ~]# cd datas/
[root@hadoop01 datas]# vim helloworld.sh
#!/bin/bash
1.脚本格式
脚本以#!/bin/bash开头(指定解析器)
2.创建一个shell脚本,输出helloworld
[root@hadoop01 ~]# mkdir datas
[root@hadoop01 ~]# ll
[root@hadoop01 ~]# cd datas/
[root@hadoop01 datas]# vim helloworld.sh
#!/bin/bash
echo "helloword dahaihaige"
[root@hadoop01 datas]# sh helloworld.sh
helloword dahaihaige
[root@hadoop01 datas]# bash helloworld.sh(相对路径)
helloword dahaihaige
[root@hadoop01 datas]# bash /root/datas/helloworld.sh (绝对路径)
helloword dahaihaige
[root@hadoop01 datas]# ./helloworld.sh
-bash: ./helloworld.sh: 权限不够
[root@hadoop01 datas]# ll
总用量 4
-rw-r--r--. 1 root root 42 2月 5 10:34 helloworld.sh
[root@hadoop01 datas]# chmod 777 helloworld.sh
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
第一种执行方法,本质是bash解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是
自己执行,所以需要执行权限。
[root@hadoop01 datas]# sh helloworld.sh
helloword dahaihaige
[root@hadoop01 datas]# bash helloworld.sh(相对路径)
helloword dahaihaige
[root@hadoop01 datas]# bash /root/datas/helloworld.sh (绝对路径)
helloword dahaihaige
[root@hadoop01 datas]# ./helloworld.sh
-bash: ./helloworld.sh: 权限不够
[root@hadoop01 datas]# ll
总用量 4
-rw-r--r--. 1 root root 42 2月 5 10:34 helloworld.sh
[root@hadoop01 datas]# chmod 777 helloworld.sh
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
第一种执行方法,本质是bash解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是
自己执行,所以需要执行权限。
课时56 多命令操作案例
在/root/目录下创建一个banzhang.txt,在banzhang.txt文件中增加“I love cls”
[root@hadoop01 datas]# touch batch.sh
[root@hadoop01 datas]# vim batch.sh
#!/bin/bash
在/root/目录下创建一个banzhang.txt,在banzhang.txt文件中增加“I love cls”
[root@hadoop01 datas]# touch batch.sh
[root@hadoop01 datas]# vim batch.sh
#!/bin/bash
cd /root/
touch banzhang.txt
echo "I love cls" >> banzhang.txt
[root@hadoop01 datas]# ll
总用量 8
-rw-r--r--. 1 root root 76 2月 5 10:51 batch.sh
-rwxrwxrwx. 1 root root 42 2月 5 10:34 helloworld.sh
[root@hadoop01 datas]# bash batch.sh
[root@hadoop01 datas]# cd ~
[root@hadoop01 ~]# ll
总用量 40
-rw-r--r--. 1 root root 11 2月 5 10:52 banzhang.txt
[root@hadoop01 ~]# cat banzhang.txt
I love cls
touch banzhang.txt
echo "I love cls" >> banzhang.txt
[root@hadoop01 datas]# ll
总用量 8
-rw-r--r--. 1 root root 76 2月 5 10:51 batch.sh
-rwxrwxrwx. 1 root root 42 2月 5 10:34 helloworld.sh
[root@hadoop01 datas]# bash batch.sh
[root@hadoop01 datas]# cd ~
[root@hadoop01 ~]# ll
总用量 40
-rw-r--r--. 1 root root 11 2月 5 10:52 banzhang.txt
[root@hadoop01 ~]# cat banzhang.txt
I love cls
课时57 系统变量和自定义变量
1.系统变量
$HOME、$PWD 、$SHELL、 $USER等
[root@hadoop01 ~]# echo $HOME
/root
[root@hadoop01 ~]# echo $PWD
/root
[root@hadoop01 ~]# echo $SHELL
/bin/bash
[root@hadoop01 ~]# echo $USER
root
实例
(1)查看系统变量的值
(2)显示当前shell的所有变量:set
2.自定义变量
1.基本语法
(1)定义变量:变量=值
[root@hadoop01 ~]# A=1
[root@hadoop01 ~]# echo $A
1
(2)撤销变量:unset 变量
[root@hadoop01 ~]# unset A
[root@hadoop01 ~]# echo $A
1.系统变量
$HOME、$PWD 、$SHELL、 $USER等
[root@hadoop01 ~]# echo $HOME
/root
[root@hadoop01 ~]# echo $PWD
/root
[root@hadoop01 ~]# echo $SHELL
/bin/bash
[root@hadoop01 ~]# echo $USER
root
实例
(1)查看系统变量的值
(2)显示当前shell的所有变量:set
2.自定义变量
1.基本语法
(1)定义变量:变量=值
[root@hadoop01 ~]# A=1
[root@hadoop01 ~]# echo $A
1
(2)撤销变量:unset 变量
[root@hadoop01 ~]# unset A
[root@hadoop01 ~]# echo $A
(3)声明静态变量:readonly 变量,注:不能unset
[root@hadoop01 ~]# readonly B=3
[root@hadoop01 ~]# echo $B
3
[root@hadoop01 ~]# unset B
-bash: unset: B: cannot unset: readonly variable
2.规则
(1)变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。
(2)等号两测不能有空格
(3)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算。
[root@hadoop01 ~]# c=1+1
[root@hadoop01 ~]# echo $c
1+1
(4)变量的值如果有空格,需要使用双引号或单引号括起来。
[root@hadoop01 ~]# D=banzhang love mm
-bash: love: command not found
[root@hadoop01 ~]# D="banzhang love mm"
3.可把变量提升为全局环境变量,可供其他Shell程序使用
export 变量名
[root@hadoop01 datas]# vim helloworld.sh
#!/bin/bash
[root@hadoop01 ~]# readonly B=3
[root@hadoop01 ~]# echo $B
3
[root@hadoop01 ~]# unset B
-bash: unset: B: cannot unset: readonly variable
2.规则
(1)变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。
(2)等号两测不能有空格
(3)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算。
[root@hadoop01 ~]# c=1+1
[root@hadoop01 ~]# echo $c
1+1
(4)变量的值如果有空格,需要使用双引号或单引号括起来。
[root@hadoop01 ~]# D=banzhang love mm
-bash: love: command not found
[root@hadoop01 ~]# D="banzhang love mm"
3.可把变量提升为全局环境变量,可供其他Shell程序使用
export 变量名
[root@hadoop01 datas]# vim helloworld.sh
#!/bin/bash
echo "helloword dahaihaige"
echo $D
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
不显示D(属于局部变量)
[root@hadoop01 datas]# export D
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
banzhang love mm
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
不显示D(属于局部变量)
[root@hadoop01 datas]# export D
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
banzhang love mm
课时58 $n变量
1.$n,n为数字,$0代表该脚本名称,$1-$9代表第一到第九个参数,十以上的参数需要用大括号包含,如${10}
2.输出该脚本文件名称、输入参数1和输入参数2的值
[root@hadoop01 datas]# bash parameter.sh
parameter.sh
[root@hadoop01 datas]# bash parameter.sh banzhang love mm
parameter.sh banzhang love mm
[root@hadoop01 datas]# bash parameter.sh banzhang love mm 1
parameter.sh banzhang love mm
1.$n,n为数字,$0代表该脚本名称,$1-$9代表第一到第九个参数,十以上的参数需要用大括号包含,如${10}
2.输出该脚本文件名称、输入参数1和输入参数2的值
[root@hadoop01 datas]# bash parameter.sh
parameter.sh
[root@hadoop01 datas]# bash parameter.sh banzhang love mm
parameter.sh banzhang love mm
[root@hadoop01 datas]# bash parameter.sh banzhang love mm 1
parameter.sh banzhang love mm
课时59 $#
1.获取所有输入参数个数,常用于循环
[root@hadoop01 datas]# vim parameter.sh
#!/bin/bash
1.获取所有输入参数个数,常用于循环
[root@hadoop01 datas]# vim parameter.sh
#!/bin/bash
echo "$0 $1 $2 $3"
echo $#
[root@hadoop01 datas]# bash parameter.sh
parameter.sh
0
[root@hadoop01 datas]# bash parameter.sh banzhang
parameter.sh banzhang
1
[root@hadoop01 datas]# bash parameter.sh banzhang love mm
parameter.sh banzhang love mm
3
[root@hadoop01 datas]# bash parameter.sh
parameter.sh
0
[root@hadoop01 datas]# bash parameter.sh banzhang
parameter.sh banzhang
1
[root@hadoop01 datas]# bash parameter.sh banzhang love mm
parameter.sh banzhang love mm
3
课时60 $*、$@
1.$*(代表命令行中所有的参数,$*把所有的参数看成一个整体)
2.$@(也代表命令行中的所有参数,不过$@把每个参数区分对待)
[root@hadoop01 datas]# vim parameter.sh
#!/bin/bash
1.$*(代表命令行中所有的参数,$*把所有的参数看成一个整体)
2.$@(也代表命令行中的所有参数,不过$@把每个参数区分对待)
[root@hadoop01 datas]# vim parameter.sh
#!/bin/bash
echo "$0 $1 $2 $3"
echo $#
echo $*
echo $@
[root@hadoop01 datas]# bash parameter.sh banzhang love mm
parameter.sh banzhang love mm
3
banzhang love mm
banzhang love mm
echo $*
echo $@
[root@hadoop01 datas]# bash parameter.sh banzhang love mm
parameter.sh banzhang love mm
3
banzhang love mm
banzhang love mm
课时61 $?
1.最后一次执行的命令的返回状态。如果这个变量的值为0,证明上一个命令正确执行;如果这个变量的值为非0
(具体是哪个数,由命令自己来决定),则证明上一个命令执行不正确了。
2.实例判断helloworld.sh脚本是否正确执行
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
banzhang love mm
[root@hadoop01 datas]# echo $?
0
1.最后一次执行的命令的返回状态。如果这个变量的值为0,证明上一个命令正确执行;如果这个变量的值为非0
(具体是哪个数,由命令自己来决定),则证明上一个命令执行不正确了。
2.实例判断helloworld.sh脚本是否正确执行
[root@hadoop01 datas]# ./helloworld.sh
helloword dahaihaige
banzhang love mm
[root@hadoop01 datas]# echo $?
0
课时62 运算符
1.“$((运算式))”或“$[运算式]”
2.expr +,-,*,/, % 加,减,乘,除,取余
注:expr运算符间要有空格
2.实例
(1)计算3+2
[root@hadoop01 datas]# expr 3 + 2
5
(2)计算3-2
[root@hadoop01 datas]# expr 3 - 2
1
(3)计算(2+3)x 4
[root@hadoop01 datas]# expr `expr 2 + 3` * 4
20
[root@hadoop01 datas]# s=$[(2+3)*4]
[root@hadoop01 datas]# echo $s
20
1.“$((运算式))”或“$[运算式]”
2.expr +,-,*,/, % 加,减,乘,除,取余
注:expr运算符间要有空格
2.实例
(1)计算3+2
[root@hadoop01 datas]# expr 3 + 2
5
(2)计算3-2
[root@hadoop01 datas]# expr 3 - 2
1
(3)计算(2+3)x 4
[root@hadoop01 datas]# expr `expr 2 + 3` * 4
20
[root@hadoop01 datas]# s=$[(2+3)*4]
[root@hadoop01 datas]# echo $s
20
课时63 条件判断
1.[ condition ](注:conditon前后要有空格)
注:条件非空即为true,[atguigu]返回true,[]返回false
2.常用判断条件
(1)两个整数之间比较
= 字符串比较
-It 小于(less than)
-eq 等于(equal)
-ge 大于等于(greater equal)
-le 小于等于(less equal)
-gt 大于(greater than)
-ne 不等于(Not equal)
(2)按照文件权限进行判断
-r 有读的权限(read)
-w 有写的权限(write)
-x 有执行的权限(execute)
(3)按照文件类型进行判断
-f 文件存在并且是一个常规的文件(file)
-e 文件存在(existence)
-d 文件存在并且是一个目录(diretory)
3.实例
(1)23是否大于等于22
[root@hadoop01 datas]# [ 23 -ge 22 ]
[root@hadoop01 datas]# echo $?
0
[root@hadoop01 datas]# [ 23 -le 22 ]
[root@hadoop01 datas]# echo $?
1
(2)helloworld.是否具有写权限
[root@hadoop01 datas]# [ -w helloworld.sh ]
[root@hadoop01 datas]# echo $?
0
(3)/root/cls.txt目录中的文件是否存在
[root@hadoop01 datas]# [ -e /root/cls.txt ]
[root@hadoop01 datas]# echo $?
1
(4)多条件判断(&&表示前一条命令执行成功时,才执行后一条命令,||表示上一条命令失败后,才执行下一条
命令)
1.[ condition ](注:conditon前后要有空格)
注:条件非空即为true,[atguigu]返回true,[]返回false
2.常用判断条件
(1)两个整数之间比较
= 字符串比较
-It 小于(less than)
-eq 等于(equal)
-ge 大于等于(greater equal)
-le 小于等于(less equal)
-gt 大于(greater than)
-ne 不等于(Not equal)
(2)按照文件权限进行判断
-r 有读的权限(read)
-w 有写的权限(write)
-x 有执行的权限(execute)
(3)按照文件类型进行判断
-f 文件存在并且是一个常规的文件(file)
-e 文件存在(existence)
-d 文件存在并且是一个目录(diretory)
3.实例
(1)23是否大于等于22
[root@hadoop01 datas]# [ 23 -ge 22 ]
[root@hadoop01 datas]# echo $?
0
[root@hadoop01 datas]# [ 23 -le 22 ]
[root@hadoop01 datas]# echo $?
1
(2)helloworld.是否具有写权限
[root@hadoop01 datas]# [ -w helloworld.sh ]
[root@hadoop01 datas]# echo $?
0
(3)/root/cls.txt目录中的文件是否存在
[root@hadoop01 datas]# [ -e /root/cls.txt ]
[root@hadoop01 datas]# echo $?
1
(4)多条件判断(&&表示前一条命令执行成功时,才执行后一条命令,||表示上一条命令失败后,才执行下一条
命令)
课时64 回顾
课时65 if判断
1.语法
if [ 条件判断式 ];then
程序
fi
或者
if[ 条件判断式 ]
then
程序
fi
注:
(1)[ 条件判断式 ],中括号和条件判断式之间必须有空格
(2)if后要有空格
2.实例
(1)输入一个数字,如果是1,则输出banzhang zhen shuai,如果是2,则输出cls zhen mei,
如果是其他,什么也不输出。
[root@hadoop01 datas]# vim if.sh
#!/bin/bash
1.语法
if [ 条件判断式 ];then
程序
fi
或者
if[ 条件判断式 ]
then
程序
fi
注:
(1)[ 条件判断式 ],中括号和条件判断式之间必须有空格
(2)if后要有空格
2.实例
(1)输入一个数字,如果是1,则输出banzhang zhen shuai,如果是2,则输出cls zhen mei,
如果是其他,什么也不输出。
[root@hadoop01 datas]# vim if.sh
#!/bin/bash
if [ $1 -eq 1 ]
then
echo "banzhang zhen shuai"
elif [ $1 -eq 2 ]
then
echo "cls zhen mei"
fi
[root@hadoop01 datas]# bash if.sh
if.sh: line 3: [: missing `]‘
if.sh: line 6: [: -eq: unary operator expected
[root@hadoop01 datas]# bash if.sh 1
banzhang zhen shuai
[root@hadoop01 datas]# bash if.sh 2
cls zhen mei
then
echo "banzhang zhen shuai"
elif [ $1 -eq 2 ]
then
echo "cls zhen mei"
fi
[root@hadoop01 datas]# bash if.sh
if.sh: line 3: [: missing `]‘
if.sh: line 6: [: -eq: unary operator expected
[root@hadoop01 datas]# bash if.sh 1
banzhang zhen shuai
[root@hadoop01 datas]# bash if.sh 2
cls zhen mei
课时66 case 语句
1,语法
case $变量名 in
“值1”)
如果变量的值等于值1,则执行程序1
“值2”
如果变量的值等于值2,则执行程序2
;;
…省略其他分支…
*)
如果变量的值都不是以上的值,则执行此程序
;;
esac
注:
(1)case行尾必须为单词“in”,每一个模式匹配必须以右括号“)”结束。
(2)双分号“;;”表示命令序列结束,相当于java中的break
(3)最后的“*)”表示默认模式,相当于Java中的default
实例
(1)输入一个数字,如果是1,则输出banzhang,如果是2,则输出cls,如果是其他,输出renyao
[root@hadoop01 datas]# touch case.sh
[root@hadoop01 datas]# vim case.sh
#!/bin/bash
1,语法
case $变量名 in
“值1”)
如果变量的值等于值1,则执行程序1
“值2”
如果变量的值等于值2,则执行程序2
;;
…省略其他分支…
*)
如果变量的值都不是以上的值,则执行此程序
;;
esac
注:
(1)case行尾必须为单词“in”,每一个模式匹配必须以右括号“)”结束。
(2)双分号“;;”表示命令序列结束,相当于java中的break
(3)最后的“*)”表示默认模式,相当于Java中的default
实例
(1)输入一个数字,如果是1,则输出banzhang,如果是2,则输出cls,如果是其他,输出renyao
[root@hadoop01 datas]# touch case.sh
[root@hadoop01 datas]# vim case.sh
#!/bin/bash
case $1 in
1)
echo "banzhang"
;;
2)
echo "cls"
;;
*)
echo "renyao"
;;
esac
[root@hadoop01 datas]# bash case.sh 1
banzhang
[root@hadoop01 datas]# bash case.sh 2
cls
[root@hadoop01 datas]# bash case.sh 4
renyao
1)
echo "banzhang"
;;
2)
echo "cls"
;;
*)
echo "renyao"
;;
esac
[root@hadoop01 datas]# bash case.sh 1
banzhang
[root@hadoop01 datas]# bash case.sh 2
cls
[root@hadoop01 datas]# bash case.sh 4
renyao
课时67 for 循环
1.语法
for ((初始值;循环控制条件;变量变化))
do
程序
done
2.实例
(1)从1加到100
[root@hadoop01 datas]# touch for.sh
[root@hadoop01 datas]# vim for.sh
#!/bin/bash
1.语法
for ((初始值;循环控制条件;变量变化))
do
程序
done
2.实例
(1)从1加到100
[root@hadoop01 datas]# touch for.sh
[root@hadoop01 datas]# vim for.sh
#!/bin/bash
s=0
for((i=1;i<=100;i++))
do
s=$[$s+$i]
done
for((i=1;i<=100;i++))
do
s=$[$s+$i]
done
echo $s
[root@hadoop01 datas]# bash for.sh
5050
[root@hadoop01 datas]# bash for.sh
5050
课时68 for2语句
1.for 变量 in 值1 值2 值3...
do
程序
done
2.实例
(1)打印所有输入参数
[root@hadoop01 datas]# touch for2.sh
[root@hadoop01 datas]# vim for2.sh
#!/bin/bash
1.for 变量 in 值1 值2 值3...
do
程序
done
2.实例
(1)打印所有输入参数
[root@hadoop01 datas]# touch for2.sh
[root@hadoop01 datas]# vim for2.sh
#!/bin/bash
for i in $*
do
echo "banzhang xihuan $i"
done
[root@hadoop01 datas]# bash for2.sh mm
banzhang xihuan mm
[root@hadoop01 datas]# bash for2.sh nn mm cc
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
[root@hadoop01 datas]# vim for2.sh
#!/bin/bash
do
echo "banzhang xihuan $i"
done
[root@hadoop01 datas]# bash for2.sh mm
banzhang xihuan mm
[root@hadoop01 datas]# bash for2.sh nn mm cc
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
[root@hadoop01 datas]# vim for2.sh
#!/bin/bash
for i in $*
do
echo "banzhang xihuan $i"
done
do
echo "banzhang xihuan $i"
done
for j in $@
do
echo "banzhang xihuan $j"
done
[root@hadoop01 datas]# bash for2.sh nn mm cc bb
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
banzhang xihuan bb
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
banzhang xihuan bb
[root@hadoop01 datas]# vim for2.sh
#!/bin/bash
do
echo "banzhang xihuan $j"
done
[root@hadoop01 datas]# bash for2.sh nn mm cc bb
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
banzhang xihuan bb
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
banzhang xihuan bb
[root@hadoop01 datas]# vim for2.sh
#!/bin/bash
for i in "$*"
do
echo "banzhang xihuan $i"
done
do
echo "banzhang xihuan $i"
done
for j in $@
do
echo "banzhang xihuan $j"
done
[root@hadoop01 datas]# bash for2.sh nn mm cc bb
banzhang xihuan nn mm cc bb
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
banzhang xihuan bb
do
echo "banzhang xihuan $j"
done
[root@hadoop01 datas]# bash for2.sh nn mm cc bb
banzhang xihuan nn mm cc bb
banzhang xihuan nn
banzhang xihuan mm
banzhang xihuan cc
banzhang xihuan bb
课时69 While语句
1.语法
while [ 条件判断式 ]
do
程序
done
实例:从1加到100
[root@hadoop01 datas]# touch while.sh
[root@hadoop01 datas]# vim while.sh
#!/bin/bash
1.语法
while [ 条件判断式 ]
do
程序
done
实例:从1加到100
[root@hadoop01 datas]# touch while.sh
[root@hadoop01 datas]# vim while.sh
#!/bin/bash
s=0
i=1
while [ $i - le100 ]
do
s=$[$s + $i]
i=$[$i + 1]
done
i=1
while [ $i - le100 ]
do
s=$[$s + $i]
i=$[$i + 1]
done
echo $s
[root@hadoop01 datas]# bash while.sh
5050
[root@hadoop01 datas]# bash while.sh
5050
课时70 read 读取控制台输入
1.read()选项(参数)
选项
-p:指定读取值时的提示符
-t:指定读取值时等待的时间(秒)
参数
变量:指定读取值的变量名
2.实例
(1)提示7秒内,读取控制台输入的名称
[root@hadoop01 datas]# touch read.sh
[root@hadoop01 datas]# vim read.sh
#!/bin/bash
1.read()选项(参数)
选项
-p:指定读取值时的提示符
-t:指定读取值时等待的时间(秒)
参数
变量:指定读取值的变量名
2.实例
(1)提示7秒内,读取控制台输入的名称
[root@hadoop01 datas]# touch read.sh
[root@hadoop01 datas]# vim read.sh
#!/bin/bash
read -t 7 -p "input your name" NAME
echo $NAME
[root@hadoop01 datas]# bash read.sh
input your name
[root@hadoop01 datas]# bash read.sh
input your name
[root@hadoop01 datas]# bash read.sh
input your namemmm
mmm
input your namemmm
mmm
课时71 BaseName&Dirname
1.basename
basename [string / pathname] [suffix]
basename命令会删除所有的前缀包括最后一个(‘/‘)字符,然后将字符串显示出来。
选项
suffix为后缀,如果suffix被指定了,basename会将pathname或string中suffix去掉
实例
(1)截取该/root/datas/batch.sh路径的文件名称
[root@hadoop01 datas]# basename /root/datas/batch.sh
batch.sh
[root@hadoop01 datas]# basename /root/datas/batch.sh .sh
batch
2.dirname语法
dirname 文件绝对路径
从给定的包含绝对路径的文件中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分)
实例
(1)获取banzhang.txt文件的路径)
[root@hadoop01 datas]# dirname /root/datas/
/root
[root@hadoop01 datas]# dirname /root/datas/batch.sh
/root/datas
1.basename
basename [string / pathname] [suffix]
basename命令会删除所有的前缀包括最后一个(‘/‘)字符,然后将字符串显示出来。
选项
suffix为后缀,如果suffix被指定了,basename会将pathname或string中suffix去掉
实例
(1)截取该/root/datas/batch.sh路径的文件名称
[root@hadoop01 datas]# basename /root/datas/batch.sh
batch.sh
[root@hadoop01 datas]# basename /root/datas/batch.sh .sh
batch
2.dirname语法
dirname 文件绝对路径
从给定的包含绝对路径的文件中去除文件名(非目录的部分),然后返回剩下的路径(目录的部分)
实例
(1)获取banzhang.txt文件的路径)
[root@hadoop01 datas]# dirname /root/datas/
/root
[root@hadoop01 datas]# dirname /root/datas/batch.sh
/root/datas
课时72 自定义函数案例
1.基本语法
[ function ] funname[()]
{
Action
[return int;]
}
funname
注:
(1)必须在调用函数地方之前,县声明函数,shell脚本是逐行运行。不会像其它语言一样先编译。
(2)函数返回值,只能通过$?系统变量获得,可以显示加:return返回,如果不加,将以最后一条命令运行结果
,作为返回值。return后跟数值n(0-255)
实例
计算两个输入参数的和
[root@hadoop01 datas]# touch sum.sh
[root@hadoop01 datas]# vim sum.sh
#!/bin/bash
1.基本语法
[ function ] funname[()]
{
Action
[return int;]
}
funname
注:
(1)必须在调用函数地方之前,县声明函数,shell脚本是逐行运行。不会像其它语言一样先编译。
(2)函数返回值,只能通过$?系统变量获得,可以显示加:return返回,如果不加,将以最后一条命令运行结果
,作为返回值。return后跟数值n(0-255)
实例
计算两个输入参数的和
[root@hadoop01 datas]# touch sum.sh
[root@hadoop01 datas]# vim sum.sh
#!/bin/bash
function sum()
{
s=0
s=$[$1+$2]
echo $s
}
{
s=0
s=$[$1+$2]
echo $s
}
read -p "input your paratemer1:" P1
read -p "input your paratemer2:" P2
read -p "input your paratemer2:" P2
sum $P1 $P2
[root@hadoop01 datas]# bash sum.sh
input your paratemer1:1
input your paratemer2:2
3
[root@hadoop01 datas]# bash sum.sh
input your paratemer1:1
input your paratemer2:2
3
shell 工具
课时73 cut案例
1.cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut命令从文件的每一行剪切字节、字符和
字段并将这些字节、字符和字段并将这些字节、字符和字段输出。
用法
cut [选项参数] filename
说明:默认分隔符是制表符
2.选项参数说明
-f 列号,提取第几列
-d 分隔符,按照指定分隔符分割列
实例
(1)数据准备
[root@hadoop01 datas]# touch cut.txt
[root@hadoop01 datas]# vim cut.txt
dong shen
guan zhen
wo wo
lai lai
le le
(2)切割cut.txt第一列
[root@hadoop01 datas]# cut -d " " -f 1 cut.txt
dong
guan
wo
lai
le
(3)切割cut.txt第二、第三列
[root@hadoop01 datas]# cut -d " " -f 2,3 cut.txt
shen
zhen
lai
(4)在cut.txt文件中切割出guan
[root@hadoop01 datas]# cat cut.txt | grep guan
guan zhen
[root@hadoop01 datas]# cat cut.txt | grep guan|cut -d " " -f 1
guan
(5)选取系统PATH变量值,第2个“:”开始后的所有路径:
[root@hadoop01 datas]# echo $PATH
/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
[root@hadoop01 datas]# echo $PATH | cut -d : -f 3-
/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
(6)切割ifconfig后打印的IP地址
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"
inet addr:192.168.112.129 Bcast:192.168.112.255 Mask:255.255.255.0
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr" | cut -d : -f 2
192.168.112.129 Bcast
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr" | cut -d : -f 2|cut -d " " -f 1
192.168.112.129
课时73 cut案例
1.cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut命令从文件的每一行剪切字节、字符和
字段并将这些字节、字符和字段并将这些字节、字符和字段输出。
用法
cut [选项参数] filename
说明:默认分隔符是制表符
2.选项参数说明
-f 列号,提取第几列
-d 分隔符,按照指定分隔符分割列
实例
(1)数据准备
[root@hadoop01 datas]# touch cut.txt
[root@hadoop01 datas]# vim cut.txt
dong shen
guan zhen
wo wo
lai lai
le le
(2)切割cut.txt第一列
[root@hadoop01 datas]# cut -d " " -f 1 cut.txt
dong
guan
wo
lai
le
(3)切割cut.txt第二、第三列
[root@hadoop01 datas]# cut -d " " -f 2,3 cut.txt
shen
zhen
lai
(4)在cut.txt文件中切割出guan
[root@hadoop01 datas]# cat cut.txt | grep guan
guan zhen
[root@hadoop01 datas]# cat cut.txt | grep guan|cut -d " " -f 1
guan
(5)选取系统PATH变量值,第2个“:”开始后的所有路径:
[root@hadoop01 datas]# echo $PATH
/usr/lib64/qt-3.3/bin:/usr/local/sbin:/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
[root@hadoop01 datas]# echo $PATH | cut -d : -f 3-
/usr/local/bin:/sbin:/bin:/usr/sbin:/usr/bin:/root/bin
(6)切割ifconfig后打印的IP地址
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"
inet addr:192.168.112.129 Bcast:192.168.112.255 Mask:255.255.255.0
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr" | cut -d : -f 2
192.168.112.129 Bcast
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr" | cut -d : -f 2|cut -d " " -f 1
192.168.112.129
课时74 sed
sed是一种流编辑器,它一次处理一行内容。处理时,把当前的行存储在临时缓冲区中,称为“模式空间”,
接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,
直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。
1.用法
sed [选项参数] ‘command’filename
2.选项参数说明
-e 直接在指令列模式上进行sed的动作编辑
3.命令功能描述
a 新增,a的后面可以接字串,在下一行出现
d 删除
s 查找并替换
4.实例
(1)数据准备
[root@hadoop01 datas]# touch sed.txt
[root@hadoop01 datas]# vim sed.txt
dong shen
guan zhen
wo wo
lai lai
sed是一种流编辑器,它一次处理一行内容。处理时,把当前的行存储在临时缓冲区中,称为“模式空间”,
接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,
直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。
1.用法
sed [选项参数] ‘command’filename
2.选项参数说明
-e 直接在指令列模式上进行sed的动作编辑
3.命令功能描述
a 新增,a的后面可以接字串,在下一行出现
d 删除
s 查找并替换
4.实例
(1)数据准备
[root@hadoop01 datas]# touch sed.txt
[root@hadoop01 datas]# vim sed.txt
dong shen
guan zhen
wo wo
lai lai
le le
(2)将“mei nv”这个单词插入到sed.txt第二行下,打印
[root@hadoop01 datas]# sed "2a mei nv" sed.txt
dong shen
guan zhen
mei nv
wo wo
lai lai
(2)将“mei nv”这个单词插入到sed.txt第二行下,打印
[root@hadoop01 datas]# sed "2a mei nv" sed.txt
dong shen
guan zhen
mei nv
wo wo
lai lai
le le
(3)删除sed.txt文件中包含所有wo的行
[root@hadoop01 datas]# sed "/wo/d" sed.txt
dong shen
guan zhen
lai lai
(3)删除sed.txt文件中包含所有wo的行
[root@hadoop01 datas]# sed "/wo/d" sed.txt
dong shen
guan zhen
lai lai
le le
(4)将sed.txt文件中的wo替换为ni
[root@hadoop01 datas]# sed "s/wo/ni/g" sed.txt
dong shen
guan zhen
ni ni
lai lai
(4)将sed.txt文件中的wo替换为ni
[root@hadoop01 datas]# sed "s/wo/ni/g" sed.txt
dong shen
guan zhen
ni ni
lai lai
le le
(5)将sed.txt文件中的第二行删除并将wo替换为ni
[root@hadoop01 datas]# sed -e "2d" -e "s/wo/ni/g" sed.txt
dong shen
ni ni
lai lai
(5)将sed.txt文件中的第二行删除并将wo替换为ni
[root@hadoop01 datas]# sed -e "2d" -e "s/wo/ni/g" sed.txt
dong shen
ni ni
lai lai
le le
课时75 Awk
1.一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。
2.用法
awk [选项参数] ‘pattern1{action1} pattern{action2}...’filename
pattern:表示AWK在数据中查找的内容,就是匹配模式
action:在匹配内容时所执行的一系列命令
2.选项参数
-F 指定输入文件折分隔符
-v 赋值一个用户定义变量
3.实例
(1)数据准备
[root@hadoop01 datas]# cp /etc/passwd ./
[root@hadoop01 datas]# cat passwd
(2)搜索passwd文件以root关键字开头的所有行,并输出该行的第7列.
[root@hadoop01 datas]# awk -F : ‘/^root/ {print $7}‘ passwd
/bin/bash
(3)搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以”,“号分割
注:只有匹配了pattern的行才会执行action
[root@hadoop01 datas]# awk -F : ‘/^root/ {print $1","$7}‘ passwd
root,/bin/bash
(4)只显示/etc/passwd的第一列和第七列,以逗号分割,且在所有行前面添加列名user,shell在最后一行
添加"dahaige,bin/zuishuai"。
[root@hadoop01 datas]# awk -F : ‘BEGIN{print "user,shell"} {print $1","$7} END{print "dahaige,bin/zui
shuai"}‘ passwd
注:BEGIN在所有数据读取之前执行:END在所有数据之后执行。
(5)将passwd文件中的用户id增加数值1并输出。
[root@hadoop01 datas]# awk -F : -v i=1 ‘{print $3+i}‘ passwd
1
2
3
4
5
6
7
8
9
11
12
13
14
15
100
4.awk的内置变量
FILENAME 文件名
NR 已读的记录数
NF 浏览记录的域的个数(切割后,列的个数)
实例
(1)统计passwd文件名,每行的行号,每行的列数
[root@hadoop01 datas]# awk -F : ‘{print FILENAME NR NF}‘ passwd
passwd17
passwd27
passwd37
passwd47
passwd57
passwd67
passwd77
passwd87
passwd97
……
[root@hadoop01 datas]# awk -F : ‘{print FILENAME "," NR "," NF}‘ passwd
passwd,1,7
passwd,2,7
passwd,3,7
passwd,4,7
passwd,5,7
passwd,6,7
passwd,7,7
passwd,8,7
……
(2)切割IP
[root@hadoop01 datas]# ifconfig eth0
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"
inet addr:192.168.112.129 Bcast:192.168.112.255 Mask:255.255.255.0
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"|awk -F : ‘{print $2}‘
192.168.112.129 Bcast
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"|awk -F : ‘{print $2}‘|awk -F " " ‘{print $1}‘
192.168.112.129
(3)查询sed.txt中空行所在的行号
[root@hadoop01 datas]# awk ‘/^$/ {print NR}‘ sed.txt
5
1.一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。
2.用法
awk [选项参数] ‘pattern1{action1} pattern{action2}...’filename
pattern:表示AWK在数据中查找的内容,就是匹配模式
action:在匹配内容时所执行的一系列命令
2.选项参数
-F 指定输入文件折分隔符
-v 赋值一个用户定义变量
3.实例
(1)数据准备
[root@hadoop01 datas]# cp /etc/passwd ./
[root@hadoop01 datas]# cat passwd
(2)搜索passwd文件以root关键字开头的所有行,并输出该行的第7列.
[root@hadoop01 datas]# awk -F : ‘/^root/ {print $7}‘ passwd
/bin/bash
(3)搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以”,“号分割
注:只有匹配了pattern的行才会执行action
[root@hadoop01 datas]# awk -F : ‘/^root/ {print $1","$7}‘ passwd
root,/bin/bash
(4)只显示/etc/passwd的第一列和第七列,以逗号分割,且在所有行前面添加列名user,shell在最后一行
添加"dahaige,bin/zuishuai"。
[root@hadoop01 datas]# awk -F : ‘BEGIN{print "user,shell"} {print $1","$7} END{print "dahaige,bin/zui
shuai"}‘ passwd
注:BEGIN在所有数据读取之前执行:END在所有数据之后执行。
(5)将passwd文件中的用户id增加数值1并输出。
[root@hadoop01 datas]# awk -F : -v i=1 ‘{print $3+i}‘ passwd
1
2
3
4
5
6
7
8
9
11
12
13
14
15
100
4.awk的内置变量
FILENAME 文件名
NR 已读的记录数
NF 浏览记录的域的个数(切割后,列的个数)
实例
(1)统计passwd文件名,每行的行号,每行的列数
[root@hadoop01 datas]# awk -F : ‘{print FILENAME NR NF}‘ passwd
passwd17
passwd27
passwd37
passwd47
passwd57
passwd67
passwd77
passwd87
passwd97
……
[root@hadoop01 datas]# awk -F : ‘{print FILENAME "," NR "," NF}‘ passwd
passwd,1,7
passwd,2,7
passwd,3,7
passwd,4,7
passwd,5,7
passwd,6,7
passwd,7,7
passwd,8,7
……
(2)切割IP
[root@hadoop01 datas]# ifconfig eth0
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"
inet addr:192.168.112.129 Bcast:192.168.112.255 Mask:255.255.255.0
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"|awk -F : ‘{print $2}‘
192.168.112.129 Bcast
[root@hadoop01 datas]# ifconfig eth0 | grep "inet addr"|awk -F : ‘{print $2}‘|awk -F " " ‘{print $1}‘
192.168.112.129
(3)查询sed.txt中空行所在的行号
[root@hadoop01 datas]# awk ‘/^$/ {print NR}‘ sed.txt
5
课时76 sort
1.将文件进行排序,它将文件进行排序,并将排序结果标准输出。
sort(选项)(参数)
2.选项
-n 依照数值的大小排序
-r 以相反的顺序排序
-t 设置排序时间所用的分隔符
-k 指定需要排序的列
(1)数据准备
[root@hadoop01 datas]# touch sort.sh
[root@hadoop01 datas]# vim sort.sh
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6
(2)按照“:“分割后的第三列倒叙排序
[root@hadoop01 datas]# sort -t : -nrk 2 sort.sh
xz:50:2.3
bb:40:5.4
ss:30:1.6
bd:20:4.2
cls:10:3.5
1.将文件进行排序,它将文件进行排序,并将排序结果标准输出。
sort(选项)(参数)
2.选项
-n 依照数值的大小排序
-r 以相反的顺序排序
-t 设置排序时间所用的分隔符
-k 指定需要排序的列
(1)数据准备
[root@hadoop01 datas]# touch sort.sh
[root@hadoop01 datas]# vim sort.sh
bb:40:5.4
bd:20:4.2
xz:50:2.3
cls:10:3.5
ss:30:1.6
(2)按照“:“分割后的第三列倒叙排序
[root@hadoop01 datas]# sort -t : -nrk 2 sort.sh
xz:50:2.3
bb:40:5.4
ss:30:1.6
bd:20:4.2
cls:10:3.5
课时77 企业真题讲解
一、京东
ETL数据清洗
1.使用Linux命令查询file1中空行所在的行号
[root@hadoop01 datas]# awk ‘/^$/ {print NR}‘ sed.txt
5
2.有文件chengji.txt内容如下
张三 40
李四 50
王五 60
使用Linux命令计算第二列的和并输出
[root@hadoop01 datas]# cat chengji.txt | awk -F “ ”‘{sum+=$2} END{print sum}’
二、搜狐&和讯网
shell脚本里如何查询一个文件是否存在?如果不存在该如何处理?
#!/bin/bash
一、京东
ETL数据清洗
1.使用Linux命令查询file1中空行所在的行号
[root@hadoop01 datas]# awk ‘/^$/ {print NR}‘ sed.txt
5
2.有文件chengji.txt内容如下
张三 40
李四 50
王五 60
使用Linux命令计算第二列的和并输出
[root@hadoop01 datas]# cat chengji.txt | awk -F “ ”‘{sum+=$2} END{print sum}’
二、搜狐&和讯网
shell脚本里如何查询一个文件是否存在?如果不存在该如何处理?
#!/bin/bash
if [ -f file.txt ]; then
echo "文件存在!"
else
echo "文件不存在!"
fi
三、新浪
用shell写一个脚本,对文件中无序的一列数字排序
[root@hadoop01 datas]# cat test.txt
[root@hadoop01 datas]# sort -n test.txt|awk ‘{a+=$0;print $1}END {print "SUM="a}‘
四、金和网络
请用shell脚本写出查找当前文件夹(/home)下所有的文本文件中包含有字符”shen“的文件名称。
[root@hadoop01 datas]#grep -r "shen" /home | cut -d ":" -f 1
echo "文件存在!"
else
echo "文件不存在!"
fi
三、新浪
用shell写一个脚本,对文件中无序的一列数字排序
[root@hadoop01 datas]# cat test.txt
[root@hadoop01 datas]# sort -n test.txt|awk ‘{a+=$0;print $1}END {print "SUM="a}‘
四、金和网络
请用shell脚本写出查找当前文件夹(/home)下所有的文本文件中包含有字符”shen“的文件名称。
[root@hadoop01 datas]#grep -r "shen" /home | cut -d ":" -f 1
以上是关于大数据 shell的主要内容,如果未能解决你的问题,请参考以下文章