shell
-
一. Shell概述
-
二. Shell解析器
-
- Linux提供的Shell解析器有:
-
- bash和sh的关系
-
- Centos默认的解析器是bash
-
三. Shell脚本入门
-
1.脚本格式
- 2.第一个Shell脚本:helloworld
- 3.第二个Shell脚本:多命令处理
-
四. Shell中的变量
-
- 系统变量
-
- 自定义变量
- 3 特殊变量:$n
-
- 特殊变量:$#
-
- 特殊变量:$*、$@
-
- 特殊变量:$?
-
五. 运算符
-
1.基本语法
-
六. 条件判断
-
1.基本语法
-
七. 流程控制(重点)
-
- if 判断
-
1.1 基本语法
* 1.2 案例实操
-
2.1 基本语法
* 2.2 案例实操
-
3.1 基本语法1
-
3.3 基本语法2
* 3.4 案例实操
-
4.1 基本语法
* 4.2 案例实操
-
八. read读取控制台输入
-
1.基本语法
-
九. 函数
-
- 系统函数
-
1.1 basename基本语法与案例
* 1.2 dirname基本语法与案例
-
2.1 基本语法
* 2.2 经验技巧
* 2.3 案例实操
-
十. Shell工具(重点)
-
- cut
-
1.3 案例实操
-
2.1 基本用法
* 2.2 选项参数说明
* 2.3 命令功能描述
* 2.4 案例实操
-
3.1 基本用法
* 3.2 选项参数说明
* 3.3 案例实操
* 3.4 awk的内置变量
* 3.5 案例实操
-
4.1 基本语法
* 4.2 案例实操
-
十一. 实例
一. Shell概述
大数据程序员为什么要学习Shell呢?
1)需要看懂运维人员编写的Shell程序。
2)偶尔会编写一些简单Shell程序来管理集群、提高开发效率。
二. Shell解析器
1. Linux提供的Shell解析器有:
1 2 3 4 5 6 7 8 9
| 1[hadoop@master ~]$ cat /etc/shells
2/bin/sh
3/bin/bash
4/sbin/nologin
5/bin/dash
6/bin/tcsh
7/bin/csh
8
9 |
2. bash和sh的关系
1 2 3 4 5
| 1[hadoop@master bin]$ ll | grep bash
2-rwxr-xr-x. 1 root root 941880 5月 11 2016 bash
3lrwxrwxrwx. 1 root root 4 5月 27 2017 sh -> bash
4
5 |
3. Centos默认的解析器是bash
1 2 3 4
| 1[hadoop@hadoop102 bin]$ echo $SHELL
2/bin/bash
3
4 |
三. Shell脚本入门
1.脚本格式
脚本以#!/bin/bash开头(指定解析器)
2.第一个Shell脚本:helloworld
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38
| 1(1)需求:创建一个Shell脚本,输出helloworld
2
3(2)案例实操:
4[hadoop@master datas]$ touch helloworld.sh
5[hadoop@master datas]$ vi helloworld.sh
6
7在helloworld.sh中输入如下内容
8#!/bin/bash
9echo "helloworld"
10
11(3)脚本的常用执行方式
12第一种:采用bash或sh+脚本的相对路径或绝对路径(不用赋予脚本+x权限)
13 sh+脚本的相对路径
14 [hadoop@master datas]$ sh helloworld.sh
15 Helloworld
16 sh+脚本的绝对路径
17 [hadoop@master datas]$ sh /home/hadoop/datas/helloworld.sh
18 helloworld
19 bash+脚本的相对路径
20 [hadoop@master datas]$ bash helloworld.sh
21 Helloworld
22 bash+脚本的绝对路径
23 [hadoop@master datas]$ bash /home/hadoop/datas/helloworld.sh
24 Helloworld
25
26第二种:采用输入脚本的绝对路径或相对路径执行脚本(必须具有可执行权限+x)
27 (a)首先要赋予helloworld.sh 脚本的+x权限
28 [hadoop@master datas]$ chmod 777 helloworld.sh
29 (b)执行脚本
30 相对路径
31 [hadoop@master datas]$ ./helloworld.sh
32 Helloworld
33 绝对路径
34 [hadoop@master datas]$ /home/hadoop/datas/helloworld.sh
35 Helloworld
36注意:第一种执行方法,本质是bash解析器帮你执行脚本,所以脚本本身不需要执行权限。第二种执行方法,本质是脚本需要自己执行,所以需要执行权限。
37
38 |
3.第二个Shell脚本:多命令处理
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| 1(1)需求:
2 在/home/hadoop/目录下创建一个banzhang.txt,在banzhang.txt文件中增加“I love cls”。
3(2)案例实操:
4 [hadoop@master datas]$ touch batch.sh
5 [hadoop@master datas]$ vi batch.sh
6
7 在batch.sh中输入如下内容
8 #!/bin/bash
9
10 cd /home/hadoop
11 touch cls.txt
12 echo "I love cls" >>cls.txt
13
14 |
四. Shell中的变量
1. 系统变量
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| 11. 常用系统变量
2 $HOME、$PWD、$SHELL、$USER等
32.案例实操
4(1)查看系统变量的值
5 [hadoop@master datas]$ echo $HOME
6 /home/hadoop
7(2)显示当前Shell中所有变量:set
8 [hadoop@master datas]$ set
9 BASH=/bin/bash
10 BASH_ALIASES=()
11 BASH_ARGC=()
12 BASH_ARGV=()
13
14 |
2. 自定义变量
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56
| 11.基本语法
2 (1)定义变量:变量=值
3 (2)撤销变量:unset 变量
4 (3)声明静态变量:readonly变量,注意:不能unset
52.变量定义规则
6 (1)变量名称可以由字母、数字和下划线组成,但是不能以数字开头,环境变量名建议大写。
7 (2)等号两侧不能有空格
8 (3)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算。
9(4)变量的值如果有空格,需要使用双引号或单引号括起来。
103.案例实操
11 (1)定义变量A
12 [hadoop@master datas]$ A=5
13 [hadoop@master datas]$ echo $A
14 5
15 (2)给变量A重新赋值
16 [hadoop@master datas]$ A=8
17 [hadoop@master datas]$ echo $A
18 8
19 (3)撤销变量A
20 [hadoop@master datas]$ unset A
21 [hadoop@master datas]$ echo $A
22 (4)声明静态的变量B=2,不能unset
23 [hadoop@master datas]$ readonly B=2
24 [hadoop@master datas]$ echo $B
25 2
26 [hadoop@master datas]$ B=9
27 -bash: B: readonly variable
28 (5)在bash中,变量默认类型都是字符串类型,无法直接进行数值运算
29 [hadoop@hadoop102 ~]$ C=1+2
30 [hadoop@hadoop102 ~]$ echo $C
31 1+2
32 (6)变量的值如果有空格,需要使用双引号或单引号括起来
33 [hadoop@hadoop102 ~]$ D=I love banzhang
34 -bash: world: command not found
35 [hadoop@hadoop102 ~]$ D="I love banzhang"
36 [hadoop@hadoop102 ~]$ echo $A
37 I love banzhang
38 (7)可把变量提升为全局环境变量,可供其他Shell程序使用
39 export 变量名
40 [hadoop@master datas]$ vim helloworld.sh
41
42 在helloworld.sh文件中增加echo $B
43 #!/bin/bash
44
45 echo "helloworld"
46 echo $B
47
48 [hadoop@master datas]$ ./helloworld.sh
49 Helloworld
50 发现并没有打印输出变量B的值。
51 [hadoop@master datas]$ export B
52 [hadoop@master datas]$ ./helloworld.sh
53 helloworld
54 2
55
56 |
3 特殊变量:$n
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| 11.基本语法
2 $n (功能描述:n为数字,$0代表该脚本名称,
3 $1-$9代表第一到第九个参数,十以上的参数,
4 十以上的参数需要用大括号包含,如${10})
52.案例实操
6(1)输出该脚本文件名称、输入参数1和输入参数2 的值
7 [hadoop@master datas]$ touch parameter.sh
8 [hadoop@master datas]$ vim parameter.sh
9
10 #!/bin/bash
11 echo "$0 $1 $2"
12
13 [hadoop@master datas]$ chmod 777 parameter.sh
14
15 [hadoop@master datas]$ ./parameter.sh cls xz
16 ./parameter.sh cls xz
17
18 |
4. 特殊变量:$#
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
| 11.基本语法
2 $# (功能描述:获取所有输入参数个数,常用于循环)。
32.案例实操
4(1)获取输入参数的个数
5 [hadoop@master datas]$ vim parameter.sh
6
7 #!/bin/bash
8 echo "$0 $1 $2"
9 echo $#
10
11 [hadoop@master datas]$ chmod 777 parameter.sh
12
13 [hadoop@master datas]$ ./parameter.sh cls xz
14 parameter.sh cls xz
15 2
16
17 |
5. 特殊变量:$*、$@
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
| 11.基本语法
2 $* (功能描述:这个变量代表命令行中所有的参数,$*把所有的参数看成一个整体)
3 $@ (功能描述:这个变量也代表命令行中所有的参数,不过$@把每个参数区分对待)
42.案例实操
5(1)打印输入的所有参数
6 [hadoop@master datas]$ vim parameter.sh
7
8 #!/bin/bash
9 echo "$0 $1 $2"
10 echo $#
11 echo $*
12 echo $@
13
14 [hadoop@master datas]$ bash parameter.sh 1 2 3
15 parameter.sh 1 2
16 3
17 1 2 3
18 1 2 3
19
20 |
6. 特殊变量:$?
1 2 3 4 5 6 7 8 9 10 11 12 13
| 11.基本语法
2 $? (功能描述:最后一次执行的命令的返回状态。
3 如果这个变量的值为0,证明上一个命令正确执行;
4 如果这个变量的值为非0(具体是哪个数,由命令自己来决定),
5 则证明上一个命令执行不正确了。)
62.案例实操
7 (1)判断helloworld.sh脚本是否正确执行
8 [hadoop@master datas]$ ./helloworld.sh
9 hello world
10 [hadoop@master datas]$ echo $?
11 0
12
13 |
五. 运算符
1.基本语法
1 2 3 4 5
| 1(1)“$((运算式))”或“$[运算式]”
2(2)expr + , - , \*, /, % 加,减,乘,除,取余
3注意:expr运算符间要有空格
4
5 |
2.案例实操:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
| 1(1)计算3+2的值
2 [hadoop@master datas]$ expr 2 + 3
3 5
4(2)计算3-2的值
5 [hadoop@master datas]$ expr 3 - 2
6 1
7(3)计算(2+3)X4的值
8 (a)expr一步完成计算
9 [hadoop@master datas]$ expr `expr 2 + 3` \* 4
10 20
11 (b)采用$[运算式]方式
12 [hadoop@master datas]# S=$[(2+3)*4]
13 [hadoop@master datas]# echo $S
14
15 |
六. 条件判断
1.基本语法
1 2 3 4
| 1[ condition ](注意condition前后要有空格)
2注意:条件非空即为true,[ hadoop ]返回true,[] 返回false。
3
4 |
2. 常用判断条件
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
| 1(1)两个整数之间比较
2 = 字符串比较
3 -lt 小于(less than) -le 小于等于(less equal)
4 -eq 等于(equal) -gt 大于(greater than)
5 -ge 大于等于(greater equal) -ne 不等于(Not equal)
6(2)按照文件权限进行判断
7 -r 有读的权限(read)
8 -w 有写的权限(write)
9 -x 有执行的权限(execute)
10(3)按照文件类型进行判断
11 -f 文件存在并且是一个常规的文件(file)
12 -e 文件存在(existence)
13 -d 文件存在并是一个目录(directory)
143.案例实操
15 (1)23是否大于等于22
16 [hadoop@master datas]$ [ 23 -ge 22 ]
17 [hadoop@master datas]$ echo $?
18 0
19 (2)helloworld.sh是否具有写权限
20 [hadoop@master datas]$ [ -w helloworld.sh ]
21 [hadoop@master datas]$ echo $?
22 0
23 (3)/home/hadoop/cls.txt目录中的文件是否存在
24 [hadoop@master datas]$ [ -e /home/hadoop/cls.txt ]
25 [hadoop@master datas]$ echo $?
26 1
27(4)多条件判断
28 (&& 表示前一条命令执行成功时,才执行后一条命令,
29 || 表示上一条命令执行失败后,才执行下一条命令)
30
31 [hadoop@master ~]$ [ condition ] && echo OK || echo notok
32 OK
33 [hadoop@master datas]$ [ condition ] && [ ] || echo notok
34 notok
35
36 |
七. 流程控制(重点)
1. if 判断
1.1 基本语法
1 2 3 4 5 6 7 8 9 10 11 12 13
| 1if [ 条件判断式 ];then
2 程序
3fi
4或者
5if [ 条件判断式 ]
6 then
7 程序
8fi
9 注意事项:
10(1)[ 条件判断式 ],中括号和条件判断式之间必须有空格
11(2)if后要有空格
12
13 |
1.2 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
| 1(1)输入一个数字,如果是1,则输出banzhang zhen shuai,如果是2,则输出cls zhen mei,如果是其它,什么也不输出。
2[hadoop@master datas]$ touch if.sh
3[hadoop@master datas]$ vim if.sh
4
5#!/bin/bash
6
7if [ $1 -eq "1" ]
8then
9 echo "banzhang zhen shuai"
10elif [ $1 -eq "2" ]
11then
12 echo "cls zhen mei"
13fi
14
15[hadoop@master datas]$ chmod 777 if.sh
16[hadoop@master datas]$ ./if.sh 1
17banzhang zhen shuai
18
19 |
2 case 语句
2.1 基本语法
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
| 1case $变量名 in
2 "值1")
3 如果变量的值等于值1,则执行程序1
4 ;;
5 "值2")
6 如果变量的值等于值2,则执行程序2
7 ;;
8 …省略其他分支…
9 *)
10 如果变量的值都不是以上的值,则执行此程序
11 ;;
12esac
13
14注意事项:
151)case行尾必须为单词“in”,每一个模式匹配必须以右括号“)”结束。
162)双分号“;;”表示命令序列结束,相当于java中的break。
173)最后的“*)”表示默认模式,相当于java中的default。
18
19 |
2.2 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
| 1(1)输入一个数字,如果是1,则输出banzhang,如果是2,则输出cls,如果是其它,输出renyao。
2[hadoop@master datas]$ touch case.sh
3[hadoop@master datas]$ vim case.sh
4
5!/bin/bash
6
7case $1 in
8"1")
9 echo "banzhang"
10;;
11
12"2")
13 echo "cls"
14;;
15*)
16 echo "renyao"
17;;
18esac
19
20[hadoop@master datas]$ chmod 777 case.sh
21[hadoop@master datas]$ ./case.sh 1
221
23
24 |
3. for 循环
3.1 基本语法1
1 2 3 4 5 6
| 1for (( 初始值;循环控制条件;变量变化 ))
2 do
3 程序
4 done
5
6 |
3.2 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| 1(1)从1加到100
2[hadoop@master datas]$ touch for1.sh
3[hadoop@master datas]$ vim for1.sh
4
5#!/bin/bash
6
7s=0
8for((i=0;i<=100;i++))
9do
10 s=$[$s+$i]
11done
12echo $s
13
14[hadoop@master datas]$ chmod 777 for1.sh
15[hadoop@master datas]$ ./for1.sh
16“5050”
17
18 |
3.3 基本语法2
1 2 3 4 5 6
| 1for 变量 in 值1 值2 值3…
2 do
3 程序
4 done
5
6 |
3.4 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71
| 1(1)打印所有输入参数
2 [hadoop@master datas]$ touch for2.sh
3 [hadoop@master datas]$ vim for2.sh
4
5 #!/bin/bash
6 #打印数字
7
8 for i in $*
9 do
10 echo "ban zhang love $i "
11 done
12
13 [hadoop@master datas]$ chmod 777 for2.sh
14 [hadoop@master datas]$ bash for2.sh cls xz bd
15 ban zhang love cls
16 ban zhang love xz
17 ban zhang love bd
18(2)比较$*和$@区别
19 (a)$*和$@都表示传递给函数或脚本的所有参数,
20 不被双引号“”包含时,都以$1 $2 …$n的形式输出所有参数。
21
22 [hadoop@master datas]$ touch for.sh
23 [hadoop@master datas]$ vim for.sh
24
25 #!/bin/bash
26
27 for i in $*
28 do
29 echo "ban zhang love $i "
30 done
31
32 for j in $@
33 do
34 echo "ban zhang love $j"
35 done
36
37 [hadoop@master datas]$ bash for.sh cls xz bd
38 ban zhang love cls
39 ban zhang love xz
40 ban zhang love bd
41 ban zhang love cls
42 ban zhang love xz
43 ban zhang love bd
44 (b)当它们被双引号“”包含时,
45 “$*”会将所有的参数作为一个整体,以“$1 $2 …$n”的形式输出所有参数;
46 “$@”会将各个参数分开,以“$1” “$2”…”$n”的形式输出所有参数。
47
48 [hadoop@master datas]$ vim for.sh
49
50 #!/bin/bash
51
52 for i in "$*"
53 #$*中的所有参数看成是一个整体,所以这个for循环只会循环一次
54 do
55 echo "ban zhang love $i"
56 done
57
58 for j in "$@"
59 #$@中的每个参数都看成是独立的,所以“$@”中有几个参数,就会循环几次
60 do
61 echo "ban zhang love $j"
62 done
63
64 [hadoop@master datas]$ chmod 777 for.sh
65 [hadoop@master datas]$ bash for.sh cls xz bd
66 ban zhang love cls xz bd
67 ban zhang love cls
68 ban zhang love xz
69 ban zhang love bd
70
71 |
4. while 循环
4.1 基本语法
1 2 3 4 5 6
| 1while [ 条件判断式 ]
2 do
3 程序
4 done
5
6 |
4.2 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
| 1(1)从1加到100
2 [hadoop@master datas]$ touch while.sh
3 [hadoop@master datas]$ vim while.sh
4
5 #!/bin/bash
6 s=0
7 i=1
8 while [ $i -le 100 ]
9 do
10 s=$[$s+$i]
11 i=$[$i+1]
12 done
13
14 echo $s
15
16 [hadoop@master datas]$ chmod 777 while.sh
17 [hadoop@master datas]$ ./while.sh
18 5050
19
20 |
八. read读取控制台输入
1.基本语法
1 2 3 4 5 6 7 8 9 10
| 1 read(选项)(参数)
2 选项:
3 -p:指定读取值时的提示符;
4 -t:指定读取值时等待的时间(秒)。
5 -s:隐藏用户输入数据
6 -n:指定要接受的字符数
7 参数
8 变量:指定读取值的变量名
9
10 |
2.案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14
| 1(1)提示7秒内,读取控制台输入的名称
2 [hadoop@master datas]$ touch read.sh
3 [hadoop@master datas]$ vim read.sh
4
5 #!/bin/bash
6
7 read -t 7 -p "Enter your name in 7 seconds " NAME
8 echo $NAME
9
10 [hadoop@master datas]$ ./read.sh
11 Enter your name in 7 seconds xiaoze
12 xiaoze
13
14 |
九. 函数
1. 系统函数
1.1 basename基本语法与案例
1 2 3 4 5 6 7 8 9 10 11 12
| 1basename [string / pathname] [suffix]
2 (功能描述:basename命令会删掉所有的前缀包括最后一个(‘/’)字符,然后将字符串显示出来。
3选项:
4 suffix为后缀,如果suffix被指定了,basename会将pathname或string中的suffix去掉。
5
6(1)截取该/home/hadoop/banzhang.txt路径的文件名称
7 [hadoop@master datas]$ basename /home/hadoop/banzhang.txt
8 banzhang.txt
9 [hadoop@master datas]$ basename /home/hadoop/banzhang.txt .txt
10 banzhang
11
12 |
1.2 dirname基本语法与案例
1 2 3 4 5 6 7 8 9
| 1dirname 文件绝对路径
2 功能描述:从给定的包含绝对路径的文件名中去除文件名(非目录的部分),
3 然后返回剩下的路径(目录的部分)
4案例实操
5(1)获取banzhang.txt文件的路径
6 [hadoop@master ~]$ dirname /home/hadoop/banzhang.txt
7 /home/hadoop
8
9 |
2. 自定义函数
2.1 基本语法
1 2 3 4 5 6 7 8
| 1[ function ] funname[()]
2{
3 Action;
4 [return int;]
5}
6funname
7
8 |
2.2 经验技巧
1 2 3 4 5 6
| 1(1)必须在调用函数地方之前,先声明函数,shell脚本是逐行运行。不会像其它语言一样先编译。
2(2)函数返回值,只能通过$?系统变量获得,
3 可以显示加:return返回,
4 如果不加,将以最后一条命令运行结果,作为返回值。return后跟数值n(0-255)
5
6 |
2.3 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23
| 1(1)计算两个输入参数的和
2 [hadoop@master datas]$ touch fun.sh
3 [hadoop@master datas]$ vim fun.sh
4
5 #!/bin/bash
6 function sum()
7 {
8 s=0
9 s=$[ $1 + $2 ]
10 echo "$s"
11 }
12
13 read -p "Please input the number1: " n1;
14 read -p "Please input the number2: " n2;
15 sum $n1 $n2;
16
17 [hadoop@master datas]$ chmod 777 fun.sh
18 [hadoop@master datas]$ ./fun.sh
19 Please input the number1: 2
20 Please input the number2: 5
21 7
22
23 |
十. Shell工具(重点)
1. cut
cut的工作就是“剪”,具体的说就是在文件中负责剪切数据用的。cut 命令从文件的每一行剪切字节、字符和字段并将这些字节、字符和字段输出。
1.1 基本用法
1 2 3 4
| 1cut [选项参数] filename
2说明:默认分隔符是制表符
3
4 |
1.2 选项参数说明
1 2 3 4 5 6
| 1表1-55
2选项参数 功能
3-f 列号,提取第几列
4-d 分隔符,按照指定分隔符分割列
5
6 |
1.3 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36
| 1(0)数据准备
2 [hadoop@master datas]$ touch cut.txt
3 [hadoop@master datas]$ vim cut.txt
4 dong shen
5 guan zhen
6 wo wo
7 lai lai
8 le le
9(1)切割cut.txt第一列
10 [hadoop@master datas]$ cut -d " " -f 1 cut.txt
11 dong
12 guan
13 wo
14 lai
15 le
16(2)切割cut.txt第二、三列
17 [hadoop@master datas]$ cut -d " " -f 2,3 cut.txt
18 shen
19 zhen
20 wo
21 lai
22 le
23(3)在cut.txt文件中切割出guan
24 [hadoop@master datas]$ cat cut.txt | grep "guan" | cut -d " " -f 1
25 guan
26(4)选取系统PATH变量值,第2个“:”开始后的所有路径:
27 [hadoop@master datas]$ echo $PATH
28 /usr/lib64/qt-3.3/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/hadoop/bin
29
30 [hadoop@hadoop102 datas]$ echo $PATH | cut -d: -f 2-
31 /usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/sbin:/home/hadoop/bin
32(5)切割ifconfig 后打印的IP地址
33 [hadoop@master datas]$ ifconfig eth0 | grep "inet addr" | cut -d: -f 2 | cut -d" " -f1
34 192.168.1.102
35
36 |
2. sed
sed是一种流编辑器,它一次处理一行内容。处理时,把当前处理的行存储在临时缓冲区中,称为“模式空间”,接着用sed命令处理缓冲区中的内容,处理完成后,把缓冲区的内容送往屏幕。接着处理下一行,这样不断重复,直到文件末尾。文件内容并没有改变,除非你使用重定向存储输出。
2.1 基本用法
1 2 3
| 1sed [选项参数] ‘command’ filename
2
3 |
2.2 选项参数说明
1 2 3 4 5
| 1表1-56
2选项参数 功能
3-e 直接在指令列模式上进行sed的动作编辑。
4
5 |
2.3 命令功能描述
1 2 3 4 5 6 7
| 1表1-57
2命令 功能描述
3 a 新增,a的后面可以接字串,在下一行出现
4 d 删除
5 s 查找并替换
6
7 |
2.4 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55
| 1(0)数据准备
2 [hadoop@hadoop102 datas]$ touch sed.txt
3 [hadoop@hadoop102 datas]$ vim sed.txt
4 dong shen
5 guan zhen
6 wo wo
7 lai lai
8
9 le le
10
11(1)将“mei nv”这个单词插入到sed.txt第二行下,打印。
12 [hadoop@hadoop102 datas]$ sed '2a mei nv' sed.txt
13 dong shen
14 guan zhen
15 mei nv
16 wo wo
17 lai lai
18
19 le le
20 [hadoop@hadoop102 datas]$ cat sed.txt
21 dong shen
22 guan zhen
23 wo wo
24 lai lai
25
26 le le
27注意:文件并没有改变
28
29(2)删除sed.txt文件所有包含wo的行
30 [hadoop@hadoop102 datas]$ sed '/wo/d' sed.txt
31 dong shen
32 guan zhen
33 lai lai
34
35 le le
36
37(3)将sed.txt文件中wo替换为ni
38 [hadoop@hadoop102 datas]$ sed 's/wo/ni/g' sed.txt
39 dong shen
40 guan zhen
41 ni ni
42 lai lai
43
44 le le
45注意:‘g’表示global,全部替换
46
47(4)将sed.txt文件中的第二行删除并将wo替换为ni
48[hadoop@hadoop102 datas]$ sed -e '2d' -e 's/wo/ni/g' sed.txt
49dong shen
50ni ni
51lai lai
52
53le le
54
55 |
3. awk
一个强大的文本分析工具,把文件逐行的读入,以空格为默认分隔符将每行切片,切开的部分再进行分析处理。
3.1 基本用法
1 2 3 4 5
| 1awk [选项参数] ‘pattern1{action1} pattern2{action2}...’ filename
2pattern:表示AWK在数据中查找的内容,就是匹配模式
3action:在找到匹配内容时所执行的一系列命令
4
5 |
3.2 选项参数说明
1 2 3 4 5 6
| 1表1-55
2选项参数 功能
3-F 指定输入文件折分隔符
4-v 赋值一个用户定义变量
5
6 |
3.3 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30
| 1(0)数据准备
2 [hadoop@hadoop102 datas]$ sudo cp /etc/passwd ./
3
4(1)搜索passwd文件以root关键字开头的所有行,并输出该行的第7列。
5 [hadoop@hadoop102 datas]$ awk -F: '/^root/{print $7}' passwd
6 /bin/bash
7
8(2)搜索passwd文件以root关键字开头的所有行,并输出该行的第1列和第7列,中间以“,”号分割。
9 [hadoop@hadoop102 datas]$ awk -F: '/^root/{print $1","$7}' passwd
10 root,/bin/bash
11 注意:只有匹配了pattern的行才会执行action
12
13 (3)只显示/etc/passwd的第一列和第七列,以逗号分割,且在所有行前面添加列名user,shell在最后一行添加"dahaige,/bin/zuishuai"。
14 [hadoop@hadoop102 datas]$ awk -F : 'BEGIN{print "user, shell"} {print $1","$7} END{print "dahaige,/bin/zuishuai"}' passwd
15 user, shell
16 root,/bin/bash
17 bin,/sbin/nologin
18 。。。
19 hadoop,/bin/bash
20 dahaige,/bin/zuishuai
21 注意:BEGIN 在所有数据读取行之前执行;END 在所有数据执行之后执行。
22
23(4)将passwd文件中的用户id增加数值1并输出
24 [hadoop@hadoop102 datas]$ awk -v i=1 -F: '{print $3+i}' passwd
25 1
26 2
27 3
28 4
29
30 |
3.4 awk的内置变量
1 2 3 4 5 6 7
| 1表1-56
2变量 说明
3FILENAME 文件名
4NR 已读的记录数
5NF 浏览记录的域的个数(切割后,列的个数)
6
7 |
3.5 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
| 1(1)统计passwd文件名,每行的行号,每行的列数
2 [hadoop@hadoop102 datas]$ awk -F: '{print "filename:" FILENAME ", linenumber:" NR ",columns:" NF}' passwd
3 filename:passwd, linenumber:1,columns:7
4 filename:passwd, linenumber:2,columns:7
5 filename:passwd, linenumber:3,columns:7
6
7(2)切割IP
8 [hadoop@hadoop102 datas]$ ifconfig eth0 | grep "inet addr" | awk -F: '{print $2}' | awk -F " " '{print $1}'
9 192.168.1.102
10
11(3)查询sed.txt中空行所在的行号
12 [hadoop@hadoop102 datas]$ awk '/^$/{print NR}' sed.txt
13 5
14
15 |
4. sort
sort命令是在Linux里非常有用,它将文件进行排序,并将排序结果标准输出。
4.1 基本语法
1 2 3 4 5 6 7 8 9 10
| 1sort(选项)(参数)
2表1-57
3选项 说明
4 -n 依照数值的大小排序
5 -r 以相反的顺序来排序
6 -t 设置排序时所用的分隔字符
7 -k 指定需要排序的列
8参数:指定待排序的文件列表
9
10 |
4.2 案例实操
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
| 1(0)数据准备
2 [hadoop@hadoop102 datas]$ touch sort.sh
3 [hadoop@hadoop102 datas]$ vim sort.sh
4 bb:40:5.4
5 bd:20:4.2
6 xz:50:2.3
7 cls:10:3.5
8 ss:30:1.6
9
10(1)按照“:”分割后的第三列倒序排序。
11 [hadoop@hadoop102 datas]$ sort -t : -nrk 3 sort.sh
12 bb:40:5.4
13 bd:20:4.2
14 cls:10:3.5
15 xz:50:2.3
16 ss:30:1.6
17
18 |
十一. 实例
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54
| 1问题1:使用Linux命令查询file1中空行所在的行号
2答案:
3 [hadoop@hadoop102 datas]$ awk '/^$/{print NR}' sed.txt
4 5
5
6问题2:有文件chengji.txt内容如下:
7 张三 40
8 李四 50
9 王五 60
10 使用Linux命令计算第二列的和并输出
11 [hadoop@hadoop102 datas]$ cat chengji.txt | awk -F " " '{sum+=$2} END{print sum}'
12 150
13
14问题3:Shell脚本里如何检查一个文件是否存在?如果不存在该如何处理?
15 #!/bin/bash
16
17 if [ -f file.txt ]; then
18 echo "文件存在!"
19 else
20 echo "文件不存在!"
21 fi
22
23问题4:用shell写一个脚本,对文本中无序的一列数字排序
24 [root@CentOS6-2 ~]# cat test.txt
25 9
26 8
27 7
28 6
29 5
30 4
31 3
32 2
33 10
34 1
35 [root@CentOS6-2 ~]# sort -n test.txt|awk '{a+=$0;print $0}END{print "SUM="a}'
36 1
37 2
38 3
39 4
40 5
41 6
42 7
43 8
44 9
45 10
46 SUM=55
47
48问题5:请用shell脚本写出查找当前文件夹(/home)
49 下所有的文本文件内容中包含有字符”shen”的文件名称
50 [hadoop@hadoop102 datas]$ grep -r "shen" /home | cut -d ":" -f 1
51 /home/hadoop/datas/sed.txt
52 /home/hadoop/datas/cut.txt
53
54 |