系统相关
首页 > 系统相关> > Linux集群分发脚本xsync

Linux集群分发脚本xsync

作者:互联网

1.基础拷贝工具
1)安全拷贝:scp(secure copy)
1)scp定义:

scp可以实现服务器与服务器之间的数据拷贝(from server1 to server2)

2)基本语法

scp -r $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 递归 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
3)案例实操

a)在hadoop1上,将hadoop1中/opt/module目录下的软件拷贝到hadoop2上:

[zxy@hadoop1 /]$ scp -r /opt/module root@hadoop2:/opt/module
b)在hadoop3上,将hadoop101服务器上的/opt/module目录下的软件拷贝到hadoop3上:

[zxy@hadoop3 opt]$sudo scp -r zxy@hadoop101:/opt/module root@hadoop3:/opt/module
c)在hadoop3上操作将hadoop1中/opt/module目录下的软件拷贝到hadoop4上。

[zxy@hadoop103 opt]$ scp -r zxy@hadoop1:/opt/module root@hadoop4:/opt/module
注意:拷贝过来的/opt/module目录,别忘了在hadoop2、hadoop3、hadoop4上修改所有文件的[所有者和所有者组]。

sudo chown zxy:zxy -R /opt/module
d)将hadoop1中/etc/profile文件拷贝到hadoop2的/etc/profile上:

[zxy@hadoop1 ~]$ sudo scp /etc/profile root@hadoop2:/etc/profile
e)将hadoop1中/etc/profile文件拷贝到hadoop3的/etc/profile上:

[zxy@hadoop1 ~]$ sudo scp /etc/profile root@hadoop3:/etc/profile
f)将hadoop1中/etc/profile文件拷贝到hadoop4的/etc/profile上:

[zxy@hadoop1 ~]$ sudo scp /etc/profile root@hadoop4:/etc/profile
==注意:==拷贝过来的配置文件别忘了source一下/etc/profile,

2)远程同步工具:rsync
1)rsync是什么?

rsync主要用于备份和镜像,具有速度快、避免复制相同内容和支持符号链接的优点。

2)基本语法

rsync -av $pdir/$fname $user@hadoop$host:$pdir/$fname
命令 选项参数 要拷贝的文件路径/名称 目的用户@主机:目的路径/名称
4)选项参数说明

选项 功能
-a 归档拷贝
-v 显示复制过程
5)案例实操

把hadoop1机器上的/opt/software目录同步到hadoop2服务器的root用户下的/opt/目录
# 需要系统安装有rsync:
[zxy@hadoop2 ~]$ sudo yum install rsync
[zxy@hadoop1 opt]$ rsync -av /opt/software/ root@hadoop2:/opt/software
3)rsync和scp区别
1)用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。
2)scp是把所有文件都复制过去
2.xsync集群分发脚本
1)需求:

循环复制文件到所有节点的相同目录下
2)需求分析:

a)rsync命令原始拷贝:

rsync -av /opt/module root@hadoop103:/opt/
b)期望脚本:

xsync 要同步的文件名称
c)说明:在/home/zxy/bin这个目录下存放的脚本,zxy用户可以在系统任何地方直接执行。

3)脚本实现

需要系统安装有rsync:

[zxy@hadoop2 ~]$ sudo yum install rsync
a)在/home/zxy目录下创建bin目录,并在bin目录下xsync创建文件,文件内容如下:

[zxy@hadoop2 ~]$ mkdir bin
[zxy@hadoop2 ~]$ cd bin/
[zxy@hadoop2 bin]$ touch xsync
[zxy@hadoop2 bin]$ vim xsync
在该文件中编写如下shell脚本:

#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if [ $pcount -lt 1 ]
then
echo Not Enough Arguement!
exit;
fi

#2. 遍历集群所有机器
# 也可以采用:
# for host in hadoop{102..104};
for host in hadoop2 hadoop3 hadoop4
do
echo ==================== $host ====================
#3. 遍历所有目录,挨个发送
for file in $@
do
#4 判断文件是否存在
if [ -e $file ]
then
#5. 获取父目录
pdir=$(cd -P $(dirname $file); pwd)
echo pdir=$pdir

#6. 获取当前文件的名称
fname=$(basename $file)
echo fname=$fname

#7. 通过ssh执行命令:在$host主机上递归创建文件夹(如果存在该文件夹)
ssh $host "mkdir -p $pdir"

#8. 远程同步文件至$host主机的$USER用户的$pdir文件夹下
rsync -av $pdir/$fname $USER@$host:$pdir
else
echo $file does not exists!
fi
done
done

 

b)修改脚本 xsync 具有执行权限

[zxy@hadoop2 bin]$ chmod 777 xsync
c)调用脚本形式:xsync 文件名称

[zxy@hadoop2 bin]$ xsync /home/zxy/bin
注意:如果将xsync放到/home/zxy/bin目录下仍然不能实现全局使用,可以将xsync移动到/usr/local/bin目录下。

3.配置集群间免密登陆
1)免密登陆原理

2)配置免密登陆
a)生成密钥对

[zxy@hadoop2 .ssh]$ ssh-keygen -t rsa
然后敲(三个回车),就会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
使用rsa算法生成秘钥对
生成的秘钥对在用户家目录下: /home/user/.ssh
b)将公钥拷贝到要免密登录的目标机器上

[zxy@hadoop2 .ssh]$ ssh-copy-id hadoop2
[zxy@hadoop2 .ssh]$ ssh-copy-id hadoop3
[zxy@hadoop2 .ssh]$ ssh-copy-id hadoop4
c)分别ssh直接登陆hadoop102

ssh hadoop103

3).ssh文件夹功能解释
文件名                          功能
known_hosts           记录ssh访问过计算机的公钥(public key)
id_rsa                      生成的私钥
id_rsa.pub               生成的公钥
authorized_keys     存放授权过得无密登录服务器公钥
文档解释:

1)ssh会把你每个你访问过计算机的公钥(public key)都记录在~/.ssh/known_hosts。

作用:当下次访问相同计算机时,OpenSSH会核对公钥;
如果公钥不同,OpenSSH会发出警告,避免你受到DNS Hijack之类的攻击。
The authenticity of host 'hadoop107 (192.168.8.107)' can't be established.
RSA key fingerprint is fa:9c:50:71:70:2b:4f:36:04:f6:7c:7b:0b:2d:ca:3b.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'hadoop107,192.168.8.107' (RSA) to the list of known hosts.
2)ssh-keygen -t rsa:

作用:生成~/.ssh/下id_rsa(私钥)、id_rsa.pub(公钥)两个文件
3)ssh-copy-id hadoop2 :会将本机的公钥发送到要访问计算机——存储在hadoop102的 ~/.ssh/authorized_keys中

作用:用于实现A机器对hadoop2机器的免密登陆

标签:opt,分发,xsync,bin,hadoop2,ssh,Linux,zxy,scp
来源: https://www.cnblogs.com/uestc2007/p/13322447.html