需要处理的问题是:1、scp远程拷贝每个源文件均需要输入密码。源文件是通过正则匹配的,scp支持,但每个文件或目录需要手工输入远程机器的密码,文件大的时候总不能守着吧可选的解决方案是:打通ssh通道。但我只需要处理一次,原则上生产环境是不打通到开发环境的ssh通道的。事前事后都得联系SA处理,麻烦2、scp远程拷贝目标目录只能指定一个已存在的目录,不支持动态生成。比如:scp -r ./*/*c*/*2* admin@10.20.151.5:/home/admin/yunti_compare,这是可以的,只是每次需要手动输入密码,如果我想将目标文件放到:/home/admin/yunti_compare/*,其中*对应源目录的名字呢?搞不定。最后,使用expect脚本实现交互。如下所示。如果问题规模更复杂些,特别是文件备份,建议使用:rsync##################### Linux下脚本实现交互输入 #####################
#!/usr/bin/expect
set orgpath [lindex $argv 0 ]
set target [lindex $argv 1 ]
spawn ssh admin@10.20.151.5
expect ".*password:"
send "log2011
"
expect "].*"
send "mkdir -p $target
"
expect "].*"
send "exit
"
#interact
spawn scp -r $orgpath admin@10.20.151.5:$target
expect ".*password:"
send "log2011
"
expect eof
exit#scp Hadoop1的按小时分析的结果文件,采样获取10点和22点文件到开发环境151.5
for buname in `du -sh /data/work/*/SqlldrDat/20111213/10 | awk -F "/" "{print $4}"`
do
#scp -r /data/work/*/SqlldrDat/20111213/10 admin@10.20.151.5:/home/admin/yunti_compare/hadoop_20111213/*/10
#scp -r /data/work/*/SqlldrDat/20111213/22 admin@10.20.151.5:/home/admin/yunti_compare/hadoop_20111213/*/22
./copy_log.expect "/data/work/$buname/SqlldrDat/20111213/10" "/home/admin/yunti_compare/hadoop_20111213/$buname"
./copy_log.expect "/data/work/$buname/SqlldrDat/20111213/22" "/home/admin/yunti_compare/hadoop_20111213/$buname"
done#scp hadoop1的按天分析文件到开发环境151.5
for buname in AeCtr AuLog CnP4PClick EnP4P EnP4PClick EnWeb InnerClickstat InnerCtr InnerLog MytLog
do
target_dir="/home/admin/yunti_compare/hadoop_20111213/$buname""_day"
./copy_log.expect "/data/work/$buname/SqlldrDat/20111213" $target_dir
done
##################### Linux下脚本实现交互输入举例结束 #####################尝鲜RHEV 3.0——浏览器登录管理中心Shell输出格式化相关资讯 Linux脚本
- 获取Linux服务器基本信息脚本 (02月17日)
- Linux 批量拷贝数据脚本 (03/05/2015 10:47:12)
- 简单的Linux脚本程序 (11/10/2013 08:45:07)
| - Linux定时任务中用脚本代替可执行 (06/06/2015 06:37:39)
- Linux下的flashback脚本 (05/21/2014 08:25:05)
- Linux下记录所有用户操作的脚本 (07/29/2013 08:33:39)
|
本文评论 查看全部评论 (0)