一键部署Linux服务器

一键部署Linux服务器

本来最近几天是要搞Gerapy的,奈何最近几天运气太好,好多以前苦苦都无法解决的课题,在网上都找到了解决方案。顺带学会了几个新玩具: expect、sed、awk。精通算不上,入个门玩玩还是挺有意思的。

配置文件的自动化编辑问题

首先是配置文件的自动化编辑。因为最近我的服务器总是删了再装,装了又删。所以就总是要手动去改配置文件,就搞得很恶心。本着解决问题,就要先解决最恶心的问题。不然解决的事情不痛不痒,浪费那闲工夫干嘛...

最先想到的是sed。前几天搞《Docker搭建Hadoop》出现过,用它编辑了CentOS软件包仓库。但是直接从网上找出来,复制粘贴就拿来用了。这货印象里总是和vim一起出现,目测不难。那就找找资料学一下。

豆瓣图书搜索sed,相关图书没几本,从上往下找,第一本是O'Reilly出版社的书《sed & awk》。这出版社挺有意思的,印象里封面用的全都是某种动物,而且书名一如既往的简短。找了一下中文版,粗读了一遍,没怎么读懂。就知道sed和awk都是用来处理文本文件的,awk强大得一批,居然是一种语言。卧槽,这玩意搞会了,自动化运维、自动化部署服务器,岂不是指日可待?果断放弃sed,去找了一下awk的资料。

这次直接读了《The GNU Awk User’s Guide》,GNU官方出的用户手册。读了大概两三个小时,基本上awk能干啥大概了解了:

  1. awk起源于sed和grep
  2. awk擅长数据统计

得出这么两个结论之后,觉得跟自己要解决的问题关系不大。既然awk是一门语言,想要编辑文本文件自然不在话下,但为了改一个文本文件,去写一个脚本,貌似没有这个必要,所以又折回来搞sed了...

MD,早知道,还浪费感情、花时间、弄一个用不上的技术。但是呢...当初学vim的时候,也是浪费感情、花时间、弄了一个用不上的sed。要是以前没研究过sed,这次搞sed也不会这么容易。嗯,多看点东西也不亏,兴许以后用得上呢。嗯,就是安慰安慰自己吧。

b站搜了一下sed,学了大概两三个小时,觉得这玩意不是跟vim正则替换差不多么?所以学习过程意外地顺利,起码正则表达式不用学了。(意外学了一下重定向,不过还是拿来就用的程度。就是——知道这条命令好用,但为啥好用?给我说一下呗?不好意思,不知道,解释不了...)。

# 配置hadoop-env.sh
sed 's@export JAVA_HOME=${JAVA_HOME}@export JAVA_HOME=/usr/local/jdk1.8.0_331@g' $HADOOP_HOME/etc/hadoop/hadoop-env.sh -i

# 配置core-site.xml
sed '/<configuration>/,/<\/configuration>/d' $HADOOP_HOME/etc/hadoop/core-site.xml -i
cat >> $HADOOP_HOME/etc/hadoop/core-site.xml << EOF
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-2.10.1/data</value>
    </property>
</configuration>
EOF

自动化完成交互式命令

第一个问题解决了,本来想写个脚本记录一下,但总感觉这脚本写得不伦不类。这玩意我以后肯定嫌弃: 自动化完成了配置文件的编辑,但是其余软件的安装,还是得手动安装。就尝试写了个jdk、hadoop、hive的自动化部署脚本,发现了一个问题:

ssh-keygenssh-copy-id这种必须与控制台交互的命令,还是要手动敲。那就一个一个解决

ssh-keygen想要摆脱交互式比较简单,命令本身就支持

ssh-keygen -f /root/.ssh/id_rsa -t rsa -N ''

ssh-copy-id这玩意就比较麻烦了,本着拿来就用的原则,先找了sshpass。发现在进行ssh localhost免密登录时,第一次会弹出yes/no这种选项,所以还是需要交互式...

然后就找到了expect,学了一下,这工具挺强——在控制台出现了什么提示时,往里边敲什么都支持。有点类似程序设计语言里的if-elseif-else这种结构。

# 配置root密码
echo 'root' | passwd --stdin root

# 配置免密登录
ssh-keygen -f /root/.ssh/id_rsa -t rsa -N ''
/usr/bin/expect <<-END &>/dev/null
spawn ssh-copy-id localhost
expect {
    "yes/no" { send "yes\r";exp_continue }
    "password:" {send "root\r" }
}
expect eof
END

/usr/bin/expect <<-END &>/dev/null
spawn ssh-copy-id 0.0.0.0
expect {
    "yes/no" { send "yes\r";exp_continue }
    "password:" {send "root\r" }
}
expect eof
END

总结一下

一键部署Linux服务器脚本

运行脚本之后,如果用的是docker compose,可以用env_file,就不需要用脚本去配置环境变量了;但如果直接用Linux的话,需要手动source /etc/profile一下,才能hive。那就留个课题,以后再解决吧。目前已经把n条命令,优化成3条命令了...

# 1. 
# 在`/root`目录下准备三个文件:
# - apache-hive-2.1.1-bin.tar.gz
# - hadoop-2.10.1.tar.gz
# - jdk-8u331-linux-x64.tar.gz

# 2. 
# 将以下脚本保存为deploy.sh,键入以下命令等待安装、配置完成
# bash deploy.sh

# 3. 
# 等待脚本全部执行结束以后,执行以下两条命令,进入hive
# source /etc/profile
# hive

# 系统配置
sed -i 's@mirrorlist@#mirrorlist@g' /etc/yum.repos.d/CentOS-*
sed -i 's@#baseurl=http://mirror.centos.org@baseurl=http://vault.centos.org@g' /etc/yum.repos.d/CentOS-*
# yum update -y
# yum grouplist
# yum groupinstall -y "Minimal Install"
yum install -y initscripts curl which tar sudo rsync openssh-server openssh-clients passwd vim expect
systemctl start sshd

# 配置root密码
echo 'root' | passwd --stdin root

# 配置免密登录
ssh-keygen -f /root/.ssh/id_rsa -t rsa -N ''
/usr/bin/expect <<-END &>/dev/null
spawn ssh-copy-id localhost
expect {
    "yes/no" { send "yes\r";exp_continue }
    "password:" {send "root\r" }
}
expect eof
END

/usr/bin/expect <<-END &>/dev/null
spawn ssh-copy-id 0.0.0.0
expect {
    "yes/no" { send "yes\r";exp_continue }
    "password:" {send "root\r" }
}
expect eof
END

# 设置变量
jdkCompressedArchive='jdk-8u331-linux-x64.tar.gz'
jdkFolder='jdk1.8.0_331'

hadoopCompressedArchive='hadoop-2.10.1.tar.gz'
hadoopFolder='hadoop-2.10.1'

hiveCompressedArchive='apache-hive-2.1.1-bin.tar.gz'
hiveFolder='apache-hive-2.1.1-bin'

# 解压软件
tar -zxvf /root/$jdkCompressedArchive -C /usr/local
tar -zxvf /root/$hadoopCompressedArchive -C /usr/local
tar -zxvf /root/$hiveCompressedArchive -C /usr/local

# 编辑环境变量
cat >> /etc/profile << EOF

# Java Development Kit Environment
export JAVA_HOME=/usr/local/$jdkFolder
export PATH=\$PATH:\$JAVA_HOME/bin

# Hadoop Environment
export HADOOP_CONF_DIR=/usr/local/$hadoopFolder/etc/hadoop
export HADOOP_HOME=/usr/local/$hadoopFolder
export PATH=\$PATH:\$HADOOP_HOME/bin:\$HADOOP_HOME/sbin

# Hive Environment
export HIVE_HOME=/usr/local/hiveFolder
export PATH=\$PATH:\$HIVE_HOME/bin
EOF

source /etc/profile

# 配置hadoop
sed 's@export JAVA_HOME=${JAVA_HOME}@export JAVA_HOME=/usr/local/jdk1.8.0_331@g' $HADOOP_HOME/etc/hadoop/hadoop-env.sh -i

sed '/<configuration>/,/<\/configuration>/d' $HADOOP_HOME/etc/hadoop/core-site.xml -i
cat >> $HADOOP_HOME/etc/hadoop/core-site.xml << EOF
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-2.10.1/data</value>
    </property>
</configuration>
EOF

sed '/<configuration>/,/<\/configuration>/d' $HADOOP_HOME/etc/hadoop/hdfs-site.xml -i
cat >> $HADOOP_HOME/etc/hadoop/hdfs-site.xml << EOF
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.name.secondary.http-address</name>
        <value>localhost:50090</value>
    </property>
</configuration>
EOF

# 格式化hdfs
hadoop namenode -format

# 启动hdfs
start-dfs.sh

# 配置hive
cp $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh
cat >> $HIVE_HOME/conf/hive-env.sh << EOF
export HIVE_CONF_DIR=$HIVE_HOME/conf
export JAVA_HOME=$JAVA_HOME
export HADOOP_HOME=$HADOOP_HOME
export HIVE_AUX_JARS_PATH=$HIVE_HOME/lib
EOF

cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml
sed -i 's#${system:java\.io\.tmpdir}#/usr/local/hive/iotmp#g' $HIVE_HOME/conf/hive-site.xml
sed -i 's#${system:user\.name}#root#g' $HIVE_HOME/conf/hive-site.xml

hdfs dfs -mkdir -p /user/hive/warehouse 
hdfs dfs -mkdir -p /tmp/hive/ 
hdfs dfs -chmod 750 /user/hive/warehouse 
hdfs dfs -chmod 777 /tmp/hive
schematool --initSchema -dbType derby

# sed -i '/cdef/r add.txt' input.txt

# expect
# spawn
# send
# timeout -1
# interact
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,496评论 6 501
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,407评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,632评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,180评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,198评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,165评论 1 299
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,052评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,910评论 0 274
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,324评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,542评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,711评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,424评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,017评论 3 326
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,668评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,823评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,722评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,611评论 2 353

推荐阅读更多精彩内容