ArcGIS GeoAnalytics Server配置HDFS存储

一、前言废话

下载hadoop-2.10.0.tar.gz
下载jdk-8u241-linux-x64.tar.gz
ArcGIS 10.7.1
CentOS 7.6

二、HDFS安装

伪集群部署,将NameNode和DataNode部署在同一台机器(机器名:hdsf.hadoop 192.168.1.36)

2.1配置Java环境(若集群则需要每台机器都配置Hadoop环境)

创建Java目录并将下载好的JDK拷贝到目录中
[root@hdfs ~]# mkdir /usr/local/Java
[root@hdfs Java]# tar -zxvf jdk-8u241-linux-x64.tar.gz
[root@hdfs ~]# vim .bash_profile

export    JAVA_HOME=/usr/local/Java/jdk1.8.0_241
export    CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export    PATH=$JAVA_HOME/bin:$PATH

[root@hdfs ~]# source .bash_profile

验证Java环境配置
[root@hdfs ~]# java -version

java version "1.8.0_241"
Java(TM) SE Runtime Environment (build 1.8.0_241-b07)
Java HotSpot(TM) 64-Bit Server VM (build 25.241-b07, mixed mode)

2.2配置ssh无密码登录(若集群需要将authorized_keys拷贝到每台机器的.ssh)

[root@hdfs .ssh]# cd ~/.ssh #连击4个回车
[root@hdfs .ssh]# ssh-keygen -t rsa
[root@hdfs .ssh]# cat id_rsa.pub >> authorized_keys

2.3安装hadoop环境(若集群则配置Name后复制到同目录Data结点)

创建Hadoop目录并将下载好的JDK拷贝到目录中
[root@hdfs ~]# mkdir /usr/local/Hadoop
[root@hdfs ~]# mkdir /usr/local/Hadoop/hadoopdata
[root@hdfs Hadoop]# tar -zxvf hadoop-2.10.0.tar.gz

2.3.1将JAVA_HOME配置到Hadoop启动命令中

[root@hdfs hadoop]# vim /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/hadoop-env.sh
注释掉 export JAVA_HOME=${JAVA_HOME}
添加 export JAVA_HOME=/usr/local/Java/jdk1.8.0_241

2.3.2 配置core-site.xml

[root@hdfs hadoop]# vim /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/core-site.xml
在<configuration>和</configuration>之间加入的代码

<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hdfs.hadoop:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/Hadoop/hadoopdata</value>
</property>
core-site.xml

2.3.3 配置hdfs-site.xml

[root@hdfs hadoop]# vim /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/hdfs-site.xml
在<configuration>和</configuration>之间加入的代码

<property>
                <name>dfs.replication</name>
                <value>1</value>   #DataNode数量
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/usr/local/Hadoop/hadoopdata/dfs/name</value>   #namenode位置
            </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/usr/local/Hadoop/hadoopdata/dfs/data</value>    #DataNode位置
        </property>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>192.168.1.36:50090</value>
        </property>
hdfs-site.xml

2.2.4配置yarn-site.xml

[root@hdfs hadoop]# vim /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/yarn-site.xml
在<configuration>和</configuration>之间加入的代码

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<property>
        <name>yarn.resourcemanager.address</name>
        <value>hdfs.hadoop:18040</value>
</property>
<property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>hdfs.hadoop:18030</value>
</property>
<property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>hdfs.hadoop:18025</value>
</property>
<property>
        <name>yarn.resourcemanager.admin.address</name>
        <value>hdfs.hadoop:18141</value>
</property>
<property>
        <name>yarn.resourcemanager.webapp.address</name>
        <value>hdfs.hadoop:18088</value>
</property>
yarn-site.xml

2.3.5 配置mapred-site.xml

[root@hdfs hadoop]# cp /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml.template /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml
[root@hdfs hadoop]# vim /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/mapred-site.xml
在<configuration>和</configuration>之间加入的代码

<property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
mapred-site.xml

2.3.6 配置slaves

[root@hdfs hadoop]# vim /usr/local/Hadoop/hadoop-2.10.0/etc/hadoop/slaves
将DataNode的机器IP(或机器名)写入配置文件

2.4配置Hadoop环境变量(若集群则每台都需要配置)

[root@hdfs ~]# vim .bash_profile

export    HADOOP_HOME=/usr/local/Hadoop/hadoop-2.10.0
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

[root@hdfs ~]# source .bash_profile

2.5格式化hadoopdata目录(若集群需要先将Hadoop目录拷贝到其他DataNode机器)

[root@hdfs ~]# hadoop namenode -format

2.6启动Hadoop集群

[root@hdfs ~]# start-all.sh(约5分钟)
[root@hdfs ~]# jps 验证启动结果

验证安装情况

三、将HDFS注册到GeoAnalytics Server中

3.1使用dfs命令创建arcgis数据文件夹

[root@hdfs sbin]# hdfs dfs -mkdir -p /data/arcgis

3.2将数据文件夹注册到GeoAnalytics Server

将hdfs注册到GA
验证注册结果
验证结果
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,036评论 6 506
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,046评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,411评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,622评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,661评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,521评论 1 304
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,288评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,200评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,644评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,837评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,953评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,673评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,281评论 3 329
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,889评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,011评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,119评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,901评论 2 355