摘要:本文作者本文鏈接安裝說明在安裝之前,需要安裝集群環境,如果沒有可以查看分布式集群的搭建用到的軟件軟件版本下載地址節點安排名稱主節點子節點子節點安裝解壓到安裝目錄修改配置文件配置文件位于目錄下。
本文作者:foochane?1 安裝說明
本文鏈接:https://foochane.cn/article/2019051904.html
在安裝spark之前,需要安裝hadoop集群環境,如果沒有可以查看:Hadoop分布式集群的搭建
1.1 用到的軟件軟件 | 版本 | 下載地址 |
---|---|---|
linux | Ubuntu Server 18.04.2 LTS | https://www.ubuntu.com/downlo... |
hadoop | hadoop-2.7.1 | http://archive.apache.org/dis... |
java | jdk-8u211-linux-x64 | https://www.oracle.com/techne... |
spark | spark-2.4.3-bin-hadoop2.7 | https://www.apache.org/dyn/cl... |
scala | scala-2.12.5 | http://www.scala-lang.org/dow... |
Anaconda | Anaconda3-2019.03-Linux-x86_64.sh | https://www.anaconda.com/dist... |
名稱 | ip | hostname |
---|---|---|
主節點 | 192.168.233.200 | Master |
子節點1 | 192.168.233.201 | Slave01 |
子節點2 | 192.168.233.202 | Slave02 |
$ tar zxvf spark-2.4.3-bin-hadoop2.7.tgz -C /usr/local/bigdata/ $ cd /usr/local/bigdata/ $ mv spark-2.4.3-bin-hadoop2.7 spark-2.4.32.2 修改配置文件
配置文件位于/usr/local/bigdata/spark-2.4.3/conf目錄下。
(1) spark-env.sh將spark-env.sh.template重命名為spark-env.sh。
添加如下內容:
export SCALA_HOME=/usr/local/bigdata/scala export JAVA_HOME=/usr/local/bigdata/java/jdk1.8.0_211 export HADOOP_HOME=/usr/local/bigdata/hadoop-2.7.1 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop SPARK_MASTER_IP=Master SPARK_LOCAL_DIRS=/usr/local/bigdata/spark-2.4.3 SPARK_DRIVER_MEMORY=512M(2)slaves
將slaves.template重命名為slaves
修改為如下內容:
Slave01 Slave022.3 配置環境變量
在~/.bashrc文件中添加如下內容,并執行$ source ~/.bashrc命令使其生效
export SPARK_HOME=/usr/local/bigdata/spark-2.4.3 export PATH=$PATH:/usr/local/bigdata/spark-2.4.3/bin:/usr/local/bigdata/spark-2.4.3/sbin3 運行Spark
$ cd $HADOOP_HOME/sbin/ $ ./start-dfs.sh $ ./start-yarn.sh $ ./start-history-server.sh
$ cd $SPARK_HOME/sbin/ $ ./start-all.sh $ ./start-history-server.sh
要注意的是:其實我們已經配置的環境變量,所以執行start-dfs.sh和start-yarn.sh可以不切換到當前目錄下,但是start-all.sh、stop-all.sh和/start-history-server.sh這幾個命令hadoop目錄下和spark目錄下都同時存在,所以為了避免錯誤,最好切換到絕對路徑下。
spark啟動成功后,可以在瀏覽器中查看相關資源情況:http://192.168.233.200:8080/,這里192.168.233.200是Master節點的IP
4 配置Scala環境spark既可以使用Scala作為開發語言,也可以使用python作為開發語言。
4.1 安裝Scalaspark中已經默認帶有scala,如果沒有或者要安裝其他版本可以下載安裝包安裝,過程如下:
先下載安裝包,然后解壓
$ tar zxvf scala-2.12.5.tgz -C /usr/local/bigdata/
然后在~/.bashrc文件中添加如下內容,并執行$ source ~/.bashrc命令使其生效
export SCALA_HOME=/usr/local/bigdata/scala-2.12.5 export PATH=/usr/local/bigdata/scala-2.12.5/bin:$PATH
測試是否安裝成功,可以執行如下命令:
scala -version Scala code runner version 2.12.5 -- Copyright 2002-2018, LAMP/EPFL and Lightbe4.2 啟動Spark shell界面
執行 spark-shell --master spark://master:7077命令,啟動spark shell。
hadoop@Master:~$ spark-shell --master spark://master:7077 19/06/08 08:01:49 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Spark context Web UI available at http://Master:4040 Spark context available as "sc" (master = spark://master:7077, app id = app-20190608080221-0002). Spark session available as "spark". Welcome to ____ __ / __/__ ___ _____/ /__ _ / _ / _ `/ __/ "_/ /___/ .__/\_,_/_/ /_/\_ version 2.4.3 /_/ Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_211) Type in expressions to have them evaluated. Type :help for more information. scala>5 配置python環境 5.1 安裝python
系統已經默認安裝了python,但是為了方便開發,推薦可以直接安裝Anaconda,這里下載的是安裝包是Anaconda3-2019.03-Linux-x86_64.sh,安裝過程也很簡單,直接執行$ bash Anaconda3-2019.03-Linux-x86_64.sh即可。
5.2 啟動PySpark的客戶端執行命令:$ pyspark --master spark://master:7077
具體如下:
hadoop@Master:~$ pyspark --master spark://master:7077 Python 3.6.3 |Anaconda, Inc.| (default, Oct 13 2017, 12:02:49) [GCC 7.2.0] on linux Type "help", "copyright", "credits" or "license" for more information. 19/06/08 08:12:50 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Welcome to ____ __ / __/__ ___ _____/ /__ _ / _ / _ `/ __/ "_/ /__ / .__/\_,_/_/ /_/\_ version 2.4.3 /_/ Using Python version 3.6.3 (default, Oct 13 2017 12:02:49) SparkSession available as "spark". >>> >>>
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/36033.html
摘要:項目地址前言大數據技術棧思維導圖大數據常用軟件安裝指南一分布式文件存儲系統分布式計算框架集群資源管理器單機偽集群環境搭建集群環境搭建常用命令的使用基于搭建高可用集群二簡介及核心概念環境下的安裝部署和命令行的基本使用常用操作分區表和分桶表視圖 項目GitHub地址:https://github.com/heibaiying... 前 言 大數據技術棧思維導圖 大數據常用軟件安裝指...
閱讀 3735·2021-11-24 09:39
閱讀 2616·2019-08-30 15:54
閱讀 1158·2019-08-30 13:01
閱讀 3435·2019-08-28 18:30
閱讀 1629·2019-08-26 17:44
閱讀 3597·2019-08-26 11:31
閱讀 2421·2019-08-26 10:40
閱讀 1249·2019-08-26 10:27