spark集群安装教程:http://blog.csdn.net/zengmingen/article/details/72123717
启动spark shell.
在spark安装目录bin文件夹下
./spark-shell --master spark://nbdo1:7077 --executor-memory 2g --total-executor-cores 2
参数说明:
--master spark://nbdo1:7077 指定Master的地址
--executor-memory 2g 指定每个worker可用内存为2G
--total-executor-cores 2 指定整个集群使用的cpu核数为2个
注意:
如果启动spark shell时没有指定master地址,但是也可以正常启动spark shell和执行spark shell中的程序,其实是启动了spark的local模式,该模式仅在本机启动一个进程,没有与集群建立联系。
不指定 --executor-memory使用每台worker内存总数-1GB的内存(如总的8gb,预留1gb给操作系统,使用7gb)。不指定--total-executor-cores使用整个集群的cpu数。
scala> [hadoop@nbdo1 bin]$ ./spark-shell --master spark://nbdo1:7077
Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
17/05/15 16:31:18 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
17/05/15 16:31:24 WARN ObjectStore: Failed to get database global_temp, returning NoSuchObjectException
Spark context Web UI available at http://192.168.18.146:4040
Spark context available as 'sc' (master = spark://nbdo1:7077, app id = app-20170515163119-0001).
Spark session available as 'spark'.
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.1.1
/_/
Using Scala version 2.11.8 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_73)
Type in expressions to have them evaluated.
Type :help for more information.
scala> 可以在这里直接运行scala代码
-------------
更多的Java,Android,大数据,J2EE,Python,数据库,Linux,Java架构师,教程,视频请访问:
http://www.cnblogs.com/zengmiaogen/p/7083694.html