集团站切换校区

验证码已发送,请查收短信

复制成功
微信号:togogoi
添加微信好友, 详细了解课程
已复制成功,如果自动跳转微信失败,请前往微信添加好友
打开微信
图标

业界新闻

当前位置:首页 > >业界新闻 > >

怎么安装Spark

发布时间: 2022-03-09 17:16:37

怎么安装Spark?Spark支持很多版本,目前主流的是1.6.0版本,为了便于学习先下载预编译版本,访问http://spark.apache.org选择Download命令,之后进入下载界面。


在Choose a Spark release下拉列表框中选择1.6.0版本,这是最新的稳定版本。在Choose a package type下拉列表框中选择Pre-built for Hadoop 2.6 andlater选项。这里选择源代码版本或预编译版本,由于之前安装的Hadoop为2.6版本,这里选择此项,读者可以根据实际环境进行选择。


在Choose a downloadtype下拉列表框中选择Direct Download选项直接进行下载,之后单击出现的链接地址就可以下载了。下载界面如图1所示。


图1 下载界面


此外还需要下载Scala:访问http://www.scala-lang.org/download/下载最新的稳定版本,下载位置如图2所示。


图2 Scala下载位置


环境准备


由于Spark是采用Scala语言编写的,因此需要在Java虚拟机(JVM)上面运行,为了更好地兼容其他的大数据软件,这里建议至少在Java 7版本以上,如果需要进行Scala和Python的开发,需要安装Scala和Python的解释器(Python解释器安装方法请参考附录)。


首先要确保Java环境变量存在,同上一节Hadoop配置,确保/etc/bashrc存在以下代码行:



3.安装


将Scala安装到/opt目录,使用命令如下:



安装完成后,需要设置环境变量。确保以下配置在/etc/bashrc文件中存在:



安装Spark命令如下:



将Spark安装目录设置为环境变量加入/etc/bashrc文件,命令如下:


上一篇: 分布式列存储框架

下一篇: Spark框架

在线咨询 ×

您好,请问有什么可以帮您?我们将竭诚提供最优质服务!