博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
ubuntu 14.04下spark简易安装
阅读量:4336 次
发布时间:2019-06-07

本文共 839 字,大约阅读时间需要 2 分钟。

java安装

首先需要上oracle的网站下载

在lib目录下建立一个jvm文件夹

 
  1. sudo mkdir /usr/lib/jvm

然后解压文件到这个文件夹

 
  1. sudo tar zxvf jdk-8u40-linux-i586.tar.gz -C /usr/lib/jvm

进入解压文件夹

 
  1. cd /usr/lib/jvm

然后为了方便改个名字

sudo mv jdk1.8.0_40 java

打开配置文件

 
  1. sudo gedit ~/.bashrc

加入以下设置

 
  1. export JAVA_HOME=/usr/lib/jvm/java
  2. export JRE_HOME=${
    JAVA_HOME}/jre  
  3.     export CLASSPATH=.:${
    JAVA_HOME}/lib:${
    JRE_HOME}/lib  
  4.     export PATH=${
    JAVA_HOME}/bin:$PATH

使之生效:

 
  1. source ~/.bashrc

完成

安装spark

下载prebuild的spark安装包

解压

 
  1. tar -xzf spark-1.2.0-bin-hadoop2.4.tgz

然后其实这个时候spark的python模式就可以使用了。只要cd进去运行bin目录下的pyspark就可以了。但是我们下面要做的就是链接和选择一个好些的位置存放文件

链接

先把文件岁半换个地方放

 
  1. sudo mv spark-1.2.1-bin-hadoop2.4 /srv/

然后设个链接

 
  1. sudo ln -s /srv/spark-1.2.1-bin-hadoop2.4/ /srv/spark

再修改下~/.bash_profile就可以了

 
  1. export SPARK_HOME=/srv/spark
  2. export PATH=$SPARK_HOME/bin:$PATH

完成

命令行直接执行pyspark

转载于:https://www.cnblogs.com/MrLJC/p/4355417.html

你可能感兴趣的文章
NSString的长度比较方法(一)
查看>>
Azure云服务托管恶意软件
查看>>
My安卓知识6--关于把项目从androidstudio工程转成eclipse工程并导成jar包
查看>>
旧的起点(开园说明)
查看>>
生产订单“生产线别”带入生产入库单
查看>>
crontab导致磁盘空间满问题的解决
查看>>
java基础 第十一章(多态、抽象类、接口、包装类、String)
查看>>
Hadoop 服务器配置的副本数量 管不了客户端
查看>>
欧建新之死
查看>>
自定义滚动条
查看>>
APP开发手记01(app与web的困惑)
查看>>
笛卡尔遗传规划Cartesian Genetic Programming (CGP)简单理解(1)
查看>>
mysql 日期时间运算函数(转)
查看>>
初识前端作业1
查看>>
ffmpeg格式转换命令
查看>>
万方数据知识平台 TFHpple +Xpath解析
查看>>
Hive实现oracle的Minus函数
查看>>
秒杀多线程第四篇 一个经典的多线程同步问题
查看>>
RocketMQ配置
查看>>
蚂蚁金服井贤栋:用技术联手金融机构,形成服务小微的生态合力
查看>>