博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
hadoop2.7+Spark1.4环境搭建
阅读量:6458 次
发布时间:2019-06-23

本文共 2825 字,大约阅读时间需要 9 分钟。

hot3.png

一、hadoop伪分布式搭建

    其实官网有比较详实的说明,英语好的可以直接看官网,

    1、安装JDK1.7

        这个省略,官网显示1.6可以,但是我用openjdk1.6出了异常,JDK1.6没试,直接用了JDK1.7

        配置好环境变量

    

vi /etc/profile
export JAVA_HOME=/usr/local/jdk1.7.0_79export CLASSPATH=.:$JAVE_HOME/lib.tools.jarexport PATH=$PATH:$JAVA_HOME/bin

   添加完后执行命令使配置生效

source /etc/profile
    2、安装ssh、rsync,(以ubuntu为例)
  $ sudo apt-get install ssh  $ sudo apt-get install rsync
    3、下载hadoop编译包,(国内镜像竟然比US的还慢,不能忍,注意2.7的编译包为64位)

    查是32还是64位的办法

cd hadoop-2.7.0/lib/nativefile libhadoop.so.1.0.0
hadoop-2.7.0/lib/native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, AMD x86-64, version 1 (SYSV), not stripped
    4、配置环境变量

    hadoop配置文件指定java路径

    etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/local/jdk1.7.0_79

  系统环境变量

export HADOOP_HOME=/usr/local/hadoop-2.7.0export PATH=$PATH:$HADOOP_HOME/binexport HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/nativeexport HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

  后两条不加会出现

You have loaded library /usr/hadoop/hadoop-2.7.0/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now.

It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'.

  添加完后执行命令使配置生效

source /etc/profile

  执行命令查看是否成功

hadoop version
    5、修改hadoop配置文件 

     etc/hadoop/core-site.xml:

    
        
fs.defaultFS
        
hdfs://localhost:9000
    

     etc/hadoop/hdfs-site.xml:

    
        
dfs.replication
        
1
    
     6、设置hadoop ssh无密码访问
  $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  $ export HADOOP\_PREFIX=/usr/local/hadoop-2.7.0
    7、格式化节点和启动hadoop
$ bin/hdfs namenode -format$ sbin/start-dfs.sh

    打开浏览器 http://localhost:50070/看是否成功

    hdfs配置:username最好和当前用户名相同,不然会可能出现权限问题

  $ bin/hdfs dfs -mkdir /user  $ bin/hdfs dfs -mkdir /user/
     8、yarn配置

     etc/hadoop/mapred-site.xml:

    
        
mapreduce.framework.name
        
yarn
    

    etc/hadoop/yarn-site.xml:

    
        
yarn.nodemanager.aux-services
        
mapreduce_shuffle
    

    启动yarn

$ sbin/start-yarn.sh

    http://localhost:8088/查看是否成功

    至此hadoop单节点伪分布式安装配置完成

二、spark安装配置

spark的安装相对就要简单多了

1、首先下载,

155300_68iy_149945.png

因为我之前已经有hadoop了所以选择第二个下载

2、下载解压后进入目录
cd confcp spark-env.sh.template spark-env.shcp spark-defaults.conf.template spark-defaults.confvi conf/spark-env.sh

最后添加

export HADOOP_HOME=/usr/local/hadoop-2.7.0export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport SPARK_DIST_CLASSPATH=$(hadoop classpath)

最后一个需要hadoop添加了环境变量才行。

官网配置中没有前两个配置,我运行例子时总报错,找不到hdfs jar 包。

3、回到解压目录运行示例
./bin/run-example SparkPi 10

成功则到此配置完成

想运行python或者scala请参考

转载于:https://my.oschina.net/laigous/blog/478438

你可能感兴趣的文章
Markdown用法
查看>>
轮播插件swiper.js?
查看>>
网路流24题总结
查看>>
15 个 Android 通用流行框架大全
查看>>
IE8兼容@media和mp4视频的解决方案
查看>>
第二周总结
查看>>
概率图模型建模、学习、推理资料总结
查看>>
【转】知道这20个正则表达式,能让你少写1,000行代码
查看>>
自定义 启动和关闭 oracle 的命令
查看>>
Quartz
查看>>
正则表达式介绍
查看>>
初识Scala反射
查看>>
第三十九天
查看>>
Redis详解
查看>>
论程序员加班的害处
查看>>
codeblocks快捷键
查看>>
基于HTML5的WebGL设计汉诺塔3D游戏
查看>>
WPF资料链接
查看>>
过滤DataTable表中的重复数据
查看>>
prepare for travel 旅行准备
查看>>