首页 > TAG信息列表 > wclist
2.安装Spark与Python练习
1、检查基础环境hadoop,jdk 启动hdfs查看进程 2、下载spark(已完成,略) 3、解压,文件夹重命名、权限(已完成,略) 4、配置文件(已完成,略) 5、环境变量 6、试运行Python代码 二、Python编程练习:英文文本的词频统计 1、准备文本文件 2、读文件 path='/home/hadoop/wc/f1.2.安装spark和python练习
一、下载spark 1.检查基础环境hadoop,jdk 2.解压,文件夹重命名、权限 3.配置文件 4.环境变量 5.试运行python代码 二、Python编程练习:英文文本的词频统计 1.准备文档,在百度复制一篇英语文章 在wc.py中编写代码 path='/h2.安装Spark与Python练习
1、检查基础环境hadoop,jdk 启动hdfs查看进程 2、下载spark(省略,原来已下好Spark) 3、解压,文件夹重命名、权限(省略,原来已下好Spark) 4、配置文件 配置Spark的classPath,并加上最后一行代码 5、环境变量 6、试运行Python代2.安装Spark与Python练习
一、安装Spark 1、检查基础环境hadoop,jdk echo $JAVA_HOME java -version start-dfs.sh jps hadoop version 2、配置文件 cp ./conf/spark-env.sh.template ./conf/spark-env.sh gedit ./conf/spark-env.sh 3、环境变量 gedit ~/.bashrc 4、试运行Pytho