当前位置: 首页 > news >正文

wordpress正文无锡seo优化公司

wordpress正文,无锡seo优化公司,做图软件ps下载网站有哪些,做国外lead应该做什么网站目录 1. 环境准备 1.1 安装要求 1.2 检查Python和Java环境 2. 下载并解压Spark 2.1 下载Spark 2.2 解压安装包 3. 配置环境变量 4. 配置Spark 5. 启动Spark Shell 6. 运行测试 7. 关闭Spark Shell 8. 常见问题 8.1 兼容性问题 8.2 环境变量配置 总结 1. 环境准备…

目录

        1. 环境准备

1.1 安装要求

1.2 检查Python和Java环境

2. 下载并解压Spark

2.1 下载Spark

2.2 解压安装包

3. 配置环境变量

4. 配置Spark

5. 启动Spark Shell

6. 运行测试

7. 关闭Spark Shell

8. 常见问题

8.1 兼容性问题

8.2 环境变量配置

总结


1. 环境准备

1.1 安装要求

  • 操作系统:Linux(推荐)、Windows或MacOS
  • Python:Python 3.6或以上
  • Java环境:JDK 1.8或以上

1.2 检查Python和Java环境

Spark依赖于Java环境,请先确认是否已安装JDK。可通过以下命令检查:

java -version
python3 --version

若未安装,请根据系统选择安装JDK 8以上的版本。安装完成后,设置JAVA_HOME环境变量。

export JAVA_HOME=/path/to/jdk export PATH=$JAVA_HOME/bin:$PATH

通过Anaconda安装 ,因为这个软件不仅有python还有其他的功能,比单纯安装python功能要强大。

# 上传
cd /opt/modules
# 添加执行权限
chmod u+x Anaconda3-2021.05-Linux-x86_64.sh
# 执行
sh ./Anaconda3-2021.05-Linux-x86_64.sh
# 过程
#第一次:【直接回车,然后按q】Please, press ENTER to continue>>>
#第二次:【输入yes】Do you accept the license terms? [yes|no][no] >>> yes
#第三次:【输入解压路径:/opt/installs/anaconda3】[/root/anaconda3] >>> /opt/installs/anaconda3#第四次:【输入yes,是否在用户的.bashrc文件中初始化
Anaconda3的相关内容】Do you wish the installer to initialize  Anaconda3by running conda init? [yes|no][no] >>> yes

更新环境变量:

# 刷新环境变量
source /root/.bashrc
# 激活虚拟环境,如果需要关闭就使用:conda deactivate
conda activate

配置环境变量并再次刷新:

# 编辑环境变量
vi /etc/profile
# 添加以下内容
# Anaconda Home
export ANACONDA_HOME=/opt/installs/anaconda3
export PATH=$PATH:$ANACONDA_HOME/bin

创建软连接:

# 创建软连接
ln -s /opt/installs/anaconda3/bin/python3 /usr/bin/python3
# 验证
echo $ANACONDA_HOME

2. 下载并解压Spark

2.1 下载Spark

前往 Apache Spark官网 下载Spark安装包。选择预编译好的版本(如“Pre-built for Apache Hadoop 3.2 and later”),并下载 .tgz 文件。

2.2 解压安装包

使用以下命令解压下载的Spark安装包:

# 解压
cd /opt/modules
tar -zxf spark-3.1.2-bin-hadoop3.2.tgz -C  /opt/installs
# 重命名
cd /opt/installs
mv spark-3.1.2-bin-hadoop3.2 spark-local
# 创建软链接
ln -s spark-local spark

3. 配置环境变量

编辑~/.bashrc/etc/profile文件,加入以下环境变量:

export SPARK_HOME=/opt/installs/spark
export PATH=$SPARK_HOME/bin:$PATH

更新环境变量:

source /etc/profile

4. 配置Spark

单机模式安装相对简单,不需要配置Master和Worker。默认情况下,Spark会自动启用单机模式运行。您可以根据需求修改conf/spark-env.shconf/spark-defaults.conf配置文件。

5. 启动Spark Shell

Spark安装完成后,可以启动Spark Shell来测试环境:

/opt/installs/spark/bin/pyspark --master local[2]

若成功启动,将看到Spark Shell的命令行提示,表示安装成功。

6. 运行测试

在Spark Shell中可以输入以下代码进行简单测试:

map算子实现分布式转换

需求:将一个包含 1~ 10 共10个元素的列表,使用Spark实现分布式处理,将每个元素的平方输出

运行后应输出2, 4, 6, 8, 10,说明Spark单机模式安装成功。

# 定义一个列表
list1 = [1,2,3,4,5,6,7,8,9,10]
# 将列表通过SparkContext将数据转换为一个分布式集合RDD
inputRdd = sc.parallelize(list1)# 将RDD中每个分区的数据进行处理
rsRdd = inputRdd.map(lambda x : x**2)# 将结果RDD的每个元素进行输出
rsRdd.foreach(lambda x : print(x))

7. 关闭Spark Shell

在测试完成后,可以通过以下命令退出Spark Shell:

quit

8. 常见问题

8.1 兼容性问题

若出现Python和Java版本兼容性问题,可尝试降低Java或Spark版本,确保它们相互兼容。

8.2 环境变量配置

确认JAVA_HOMESPARK_HOME等环境变量正确配置,并已通过source /etc/profile生效。

总结

至此,您已经成功在单机模式下安装并运行了Spark。这种模式适合小规模数据处理和学习实验。对于更高的性能需求,建议使用集群模式。

http://www.khdw.cn/news/62733.html

相关文章:

  • 哪些网站做婚纱摄影百度应用商店下载安装
  • 广州天河区是市中心吗怎么提高seo关键词排名
  • 安康那个公司做网站好免费发广告的平台
  • 欧米伽男士手表官方网站长沙专业seo优化推荐
  • phpcms 怎么做网站成都网站seo费用
  • 新疆维吾尔自治区交通建设管理局网站成人培训班有哪些课程
  • 网站建设需要什么人才免费制作链接
  • 网页简单模板下载免费发布网站seo外链
  • 请人做网站要多手机清理优化软件排名
  • 手机做任务赚钱的网站免费b站推广网站有哪些
  • 成品网站免费网站下载2022拉人头最暴利的app
  • 河北网站建设及推广今日热榜
  • 微友说是做网站维护让帮忙投注网络营销题库案例题
  • 做诈骗网站交换链接营销的经典案例
  • 国际学院网站建设的意义万能软文模板
  • 做图片网站 侵权专业软文
  • wordpress网站更换空间网络营销工具
  • 上海网站制作策划个人微信管理系统
  • wordpress删除底部网站优化入门
  • 江苏专业网站建设公司电话网站优化排名易下拉稳定
  • 做本地化的返利网站怎么样大兴今日头条新闻
  • 做网站的开源代码百度app客服人工在线咨询
  • 专业高端网站建设杭州seo博客有哪些
  • 公司做网站怎么做谷歌浏览器中文手机版
  • 徐州做网站的公司有几家武汉全网推广
  • 广州低价网站建设淘宝权重查询入口
  • 平面设计欣赏网站推荐网站怎么制作免费的
  • 重生主角做视频网站的小说磁力狗在线引擎
  • 网站建设报价兴田德润在哪里网络舆情管控
  • 交友网站怎样做坚持