向Spark集群部署提交(scala版)Spark程序时需要注意这些问题

时间:2022-12-28 06:05:23 阅读: 最新文章 文档下载
说明:文章内容仅供预览,部分内容可能不全。下载后的文档,内容与下面显示的完全一致。下载之前请确认下面内容是否您想要的,是否完整无缺。
Spark集群部署提交(scala版)Spark程序时需要注意这些问题

1scala_sdk版本的一致性

IDEA中的scala_sdk的版本要和引入jar包中scala的版本保持一致性。

以下是我引入的spark-2.2.0-bin-hadoop2.7安装包中的jar包:



scala2.11.8IDEAscala_sdk时也要使用2.11.8版本,否则在提交spark集群时会报如下错误:

java.lang.BootstrapMethodError: java.lang.NoClassDefFoundError: scala/runtime/LambdaDeserialize

2hadoop版本的一致性

语言束曾脾馅为

pDFy3 CC0Qw 0pSAt

主方法火蓖凶绢旋

拉截腿贼订W9uhz 短视频怎么玩o5hB3UOPko

spark-2.2.0-bin-hadoop2.7


hadoop需要的版本为2.7.x,我安装的为hadoop-2.7.3

3Linuxscala版本的一致性。

linux中安装scala版本也最好安装成2.11.8版本的,但是在这里我安装的2.13.1,也可以正常运行,不知道以后会不会出现不兼容问题。


本文来源:https://www.wddqw.com/doc/ac4a074c660e52ea551810a6f524ccbff121ca0c.html