首页 > 其他分享> > scala加载spark MLlib等所有相关jar的问题 scala加载spark MLlib等所有相关jar的问题 2019-06-04 16:00:56 作者:互联网 1、找到spark安装目录 E:\spackLearn\spark-2.3.3-bin-hadoop2.7\jars 里面放的是spark的所有依赖jar包 2、从idea里面javalib导入即可调用里面的function 标签:function,里面,scala,jar,MLlib,idea,2.3,spark 来源: https://www.cnblogs.com/wuzaipei/p/10974018.html