如何在 PySpark 中更新 MLLIB 版本
Posted
技术标签:
【中文标题】如何在 PySpark 中更新 MLLIB 版本【英文标题】:How to update MLLIB version in PySpark 【发布时间】:2016-03-09 11:24:50 【问题描述】:我已经安装了 Cloudera VM,因此它有带有 MLLIB 库的 PySpark,但是 ML 库 MLLIB 太旧了,我只想用最新版本的 MLLIB 升级它,已经从2.6 到 2.7,但找不到任何文档来升级 MLLIB。
谢谢
奎师那
【问题讨论】:
【参考方案1】:不同的 Spark 组件紧密相连,通常版本之间不兼容,因此您应该简单地更新完整的 Spark 发行版。 Spark Downloads page 提供了许多预构建的不同 Hadoop 版本的二进制文件。
【讨论】:
感谢您的回复,如果可能的话,请您提供我应该如何更新已完成的 Spark 发行版。 进入链接下载页面,选择需要的二进制文件,下载,解压。可选择复制现有配置。 我在这里***.com/questions/33887227/… 中添加了一些关于如何“升级” Spark 的说明以上是关于如何在 PySpark 中更新 MLLIB 版本的主要内容,如果未能解决你的问题,请参考以下文章
如何使用 pySpark 决定将 numClasses 参数传递给 SPark MLlib 中的随机森林算法