栏目分类:
子分类:
返回
名师互学网用户登录
快速导航关闭
当前搜索
当前分类
子分类
实用工具
热门搜索
名师互学网 > IT > 面试经验 > 面试问答

如何使用Docker在Spark容器中运行Scala代码?

面试问答 更新时间: 发布时间: IT归档 最新发布 模块sitemap 名妆网 法律咨询 聚返吧 英语巴士网 伯小乐 网商动力

如何使用Docker在Spark容器中运行Scala代码?

根据下面的错误消息

:: org.mongodb.spark#mongo-spark-connector_2.11;2.2.0: not found

它指示该软件包丢失。检查当前可用的MongoDB Connector for Spark软件包,确认该软件包不再可用(已替换v2.2.6修补程序)。

您可以在sindbach / mongodb-spark-docker上查看带有Docker的MongoDB Spark连接器的更新示例。

附加信息: spark-shell是REPL(读取-评估-
打印循环)工具。它是程序员用于与框架进行交互的交互式外壳。您无需显式执行即可

build
执行。当您指定它的
--packages
参数时
spark-shell
,它将自动获取程序包并将其包含在您的Shell环境中。



转载请注明:文章转载自 www.mshxw.com
本文地址:https://www.mshxw.com/it/435845.html
我们一直用心在做
关于我们 文章归档 网站地图 联系我们

版权所有 (c)2021-2022 MSHXW.COM

ICP备案号:晋ICP备2021003244-6号