tongchenkeji 发表于:2023-3-28 20:23:480次点击 已关注取消关注 关注 私信 maxcompute想看spark ui界面,需要设置什么参数[阿里云MaxCompute] 暂停朗读为您朗读 maxcompute想看spark ui界面,需要设置什么参数 「点点赞赏,手留余香」 赞赏 还没有人赞赏,快来当第一个赞赏的人吧! 海报 MaxCompute# MaxCompute2748# Spark97# 云原生大数据计算服务 MaxCompute3255# 分布式计算2827
DYMMMAM 2023-11-27 18:33:58 1 打印的日志里,有log view链接,链接的Summary里有SparkUI,一般刚刚执行完的任务需要渲染大概10-20分钟再打开整理自钉群“MaxCompute开发者社区2群”
凌云CloudAM 2023-11-27 18:33:58 2 MaxCompute Spark是阿里云通过Spark on MaxCompute的解决方案,让原生Spark能够在MaxCompute中运行。 在IDEA中运行Local模式时,需要手动在代码中指定相关配置。配置示例如下: appName:Spark 应用程序的名称,将在 Spark UI 中显示。 spark.master:要连接到的 Spark 主节点的 URL。在这种情况下,我们使用 “local[*]” 以使用所有可用的核心在本地运行 Spark。 spark.ui.showConsoleProgress:是否在控制台中显示进度更新。将其设置为 “true” 以在控制台中查看进度更新。 spark.ui.proxyBase:Spark UI 反向代理的基本 URL。 spark.ui.port:Spark UI 的端口号。在这个例子中,我们将端口号设置为 4040,这是 Spark 用于 UI 的默认端口号。
叶秋学长AM 2023-11-27 18:33:58 3 要查看MaxCompute中运行的Spark作业的UI界面,需要在提交Spark作业时设置相应的参数。 在阿里云官方文档[3]中提到,可以通过在提交Spark作业时加入–spark.eventLog.enabled=true和–spark.eventLog.dir=<指定目录>参数,来开启Spark的事件日志功能,将事件日志保存在指定目录下。同时,在Spark作业提交后,可以通过MaxCompute控制台或CLI命令来查看作业的事件日志。 另外,阿里云官方博客[9]中也提到,在使用MaxCompute Spark客户端进行开发时,可以通过在代码中添加以下配置来启用Spark UI界面: scala Copy code val sparkConf = new SparkConf() .setAppName(“test”) .set(“spark.ui.proxyBase”, “”) .set(“spark.driver.extraJavaOptions”, “-Dhttp.proxyHost=web-proxy -Dhttp.proxyPort=8080 -Dhttps.proxyHost=web-proxy -Dhttps.proxyPort=8080”) val sc = new SparkContext(sparkConf) 其中,spark.ui.proxyBase设置为空字符串,spark.driver.extraJavaOptions则是用于设置代理的参数。 总之,要查看MaxCompute中运行的Spark作业的UI界面,需要在提交Spark作业时设置相应的参数,或者在代码中添加配置。
打印的日志里,有log view链接,链接的Summary里有SparkUI,一般刚刚执行完的任务需要渲染大概10-20分钟再打开整理自钉群“MaxCompute开发者社区2群”
MaxCompute Spark是阿里云通过Spark on MaxCompute的解决方案,让原生Spark能够在MaxCompute中运行。
在IDEA中运行Local模式时,需要手动在代码中指定相关配置。配置示例如下:
appName:Spark 应用程序的名称,将在 Spark UI 中显示。
spark.master:要连接到的 Spark 主节点的 URL。在这种情况下,我们使用 “local[*]” 以使用所有可用的核心在本地运行 Spark。
spark.ui.showConsoleProgress:是否在控制台中显示进度更新。将其设置为 “true” 以在控制台中查看进度更新。
spark.ui.proxyBase:Spark UI 反向代理的基本 URL。
spark.ui.port:Spark UI 的端口号。在这个例子中,我们将端口号设置为 4040,这是 Spark 用于 UI 的默认端口号。
要查看MaxCompute中运行的Spark作业的UI界面,需要在提交Spark作业时设置相应的参数。
在阿里云官方文档[3]中提到,可以通过在提交Spark作业时加入–spark.eventLog.enabled=true和–spark.eventLog.dir=<指定目录>参数,来开启Spark的事件日志功能,将事件日志保存在指定目录下。同时,在Spark作业提交后,可以通过MaxCompute控制台或CLI命令来查看作业的事件日志。
另外,阿里云官方博客[9]中也提到,在使用MaxCompute Spark客户端进行开发时,可以通过在代码中添加以下配置来启用Spark UI界面:
scala Copy code val sparkConf = new SparkConf() .setAppName(“test”) .set(“spark.ui.proxyBase”, “”) .set(“spark.driver.extraJavaOptions”, “-Dhttp.proxyHost=web-proxy -Dhttp.proxyPort=8080 -Dhttps.proxyHost=web-proxy -Dhttps.proxyPort=8080”) val sc = new SparkContext(sparkConf) 其中,spark.ui.proxyBase设置为空字符串,spark.driver.extraJavaOptions则是用于设置代理的参数。
总之,要查看MaxCompute中运行的Spark作业的UI界面,需要在提交Spark作业时设置相应的参数,或者在代码中添加配置。