SparkSubmit进程无法强制kill掉以及Flink相关error

news/2024/10/7 17:23:16 标签: flink, scala, spark, 大数据

SparkSubmit进程无法强制kill掉


文章目录

  • SparkSubmit进程无法强制kill掉
    • 0. 写在前面
    • 1. 正文
    • 2. Flink配合Kafka使用问题的记录


0. 写在前面

  • 操作系统:Linux(CentOS7.5)
  • Spark版本:Spark3.0.0
  • Scala版本:Scala2.12.1
  • Flink版本:Flink-1.13.1

本文出现「SparkSubmit进程无法强制kill掉」这种情况是在使用Spark-Shell环境下执行MLib的相关程序后导致的

1. 正文

注意:SparkSubmit进程无法强制kill掉,即使是 kill -9 多次不成功!

!  [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XT5MAlY9-1682151015895)(assets/01.png)]

  • 新会话窗口执行kill强制命令

尝试新开一个会话窗口,在新的会话窗口强制进行 kill ,依旧是不能强制杀掉这个SparkSubmit进程

  • 查看SparkSubmit对应进程号的父进程是否存在,如果存在,直接杀掉其对应的父进程。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tp8ybwXu-1682151015896)(assets/02.png)]

该方法查询不到对应的父进程,请换用下方的另一种方法 > 查看这个SparkSubmit进程的父进程有哪些,命令如下方图所示:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vUBCp2GB-1682151015896)(assets/03.png)]

查询到的完整信息如下代码块所示:

[whybigdata@bd01 ~]$ cat /proc/2116/status 
Name:	java 
State:	Z (zombie) 
Tgid:	2116 
Ngid:	0 
Pid:	2116 
PPid:	2105 TracerPid:	0 
Uid:	1000	1000	1000	1000 
Gid:	1000	1000	1000	1000 
FDSize:	0 Groups:	10 1000  
Threads:	1 
SigQ:	2/7804 
SigPnd:	0000000000000000
ShdPnd:	0000000000000100 
SigBlk:	0000000000000000 
SigIgn:	0000000000000000 
SigCgt:	2000000181005ccf 
CapInh:	0000000000000000 
CapPrm:	0000000000000000 
CapEff:	0000000000000000 
CapBnd:	0000001fffffffff 
CapAmb:	0000000000000000 
Seccomp:	0 
Cpus_allowed: ffffffff,ffffffff,ffffffff,ffffffff 
Cpus_allowed_list: 0-127 
Mems_allowed: 00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000000,00000001 
Mems_allowed_list:	0 
voluntary_ctxt_switches:	6 
nonvoluntary_ctxt_switches:	5
  • 解释说明:
  • Pid: 2116 --> 表示当前进程
  • PPid: 2105 --> 表示当前进程对应的父进程
  • 获取到SparkSubmit进程对应的父进程号后,首先强制杀掉父进程,再次查看进程是否kill成功,命令如下方所示

shell kill -9 sub_pid

![外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-H8TwVswC-1682151015897)(assets/04.png)]

可以看到我们以及成功kill掉了SparkSubmit进程了 - 重新回到旧的会话窗口,可以观察到如下图所示的进程情况:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qlcG3AK4-1682151015898)(assets/05.png)]

2. Flink配合Kafka使用问题的记录

Flink通过Kafka读取数据进行分组统计求最大值,并设置了窗口的大小,将Kafka生产端Input主题的数据消费到Output主题中

Caused by: java.lang.ClassCastException: cannot assign instance of org.apache.commons.collections.map.LinkedMap to field org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerBase.pendingOffsetsToCommit of type org.apache.commons.collections.map.LinkedMap in instance of org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer 	 	
   	at java.io.ObjectStreamClass$FieldReflector.setObjFieldValues(ObjectStreamClass.java:2287) 	 	
   	at java.io.ObjectStreamClass.setObjFieldValues(ObjectStreamClass.java:1417) 	 	
   	at java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:2293)
	 	at java.io.ObjectInputStream.readSerialData(ObjectInputStream.java:2211) 
    	at java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:2069) 
    	at java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1573) 
    	at java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:2287) 
    	at java.io.ObjectInputStream.readSerialData(ObjectInputStream.java:2211) 
    	at java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:2069) 
    	at java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1573) 	 	
    	at java.io.ObjectInputStream.defaultReadFields(ObjectInputStream.java:2287) 	 	
    	at java.io.ObjectInputStream.readSerialData(ObjectInputStream.java:2211) 	 	
    	at java.io.ObjectInputStream.readOrdinaryObject(ObjectInputStream.java:2069) 	 	
    	at java.io.ObjectInputStream.readObject0(ObjectInputStream.java:1573) 	 	
    	at java.io.ObjectInputStream.readObject(ObjectInputStream.java:431) 	 	
    	at org.apache.flink.util.InstantiationUtil.deserializeObject(InstantiationUtil.java:615)  	
    	at org.apache.flink.util.InstantiationUtil.deserializeObject(InstantiationUtil.java:600)  	
    	at org.apache.flink.util.InstantiationUtil.deserializeObject(InstantiationUtil.java:587)  	
    	at org.apache.flink.util.InstantiationUtil.readObjectFromConfig(InstantiationUtil.java:541)  	
    	at org.apache.flink.streaming.api.graph.StreamConfig.getStreamOperatorFactory(StreamConfig.java:322)  	
    	... 7 more

Caused by: java.lang.ClassCastException: cannot assign instance of org.apache.commons.collections.map.LinkedMap to field org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumerBase.pendingOffsetsToCommit of type org.apache.commons.collections.map.LinkedMap in instance of org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer >
出现错误的原因是:Kafka库与Flink的反向类加载方法不兼容,修改 Flink安装目录下的 conf/flink-conf.yaml 并重新启动Flink > classloader.resolve-order: parent-first

注意,在Flink中执行 bin/flink run --class class_refrence your.jar命令前要将Jar包所需要的依赖放进到 Flink安装目录下的 lib 目录中。

全文结束!!!


http://www.niftyadmin.cn/n/5693115.html

相关文章

useradd命令:添加Linux新用户

一、命令简介 ​useradd​ 命令用于在 Linux 系统中创建新用户账号。 ‍ 二、命令参数 useradd [选项] 用户名一些常用的选项包括: -c, --comment "Comment" : 为用户账号添加注释信息。-m, --create-home: 创建用户的家目录。-s, --shell /path/to/…

31 基于51单片机的水位监测系统仿真

目录 一、主要功能 二、硬件资源 三、程序编程 四、实现现象 一、主要功能 基于51单片机,DHT11温湿度检测,水位检测,通过LCD1602显示,超过阈值报警,继电器驱动电机转动。通过矩阵按键切换选择设置各项参数阈值。 …

whereis命令:查找命令的路径

一、命令简介 ​whereis​ 命令用于查找命令的:可执行文件、帮助文件和源代码文件。 例如 $ whereis ls ls: /usr/bin/ls /usr/share/man/man1/ls.1.gz找到了 ls 命令的可执行文件、帮助文件的位置。 ‍ 二、命令参数 命令格式 whereis [选项] [命令名称]选项…

D29【python 接口自动化学习】- python基础之输入输出与文件操作

day29 格式化输出 学习日期:20241006 学习目标:输入输出与文件操作﹣-41 格式化输出:如何将执行结果通过屏幕输出? 学习笔记: 三种常用的格式化输出方式 百分号方式 format函数方式 总结 1. 格式化输出…

汽车发动机系统EMS详细解析

汽车发动机系统EMS,全称Engine-Management-System(发动机管理系统),是现代汽车电子控制技术的重要组成部分。以下是对汽车发动机系统EMS的详细解析,涵盖其定义、工作原理、主要组成、功能特点、技术发展以及市场应用等…

数据采集工具sqoop介绍

文章目录 什么是sqoop?一、Sqoop的起源与发展二、Sqoop的主要功能三、Sqoop的工作原理四、Sqoop的使用场景五、Sqoop的优势六、Sqoop的安装与配置 sqoop命令行一、Sqoop简介与架构二、Sqoop特点三、Sqoop常用命令及参数四、使用示例五、注意事项 什么是sqoop? Sqoop是一款开…

【电力系统】基于MATLAB的储能辅助电力系统调峰的容量需求研究

摘要 本研究基于MATLAB仿真平台,探讨了储能系统在电力系统中辅助调峰的容量需求问题。通过对风电、微型燃气机等分布式能源的实际出力曲线与理论输出进行比较分析,我们探讨了在不同负荷条件下储能系统的调峰能力。实验结果表明,储能系统的合…

踩坑spring cloud gateway /actuator/gateway/refresh不生效

版本 java version: 17 spring boot: 3.2.x spring cloud: 2023.0.3 现象 参考Spring Cloud Gateway -> Actuator API -> Refreshing the Route Cache 说明,先修改routes配置再调用/actuator/gateway/refresh,接口返回200 status,但…