启动 jupyter-pyspark 内核时生成损坏的文件

Posted

技术标签:

【中文标题】启动 jupyter-pyspark 内核时生成损坏的文件【英文标题】:Corrupt file getting generated when launching jupyter-pyspark kernel 【发布时间】:2019-08-19 19:09:05 【问题描述】:

我们已经在我们的两台带有 pyspark 内核的 linux hadoop 服务器上安装并设置了 jupyter notebook。两台服务器都具有相同的 kernel.jason 配置,具有相同的 spark 和 pyhton 版本。 在一台服务器上 jupyter notebook ui --> pyspark 内核工作正常,但在其他服务器上启动 pyspark 内核时,在用户主目录中生成了一个文件(名称 - ??????????),能够在打开的 pyspark 内核会话中执行查询,但是当新的 jupyternotebook ui 启动并在相应的 pyspark 内核中时,无法执行查询。我们只能在删除 ??????? 后才能执行生成并重新启动 jupyter notebook 的文件。 - 我们看到所有用户的这种行为,并且只发生在一台服务器上。有人可以帮忙解决这个问题。 版本: Python 2.7.12 星火 2.1.1

执行的步骤:

-验证 pyspark 内核配置,jupyter 运行在其他没有问题的服务器上。

-在服务器上重新启动 spark 客户端

-尝试重启服务器,但未解决问题。

【问题讨论】:

能否请一些人帮助解决这个问题,如果需要任何其他信息,请告诉我。 【参考方案1】:

看起来可能是服务器硬件的问题

【讨论】:

以上是关于启动 jupyter-pyspark 内核时生成损坏的文件的主要内容,如果未能解决你的问题,请参考以下文章

资损分布式系统并发互斥设计

资损资损防控的系统规范-收单类服务设计

第四季-专题7-Linux内核链表

linux 使用kdump和crash工具调试内核

linux 使用kdump和crash工具调试内核

线程休眠时的线程与内核