Mono源码阅读-GC造成内存泄露问题

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Mono源码阅读-GC造成内存泄露问题相关的知识,希望对你有一定的参考价值。

参考技术A 本文主要记录Mono源码中会因为GC的问题,造成Unity游戏不可避免的都会存在一定得内存泄露问题的底层原因,涉及到Mono源码中GC机制的逻辑。

要出现这种内存泄露,必须先准备一块任意的内存块:(无任何外部引用,理论上应该会在用完后被GC,但在该BUG下会错误的泄露,不被GC掉)

NOTE:大小任意,越大越容易被泄露。

一块struct结构的数组:(struct内必须有一个类似指针的值类型, 如int,和另一个引用类型,如string)

NOTE:大小任意,数组内的元素越多越容易触发泄露。例如 HashSet<String> 内部使用了该数据格式。

通过在GC中打点,和使用GDB调用GC过程,以便观察所有对象的分配和GC的过程发现:buffer对象错误的被slots对象引用,导致buffer对象无法被正常GC,造成内存泄露。

首先对于mono/il2cpp的Boehm GC库而言, mono/il2cpp的对象在分配内存的时候,会有几种类型:

而在本例中:slots的分配是用NORMAL类型,buffer对象的分配是用PTRFREE类型。

因此在做GC的时候,对于slots对象,GC会扫描该对象的内存区间,查找其内部的指针地址,即从0xde45f000到0xde468c50地址按照指针对齐的方式查找指针地址:
例如:0xde45f000 0xde464d44 0xde464f40 0xde46513c ....
其中出现了 0xde464f40 这个地址的值刚好为:0xbe82f000(即Slot结构体内hashCode的值),而GC会错误的将该int型数值当做指针,而该指针刚好又指向了一块GC托管的内存块,即buffer对象,因此GC认为该buffer对象被slots对象内部引用了,buffer对象也被GC标记,不会被释放。

该问题的关键在于,GC将slot结构体内的hashcode这个int值错误的当做的指针,而该int值刚好又指向了另一个托管的对象,因此GC错认为了两个对象存在引用关系,而造成内存泄露。

最小化Demo:

将struct Slot修改为class Slot,则可修复内存泄露问题,因为class对象的内存分配时TYPED类型。

因为Mono的GC的设计问题,Unity游戏中几乎不可避免的都会随着时间出现内存泄露问题,因为例如HashSet这种数据结构内部都会出现该问题。但我们可以做的事情,依然是内存使用的两大真理(特别是虚拟机类型的语言):

这样做,不能完全避免Mono的底层GC问题,但是它可以让这种内存泄露的变得更加平缓。

面试官:Kafka 如何优化内存缓冲机制造成的频繁 GC 问题?

面试官:Kafka 如何优化内存缓冲机制造成的频繁 GC 问题?

扫描下方海报二维码,试听课程:


面试官:Kafka 如何优化内存缓冲机制造成的频繁 GC 问题?



目录

1、Kafka的客户端缓冲机制

2、内存缓冲造成的频繁GC问题

3、Kafka设计者实现的缓冲池机制

4、总结一下

“ 这篇文章,给大家聊一个硬核的技术知识,我们通过Kafka内核源码中的一些设计思想,来看你设计Kafka架构的技术大牛,是怎么优化JVM的GC问题的?


1、Kafka的客户端缓冲机制

首先,先得给大家明确一个事情,那就是在客户端发送消息给kafka服务器的时候,一定是有一个内存缓冲机制的。


也就是说,消息会先写入一个内存缓冲中,然后直到多条消息组成了一个Batch,才会一次网络通信把Batch发送过去。


整个过程如下图所示:

面试官:Kafka 如何优化内存缓冲机制造成的频繁 GC 问题?


2、内存缓冲造成的频繁GC问题

那么这种内存缓冲机制的本意,其实就是把多条消息组成一个Batch,一次网络请求就是一个Batch或者多个Batch。


这样每次网络请求都可以发送很多数据过去,避免了一条消息一次网络请求。从而提升了吞吐量,即单位时间内发送的数据量。


但是问题来了,大家可以思考一下,一个Batch中的数据,会取出来然后封装在底层的网络包里,通过网络发送出去到达Kafka服务器。


那么然后呢?


这个Batch里的数据都发送过去了,现在Batch里的数据应该怎么处理?


你要知道,这些Batch里的数据此时可还在客户端的JVM的内存里啊!那么此时从代码实现层面,一定会尝试避免任何变量去引用这些Batch对应的数据,然后尝试触发JVM自动回收掉这些内存垃圾。


这样不断的让JVM回收垃圾,就可以不断的清理掉已经发送成功的Batch了,然后就可以不断的腾出来新的内存空间让后面新的数据来使用。


这种想法很好,但是实际线上运行的时候一定会有问题,最大的问题,就是JVM GC问题。


大家都知道一点,JVM GC在回收内存垃圾的时候,他会有一个“Stop the World”的过程,也就是垃圾回收线程运行的时候,会导致其他工作线程短暂的停顿,这样可以便于他自己安安静静的回收内存垃圾。


这个也很容易想明白,毕竟你要是在回收内存垃圾的时候,你的工作线程还在不断的往内存里写数据,制造更多的内存垃圾,那你让人家JVM怎么回收垃圾?


这就好比在大马路上,如果地上有很多垃圾,现在要把垃圾都扫干净,最好的办法是什么?大家都让开,把马路空出来,然后清洁工就是把垃圾清理干净。


但是如果清洁工在清扫垃圾的时候,结果一帮人在旁边不停的嗑瓜子扔瓜子壳,吃西瓜扔西瓜皮,不停的制造垃圾,你觉得清洁工内心啥感受?当然是很愤慨了,照这么搞,地上的垃圾永远的都搞不干净了!


通过了上面的语言描述,我们再来一张图,大家看看就更加清楚了


面试官:Kafka 如何优化内存缓冲机制造成的频繁 GC 问题?


现在JVM GC是越来越先进,从CMS垃圾回收器到G1垃圾回收器,核心的目标之一就是不断的缩减垃圾回收的时候,导致其他工作线程停顿的时间。


所以现在越是新款的垃圾回收器导致工作线程停顿的时间越短,但是再怎么短,他也还是存在啊!


所以说,如何尽可能在自己的设计上避免JVM频繁的GC就是一个非常考验水平的事儿了。



3、Kafka设计者实现的缓冲池机制

在Kafka客户端内部,对这个问题实现了一个非常优秀的机制,就是缓冲池的机制


简单来说,就是每个Batch底层都对应一块内存空间,这个内存空间就是专门用来存放写入进去的消息的。


然后呢,当一个Batch被发送到了kafka服务器,这个Batch的数据不再需要了,就意味着这个Batch的内存空间不再使用了。


此时这个Batch底层的内存空间不要交给JVM去垃圾回收,而是把这块内存空间给放入一个缓冲池里。


这个缓冲池里放了很多块内存空间,下次如果你又有一个新的Batch了,那么不就可以直接从这个缓冲池里获取一块内存空间就ok了?


然后如果一个Batch发送出去了之后,再把内存空间给人家还回来不就好了?以此类推,循环往复。


同样,听完了上面的文字描述,再来一张图,看完这张图相信大伙儿就明白了:


面试官:Kafka 如何优化内存缓冲机制造成的频繁 GC 问题?

一旦使用了这个缓冲池机制之后,就不涉及到频繁的大量内存的GC问题了。


为什么呢?因为他可以上来就占用固定的内存,比如32MB。然后把32MB划分为N多个内存块,比如说一个内存块是16KB,这样的话这个缓冲池里就会有很多的内存块。


然后你需要创建一个新的Batch,就从缓冲池里取一个16KB的内存块就可以了,然后这个Batch就不断的写入消息,但是最多就是写16KB,因为Batch底层的内存块就16KB。


接着如果Batch被发送到Kafka服务器了,此时Batch底层的内存块就直接还回缓冲池就可以了。


下次别人再要构建一个Batch的时候,再次使用缓冲池里的内存块就好了。这样就可以利用有限的内存,对他不停的反复重复的利用。因为如果你的Batch使用完了以后是把内存块还回到缓冲池中去,那么就不涉及到垃圾回收了。


如果没有频繁的垃圾回收,自然就避免了频繁导致的工作线程的停顿了,JVM GC问题是不是就得到了大幅度的优化?


没错,正是这个设计思想让Kafka客户端的性能和吞吐量都非常的高,这里蕴含了大量的优秀的机制。


那么此时有人说了,如果我现在把一个缓冲池里的内存资源都占满了,现在缓冲池里暂时没有内存块了,怎么办呢?


很简单,阻塞你的写入操作,不让你继续写入消息了。把你给阻塞住,不停的等待,直到有内存块释放出来,然后再继续让你写入消息。



4、总结一下

这篇文章我们从Kafka内存缓冲机制的设计思路开始,一直分析到了JVM GC问题的产生原因以及恶劣的影响。


接着谈到了Kafka优秀的缓冲池机制的设计思想以及他是如何解决这个问题的,分析了很多Kafka作者在设计的时候展现出的优秀的技术设计思想和能力。


希望大家多吸取这里的精华,在以后面试或者工作的时候,可以把这些优秀的思想纳为己用。


END

如有收获,请划至底部,点击“在看”,谢



BAT架构经验倾囊相授


以上是关于Mono源码阅读-GC造成内存泄露问题的主要内容,如果未能解决你的问题,请参考以下文章

优秀的程序员更重视阅读源码,不看源码那是假的

JDK 源码阅读 Reference

Go源码阅读——mstats.go

Go源码阅读——mstats.go

JDK 源码阅读 Reference

java使用局部线程池为什么会造成线程泄露