记录工作中遇到的GC问题以及解决方案

Posted exodus3

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了记录工作中遇到的GC问题以及解决方案相关的知识,希望对你有一定的参考价值。

问题一:多线程 new Thread()

工作中没用过多线程,第一次使用多线程,就直接使用new Thread(),一到线上环境就GG了,之后使用下面的方式解决这个问题

ThreadPoolExecutor(int corePoolSize, int maximumPoolSize, long keepAliveTime, TimeUnit unit, BlockingQueue<Runnable> workQueue, ThreadFactory threadFactory, RejectedExecutionHandler handler);

虽然很熟悉创建多线程的方式:实现Runnable接口和继承Thread类,但是这些并不适用于生产环境,最好使用线程池来实用多线程的方法。线程池可以管理线程、复用线程,减少线程频繁新建、销毁等带来的开销。频繁的new Thread就会炸了。

问题二、产生大量临时对象

对于这种情况,能复用临时对象就复用,new 大量的对象,占据了大量内存。

问题三、产生大量的log

打印大量的日志,虽然没遇到过GC的情况,但是还真遇到项目卡的情况。之前写过这篇文章,可以去看看
记录工作中遇到的坑以及解决办法

问题四、集合存数据

第一次遇到这种问题,当用map存储大量数据的时候,会导致GC异常。Map<String, Set>结构是hashset嵌套了hashset了,本地测试了1百万和1千万条数据,1百万的时候,还是扛得住,1千万条数据直接抗不住了。感兴趣的可以去试试。

@Test
public void test09() 
    long startTime = System.currentTimeMillis();
    Map<String, Set<String>> hashMap = new HashMap<>();
    for(int i = 0;i < 10000000; i++) 
        Set<String> name = new HashSet<>();
        name.add("" + i);
        hashMap.put("" + i, name);
    
    long endTime = System.currentTimeMillis();
    long spendTime = endTime - startTime;
    System.out.println(spendTime/1000);

我这里了解到hashset会开辟大量的空间,导致空间和时间浪费,当数据量上来了,其后果更加明显。
我改成Map<String, String>结构,存储1千万条数据,还是扛得住,当然,本地配置高,到了线上环境就不一定了。

以上是关于记录工作中遇到的GC问题以及解决方案的主要内容,如果未能解决你的问题,请参考以下文章

记录工作中遇到的GC问题以及解决方案

实际工作中遇到关于Struts2线程安全的问题解决

记录工作中遇到的坑以及解决办法

Java内存以及GC

生产环境遇到的hashMap非线程安全问题java.lang.thread.waiting

Java GC工作原理以及Minor GCMajor GCFull GC简单总结