为什么编程时间从1970年1月1日開始?

Posted yangykaifa

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了为什么编程时间从1970年1月1日開始?相关的知识,希望对你有一定的参考价值。

查看原文:http://www.ibloger.net/article/136.html

最初计算机操作系统是32位,而时间也是用32位表示。
System.out.println(Integer.MAX_VALUE);
2147483647
Integer在JAVA内用32位表示,因此32位能表示的最大值是2147483647。

另外1年365天的总秒数是31536000,
2147483647/31536000 = 68.1
也就是说32位能表示的最长时间是68年。而实际上到2038年01月19日03时14分07秒,便会到达最大时间,过了这个时间点。全部32位操作系统时间便会变为
10000000 00000000 00000000 00000000
也就是1901年12月13日20时45分52秒。这样便会出现时间回归的现象,非常多软件便会执行异常了。

由于用32位来表示时间的最大间隔是68年。而最早出现的UNIX操作系统考虑到计算机产生的年代和应用的时限综合取了1970年1月1日作为UNIX TIME的纪元时间(開始时间),而java自然也遵循了这一约束。

至于时间回归的现象相信随着64为操作系统的产生逐渐得到解决。由于用64位操作系统能够表示到292,277,026,596年12月4日15时30分08秒。相信我们的N代子孙。哪怕地球毁灭那天都不用愁不够用了,由于这个时间已经是千亿年以后了。

 1969年8月。贝尔实验室的程序猿肯汤普逊利用妻儿离开一个月的机会。開始着手创造一个全新的革命性的操作系统,他使用B编译语言在老旧的PDP-7机器上开发出了Unix的一个版本号。随后,汤普逊和同事丹尼斯里奇改进了B语言。开发出了C语言。重写了UNIX,新版于1971年公布。

  那时的计算机操作系统是32位。时间用32位有符号数表示,则可表示 68 年,
  用32位无符号数表示。可表示136年。

他们觉得 以 1970年 为时间 原点 足够能够了。 因此,C 的 time 函数 就这么 定了。后来的 java 等也用它。微机也用它。工作站本来就是unix系统当然也用它。(今后若用64位机年限更没问题。)

  1970年1月1日 算 UNIX 和 C语言 生日。

  由于用32位来表示时间的最大间隔是68年,而最早出现的UNIX操作系统考虑到计算机产生的年代和应用的时限综合取了1970年1月1日作为UNIX TIME的纪元时间(開始时间)。而java自然也遵循了这一约束。





以上是关于为什么编程时间从1970年1月1日開始?的主要内容,如果未能解决你的问题,请参考以下文章

为什么计算机时间要从1970年1月1日开始算起

Java为什么计算时间从1970年1月1日开始

日期类的时间从为什么是从1970年1月1日(格林威治时间)

Unix时间戳

为什么计算机很多语言里的时间都是从1970年1月1日午夜开始计算?

为啥 1/1/1970 是“纪元时间”?