如果使在Linux中修改的数据不回写到磁盘?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如果使在Linux中修改的数据不回写到磁盘?相关的知识,希望对你有一定的参考价值。
如题,我想在使用Linux过程中,对磁盘进行的修改并不回写到磁盘,而是对于写请求,重定向到内存或其它什么地方保存,读请求的话,首先检查内存中是否有,没有的话再向磁盘申请读。最后如果重启的话,则所有修改的数据消失(其实功能就类似于Windows上的还原精灵)。
我知道其实Linux本身写磁盘就是先写到内存上去,然后周期性的唤起pdflush内核进程,由它把这些脏数据再回写到磁盘上去,或者使用命令sync~
所以我目前的想法就是禁掉pdflush进程,但是貌似禁不了,所以是否还有其它方法可以做到修改的数据不回写到磁盘上?
写入数据指定为 tmpfs 。
这样所有的写入数据,都会写到 tmpfs 里,而读取时,如果 tmpfs 没有数据,aufs 会去真正的文件系统找数据读取。
tmpfs 在内存里,重启就没了,不过 tmpfs 占用内存,所以要限制他的容量,不然他存的数据太多,占用内存大了。系统正常运行就会受影响。
不过整个系统的文件系统都要 aufs ,可能需要在 initrd 或者启动脚本里面做操作后 chroot 继续启动。
如果你非要想实现不写回,而不是用 aufs 联合挂载,必须 hack 内核的写入数据模块,截获所有写入数据到自己的缓存里。
这个难度很大,而且兼容性也是问题。
除了 aufs ,老系统可以用 unionfs 。
另外,Linux 除非安装程序,不然大部分数据其实都是放在个人目录里面,你把个人目录挂载成 tmpfs 其实就能实现不写入硬盘的功能。只有很少量的数据会写入特殊的目录里,但这些都是服务器或者系统的系统管理、配置什么的数据。
还原精灵的某些功能目的,其实 Linux 本身就自己已经提供了。不需要要在折腾什么。追问
请问具体怎么使用aufs+tmpfs来实现?可否给个相关文档呢?谢谢!!
追答这个我真没文档。aufs + tmpfs 你可以看一些 liveCD liveUSB 的相关系统,他们的写入都是这样实现的。
单独说 aufs 网上相关的资料还是很多的。
chroot 继续启动的内容,你可以看看一些 initrd 的相关资料。有些 initrd 的文章会写如何继续启动到硬盘的分区。你吧启动到分区改成启动到 aufs 挂载点就行了。
有些资料一起找很难,拆开就好说了。
《Linux内核设计与实现》读书笔记(十六)- 页高速缓存和页回写
主要内容:
- 缓存简介
- 页高速缓存
- 页回写
1. 缓存简介
在编程中,缓存是很常见也很有效的一种提高程序性能的机制。
linux内核也不例外,为了提高I/O性能,也引入了缓存机制,即将一部分磁盘上的数据缓存到内存中。
1.1 原理
之所以通过缓存能提高I/O性能是基于以下2个重要的原理:
- CPU访问内存的速度远远大于访问磁盘的速度(访问速度差距不是一般的大,差好几个数量级)
- 数据一旦被访问,就有可能在短期内再次被访问(临时局部原理)
1.2 策略
缓存的创建和读取没什么好说的,无非就是检查缓存是否存在要创建或者要读取的内容。
但是写缓存和缓存回收就需要好好考虑了,这里面涉及到「缓存内容」和「磁盘内容」同步的问题。
1.2.1 「写缓存」常见的有3种策略
- 不缓存(nowrite) :: 也就是不缓存写操作,当对缓存中的数据进行写操作时,直接写入磁盘,同时使此数据的缓存失效
- 写透缓存(write-through) :: 写数据时同时更新磁盘和缓存
- 回写(copy-write or write-behind) :: 写数据时直接写到缓存,由另外的进程(回写进程)在合适的时候将数据同步到磁盘
3种策略的优缺点如下:
策略 |
复杂度 |
性能 |
不缓存 | 简单 | 缓存只用于读,对于写操作较多的I/O,性能反而会下降 |
写透缓存 | 简单 | 提升了读性能,写性能反而有些下降(除了写磁盘,还要写缓存) |
回写 | 复杂 | 读写的性能都有提高(目前内核中采用的方法) |
1.2.2 「缓存回收」的策略
- 最近最少使用(LRU) :: 每个缓存数据都有个时间戳,保存最近被访问的时间。回收缓存时首先回收时间戳较旧的数据。
- 双链策略(LRU/2) :: 基于LRU的改善策略。具体参见下面的补充说明
补充说明(双链策略):
双链策略其实就是 LRU(Least Recently Used) 算法的改进版。
它通过2个链表(活跃链表和非活跃链表)来模拟LRU的过程,目的是为了提高页面回收的性能。
页面回收动作发生时,从非活跃链表的尾部开始回收页面。
双链策略的关键就是页面如何在2个链表之间移动的。
双链策略中,每个页面都有2个标志位,分别为
PG_active - 标志页面是否活跃,也就是表示此页面是否要移动到活跃链表
PG_referenced - 表示页面是否被进程访问到
页面移动的流程如下:
- 当页面第一次被被访问时,PG_active 置为1,加入到活动链表
- 当页面再次被访问时,PG_referenced 置为1,此时如果页面在非活动链表,则将其移动到活动链表,并将PG_active置为1,PG_referenced 置为0
- 系统中 daemon 会定时扫描活动链表,定时将页面的 PG_referenced 位置为0
- 系统中 daemon 定时检查页面的 PG_referenced,如果 PG_referenced=0,那么将此页面的 PG_active 置为0,同时将页面移动到非活动链表
2. 页高速缓存
故名思义,页高速缓存中缓存的最小单元就是内存页。
但是此内存页对应的数据不仅仅是文件系统的数据,可以是任何基于页的对象,包括各种类型的文件和内存映射。
2.1 简介
页高速缓存缓存的是具体的物理页面,与前面章节中提到的虚拟内存空间(vm_area_struct)不同,假设有进程创建了多个 vm_area_struct 都指向同一个文件,
那么这个 vm_area_struct 对应的 页高速缓存只有一份。
也就是磁盘上的文件缓存到内存后,它的虚拟内存地址可以有多个,但是物理内存地址却只能有一个。
为了有效提高I/O性能,页高速缓存要需要满足以下条件:
- 能够快速检索需要的内存页是否存在
- 能够快速定位 脏页面(也就是被写过,但还没有同步到磁盘上的数据)
- 页高速缓存被并发访问时,尽量减少并发锁带来的性能损失
下面通过分析内核中的相应的结构体,来了解内核是如何提高 I/O性能的。
2.2 实现
实现页高速缓存的最重要的结构体要算是 address_space ,在 <linux/fs.h> 中
struct address_space { struct inode *host; /* 拥有此 address_space 的inode对象 */ struct radix_tree_root page_tree; /* 包含全部页面的 radix 树 */ spinlock_t tree_lock; /* 保护 radix 树的自旋锁 */ unsigned int i_mmap_writable;/* VM_SHARED 计数 */ struct prio_tree_root i_mmap; /* 私有映射链表的树 */ struct list_head i_mmap_nonlinear;/* VM_NONLINEAR 链表 */ spinlock_t i_mmap_lock; /* 保护 i_map 的自旋锁 */ unsigned int truncate_count; /* 截断计数 */ unsigned long nrpages; /* 总页数 */ pgoff_t writeback_index;/* 回写的起始偏移 */ const struct address_space_operations *a_ops; /* address_space 的操作表 */ unsigned long flags; /* gfp_mask 掩码与错误标识 */ struct backing_dev_info *backing_dev_info; /* 预读信息 */ spinlock_t private_lock; /* 私有 address_space 自旋锁 */ struct list_head private_list; /* 私有 address_space 链表 */ struct address_space *assoc_mapping; /* 缓冲 */ struct mutex unmap_mutex; /* 保护未映射页的 mutux 锁 */ } __attribute__((aligned(sizeof(long))));
补充说明:
- inode - 如果 address_space 是由不带inode的文件系统中的文件映射的话,此字段为 null
- page_tree - 这个树结构很重要,它保证了页高速缓存中数据能被快速检索到,脏页面能够快速定位。
- i_mmap - 根据 vm_area_struct,能够快速的找到关联的缓存文件(即 address_space),前面提到过, address_space 和 vm_area_struct 是 一对多的关系。
- 其他字段主要是提供各种锁和辅助功能
此外,对于这里出现的一种新的数据结构 radix 树,进行简要的说明。
radix树通过long型的位操作来查询各个节点, 存储效率高,并且可以快速查询。
linux中 radix树相关的内容参见: include/linux/radix-tree.h 和 lib/radix-tree.c
下面根据我自己的理解,简单的说明一下radix树结构及原理。
2.2.1 首先是 radix树节点的定义
/* 源码参照 lib/radix-tree.c */ struct radix_tree_node { unsigned int height; /* radix树的高度 */ unsigned int count; /* 当前节点的子节点数目 */ struct rcu_head rcu_head; /* RCU 回调函数链表 */ void *slots[RADIX_TREE_MAP_SIZE]; /* 节点中的slot数组 */ unsigned long tags[RADIX_TREE_MAX_TAGS][RADIX_TREE_TAG_LONGS]; /* slot标签 */ };
弄清楚 radix_tree_node 中各个字段的含义,也就差不多知道 radix树是怎么一回事了。
- height 表示的整个 radix树的高度(即叶子节点到树根的高度), 不是当前节点到树根的高度
- count 这个比较好理解,表示当前节点的子节点个数,叶子节点的 count=0
- rcu_head RCU发生时触发的回调函数链表
- slots 每个slot对应一个子节点(叶子节点)
- tags 标记子节点是否 dirty 或者 wirteback
2.2.2 每个叶子节点指向文件内相应偏移所对应的缓存页
比如下图表示 0x000000 至 0x11111111 的偏移范围,树的高度为4 (图是网上找的,不是自己画的)
2.2.3 radix tree 的叶子节点都对应一个二进制的整数,不是字符串,所以进行比较的时候非常快
其实叶子节点的值就是地址空间的值(一般是long型)
3. 页回写
由于目前linux内核中对于「写缓存」采用的是第3种策略,所以回写的时机就显得非常重要,回写太频繁影响性能,回写太少容易造成数据丢失。
3.1 简介
linux 页高速缓存中的回写是由内核中的一个线程(flusher 线程)来完成的,flusher 线程在以下3种情况发生时,触发回写操作。
1. 当空闲内存低于一个阀值时
空闲内存不足时,需要释放一部分缓存,由于只有不脏的页面才能被释放,所以要把脏页面都回写到磁盘,使其变成干净的页面。
2. 当脏页在内存中驻留时间超过一个阀值时
确保脏页面不会无限期的驻留在内存中,从而减少了数据丢失的风险。
3. 当用户进程调用 sync() 和 fsync() 系统调用时
给用户提供一种强制回写的方法,应对回写要求严格的场景。
页回写中涉及的一些阀值可以在 /proc/sys/vm 中找到
下表中列出的是与 pdflush(flusher 线程的一种实现) 相关的一些阀值
阀值 |
描述 |
dirty_background_ratio | 占全部内存的百分比,当内存中的空闲页达到这个比例时,pdflush线程开始回写脏页 |
dirty_expire_interval | 该数值以百分之一秒为单位,它描述超时多久的数据将被周期性执行的pdflush线程写出 |
dirty_ratio | 占全部内存的百分比,当一个进程产生的脏页达到这个比例时,就开始被写出 |
dirty_writeback_interval | 该数值以百分之一秒未单位,它描述pdflush线程的运行频率 |
laptop_mode | 一个布尔值,用于控制膝上型计算机模式 |
3.2 实现
flusher线程的实现方法随着内核的发展也在不断的变化着。下面介绍几种在内核发展中出现的比较典型的实现方法。
1. 膝上型计算机模式
这种模式的意图是将硬盘转动的机械行为最小化,允许硬盘尽可能长时间的停滞,以此延长电池供电时间。
该模式通过 /proc/sys/vm/laptop_mode 文件来设置。(0 - 关闭该模式 1 - 开启该模式)
2. bdflush 和 kupdated (2.6版本前 flusher 线程的实现方法)
bdflush 内核线程在后台运行,系统中只有一个 bdflush 线程,当内存消耗到特定阀值以下时,bdflush 线程被唤醒
kupdated 周期性的运行,写回脏页。
bdflush 存在的问题:
整个系统仅仅只有一个 bdflush 线程,当系统回写任务较重时,bdflush 线程可能会阻塞在某个磁盘的I/O上,
导致其他磁盘的I/O回写操作不能及时执行。
3. pdflush (2.6版本引入)
pdflush 线程数目是动态的,取决于系统的I/O负载。它是面向系统中所有磁盘的全局任务的。
pdflush 存在的问题:
pdflush的数目是动态的,一定程度上缓解了 bdflush 的问题。但是由于 pdflush 是面向所有磁盘的,
所以有可能出现多个 pdflush 线程全部阻塞在某个拥塞的磁盘上,同样导致其他磁盘的I/O回写不能及时执行。
4. flusher线程 (2.6.32版本后引入)
flusher线程改善了上面出现的问题:
首先,flusher 线程的数目不是唯一的,这就避免了 bdflush 线程的问题
其次,flusher 线程不是面向所有磁盘的,而是每个 flusher 线程对应一个磁盘,这就避免了 pdflush 线程的问题
以上是关于如果使在Linux中修改的数据不回写到磁盘?的主要内容,如果未能解决你的问题,请参考以下文章
使用ehcache持久化数据到磁盘 并且在应用服务器重启后不丢失数据