黑群晖各种问题修正(黑裙洗白黑裙休眠硬盘顺序)
Posted WuKongRoot
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了黑群晖各种问题修正(黑裙洗白黑裙休眠硬盘顺序)相关的知识,希望对你有一定的参考价值。
洗白
首先应明白洗白是否必要,洗白有两个作用,一是可以使用QuickConnect;二是可以使用Video Station解码。洗白需要找到正确的MAC及S/N码,至于其来源有各种途径,一是有算号器;二是利用退换货政策的漏洞。但是有风险,群晖如果发现同一个MAC/SN两个同时在线,可能会封号。如果不使用上述两个功能可以不洗白。
要修改MAC/SN,需要修改启动配置文件grub.cfg,有两种方法:
直接PE启动,然后加载ssd第一个分区就能找到文件
SSH在线修改
个人觉得SSH在线修改更方便,具体操作如下:
1. 开放SSH端口
在控制面板里面–>终端机和SNMP下,启动SSH功能.
2. SSH工具挂载synoboot1分区
用ssh工具如putty连接到群晖的ip地址,用创建群晖的管理用户登陆.
例如,用户名:admin 密码 123456
输入如下命令:
1 sudo -i //获取root超级权限 2 mkdir -p /tmp/boot //在/tmp目录下创建一个临时目录,名字随意,如:boot 3 cd /dev //切换到dev目录 4 mount -t vfat synoboot1 /tmp/boot/ //将synoboot1 分区挂载到boot 5 cd /tmp/boot/grub //切换到grub目录 6 vim grub.cfg //修改grub.cfg文件
按键盘上的 i 键(小写状态),进入文档编辑模式,此时就可以输入新的SN,MAC1的新值,删除旧值.
修改完成后.
按键盘上的Esc键,返回到命令模式,输入:wq,然后回车保存并退出.如果修改乱了,想不保存并退出,则是输入:q,然后回车.
此时可以再 vi grub.cfg 进去看看是否修改成功.
最后重启主机即可:
1 reboot
硬盘显示
针对问题2,硬盘盘符乱,这款B款蜗牛有两个SATA控制器,有6个SATA接口(包含一个mSATA接口).处理器控制2个能引导的接口(内存旁边的一个和mSATA),板载控制器控制4个硬盘架的接口但不能引导.
1. 硬盘位的顺序
装好DSM后硬盘顺序应该是处理器控制的两个接口在前(假设为1、2),控制硬盘架上的四个接口在后(假设为3、4、5、6).所以只要是放在硬盘架上的硬盘在DSM都会标识在3号到6号盘之间.
若需要将硬盘架上的顺序改为1、2、3、4号标识,可以修改引导盘里的grub.conf配置文件来实现.
修改盘序号需要在extra_args_918变量里增加两个值SataPortMap=24和DiskIdxMap=0400.
即:
1 # /grub/grub.conf 2 # 从第31行开始 3 ...... 4 set extra_args_918=\'SataPortMap=24 DiskIdxMap=0400\' #将两项加在这后面 5 6 set common_args_918=\'syno_hdd_powerup_seq=0 HddHotplug=0 syno_hw_version=DS918+ vender_format_version=2 console=ttyS0,115200n8 withefi elevator=elevator quiet syno_port_thaw=1\' 7 # for testing on VM 8 set sata_args=\'SataPortMap=1\' 9 ......
修改完成后保存重启,我的硬盘是从左至右放在左边两个盘位中的所以是3号和4号位.
如果盘位顺序还是有误,需要把主板连接的SATA物理更换一下,交换位置就正常了.
简单解释下这两个值:
具体的含义可以参考此处的第229行和249行:
1 SataPortMap=24
配置系统有两个SATA控制器,第一个控制器有2个接口,第二个控制器有4个接口.
1 DiskIdxMap=0400
将第一个SATA控制器的接口序号设置为从5开始,第二个SATA控制器的接口号从1开始(04和00都为16进制).
2. 用SSD引导后隐藏启动盘
直接把启动镜像写入到mSATA盘里面,存储空间管理员里面会有一个14G左右的盘始于未使用状态,就是mSATA盘里除开启动分区后的剩余空间,像下面一样:
可以将其初始化并利用起来,但14G的空间利用起来也没什么价值,且本来自带的SSD就很弱,用来存资料也有一定崩盘的风险.为了防止看着碍眼,可以用上面的方法把这个盘隐藏掉.
还是需要通过修改引导盘里的grub.conf配置文件来实现.
需要在sata_args变量里增加DiskIdxMap=1000这个值,且在启动时选择第三项启动项(VMware/ESXI)启动.
即:
1 # /grub/grub.conf 2 # 从第31行开始 3 ...... 4 set extra_args_918=\'\' 5 6 set common_args_918=\'syno_hdd_powerup_seq=0 HddHotplug=0 syno_hw_version=DS918+ vender_format_version=2 console=ttyS0,115200n8 withefi elevator=elevator quiet syno_port_thaw=1\' 7 # for testing on VM 8 set sata_args=\'SataPortMap=24 DiskIdxMap=1000\'# 将两项加在这后面(10,00都为16进制) 9 ......
3. 信息中心显示的处理器的型号
装好DSM系统以后,信息中心显示的是白群晖机器的处理器信息,比如DS3617系统就显示的是Xeon D处理器的信息,很明显是直接写死的.
- 下载ch_cpuinfo_en.tar在电脑上,[这里下载]
- 通过FileStation将下载好的文件上传到DSM上
- 用Putty或者其他SSH工具连接上DSM
- 在SSH工具中操作
1 # 切换到root账户; 2 sudo -i 3 4 # 打开ch_cpuinfo.tar文件所在目录; 5 cd /volume1/tmp 6 7 # 解压ch_cpuinfo.tar文件; 8 tar xvf ch_cpuinfo.tar 9 10 # 运行ch_cpuinfo文件; 11 ./ch_cpuinfo 12 13 # 运行后,按“1”选择“First Run”,再按“y”键; 14 15 # 关闭SSH工具,重新登陆后信息中心显示J1900信息;
休眠
1. 打开休眠调试日志
这个选项藏得比较深,在左上角菜单→技术支持中心→左边技术支持服务→启动系统休眠调试模式
2. 等待触发休眠问题
保持 NAS 空闲到设定的时间即可.记得把 NAS 的网页和各种客户端都关掉,不然接下来的日志可能会很长没法分析.我自己是在睡觉之前打开日志,起来分析.睡觉的时候除了 NAS 和路由器就没有其他设备开机了,日志很准确.
3. 分析日志
会产生两份日志,分别是 /var/log/hibernation.log 和 /var/log/hibernationFull.log. 后者是原始数据,前者是去除了一些无价值“连锁性”操作的精简版,但它有的时候会精简过头,所以我这里以后者为例来分析.
首先,将脏块写入磁盘的日志手动排除掉.通常内核不会自发进行大量的磁盘操作,大多数 write block 是用户态 dirty block 导致的结果,因此可以把包含 WRITE block 和 sync 的行删除,节省大量的版面.
其次,将非硬盘的写入排除掉.将包含 on tmpfs 或 on proc 的行删除即可,剩下的非硬盘文件系统肉眼忽略.
剩下的条目可以进入分析了.比如我这里在午睡时每段记录都差不多是这个样子:
1 ***********Clear********* 2 [140146.388709] btsync(15253): dirtied inode 11404 (sync.log) on md2 3 [140146.388721] btsync(15253): dirtied inode 11404 (sync.log) on md2 4 [140146.388723] btsync(15253): dirtied inode 11404 (sync.log) on md2 5 [140151.820668] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 6 [140151.820682] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 7 [140151.820684] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 8 [140152.332689] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 9 [140152.332696] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 10 [140152.332698] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 11 [140153.783855] btsync(15253): dirtied inode 11404 (sync.log) on md2 12 [140153.783870] btsync(15253): dirtied inode 11404 (sync.log) on md2 13 [140153.783872] btsync(15253): dirtied inode 11404 (sync.log) on md2 14 [140170.602870] synologrotated(4963): dirtied inode 28083 (.SYNOSYSDB-wal) on md0 15 [140170.602888] synologrotated(4963): dirtied inode 29789 (.SYNOSYSDB-shm) on md0 16 [140170.603221] synologrotated(4963): dirtied inode 21538 (.SYNOCONNDB-wal) on md0 17 [140170.603235] synologrotated(4963): dirtied inode 22044 (.SYNOCONNDB-shm) on md0 18 [140173.443684] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 19 [140173.443696] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 20 [140173.443698] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 21 [140173.955999] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 22 [140173.956006] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 23 [140173.956009] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 24 [140272.465248] btsync(15253): dirtied inode 11404 (sync.log) on md2 25 [140272.465265] btsync(15253): dirtied inode 11404 (sync.log) on md2 26 [140272.465267] btsync(15253): dirtied inode 11404 (sync.log) on md2 27 [140278.386378] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 28 [140278.386390] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 29 [140278.386393] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 30 [140278.898561] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 31 [140278.898569] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 32 [140278.898571] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 33 [140631.564198] btsync(15253): dirtied inode 11404 (sync.log) on md2 34 [140631.564209] btsync(15253): dirtied inode 11404 (sync.log) on md2 35 [140631.564211] btsync(15253): dirtied inode 11404 (sync.log) on md2 36 [140637.298101] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 37 [140637.298113] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 38 [140637.298115] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 39 [140637.811061] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 40 [140637.811068] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 41 [140637.811071] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 42 [141346.340822] btsync(15253): dirtied inode 11404 (sync.log) on md2 43 [141346.340833] btsync(15253): dirtied inode 11404 (sync.log) on md2 44 [141346.340836] btsync(15253): dirtied inode 11404 (sync.log) on md2 45 [141351.508216] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 46 [141351.508226] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 47 [141351.508228] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 48 [141352.021228] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 49 [141352.021235] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 50 [141352.021238] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 51 [141352.494749] btsync(15253): dirtied inode 11404 (sync.log) on md2 52 [141352.494758] btsync(15253): dirtied inode 11404 (sync.log) on md2 53 [141352.494760] btsync(15253): dirtied inode 11404 (sync.log) on md2 54 [141371.039633] synologrotated(4963): dirtied inode 28083 (.SYNOSYSDB-wal) on md0 55 [141371.039654] synologrotated(4963): dirtied inode 29789 (.SYNOSYSDB-shm) on md0 56 [141371.039992] synologrotated(4963): dirtied inode 21538 (.SYNOCONNDB-wal) on md0 57 [141371.040007] synologrotated(4963): dirtied inode 22044 (.SYNOCONNDB-shm) on md0 58 [141377.244527] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 59 [141377.244539] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 60 [141377.244541] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 61 [141377.757046] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 62 [141377.757054] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 63 [141377.757056] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 64 [141535.911703] dhclient(16778): dirtied inode 19635 (sh) on md0 65 [141535.911717] dhclient(16778): dirtied inode 19626 (bash) on md0 66 [141535.911909] dhclient-script(16778): dirtied inode 14958 (libncursesw.so.5) on md0 67 [141535.911917] dhclient-script(16778): dirtied inode 13705 (libncursesw.so.5.9) on md0 68 [141535.914460] awk(16782): dirtied inode 13819 (libm.so.6) on md0 69 [141535.914470] awk(16782): dirtied inode 11177 (libm-2.20-2014.11.so) on md0 70 [141542.431766] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 71 [141542.431778] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 72 [141542.431781] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 73 [141542.944314] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 74 [141542.944322] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 75 [141542.944324] syno_hibernatio(25655): dirtied inode 5348 (hibernation.log) on md0 76 [142073.169495] btsync(15253): dirtied inode 11404 (sync.log) on md2 77 [142073.169512] btsync(15253): dirtied inode 11404 (sync.log) on md2 78 [142073.169515] btsync(15253): dirtied inode 11404 (sync.log) on md2 79 [142078.947137] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 80 [142078.947150] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 81 [142078.947152] syno_hibernatio(25655): dirtied inode 5885 (hibernationFull.log) on md0 82 uptime : [142078.753468] 83 ======Idle 536 seconds====== 84 Sat Oct 27 14:34:19 CST 2018
进程不多,逐个判断:
btsync:BTSync 套件,sync.log 顾名思义好了.这样看来,它频繁写日志是一个很明显的阻碍休眠的原因.我反正只是装着,没配置它,可以把它删掉.
syno_hibernatio:ps | grep 看一下发现全称是 syno_hibernation_debug,加之操作的文件名,确定是记录休眠日志的工具自身,以后关了就没了
synologrotated:应该是记录系统日志的工具,如果正经休眠了应该就不会有日志了,这也是个被动来源
dhclient 和 dhclient-script:DHCP 客户端常规操作,阻挡不了
那么这一轮下来只能得出需要停止 BTSync 的结论.先这么做了再说.休眠日志可以不急着关掉.
再放一天试试.查看系统日志:
从日志来看,上面的操作是有效的,硬盘终于能进入休眠了,出现了很多“Internal disks woke up from hibernation”.但是这每半小时一条,相当于休眠没几秒又被唤醒了.
于是继续分析休眠日志:
1 ***********Clear********* 2 [236666.547745] syslog-ng(4331): dirtied inode 18 (scemd.log) on md0 3 [236687.650564] syslog-ng(13085): dirtied inode 18 (scemd.log) on md0 4 [236687.650585] syslog-ng(13085): dirtied inode 18 (scemd.log) on md0 5 [236687.650592] syslog-ng(13085): dirtied inode 18 (scemd.log) on md0 6 [236687.658884] syslog-ng(5016): dirtied inode 28581 (.SYNOSYSDB-shm) on md0 7 [236687.658893] syslog-ng(5016): dirtied inode 28581 (.SYNOSYSDB-shm) on md0 8 [236687.658946] syslog-ng(5016): dirtied inode 24584 (.SYNOSYSDB-wal) on md0 9 [236687.658952] syslog-ng(5016): dirtied inode 24584 (.SYNOSYSDB-wal) on md0 10 [236687.658954] syslog-ng(5016): dirtied inode 24584 (.SYNOSYSDB-wal) on md0 11 [236687.664164] logrotate(13090): dirtied inode 41594 (synolog) on md0 12 [236687.666146] logrotate(13090): dirtied inode 6900 (logrotate.status) on md0 13 [236687.671082] logrotate(13090): dirtied inode 7905 (logrotate.status.tmp) on md0 14 [236689.662143] synologaccd(4840): dirtied inode 22952 (.SYNOACCOUNTDB) on md0 15 [236689.662355] synologaccd(4840): dirtied inode 6900 (.SYNOACCOUNTDB-wal) on md0 16 [236689.662383] synologaccd(4840): dirtied inode 21526 (.SYNOACCOUNTDB-shm) on md0 17 [236689.763593] synologaccd(4840): dirtied inode 22952 (.SYNOACCOUNTDB) on md0 18 [236689.763629] synologaccd(4840): dirtied inode 22952 (.SYNOACCOUNTDB) on md0 19 [236691.547334] synologrotated(5000): dirtied inode 28581 (.SYNOSYSDB-shm) on md0 20 [236691.547681] synologrotated(5000): dirtied inode 23485 (.SYNOCONNDB-wal) on md0 21 [236691.547695] synologrotated(5000): dirtied inode 24677 (.SYNOCONNDB-shm) on md0 22 [238511.431135] syslog-ng(4331): dirtied inode 18 (scemd.log) on md0 23 uptime : [238516.475108] 24 ======Idle 1807 seconds====== 25 Wed Oct 24 03:52:06 CST 2018 26 ##################################################### 27 Only idle 44 seconds, pass 28 Wed Oct 24 03:52:51 CST 2018 29 ##################################################### 30 ***********Clear********* 31 [238522.209123] synologrotated(5000): dirtied inode 24584 (.SYNOSYSDB-wal) on md0 32 [238522.209173] synologrotated(5000): dirtied inode 28581 (.SYNOSYSDB-shm) on md0 33 [238522.210082] synologrotated(5000): dirtied inode 23485 (.SYNOCONNDB-wal) on md0 34 [238522.210122] synologrotated(5000): dirtied inode 24677 (.SYNOCONNDB-shm) on md0 35 [238522.224252] logrotate(19321): dirtied inode 41594 (synolog) on md0 36 [238522.229880] logrotate(19321): dirtied inode 7905 (logrotate.status) on md0 37 [238522.244528] logrotate(19321): dirtied inode 6900 (logrotate.status.tmp) on md0 38 [238531.967854] syslog-ng(19324): dirtied inode 18 (scemd.log) on md0 39 [238531.967874] syslog-ng(19324): dirtied inode 18 (scemd.log) on md0 40 [238531.967882] syslog-ng(19324): dirtied inode 18 (scemd.log) on md0 41 [238531.990488] logrotate(19329): dirtied inode 6900 (logrotate.status.tmp) on md0 42 [238533.979174] synologaccd(4840): dirtied inode 22952 (.SYNOACCOUNTDB) on md0 43 [238533.979348] synologaccd(4840): dirtied inode 7905 (.SYNOACCOUNTDB-wal) on md0 44 [238533.979378] synologaccd(4840): dirtied inode 21526 (.SYNOACCOUNTDB-shm) on md0 45 [238534.076345] synologaccd(4840): dirtied inode 22952 (.SYNOACCOUNTDB) on md0 46 [238534.076385] synologaccd(4840): dirtied inode 22952 (.SYNOACCOUNTDB) on md0 47 [240368.320927] syslog-ng(4331): dirtied inode 18 (scemd.log) on md0 48 uptime : [240374.147000] 49 ======Idle 1811 seconds====== 50 Wed Oct 24 04:23:02 CST 2018
synocrond:听起来像是任务计划程序,里面有个 DSM 自动更新检查,触发频率不高,应该不太影响
builtin-synodat:不知道是什么
logrotate:大概也是个日志程序
synologaccd:继续是日志程序
syslog-ng:我也不知道为什么群晖有那么多日志管理程序
单次日志看不出来什么,但是连着好几块都符合刚一休眠就被唤醒(空闲时间是设定的 30 分钟加十几秒),且最后一条都是对 (/var/log/)scemd.log 的写入。这就有点意思了,打开看看里面是什么:
1 2018-10-24T07:00:13+08:00 Hamster-DS scemd: led/led_brightness.c:244 Fail to read /usr/sbin/i2cget 2 2018-10-24T07:00:13+08:00 Hamster-DS scemd: led.c:35 SYNOGetLedBrightness fail() 3 2018-10-24T07:00:34+08:00 Hamster-DS scemd: event_disk_hibernation_handler.c:42 The internal disks wake up, hibernate from [Oct 24 07:00:11] 4 2018-10-24T07:31:09+08:00 Hamster-DS scemd: led/led_brightness.c:244 Fail to read /usr/sbin/i2cget 5 2018-10-24T07:31:09+08:00 Hamster-DS scemd: led.c:35 SYNOGetLedBrightness fail() 6 2018-10-24T07:31:30+08:00 Hamster-DS scemd: event_disk_hibernation_handler.c:42 The internal disks wake up, hibernate from [Oct 24 07:31:07] 7 2018-10-24T08:01:53+08:00 Hamster-DS scemd: led/led_brightness.c:244 Fail to read /usr/sbin/i2cget 8 2018-10-24T08:01:53+08:00 Hamster-DS scemd: led.c:35 SYNOGetLedBrightness fail() 9 2018-10-24T08:02:14+08:00 Hamster-DS scemd: event_disk_hibernation_handler.c:42 The internal disks wake up, hibernate from [Oct 24 08:01:53] 10 2018-10-24T08:32:37+08:00 Hamster-DS scemd: led/led_brightness.c:244 Fail to read /usr/sbin/i2cget 11 2018-10-24T08:32:37+08:00 Hamster-DS scemd: led.c:35 SYNOGetLedBrightness fail() 12 2018-10-24T08:32:59+08:00 Hamster-DS scemd: event_disk_hibernation_handler.c:42 The internal disks wake up, hibernate from [Oct 24 08:32:37]
清晰地表明了这就是休眠后立即唤醒的原因:由于黑群没有 I2C 设备,于是 DSM 在休眠后尝试更改 LED 亮度(或者颜色、闪烁规律?)时读取 i2c 设备节点就会出错,scemd 把这条错误信息记到自己的日志里,触发了硬盘写入,硬盘就在休眠十几秒后被唤醒了.
4. 修复
根本上修复的话,得硬件上 I2C 适配器,甚至还能顺便给黑群加上白群的那么多灯.但这是不现实的,那么我们就只能采取主流方法:解决提出问题的日志.预想方案是把这个日志文件指向内存,让 scemd 往内存里写,就不会唤醒硬盘了.
找到文件:
1 vim /etc.defaults/syslog-ng/patterndb.d/scemd.conf
修改
1 destination d_scemd { file("/var/log/scemd.log"); }; 2 为 3 destination d_scemd { file("/tmp/scemd.log"); };
重启系统即可完美休眠.
本文来源于互联网,经过作者验证后发布,收藏作为后期查阅使用。
以上是关于黑群晖各种问题修正(黑裙洗白黑裙休眠硬盘顺序)的主要内容,如果未能解决你的问题,请参考以下文章