Discussion:
ŽóŒÒΪʲÎÄÇÃŽÈÈÖÔÓÚ ZFS ÄØ£¿
(时间太久无法回复)
ÄÚº¬×Ó
2014-03-04 08:39:39 UTC
Permalink
其实多个存储设备来紧密耦合地协同工作,
对于系统的稳定性是非常不利的。


--
我的车间: http://www.intron.ac/



※ 来源:・水木社区 newsmth.net・[FROM: 180.173.7.*]
°¢Éª~²»¶®
2014-03-04 08:45:14 UTC
Permalink
免费开源吧?

商用NAS设备卖得还是挺贵的。其他hadoop之类的又很虚,也不是通用存取接口。

【 在 intron (内含子) 的大作中提到: 】
: 其实多个存储设备来紧密耦合地协同工作,
: 对于系统的稳定性是非常不利的。


--


※ 来源:・水木社区 newsmth.net・[FROM: 210.51.195.*]
ATi->AMD|PassingAway
2014-03-04 12:48:24 UTC
Permalink
实现可靠 接口稳定 便于管理吧
【 在 intron (内含子) 的大作中提到: 】
: 其实多个存储设备来紧密耦合地协同工作,
: 对于系统的稳定性是非常不利的。


--
- 我.. 是你的什么?
-你--是我的公式啊
- 啊~~ 原来我是公式 ~>_<~
-这样 我就可以把你推导了 └(^o^)┘


※ 来源:・水木社区 newsmth.net・[FROM: 114.246.221.*]
pubby
2014-03-04 15:17:33 UTC
Permalink
主要看中它的快照(数据库“备份”可以省下不少功夫),存储的灵活扩展

对性能倒是没啥奢望

【 在 intron 的大作中提到: 】
: 其实多个存储设备来紧密耦合地协同工作,
: 对于系统的稳定性是非常不利的。
:

--

※ 来源:・水木社区 http://www.newsmth.net・[FROM: 60.186.6.*]
Ò²»ÈçУ¬È˲»Èç¹Ê
2014-03-04 16:01:22 UTC
Permalink
【 在 intron (内含子) 的大作中提到: 】
: 其实多个存储设备来紧密耦合地协同工作,
: 对于系统的稳定性是非常不利的。

第一是当时大家都“忽悠”zfs 多么好,于是就上了,这个东西一旦上了,就
不好改了。。。除非你新装机器。。

第二就是现在内存这么大,不用白不用。

第三就是 zfs 还算稳定,而且方便。

--

※ 来源:・水木社区 newsmth.net・[FROM: 125.34.65.*]
Ðí¿ÉÖ€³¬³öÒ»Ò³Öœ£¬·Ç*ŒŽµÁ£¡
2014-03-04 19:13:11 UTC
Permalink
【 在 intron (内含子) 的大作中提到: 】
: 其实多个存储设备来紧密耦合地协同工作,
: 对于系统的稳定性是非常不利的。

ZFS 只是提供了这种可能,并没有要求用户必须这样用吧。实际应用中,我们往往会
使用一些特别的分配方法来降低单个硬件出现问题导致整个系统不可用的风险,例如
将存储池的每行设计为分散在不同 JBOD 上,以及使用多通道连接方式(使用两个HBA
卡来连接同一个 JBOD 或背板,每个硬盘上使用来自两个不同背板的接线),等等。
硬件本身也可以有相当多的冗余,在这个基础上,还可以使用多个不同的服务器来做
冗余,等等。

相比传统的文件系统,ZFS有许多优点。首先是它提供了端到端的校验机制,传统的
文件系统依赖存储本身的可靠性:例如,如果文件系统创建在 RAID 上,则 RAID 说
什么就是什么,而实际上 RAID 对于数据块只有两种状态:可以拿出数据和不能拿出
数据,至于后面的磁盘上的数据到底是什么,哪份坏了,传统文件系统是没办法知道的。

端到端校验使得ZFS有能力知道数据与当时写到磁盘上的状态是一样的。当磁盘出现问题
时,ZFS能够根据这些数据判断如何正确地修复问题。ZFS的元数据会保存多份,即使是
单盘系统,由于数据校验的存在,ZFS也还是有相当多的机会能够找到哪份是好的,并据
此给用户返回正确的结果。传统文件系统完全不具备这些能力,并且依赖 fsck 这样的工
具做事后补救。我本人在8、9年前在 fsck 方面做过相当多的工作,确实 fsck 可以修复
相当多的问题,但是在存储发生问题时,实际上 fsck 可以做的事情相当有限,许多时候
它只能将块重新保存成文件,然后留待系统管理员去进行处理,这显然是不够的。

ZFS 的另一个优势是它不覆写数据(在需要修改数据时,ZFS 的策略是写时复制 Copy
on Write)。这个特性对于机械磁盘来说非常重要,因为在发生故障时,机械磁盘很可能
将扇区之前的内容改写成你无法预知的样子。由于有端到端校验,ZFS 能够识别这类问题,
在最差情况下,它能够回退到这个写事务之前的事务:是的,这样还是会导致数据丢失,
但是传统文件系统上也是会丢失数据的,而 ZFS 丢弃的数据是最新写入的数据,而传统
文件系统由于不会避免覆写,因此你很难知道到底什么数据丢掉了。

ZFS 的这个特性还有一个(好的)副作用是避免了 RAID 控制器在 RAID-5 等模式中的写
洞问题(write hole)。由于磁盘的写入操作可能不能保证在同时完成,因此有可能出现
一个RAID条带上的数据不一致的问题。传统文件系统或RAID卡可能必须丢弃整个条带的数
据(注意,由于覆写,被丢弃的条带可能包含之前写入的其他数据),或者在更糟糕的情
况下,很可能无法检测出发生了这样的情况。ZFS 的写时复制和端到端数据检验则可以避
免发生这些情况。

其他特性比如管理方便(不必在一开始确定文件系统的容量)、快照、压缩、增量复制等
等其实都是其次了。

--

※ 来源:・水木社区 newsmth.net・[FROM: 24.5.244.*]
ÎÒ°®BKBK
2014-03-05 00:26:08 UTC
Permalink
用过之后才发现之前的FS好弱...

【 在 intron (内含子) 的大作中提到: 】
: 其实多个存储设备来紧密耦合地协同工作,
: 对于系统的稳定性是非常不利的。


--

※ 来源:・水木社区 newsmth.net・[FROM: 203.135.238.*]
pubby
2014-03-05 03:32:08 UTC
Permalink
办公室的机器,重要数据倒是都有备份的。

就是遇到断电后重启到文件系统一致性时卡那儿了,需要人工干预进入单用户操作

如果碰到有人在还好办,

有时园区在半夜或者休息天或者假期电路跳闸,公司没人,都找不到人去执行 fsck -y




【 在 delphij 的大作中提到: 】
:
: 断电……APC BE550G 合人民币也就1200不到吧,不说数据,硬件应该也比这个值钱?

--

※ 来源:・水木社区 http://www.newsmth.net・[FROM: 122.224.126.*]
ÂÒ£®ÕÛÌÚ£®±ŠÂ¿
2014-03-05 15:51:36 UTC
Permalink
这段需要mark啊!版主!

【 在 delphij (许可证超出一页纸,非*即盗!) 的大作中提到: 】
: ZFS 只是提供了这种可能,并没有要求用户必须这样用吧。实际应用中,我们往往会
: 使用一些特别的分配方法来降低单个硬件出现问题导致整个系统不可用的风险,例如
: 将存储池的每行设计为分散在不同 JBOD 上,以及使用多通道连接方式(使用两个HBA
: ...................

--
世界太小了,个人签名得改!

竟然被人认出来了!


※ 来源:・水木社区 newsmth.net・[FROM: 211.99.222.*]
Ðí¿ÉÖ€³¬³öÒ»Ò³Öœ£¬·Ç*ŒŽµÁ£¡
2014-03-05 19:17:15 UTC
Permalink
【 在 nukq (pubby) 的大作中提到: 】
: 办公室的机器,重要数据倒是都有备份的。
: 就是遇到断电后重启到文件系统一致性时卡那儿了,需要人工干预进入单用户操作
: 如果碰到有人在还好办,

不能在 rc.conf 里面写上 fsck_y_enable="YES" 吗?

另外我还是那句话,断电根本就不是理由。

--

※ 来源:・水木社区 newsmth.net・[FROM: 24.5.244.*]
pubby
2014-03-06 04:38:21 UTC
Permalink
还有这好东西,谢谢 delphij

本来我还想抽空都折腾成zfs,看来对fb的了解还远远不够哎 -_-


【 在 delphij 的大作中提到: 】
:
: 不能在 rc.conf 里面写上 fsck_y_enable="YES" 吗?
: 另外我还是那句话,断电根本就不是理由。

--

※ 来源:・水木社区 http://www.newsmth.net・[FROM: 122.224.126.*]
»ùÒò¡«Ò²ÐíÒÔºó¡«¡«
2014-03-06 05:58:13 UTC
Permalink
zfs的优势还是相当明显的,前面dj被mark的那一篇很值得参考

【 在 nukq (pubby) 的大作中提到: 】
: 还有这好东西,谢谢 delphij
: 本来我还想抽空都折腾成zfs,看来对fb的了解还远远不够哎 -_-


--
C’est La Vie


※ 来源:・水木社区 newsmth.net・[FROM: 221.216.253.*]
Loading...