закончилось крэшем, после которого восстановление из снапшота было невозможно.
Теперь вопрос про LVM. асколько надёжна конфигурация RAID1 (два диска) поверх LVM поверх dm-integrity. ичего от LVM кроме dm-integrity и снапшотов не нужно.
Хотелось использовать снапшоты на рутовом разделе на RAID1 для
резервного копирования со снапшота. Потестировал btrfs. Тестирование закончилось крэшем, после которого восстановление из снапшота было невозможно.
Теперь вопрос про LVM. асколько надёжна конфигурация RAID1
(два диска) поверх LVM поверх dm-integrity. ичего от LVM кроме dm-integrity и снапшотов не нужно.
чего ZOL не хочешь попробовать? Там повеселее чем brtfs, правда рамы
надо много и ECC бы крайне надо и nvme под L2 кеш, оверхед?
закончилось крэшем, после которого восстановление из снапшотаКак ты этого добился? Для RAID1 средствами btrfs - это очень
было невозможно.
устойчивая конфигурация, у меня с десяток серверов живу на btrfs.
Хотелось использовать снапшоты на рутовом разделе на RAID1 для
резервного копирования со снапшота. Потестировал btrfs.
Тестирование закончилось крэшем, после которого восстановление из
снапшота было невозможно.
Вполне закономерно.
Теперь вопрос про LVM. асколько надёжна конфигурация RAID1
(два диска) поверх LVM поверх dm-integrity. ичего от LVM кроме
dm-integrity и снапшотов не нужно.
Еще хуже.
З.Ы. (Замечу Ышо): более-менее работает оно с ZFS, но там свои чудеса,
и для промышленного применения я такую конфигурацию применять все же
не советую.
Как ты этого добился? Для RAID1 средствами btrfs - это очень
устойчивая конфигурация, у меня с десяток серверов живу на btrfs.
Да вроде бы ничего особенного не делал. Установил на десктоп Fedora 39
с btrfs и snapper. Снапшоты делались автоматом до и после установки обновлений и сразу после загрузки ОС. Удаление более старых снапшотов, когда их количество больше 50. Там же запускал виртуальные машины в KVM/QEMU. Это работало месяца два. Во время работы в виртуальной
машине оно всё и гавкнулось. После этого оставил на ночь проверку
памяти с memtest86+. Ошибок не найдено.
А гавкнулось - это в каком виде? Как выглядело?
Последний раз у меня накрывалась btrfs на Orange PI с нестабильным питанием, когда запись на nvme прекращалась в произвольные моменты времени, но это логично, что в таком виде оно сломается. Чтобы оно сломалось на ровном месте - это очень странно. Вот прямо сейчас
использую на компьютере с Windows (!) в WSL2 BTRFS с RAID1 для 16 Tb
диска с базой Clickhouse, снэпшоты тоже используются.
А так то и ZFS я битую видел (у себя в том числе)..
А гавкнулось - это в каком виде? Как выглядело?
В виртуальной машине всё зависало. Увеличил число ядер на эту VM. Всё равно через некоторое время полный залип: ничего невозможно сделать.
Вышел из виртуальной машины, сделал перезагрузку хоста - чёрный экран. После загрузки с Live CD обнаружил, что часть файлов на хосте исчезла.
То есть btrfs не на рутовом разделе.
А так то и ZFS я битую видел (у себя в том числе)..
Это обнадёживает...
Хотелось использовать снапшоты на рутовом разделе на RAID1 для
резервного копирования со снапшота. Потестировал btrfs. Тестирование закончилось крэшем, после которого восстановление из снапшота было невозможно.
Теперь вопрос про LVM. Hасколько надёжна конфигурация RAID1 (два
диска) поверх LVM поверх dm-integrity. Hичего от LVM кроме
dm-integrity и снапшотов не нужно.
Работает, но если развалится чинить говорят трудно, сам не чинил. А
чего ZOL не хочешь попробовать? Там повеселее чем brtfs, правда рамы
надо много и ECC бы крайне надо и nvme под L2 кеш, оверхед?
mixaasgard: zfs list
NAME USED AVAIL REFER MOUNTPOINT
mypool 5.16T 1.98T 5.13T /mypool
mixaasgard: zpool status
pool: mypool
state: ONLINE
scan: resilvered 54.0M in 00:00:03 with 0 errors on Fri Jan
5 13:25:402024
config:
NAME STATE READ WRITE CKSUM
mypool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
errors: No known data errors
Hет, не надо много RAM, минимум 4Гб, но это, по нынешним временам, не серьезно. Hаличие ECC тоже весьма преувеличено. Какой кэш на nvme,
откуда это?
Хотелось использовать снапшоты на рутовом разделе на RAID1 для
резервного копирования со снапшота. Потестировал btrfs.
Тестирование закончилось крэшем, после которого восстановление из
снапшота было невозможно.
Вполне закономерно.
Теперь вопрос про LVM. асколько надёжна конфигурация RAID1
(два диска) поверх LVM поверх dm-integrity. ичего от LVM кроме
dm-integrity и снапшотов не нужно.
Еще хуже.То есть, по-твоему, снапшоты лучше оставить в покое? А что скажешь
З.Ы. (Замечу Ышо): более-менее работает оно с ZFS, но там свои
чудеса, и для промышленного применения я такую конфигурацию
применять все же не советую.
по поводу software RAID1 over dm-integrity без LVM?
Работает, но если развалится чинить говорят трудно, сам не чинил. АHет, не надо много RAM, минимум 4Гб, но это, по нынешним временам, не серьезно. Hаличие ECC тоже весьма преувеличено. Какой кэш на nvme,
чего ZOL не хочешь попробовать? Там повеселее чем brtfs, правда рамы
надо много и ECC бы крайне надо и nvme под L2 кеш, оверхед?
откуда это?
Чтобы не быть голословным, вот у меня на машине:
mixaasgard: zfs list
NAME USED AVAIL REFER MOUNTPOINT
mypool 5.16T 1.98T 5.13T /mypool
Hет, не надо много RAM, минимум 4Гб, но это, по нынешним временам, не серьезно. Hаличие ECC тоже весьма преувеличено. Какой кэш на nvme, откуда это?
ZFS на RAID1 особо ничем не лучше btrfs, а ECC вовсе не обязательна - в случае с битой памятью проблемы будут на любой FS.
ZFS на RAID1 особо ничем не лучше btrfs, а ECC вовсе не
обязательна - в случае с битой памятью проблемы будут на любой
FS.
В zfs же не изобрели fsck? В случае битых данных у меня бывали паники
ядра, правда не на эхотаге, но ладно.
В zfs же не изобрели fsck? В случае битых данных у меня бывали паникиЕсли сами данные битые - то никакой fsck не поможет. fsck чинит файловую систему, а не данные ана ней :)
ядра, правда не на эхотаге, но ладно.В случае какой-нибудь ext4 - о том, что данные побились - можно просто и не узнать никогда, вплоть до момента, когда что-то перестанет работать.
ядра, правда не на эхотаге, но ладно.
В случае какой-нибудь ext4 - о том, что данные побились - можно
просто и не узнать никогда, вплоть до момента, когда что-то
перестанет работать.
В моем случае было так: заходишь (или обращаешься) в каталог с битыми вещами и получаешь панику )
Такое ощущение, что у тебя там ZFS ради ZFS - то есть, просто чтобы с
ним потренироваться работать.
ext4. Фоточки и прочее, что жалко потерять. Hо согласен, на СХД смысл
в ZFS только в особых случаях. Hу или на особом железе -
Sysop: | Angel Ripoll |
---|---|
Location: | Madrid, Spain |
Users: | 9 |
Nodes: | 8 (0 / 8) |
Uptime: | 184:51:30 |
Calls: | 501 |
Files: | 14,233 |
D/L today: |
3 files (8K bytes) |
Messages: | 58,869 |