Объявление

Collapse
No announcement yet.

NAS

Collapse
X
 
  • Filter
  • Время
  • Show
Clear All
new posts

  • #61
    Сообщение от Safelight Посмотреть сообщение
    роутер (Asus RT-AC86U)
    Желательно поставить DD-WRT, а то могут хакнуть.

    Comment


    • #62
      Сообщение от Turmalin Посмотреть сообщение
      Сообщение от Safelight
      Апну тему.
      Сколняюсь к ZFS на Ubuntu Server,
      Еще Ceph можно попробовать, он тоже офигительно гибкий. Заодно и новая работа найдется.

      Comment


      • #63
        Сообщение от Nikitich Посмотреть сообщение
        Желательно поставить DD-WRT, а то могут хакнуть.
        Последний stable release 11 лет назад??? Fck yeah!!!
        Ибу ибуди
        дадао муди

        Comment


        • #64
          Сообщение от Turmalin Посмотреть сообщение
          Аналогичные, не ZFS конечно.
          Я пользуюсь ZFS c 2016. Могу сказать отличная система.
          Всем кто сомневается очень рекомендую. Если вы не храните всякий хлам скачанный из инета а только ваши личные данные то тогда рекомендую raid1. У меня raid 1 из 4х винтов на 3TB.
          4 года назад я бы про себя сказал ты что дурак делать raid1 из 4 дисков? Raid5 сразу отпал ибо много на него нареканий что при падении одного диска происходят потери. Первоначально думал делать raidz2, так вот почитав и понял что сразу надо купить много дисков и потом расширять трудности. Вычитал один товарищь рекомендовал зеркало ибо хорошо тем что начинать можно всего с двух винтов и что оно гораздо быстрее. Могу сказать зеркало медленное на запись в компе XEON 4 Cores 8Gb Ram при ключенном сжатии lz4 & deduplication, про raid5 даже думать не хочу. Так я и сделал. Сначала поигрался на VirtualBox в самом начале убил массив когда решил его импортировать с ключом -f.
          Было страшно, но все же не бросил и очень тому рад.
          Из плюсов COW(copy on write), snapshoots и из-за наличия deduplication меня не парит что у меня файлы во многих экемплярах. Чищу, не видно конца все дипликатам но к пенсии надеюсь закончить))). Из 4 дисков массива постоянно подлючены 2. 2 других подключаются раз в квартал по очереди для синхронизации(20 часов). В итоге у меня есть еще два диска в которых отражены состояния 3 и 6 месяцев назад. Плюс еще снапшуты.
          Единственное что меня беспокоит так это апгрейд надо делать вскоре на новую версию ZFS. Надо будет тестировать.
          Очень жалею что раньше не начал ее пользоваться.

          Comment


          • #65
            Сообщение от Turmalin Посмотреть сообщение
            Последний stable release 11 лет назад??? Fck yeah!!!
            Openwrt с последними релизами а что толку? вот недавно баг opkg грузят по http не проверяя hash. Это бля бэкдор никак не назовешь иначе. Простите меня за мой французский ну слов других не находится

            Comment


            • #66
              За 9 месяцев нареканий нет. RAIDZ1 (4Tbx4). Диски разношерстные, даже выглядят по-разному (намеренно, по рекомендации с форумов - не брать из одной партии, снижать вероятность одновременнного отказа). Была смешанная конфигурация на разных разделах, последняя до апгрейда 4HDD, 7 разделов (2Tb*4 RAIDZ1 + 2Tb*3 JBOD+MergerFS). Все разделы ZFS.
              После апгрейда игрой в переливания данных все нормально расширилось ("вертикально", когда объем дисков/разделов увеличился, а не их количество) и засинхровалось.
              Проапгрейдил на 20.04LTS - ничего не упало.
              Те, кто гонит на RAIDZ1, видимо, никогда не делали scrub (вероятность отказа при скрабе не меньше, чем при resilvering - при этом за счет постоянной перезаписи на новай драйв, исходные драйвы, с которых читается, греются меньше, - считывание идет с паузами, видимо, за счет разности скоростей чтения и записи).

              После выхода на нормальный массив никаких улучшений не делал - работает, и хрен с ним. Снэпшоты по расписанию, от суток до года (нам не страшен ransomware). Персональные данные зашифрованы, с ключом на флешке.
              One day you're a hero next day you're a clown.

              Comment


              • #67
                Кстати, подумываю вернуться к подобной конфигурации, если файлопомойка переполнится.
                Критичные данные - в рейд, не критичные - JBOD+MergerFS. Например, 1Tb*4 (3Tb защищенного) RAIDZ1+ оставшиеся 3Tb*4 JBOD (12Tb помойка).
                Если диск улетит - беру бОльшего объема (6Tb), так же два раздела - один в raid, остаток - в JBOD, грубо - что останется.
                Это еще одно из свойств ZFS - гибкость к использеуемым носителям. Лепить рейд не обязательно из дисков одинакового размера, при этом можно использовать все пространство без потерь.
                Я, когда экспериментировал с ZFS на устойчивость, делал и зеркала из двух драйвов, и RAIDZ1 из пяти разделов на одном физическом носителе, у которого сектора начали сыпаться. Зачет сдан - хрен утопишь. 5 dirty shutdowns в момент записи россыпи файлов без redundancy, подряд, - ни одного сбоя данных.
                One day you're a hero next day you're a clown.

                Comment

                Working...
                X