The OpenNET Project / Index page

[ новости /+++ | форум | теги | ]



Индекс форумов
Составление сообщения

Исходное сообщение
"Сторедж на 36 винтов"
Отправлено Ziggy Stardust, 04-Июн-09 14:06 
>>>-отказоустойчивость: требуется что бы массив данных был доступен всегда, а то что
>>Этот пункт противоречит с (*).
>Имеется в виду нужно то что дает mhddfs:
>Создается один виртуальный массив на хТБ, и если винт умирает, то у
>нас остается хТБ-1 винт - данные умирают, 10 винтов умерно -
>ну и хрен с ним у нас осталось хТБ-10 винтов данных,
>но все остальное работает хотя бы на чтение!!!

Это возможно только в случае, когда каждый винт - отдельная файловая система.
В этом случае вам никакие джибоды и никакие рейды не нужны.
Нужен сервер с карточкой/карточками скази/сас/сата (смотря какие винты), к которому по скази/сас подключаются внешние коробки с винтами. Дальше по вкусу ОС и собирайте их DFS'ом. Только я не представляю, как вы собрались эту распределенную ФС с одной общей для всех винтов точкой монтирования собирать...

>>Если денег есть, но на СХД не хватает, то покупайте серверный кузов
>>на много 2'' винтов (у супермикры точно есть на 24, вроде
>>есть и на 36), ставьте туда свежий Solaris и ZFS вам
>>в помощь.
>И как Себя будет вести Solaris и ZFS, когда Я выдерну 1-н,
>потом второй винт?...

Смотря как ZFS сконфигурите. Если raidz2 изначально построите и будут заранее объявлены hot-spare диски, то одновременный выход из строя двух винтов пройдет незаметно.

>И поддержка карточки заявлена только под Солярку на Спарках...

Скорее всего под х86 тоже заведется.

>>Если денег совсем мало, то можно конечно еще рассмотреть вариант с небрэндовым
>>дешевым сервером и внешними полками с винтами, которые по SAS или
>>SCSI подключаются к какому-нить многоканальному адаптековскому рейд-контроллеру. Но это нифига не
>>надежное решение.
>СХД уже есть, винты уже видны, (повторюсь) надо их обьеденить в виртуальный
>раздел, который переживет умирание диска/его выдергивание и для поддержания роботоспособности не
>надо будет много времени на простой при добавлении/удалении винчестиров...

Если уже есть СХД (если конечно вы под СХД понимаете нормальное железо класса хотя бы IBM 3400/SUN2540/...), то вы ее совершенно зря купили. СХД предназначены как раз для объединения много шпинделей в отказоустойчивые _рейд_ группы, а не для "остается хТБ-1 винт - данные умирают".

Мне вообще думается, что из ХХ отдельных файловых систем (а иначе никак, чтобы удовлетворять условию "10 винтов умерло - ну и хрен с ним у нас осталось хТБ-10 винтов данных") можно было собрать нечто, что для пользователя будет выглядеть единой файловой системой с одним корнем.

Возможно я просто не в теме. Как-то никогда подобное не интересовало. Мне больше приходится решать задачи вида "есть ХХ Гб/Тб данных, нужно чтобы ничего не просралось, а если и просралось, то можно восстановить за YY минут/часов".

 

Ваше сообщение
Имя*:
EMail:
Для отправки новых сообщений в текущей нити на email укажите знак ! перед адресом, например, !user@host.ru (!! - не показывать email).
Более тонкая настройка отправки ответов производится в профиле зарегистрированного участника форума.
Заголовок*:
Сообщение*:
 
При общении не допускается: неуважительное отношение к собеседнику, хамство, унизительное обращение, ненормативная лексика, переход на личности, агрессивное поведение, обесценивание собеседника, провоцирование флейма голословными и заведомо ложными заявлениями. Не отвечайте на сообщения, явно нарушающие правила - удаляются не только сами нарушения, но и все ответы на них. Лог модерирования.

На сайте действует частичное премодерирование - после публикации некоторые сообщения от анонимов могут автоматически скрываться ботом. После проверки модератором ошибочно скрытые сообщения раскрываются. Для ускорения раскрытия можно воспользоваться ссылкой "Сообщить модератору", указав в качестве причины обращения "скрыто по ошибке".



Партнёры:
PostgresPro
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2024 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру