1.1, anganar (?), 23:47, 14/02/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
> RedHat GFS - раздает raw девайс и пытается управлять блокировками на уровне блоков, без учета логической организации.
Давайте все же уточним. Работа с блоками происходит в фоне, незаметно для клиентов.
А наружу видна POSIX-совместимая ФС, с которой можно работать привычными средствами без каких-либо дополнительных шаманств.
(mount -t gfs -o acl /dev/vg01/lvo10 /gfs_mount и вперед) | |
|
2.2, Аноним (2), 10:38, 15/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
агу-агу. только попробуй на ней запустить какой-нить metadata intesive load, ну типа несколько клиентов создают/удаляют файлы в одном каталоге. тут-то она и отсосет чудовищно чмокая. а так-то POXIS, да ;)
| |
|
3.3, anganar (?), 12:06, 15/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
Уважаемый Аноним, а это к чему вообще было сказано? :-) Я вроде про интерфейс и тулзы, а Вы про производительность. ;-)
Но раз уж заговорили. С чем сравнивали? Результаты тестов есть? Просто я работал только с GFS. Если есть осмысленные сравнения с чем-нибудь еще, было бы очень интересно посмотреть. | |
|
4.4, Аноним (2), 17:08, 15/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
а мне пофиг, говорю только, что корявый дизайн у этой GFS. сравнений тоже никаких не нужно - почитайте как оно работает и что будет если две ноды одновременно модифицируют каталог. | |
4.5, johnjoy (??), 19:52, 16/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
Опубликовали незаметно =)
у GFS есть одно неоспоримое преимущество - она РАБОТАЕТ и денег не стоит.
Конечно, если есть возможность имеет смысл покупать polyserve или veritas на худой конец.
Однако среди бесплатных решений у GFS альтернатив не наблюдается. | |
|
|
6.8, johnjoy (??), 14:55, 17/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
прошу прощения, Вы поверх какого массива люстру запускали? а можно узнать конфигурацию Вашей RDBMS, запущенной поверх люстры? сильно быстро работает?
очень хочется приобщиться к мудрости | |
|
7.9, Аноним (2), 21:00, 18/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
ну да, ну да ... RDMBS ... только для этого кластерные fs и нужны, ага. | |
7.13, _umka_ (ok), 10:08, 22/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
>прошу прощения, Вы поверх какого массива люстру запускали? а можно узнать конфигурацию
>Вашей RDBMS, запущенной поверх люстры? сильно быстро работает?
>очень хочется приобщиться к мудрости
RDBMS как правило хотят raw storage для хранения данных и внутри делают свою FS - этого люстра не предоставляет. да и любая FS тут не нужна - тут нужно тупое разделение блоков причем механизм блокировок как правило тут свой, опять же dlm тут не нужны, там они свои.
мне кажется для вашей задачи будет лучше drbd или аналогии.
По части скорости.
Последние тесты на кластерах показывают скорость 80Gbyte/s для записи и 120Gbyte/s для чтения.
некоторые данные по бечмаркам и количеству активных пользоватей есть в
http://www.lustre.org/docs/selecting-a-cfs.pdf
хотя это больше рекламный буклет.
по части массив я сказал - от 150-200T это те которые я знаю, говорили еще о 1P - но реальных подтверждений я не видел.
Работа на кластерах IBM BlueGine/L, Cray XT3 (XT4). (тут раньше правильно заметили почти все из top10 так или иначе связано с люстрой).
| |
|
|
|
4.6, johnjoy (??), 19:56, 16/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
а, ну OCFS(2) еще, но а) специфика - точили под БД оракла и б) по отзывам (полгода-год назад) производительность на уровне того же GFS
| |
|
|
2.12, _umka_ (ok), 09:56, 22/02/2007 [^] [^^] [^^^] [ответить]
| +/– |
в люстре тоже самое.
mount -t lustre 172.20.2.20@tcp:/lustre /mnt/lustre2
-o acl по желанию.
По части массивов на которых работает люстра.. Судя по отчетам LLNL у них используется не менее 200T в стораджах, японцы заявляли о 1P в storage array при миниум 2000 активных клиентов.
Осталось спросить - на сколькоих клиентах и насколько больших массивах вы тестирования GFS?
| |
|
1.11, liks (??), 15:51, 21/02/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
По-моему какой-то набросок текста "ни о чем". Тот кто работает с кластерами, тот должен знать о существовании всех перечисленных ФС. Кто не работает - тому и не надо :)
Лучше бы подробно сравнили реализации и производительность раз времени дофика! | |
1.14, smartcgi (?), 19:12, 26/02/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Никто не подскажет одну вещь.
У нас есть кластер на GFS + SAN + fabric switch
LA довольно большой на больших скоростях.
Если поставить IPoIB для интерфейсов где идет обмен локами, насколько это может существенно поднять производительность?
сейчас ping между серваками - 90ums. У IB вроде ~5-10ums?
thx | |
1.15, geekkoo (ok), 08:37, 01/04/2007 [ответить] [﹢﹢﹢] [ · · · ]
| +/– |
Ужас. Какая-то каша.
>AFS - сетевая ФС.
>Если подробнее - то AFS относится примерно к тому >классу, в котором сидят NFS, SMB, и win2K3 DFS.
Очень грубо. На самом деле AFS (+ Coda, а также мертвая Intermezzo) это так называемые распределеннные FS, они где-то между сетевыми FS и кластерными (хотя ЕМНИП для OpenAFS есть соответствующие патчи, превращающие ее в кластерную FS). Распределенные FS предлагают в том или ином виде fail-over и балансировку нагрузки между серверами + действительно централизованный контроль за хранилищем данных (пусть оно и размазано по нескольким серверам). В отличии от SMB/NFS понятия "шар" там нет - хранилище данных форматируется специально и сервер/клиент физически разнесены (в Coda это обязательное требование).
Кластерные FS занимают совсем другую нишу. Автор, кстати, забыл упомянуть еще довольно известную кластерную систему PVFS/PVFS2. Насколько я себе представляю, под кластерными FS обычно понимают "параллельные" системы, что-то вроде сетевого RAID-а, где файл может быть физически размазан по нескольким дискам. Стандарт MPI (и следовательно MPI-enabled программы) позволяют одновременно писать и читать файлы с нескольких серверов. Для не-MPI программ особой разницы по сравнению с обычными сетевыми FS нет. Кроме того, в отличии от сетвых и распределенных FS для кластерных FS безопасность, шифрование и аутентификация не столь важны, поскольку кластер обычно пространственно локализован, "человечку посередине" туда сложно пробраться. | |
|