что могу сказать столкнулись с той же проблемой. Нагрузка на базу при начальных условиях была около 3,000,000 транзакций в день. Поняли сразу что без кластера и loadbalance'ра не обойтись Тестировались PGCluster и slony. Первый был очень удобен, синхронизировал всё сам вплоть до создания таблиц и сам же делал балансировку, но как только уронили кластер с 16 млн. записей, система не встала. Минус был в том, что на кластер пришлось затратить, 2 дата ноды, 2 репликатора, 2 failover балансировщика на carp инхерфейсах. Сейчас тестируется slony, нагрузка таже. база уже 38 млн. записей. ронялась 2 раза, 1 раз система встала колом на 1 день, мастер обогнал слэйва на 10 млн. записей, после устранения проблемы на слэйве, система заработала на полную через 30 минут. при этом всё транзакции продолжали фиксироваться. Минус как известно в конфигурировании. сейчас закупаем оборудование для построения кластера уже на ксеонах. Вывод: Мы выбрали слона, как более устойчивую систему от сбоев. Удобство администрирования было отодвинуто на последнее место.
|