Ну делловского контроллера, скорее всего, не поставите

, ну а в остальном... Для обсуждаемых здесь задач RAID на каждое лезвие - решение явно пионерское и безграмотное



Те задачи, которые вы тут обсуждаете, денег не приносят. 3$ за хостинг сайта. Вот ваши прибытки.
, ну если уж очень хочется - ставите в соседний отсек блейда корзину на 6 hotswap HDD + 2 встроенных. Но правильное решение - использовать общую СХД, подключаемую по FC или SAS-коммутатор, и нарезаешь луны каждому. Так и производительность, и отказоустойчивость выше, и возможен горячий перенос виртуалок, что для t3 немаловажно.
Какие "луны", мне нужен отдельный высокопроизводительный контроллер на сервер. Все. На кой мне за SAS коммутатор еще платить?
А теперь предоставьте в вашей схеме с блейдом, предоставить выделенный сервер. А я, очень требовательный клиент и требую рейд 6 на 8 SAS HDD. Делайте, я плачу бабки. Кстати, что бы вы понимали, отказоустойчивость вашей системы в вашем случае сводится к отказоустойчивости ОДНОГО SAS коммутатора и пары разьемов

А я этого не приемлю, у меня резервируются не подсистемы, а целый сервер со всеми подсистемами и корпусом впридачу

по схеме 1+1.
И кстати, "перенос виртуалок" и требования к Tier3 ДЦ никаким образом не коррелируют. У вас в голове каша.
Я специально дал ссылочку, где это все видно.
Мы сами себе ДЦ

Основной парк серверов - ХП блейды.
Покажите же вашу, собственную реализацию этих систем! Ну неужели так трудно в собственной серверной сфотографировать собственный блейд и собственный SAS коммутатор
Об эффективности - посчитайте сами, что вам понадобится для 16 серверов с резервированием по питанию? Напомнить также о КПД недогруженных импульсников? ХП корзина же жрет сейчас чуть меньше 2кВт, т.е. ей реально хватает одного БП (96% КПД), а всего их 6
Вы вообще понимаете, что в приличном ДЦ я об этом не забочусь Есть требования по Tier3 не менее 10кВт на стойку. Это стандарт, я за него плачу. Зачем мне экономить электроэнергию ДЦ?
Далее - расширенный температурный диапазон эксплуатации. Еще приятная фича - если сдохнет основной УПС (Что для симметры с N+2 тоже еще событие) или основной кондей, до их эстафету подхватит техника пониже классом/мощностью (экономия!). Так лезвия автоматом сбросят тактовую, чтобы вписаться в лимиты потребления/тепловыделения, но отказа обслуживания не будет.
Я в шоке, вы не отключили у Power Management States


прослезился, вобщем идите вы в сад со своими бреднями. Как называется ваша серверная и где ее фото можно посмотреть?
На питании в ДЦ я еще не видел, что бы экономили. В приличном ДЦ на стойку отведено от 10-15 кВт. Что бы запитать 35 двупроцессорных систем DELL 410/610 на базе Xeon 55хх в каждой по raid 5 на 6HDD лично мне было достаточно с большим запасом 10кВт, поэтому я всегда заказываю 2х25А + 10A для периферии. Кому нужна ваша экономия на спичках? Если питание на 10кВт уже включено в стоимость аренды стойки

В итоге я получаю полноценных 35 серверов с 210 HDD. Ну вот есть такие задачи.
Но, что самое интересное, хоть вы оформите 70 процессоров и 210 HDD в блейд, хоть насыпью в стойке, хоть как делают все нормальные инженеры в мире, набирают такие кластера из 1U серверов энергопотребление такого кластера - НЕ ИЗМЕНИТСЯ! Ну вот от перестановки места слагаемых сумма не меняется и все

Или вы в своей серверной обманываете закон Ома?
Я еще раз вам говорю, единственное достоинство, которое на выставках я для себя отмечал у блейд систем - это отсутствие 35 кабелей питания, 35-ти патчкордов и кабелей KVM (Но в стойке 1000х1000 все это прекрасно укладывается и обслуживается). Все, больше в блейдах полезного нет ничего, а в плане масштабируемости или вариантам по дисковой подсистеме - полный минус. А именно дисковая подсистема в современных серверах и есть самое узкое место. Сами инженеры HP, DELL, Sun на выставках заявляют, что блейды предназначены для серверных небольших компаний или филиалов и позволяют что то там экономить какие то копейки 10-12% электроэнергии и целый юнит! Ну оно и понятно , если на 16 блейд модулей 10 жестких дисков
