Уровень доступности информационной системы. «эталонные архитектуры максимальной доступности oracle (oracle maximum availability architecture) основа подхода dbaas (база данных как сервис) официальный документ oracle. Когда необходима высокая доступность

10.09.2023

Доступность

Основные понятия

Информационная система предоставляет своим пользователям определенный набор услуг (сервисов). Говорят, что обеспечен нужный уровень доступности этих сервисов, если следующие показатели находятся в заданных пределах:

  • Эффективность услуг . Эффективность услуги определяется в терминах максимального времени обслуживания запроса, количества поддерживаемых пользователей и т.п. Требуется, чтобы эффективность не опускалась ниже заранее установленного порога.
  • Время недоступности. Если эффективность информационной услуги не удовлетворяет наложенным ограничениям, услуга считается недоступной. Требуется, чтобы максимальная продолжительность периода недоступности и суммарное время недоступности за некоторой период (месяц, год) не превышали заранее заданных пределов.

В сущности, требуется, чтобы информационная система почти всегда работала с нужной эффективностью. Для некоторых критически важных систем (например, систем управления) время недоступности должно быть нулевым, без всяких "почти". В таком случае говорят о вероятности возникновения ситуации недоступности и требуют, чтобы эта вероятность не превышала заданной величины. Для решения данной задачи создавались и создаются специальные отказоустойчивые системы, стоимость которых, как правило, весьма высока.

К подавляющему большинству коммерческих систем предъявляются менее жесткие требования, однако современная деловая жизнь и здесь накладывает достаточно суровые ограничения, когда число обслуживаемых пользователей может измеряться тысячами, время ответа не должно превышать нескольких секунд, а время недоступности – нескольких часов в год.

Задачу обеспечения высокой доступности необходимо решать для современных конфигураций, построенных в технологии клиент/сервер. Это означает, что в защите нуждается вся цепочка – от пользователей (возможно, удаленных) до критически важных серверов (в том числе серверов безопасности).

Основные угрозы доступности были рассмотрены нами ранее.

В соответствии с ГОСТ 27.002, под отказом понимается событие, которое заключается в нарушении работоспособности изделия. В контексте данной работы изделие – это информационная система или ее компонент.

В простейшем случае можно считать, что отказы любого компонента составного изделия ведут к общему отказу, а распределение отказов во времени представляет собой простой пуассоновский поток событий. В таком случае вводят понятие интенсивности отказов и среднего времени наработки на отказ, которые связаны между собой соотношением

Рис. 13.1.

где i – номер компонента,

λ i – интенсивность отказов,

T i – среднее время наработки на отказ.

Интенсивности отказов независимых компонентов складываются:

Рис. 13.2.

а среднее время наработки на отказ для составного изделия задается соотношением

Рис. 13.3.

Уже эти простейшие выкладки показывают, что если существует компонент, интенсивность отказов которого много больше, чем у остальных, то именно он определяет среднее время наработки на отказ всей информационной системы. Это является теоретическим обоснованием принципа первоочередного укрепления самого слабого звена.

Пуассоновская модель позволяет обосновать еще одно очень важное положение, состоящее в том, что эмпирический подход к построению систем высокой доступности не может быть реализован за приемлемое время. При традиционном цикле тестирования/отладки программной системы по оптимистическим оценкам каждое исправление ошибки приводит к экспоненциальному убыванию (примерно на половину десятичного порядка) интенсивности отказов. Отсюда следует, что для того, чтобы на опыте убедиться в достижении необходимого уровня доступности, независимо от применяемой технологии тестирования и отладки, придется потратить время, практически равное среднему времени наработки на отказ. Например, для достижения среднего времени наработки на отказ 10 5 часов потребуется более 10 4,5 часов, что составляет более трех лет. Значит, нужны иные методы построения систем высокой доступности, методы, эффективность которых доказана аналитически или практически за более чем пятьдесят лет развития вычислительной техники и программирования.

Пуассоновская модель применима в тех случаях, когда информационная система содержит одиночные точки отказа, то есть компоненты, выход которых из строя ведет к отказу всей системы. Для исследования систем с резервированием применяется иной формализм.

В соответствии с постановкой задачи будем считать, что существует количественная мера эффективности предоставляемых изделием информационных услуг. В таком случае вводятся понятия показателей эффективности отдельных элементов и эффективности функционирования всей сложной системы.

В качестве меры доступности можно принять вероятность приемлемости эффективности услуг, предоставляемых информационной системой, на всем протяжении рассматриваемого отрезка времени. Чем большим запасом эффективности располагает система, тем выше ее доступность.

При наличии избыточности в конфигурации системы вероятность того, что в рассматриваемый промежуток времени эффективность информационных сервисов не опустится ниже допустимого предела, зависит не только от вероятности отказа компонентов, но и от времени, в течение которого они остаются неработоспособными, поскольку при этом суммарная эффективность падает, и каждый следующий отказ может стать фатальным. Чтобы максимально увеличить доступность системы, необходимо минимизировать время неработоспособности каждого компонента. Кроме того, следует учитывать, что, вообще говоря, ремонтные работы могут потребовать понижения эффективности или даже временного отключения работоспособных компонентов; такого рода влияние также необходимо минимизировать.

«Доступность», «три девятки после запятой» — эти термины часто употребляют при обсуждении новых ИТ-решений. ИТ‑архитекторы предлагают заказчику проект новой системы, особенно обращая внимание на то, что она обладает очень высокой доступностью. Контракт заключен, система построена, акты о сдаче комплекса подписаны, начинается эксплуатация… Именно на стадии эксплуатации можно проверить «качество» созданной системы, и именно тогда может наступить разочарование. Что же скрывается за магическими «девятками»? Что в действительности обещают на этапе проектирования? И кто отвечает за доступность?

Доступность: введение в предмет

Самый правильный способ понять, что такое доступ­ность, - разобраться, зачем она нужна. До­ступность - это характеристика того, что хочет получить бизнес от ИТ‑службы. К сожалению, некоторые представители бизнеса на вопрос о желаемой доступности ИТ-услуги отвечают примерно следующее: «Хочу, чтобы всё всегда работало». В этом случае писать техническое задание на услугу приходится ИТ-менеджеру, в том числе определяя параметры доступности. Итак, доступность - это параметр ИТ-услуги, которую потребляет бизнес и которую предоставляет ИТ‑служба. Формула расчета доступности такова:

Availability = (AST - DT)/AST×100 = Servise or Component Availability (%)

где
AST (agreed service time) - согласованное время предоставления услуги;
DT (actual downtime during agreed service time) - фактическое время, когда услуга была недоступна в течение согласованного времени её предоставления.

Особенности расчета доступности проще понять на конкретном примере. Попробуем определить доступность ИТ-услуги «интернет-магазин» для компании ААА, расположенной в Москве, которая продает книги. При этом книги и их доставку в любой город можно оплатить, например, с помощью кредитной карты. Очевидно, что заказы на доставку будут обрабатываться только в рабочие дни с 9 до 18.

Но каким будет AST - согласованное время предоставления услуги? Для ответа на этот вопрос необходимо учесть, что люди могут размещать заказы в нерабочее время, и обязательно взять в расчет то, что в России 11 часовых поясов. Следовательно, предоставлять услугу надо 24 часа в сутки 7 дней в неделю.

Теперь нужно разобраться с DT - временем, когда услуга может быть недоступна. Здесь без переговоров с бизнесом не обойтись. Вполне возможно, что четыре часа недоступности услуги один раз в месяц может быть вполне адекватным выбором для данного примера. Однако надо учесть один нюанс - период времени, в течение которого проводится оценка параметра DT, то есть собственно согласованное время предоставления услуги (AST). Выбор периода AST - личное дело договаривающихся сторон: бизнеса и ИТ‑службы. В качестве такого периода лучше взять неделю или несколько недель, так как месяц или год - величины непостоянные (включают разное количество дней). Однако нужно обращать внимание и на психологию: более короткие периоды времени могут быть негативно восприняты бизнесом. В нашем примере то же самое значение доступности соответствует простою примерно час в неделю. Однако бизнесу может не понравиться, что интернет-магазин будет недоступен в течение часа каждую неделю, хотя на четыре часа простоя в месяц он может согласиться. С другой стороны, иногда невозможно эксплуатировать ИТ‑систему без того, чтобы не остановить её на несколько часов для плановых работ по обслуживанию. Такие плановые простои тоже должны быть учтены при выборе DT, что, в свою очередь, может привести к пересмотру параметра AST.

Исходя из вышеизложенного мы выбираем 4 часа недоступности услуги один раз в течение четырех недель. То есть AST = 4 недели, DT = 4 часа. Тогда доступность такова:

Availability = (24×7×4–4)/(24×7×4)×100% = 99,40%

Вполне возможно, что бизнес будет не согласен. В этом случае нужно выяснить, на какой вариант он согласится. В дальнейшем можно просчитать два варианта аппаратно-программных комплексов с различной доступностью и переговоры с бизнесом вести, основываясь на сравнении стоимости обоих вариантов. Вообще переговоры с бизнесом и бюджетирование ИТ‑службы - это отдельная тема, для раскрытия которой, пожалуй, по­требуется не одна книга. Поэтому допустим, что в нашем примере доступность посчитана и согласована и можно переходить к созданию системы.

Обратите внимание, что мы определили необходимую доступность до того, как стали работать над решением, которое ее обеспечивает, а не наоборот - сначала выбрали решение и стали считать его доступность. Техническое задание первично, а требуемая доступность - это один из параметров, зафиксированный в нём. Когда система будет сдана в эксплуатацию, доступность должна соответствовать требуемому значению. Поэтому мы советуем в соглашении с бизнесом (SLA - Service Level Agreement) подробно расшифровать, что подразумевается под цифрой доступности (в нашем примере так: «4 часа недоступности услуги один (1) раз в течение четырех (4) недель»), чтобы все стороны однозначно понимали, чтó действительно скрывается за цифрами.

Три составляющие доступности

Самое первое, что нужно осознать при выборе решения, - это из чего состоит доступность ИТ-услуги. Множество разочарований во время эксплуатации объясня­ется тем, что доступность услуги, которую хочет получить бизнес, напрямую связывают с доступностью оборудования. Однако доступность ИТ-услуги представляет собой совокупность трех составляющих:
1) Reliability - обычно переводится как надежность;
2) Maintainability - переводится как «обслуживаемость»;
3) Serviceability - ремонтопригодность.
Разберем каждый из этих пунктов.

Reliability

Reliability - это доступность инфраструктуры или аппаратно-программного комплекса в целом, включая коммуникации. Например, для интернет-магазина нам нужен веб‑сервер, сервер приложений, СУБД, дисковое хранилище и доступ в Интернет. Для простоты будем считать, что программное обеспечение «сервер приложений» включает в себя веб‑сервер и будет установлено на одном аппаратном сервере, СУБД - на втором, а дисковое хранилище представляет собой внешний дисковый массив.

Начинаем творить - строим проект инфраструктуры. Под каждым компонентом напишем параметры его доступности. Доступность каждого компонента - далее будем пользоваться термином «надежность» - должна быть получена от поставщика компонента (оборудования, программного обеспечения или услуги). Если это по каким‑либо причинам невозможно (например, для программных компонентов значение надежности, как правило, неизвестно) - искомую величину придётся самостоятельно оценить и назначить. Каждый компонент является единой точкой отказа, поэтому на рабочей схеме для расчета надежности они соединены последовательно (рис. 1). Заметим, что это не схема соединения компонентов инфраструктуры, а лишь схема расчета надежности.

Итак, рассчитываем надежность. Поскольку у нас последовательное соединение компонентов, то величины надежности перемножаются:

Reliability = (0,985×0,97×0,975×0,98×0,99×0,9999×0,99)×100%= 89,47%

Это явно недостаточно по сравнению с требуемым значением 99,40%. Тогда изменим решение - включим в систему альтернативного поставщика услуг доступа в Интернет (рис. 2) и рассчитаем его надежность. Поскольку относительно интернет-доступа мы имеем параллельное соединение, общая надежность определяется следующим образом:

Общая надежность =

Reliability = ×100% = 91,72%

Думаю, что принцип «работы с надежностью» будущей системы продемонстрирован. Следует обратить внимание, что в рассмотренном примере не фигурировали компоненты сетевой инфраструктуры и надежность соединений (например, между сервером базы данных и дисковым хранилищем), а также компоненты технической инфраструктуры (электропитание, кондиционирование и т. п.), которые также являются точками отказа и должны быть включены в расчет. Отдельного внимания заслуживает оценка надежности программных компонентов. Здесь основной совет заключается в разумном консерватизме: использовать программные компоненты, которые эксплуатируются в подобных решениях продолжительное время и хорошо себя зарекомендовали.

С помощью приемов, которые были кратко рассмотрены выше, можно выбрать решение с требуемой доступностью.

Maintainability и Serviceability

Переходим к другим составляющим до­ступ­нос­ти - maintainability и serviceability. Замечу, что переводы «обслуживаемость» и «ремонтопригодность» неудачны, поскольку из них малопонятно, что это значит. Лучше использовать более понятные переводы: maintainability - деятельность внутренней ИТ‑службы организации; serviceability - услуги, предоставляемые внешними поставщиками.

Чтобы прояснить ситуацию, рассмотрим крайние варианты. В каком случае полностью отсутствует maintainability (деятельность внутренней ИТ‑службы организации)? Это бывает, когда компания собственную ИТ‑службу отдает на аутсорсинг. Здесь доступность складывается только из надежности и услуг, предоставляемых внешними поставщиками.

В каком случае полностью отсутствует serviceability (услуги, предоставляемые внешними поставщиками)? Это происходит, например, в ФСБ, которая из соображений секретности всю деятельность по поддержанию системы в рабочем состоянии вынуждена вести исключительно силами своего ИТ-подразделения, даже запчасти покупаются самостоятельно, а не поставляются в рамках контракта технической поддержки. Тогда доступность складывается только из надежности системы и деятельности внутренней ИТ‑службы организации.

Понятно, что выбирать решение нужно одновременно с проработкой схем обеспечения maintainability и serviceability. В целом reliability, maintainability и serviceability - это три составляющие доступности. Изменение одной из них должно быть скомпенсировано изменениями двух других - иначе изменится параметр доступности ИТ-услуги, что может нанести ущерб бизнесу.

Способы манипулирования составляющими доступности

Чтобы понять, каким образом можно манипулировать всеми составляющими доступности, рассмотрим другой практический пример. Компания, имеющая центры обработки данных в двух городах России, Зеленограде (город - спутник Москвы) и Иркутске, приобрела две одинаковые системы «под ключ». Следовательно, надежность - reliability - у них одинаковая. Обе ИТ‑системы были обеспечены одинаковыми контрактами технической поддержки на аппаратную и программную части, значит, услуги, предоставляемые внешними поставщиками, - serviceability - также были одинаковы. Однако доступность систем оказалась разная. И компания стала жаловаться поставщику на плохую доступность системы в Иркутске, утверждая, что одно из решений «бракованное», и требуя провести его аудит.

Однако в данном случае аудит решения скорее всего не выявит корневую причину «провала» доступности, так как будет исследована только одна составляющая - Reliability, которая должна быть одинаковой у обеих систем, а исследовать нужно как раз две другие составляющие. Если обратить внимание на них, то выяснится, что возможны два варианта.

Вариант 1: к потере доступности привели аппаратные сбои. Из-за географического положения центров обработки данных одинаковые контракты технической поддержки аппаратной части на самом деле могут оказаться разными. Например, сервисный центр внешнего поставщика расположен в Москве, а в контракте технической поддерж­ки написано, что он действует только в рабочие дни и инженер прибывает на место установки оборудования «первым доступным железнодорожным или авиарейсом». Очевидно, что для инженера, отбывающего из Москвы, эта величина будет разной для Зеленограда и Иркутска.

Возможные варианты решения проблемы с доступностью в этом случае:

  • изменить надежность ИТ‑системы в Иркутске, например поставить дополнительный узел в кластер;
  • изменить параметр serviceability - создать склад в Иркутске, получить возможность для ИТ‑специалистов компании самостоятельно менять неисправные компоненты, если это не противоречит правилам производителя.

Кроме того, имеет смысл проверить условия эксплуатации. Примеры типичных нарушений этих условий:

  • проведение ремонтных работ в помещениях при включённых системах, что приводит к их запыленности, а пыль очень опасна для серверного оборудования;
  • использование бытовых кондиционеров в серверных комнатах, хотя у каждого вида оборудования есть свои требования по влажности и бытовые кондиционеры не рассчитаны на поддержание её заданного уровня, а совершенно сухой воздух губителен для техники.

Вариант 2: к снижению требуемого уровня доступности привели программные сбои. В этом случае скорее всего проблема в ИТ‑службе в Иркутске. Услуги технической поддержки программного обеспечения предоставляются в дистанционном режиме. Следовательно, разницы в услугах нет за исключением того, что для разных часовых поясов существуют различные периоды предоставления услуг по отношению к местному времени, но это, как правило, существенного влияния не оказывает. Вероятной при­чиной «провала» доступности здесь является разный уровень профессионализма ИТ‑департаментов - в Иркутске он наверняка ниже, чем в Зеленограде. Возможные ре­шения:

  • подтянуть maintainability до нужного уровня - провести обучение ИТ-персонала в Иркутске по программным и аппаратным продуктам, входящим в состав ИТ‑системы, организовать семинары по передаче опыта ИТ-команды из Зеленограда, скопировать процессы эксплуатации и т. п.;
  • компенсировать maintainability за счет serviceabi­lity - приобрести расширенные услуги технической поддерж­ки, услуги ауттаскинга и т. п.

Если вернуться к нашему примеру с интернет-магазином, то какое сочетание reliability, maintainability и serviceability будет оптимальным? Ответ на этот вопрос зависит от каждого конкретного случая. Например, можно порекомендовать хостинг вместо того, чтобы полностью реализовывать всю инфраструктуру (ИТ и техническую) самостоятельно. В общем случае имеем следующие типовые способы управления доступностью. 1. Изменение reliability (надежности):

  • изменение ИТ-решения в сторону высокой доступности (High Availability) - использование кластеров, применение оборудования с поддержкой «горячей» замены, неоднократного дублирования потенциальных точек отказа и т. п.;
  • аренда всей инфраструктуры или её части у внешних поставщиков (хостинг, collocation).

2. Изменение maintainability (изменения в деятельности ИТ‑службы компании):

  • распространение внутри организации собственного передового опыта управления ИТ;
  • приглашение внешних консультантов для организации процессов в ИТ-подразделении;
  • обучение ИТ-персонала.

3. Изменение serviceability - изменение контрактов ИТ-услуг с внешними поставщиками в сторону повышения уровня сервиса, увеличения объема услуг, расширения зоны ответственности внешних поставщиков услуг и т. п. Все приемы манипулирования тремя источниками и тремя составными частями доступности изложить в рамках одной статьи невозможно, однако основные подходы к компенсированию одних составляющих доступности другими были продемонстрированы. Для дальнейшего повышения мастерства в этой области следует изучать практический опыт проектирования и эксплуатации ИТ‑систем.

Есть разновидности бизнеса, где перерывы в предоставлении сервиса недопустимы. Например, если у сотового оператора из-за поломки сервера остановится биллинговая система, абоненты останутся без связи. От осознания возможных последствий этого события возникает резонное желание подстраховаться.

Мы расскажем какие есть способы защиты от сбоев серверов и какие архитектуры используют при внедрении VMmanager Cloud: продукта, который предназначен для создания кластера высокой доступности .

Предисловие

В области защиты от сбоев на кластерах терминология в Интернете различается от сайта к сайту. Для того чтобы избежать путаницы, мы обозначим термины и определения, которые будут использоваться в этой статье.
  • Отказоустойчивость (Fault Tolerance, FT) - способность системы к дальнейшей работе после выхода из строя какого-либо её элемента.
  • Кластер - группа серверов (вычислительных единиц), объединенных каналами связи.
  • Отказоустойчивый кластер (Fault Tolerant Cluster, FTC) - кластер, отказ сервера в котором не приводит к полной неработоспособности всего кластера. Задачи вышедшей из строя машины распределяются между одной или несколькими оставшимися нодами в автоматическом режиме.
  • Непрерывная доступность (Continuous Availability, CA) - пользователь может в любой момент воспользоваться сервисом, перерывов в предоставлении не происходит. Сколько времени прошло с момента отказа узла не имеет значения.
  • Высокая доступность (High Availability, HA) - в случае выхода из строя узла пользователь какое-то время не будет получать услугу, однако восстановление системы произойдёт автоматически; время простоя минимизируется.
  • КНД - кластер непрерывной доступности, CA-кластер.
  • КВД - кластер высокой доступности, HA-кластер.
Пусть требуется развернуть кластер из 10 узлов, где на каждой ноде запускаются виртуальные машины. Стоит задача защитить виртуальные машины от сбоев оборудования. Для увеличения вычислительной плотности стоек принято решение использовать двухпроцессорные серверы.

На первый взгляд самый привлекательный вариант для бизнеса тот, когда в случае сбоя обслуживание пользователей не прерывается, то есть кластер непрерывной доступности. Без КНД никак не обойтись как минимум в задачах уже упомянутого биллинга абонентов и при автоматизации непрерывных производственных процессов. Однако наряду с положительными чертами такого подхода есть и “подводные камни”. О них следующий раздел статьи.

Continuous availability / непрерывная доступность

Бесперебойное обслуживание клиента возможно только в случае наличия в любой момент времени точной копии сервера (физического или виртуального), на котором запущен сервис. Если создавать копию уже после отказа оборудования, то на это потребуется время, а значит, будет перебой в предоставлении услуги. Кроме этого, после поломки невозможно будет получить содержимое оперативной памяти с проблемной машины, а значит находившаяся там информация будет потеряна.
Для реализации CA существует два способа: аппаратный и программный. Расскажем о каждом из них чуть подробнее.

Аппаратный способ представляет собой “раздвоенный” сервер: все компоненты дублированы, а вычисления выполняются одновременно и независимо. За синхронность отвечает узел, который в числе прочего сверяет результаты с половинок. В случае несоответствия выполняется поиск причины и попытка коррекции ошибки. Если ошибка не корректируется, то неисправный модуль отключается.
На Хабре недавно была на тему аппаратных CA-серверов. Описываемый в материале производитель гарантирует, что годовое время простоя не более 32 секунд. Так вот, для того чтобы добиться таких результатов, надо приобрести оборудование. Российский партнёр компании Stratus сообщил, что стоимость CA-сервера с двумя процессорами на каждый синхронизированный модуль составляет порядка $160 000 в зависимости от комплектации. Итого на кластер потребуется $1 600 000.

Программный способ.
На момент написания статьи самый популярный инструмент для развёртывания кластера непрерывной доступности - от VMware. Технология обеспечения Continuous Availability в этом продукте имеет название “Fault Tolerance”.

В отличие от аппаратного способа данный вариант имеет ограничения в использовании. Перечислим основные:

  • На физическом хосте должен быть процессор:
    • Intel архитектуры Sandy Bridge (или новее). Avoton не поддерживается.
    • AMD Bulldozer (или новее).
  • Машины, на которых используется Fault Tolerance, должны быть объединены в 10-гигабитную сеть с низкими задержками. Компания VMware настоятельно рекомендует выделенную сеть.
  • Не более 4 виртуальных процессоров на ВМ.
  • Не более 8 виртуальных процессоров на физический хост.
  • Не более 4 виртуальных машин на физический хост.
  • Невозможно использовать снэпшоты виртуальных машин.
  • Невозможно использовать Storage vMotion.
Полный список ограничений и несовместимостей есть .
Экспериментально установлено, что технология Fault Tolerance от VMware значительно “тормозит” виртуальную машину. В ходе исследования vmgu.ru после включения FT производительность ВМ при работе с базой данных упала на 47%.

Лицензирование vSphere привязано к физическим процессорам. Цена начинается с $1750 за лицензию + $550 за годовую подписку и техподдержку. Также для автоматизации управления кластером требуется приобрести VMware vCenter Server, который стоит от $8000. Поскольку для обеспечения непрерывной доступности используется схема 2N, для того чтобы работали 10 нод с виртуальными машинами, нужно дополнительно приобрести 10 дублирующих серверов и лицензии к ним. Итого стоимость программной части кластера составит 2 *(10 + 10)*(1750 + 550)+ 8000 =$100 000.

Мы не стали расписывать конкретные конфигурации нод: состав комплектующих в серверах всегда зависит от задач кластера. Сетевое оборудование описывать также смысла не имеет: во всех случаях набор будет одинаковым. Поэтому в данной статье мы решили считать только то, что точно будет различаться: стоимость лицензий.

Стоит упомянуть и о тех продуктах, разработка которых остановилась.

Есть Remus на базе Xen, бесплатное решение с открытым исходным кодом. Проект использует технологию микроснэпшотов. К сожалению, документация давно не обновлялась; например, установка описана для Ubuntu 12.10, поддержка которой прекращена в 2014 году. И как ни странно, даже Гугл не нашёл ни одной компании, применившей Remus в своей деятельности.

Предпринимались попытки доработки QEMU с целью добавить возможность создания continuous availability кластера. На момент написания статьи существует два таких проекта.

Первый - Kemari , продукт с открытым исходным кодом, которым руководит Yoshiaki Tamura. Предполагается использовать механизмы живой миграции QEMU. Однако тот факт, что последний коммит был сделан в феврале 2011 года говорит о том, что скорее всего разработка зашла в тупик и не возобновится.

Второй - Micro Checkpointing , основанный Michael Hines, тоже open source. К сожалению, уже год в репозитории нет никакой активности. Похоже, что ситуация сложилась аналогично проекту Kemari.

Таким образом, реализации continuous availability на базе виртуализации KVM в данный момент нет.

Итак, практика показывает, что несмотря на преимущества систем непрерывной доступности, есть немало трудностей при внедрении и эксплуатации таких решений. Однако существуют ситуации, когда отказоустойчивость требуется, но нет жёстких требований к непрерывности сервиса. В таких случаях можно применить кластеры высокой доступности, КВД.

High availability / высокая доступность

В контексте КВД отказоустойчивость обеспечивается за счёт автоматического определения отказа оборудования и последующего запуска сервиса на исправном узле кластера.

В КВД не выполняется синхронизация запущенных на нодах процессов и не всегда выполняется синхронизация локальных дисков машин. Стало быть, использующиеся узлами носители должны быть на отдельном независимом хранилище, например, на сетевом хранилище данных. Причина очевидна: в случае отказа ноды пропадёт связь с ней, а значит, не будет возможности получить доступ к информации на её накопителе. Естественно, что СХД тоже должно быть отказоустойчивым, иначе КВД не получится по определению.

Таким образом, кластер высокой доступности делится на два подкластера:

  • Вычислительный. К нему относятся ноды, на которых непосредственно запущены виртуальные машины
  • Кластер хранилища. Тут находятся диски, которые используются нодами вычислительного подкластера.
На данный момент для реализации КВД с виртуальными машинами на нодах есть следующие инструменты:
  • Heartbeat версии 1.х в связке с DRBD;
  • Pacemaker;
  • VMware vSphere;
  • Proxmox VE;
  • XenServer;
  • Openstack;
  • oVirt;
  • Red Hat Enterprise Virtualization;
  • Windows Server Failover Clustering в связке с серверной ролью “Hyper-V”;
  • VMmanager Cloud.
Познакомим вас с особенностями нашего продукта VMmanager Cloud.

VMmanager Cloud

Наше решение VMmanager Cloud использует виртуализацию QEMU-KVM. Мы сделали выбор в пользу этой технологии, поскольку она активно разрабатывается и поддерживается, а также позволяет установить любую операционную систему на виртуальную машину. В качестве инструмента для выявления отказов в кластере используется Corosync. Если выходит из строя один из серверов, VMmanager поочерёдно распределяет работавшие на нём виртуальные машины по оставшимся нодам.

В упрощённой форме алгоритм такой:

  1. Происходит поиск узла кластера с наименьшим количеством виртуальных машин.
  2. Выполняется запрос хватает ли свободной оперативной памяти для размещения текущей ВМ в списке.
  3. Если памяти для распределяемой машины достаточно, то VMmanager отдаёт команду на создание виртуальной машины на этом узле.
  4. Если памяти не хватает, то выполняется поиск на серверах, которые несут на себе большее количество виртуальных машин.
Мы провели тестирование на многих конфигурациях железа, опросили существующих пользователей VMmanager Cloud и на основании полученных данных сделали вывод, что для распределения и возобновления работы всех ВМ с отказавшего узла требуется от 45 до 90 секунд в зависимости от быстродействия оборудования.

Практика показывает, что лучше выделить одну или несколько нод под аварийные ситуации и не развёртывать на них ВМ в период штатной работы. Такой подход исключает ситуацию, когда на “живых” нодах в кластере не хватает ресурсов, чтобы разместить все виртуальные машины с “умершей”. В случае с одним запасным сервером схема резервирования носит название “N+1”.

VMmanager Cloud поддерживает следующие типы хранилищ: файловая система, LVM, Network LVM, iSCSI и Ceph . В контексте КВД используются последние три.

При использовании вечной лицензии стоимость программной части кластера из десяти “боевых” узлов и одного резервного составит €3520 или $3865 на сегодняшний день (лицензия стоит €320 за ноду независимо от количества процессоров на ней). В лицензию входит год бесплатных обновлений, а со второго года они будут предоставляться в рамках пакета обновлений стоимостью €880 в год за весь кластер.

Рассмотрим по каким схемам пользователи VMmanager Cloud реализовывали кластеры высокой доступности.

FirstByte

Компания FirstByte начала предоставлять облачный хостинг в феврале 2016 года. Изначально кластер работал под управлением OpenStack. Однако отсутствие доступных специалистов по этой системе (как по наличию так и по цене) побудило к поиску другого решения. К новому инструменту для управления КВД предъявлялись следующие требования:
  1. Возможность предоставления виртуальных машин на KVM;
  2. Наличие интеграции с Ceph;
  3. Наличие интеграции с биллингом подходящим для предоставления имеющихся услуг;
  4. Доступная стоимость лицензий;
  5. Наличие поддержки производителя.
В итоге лучше всего по требованиям подошел VMmanager Cloud.

Отличительные черты кластера:

  • Передача данных основана на технологии Ethernet и построена на оборудовании Cisco.
  • За маршрутизацию отвечает Cisco ASR9001; в кластере используется порядка 50000 IPv6 адресов.
  • Скорость линка между вычислительными нодами и коммутаторами 10 Гбит/с.
  • Между коммутаторами и нодами хранилища скорость обмена данными 20 Гбит/с, используется агрегирование двух каналов по 10 Гбит/с.
  • Между стойками с нодами хранилища есть отдельный 20-гигабитный линк, используемый для репликации.
  • В узлах хранилища установлены SAS-диски в связке с SSD-накопителями.
  • Тип хранилища - Ceph.
В общем виде система выглядит так:

Данная конфигурация подходит для хостинга сайтов с высокой посещаемостью, для размещения игровых серверов и баз данных с нагрузкой от средней до высокой.

FirstVDS

Компания FirstVDS предоставляет услуги отказоустойчивого хостинга, запуск продукта состоялся в сентябре 2015 года.

К использованию VMmanager Cloud компания пришла из следующих соображений:

  1. Большой опыт работы с продуктами ISPsystem.
  2. Наличие интеграции с BILLmanager по умолчанию.
  3. Отличное качество техподдержки продуктов.
  4. Поддержка Ceph.
Кластер имеет следующие особенности:
  • Передача данных основана на сети Infiniband со скоростью соединения 56 Гбит/с;
  • Infiniband-сеть построена на оборудовании Mellanox;
  • В узлах хранилища установлены SSD-носители;
  • Используемый тип хранилища - Ceph.
Общая схема выглядит так:

В случае общего отказа Infiniband-сети связь между хранилищем дисков ВМ и вычислительными серверами выполняется через Ethernet-сеть, которая развёрнута на оборудовании Juniper. “Подхват” происходит автоматически.

Благодаря высокой скорости взаимодействия с хранилищем такой кластер подходит для размещения сайтов со сверхвысокой посещаемостью, видеохостинга с потоковым воспроизведением контента, а также для выполнения операций с большими объёмами данных.

Эпилог

Подведём итог статьи. Если каждая секунда простоя сервиса приносит значительные убытки - не обойтись без кластера непрерывной доступности.

Однако если обстоятельства позволяют подождать 5 минут пока виртуальные машины разворачиваются на резервной ноде, можно взглянуть в сторону КВД. Это даст экономию в стоимости лицензий и оборудования.

Кроме этого не можем не напомнить, что единственное средство повышения отказоустойчивости - избыточность. Обеспечив резервирование серверов, не забудьте зарезервировать линии и оборудование передачи данных, каналы доступа в Интернет, электропитание. Всё что только можно зарезервировать - резервируйте. Такие меры исключают единую точку отказа, тонкое место, из-за неисправности в котором прекращает работать вся система. Приняв все вышеописанные меры, вы получите отказоустойчивый кластер, который действительно трудно вывести из строя. Добавить метки

Описанные выше метрики можно использовать при заключении соглашений о доступности сервиса с заказчиками. Эти договоренности входят составной частью в Соглашения об Уровне Сервиса. Приведенная ниже формула помогает определить, отвечает ли достигнутый Уровень Доступности согласованным требованиям:

Рис. 14.6. Формула доступности (источник: OGC)

Достигнутое время работоспособности системы равно разнице между согласованным временем работоспособности и случившемся временем простоя. Например: если была достигнута договоренность о 98% доступности сервиса в рабочие дни с 7.00 до 19.00 и в течение это периода был двухчасовой отказ сервиса, то достигнутое время работоспособности (процент доступности) будет равен:

(5x12- 2)/(5 х 12) х 100% = 96,7%

Анализ простоев системы (SOA)

Данный метод можно использовать для выяснения причин сбоев, изучения эффективности ИТ-организации и ее процессов, а также для представления и реализации предложений по усовершенствованию сервиса.

Характеристики метода SOA:

Широкая сфера действия: он не ограничивается инфраструктурой и охватывает также процессы, процедуры и аспекты корпоративной культуры;

Рассмотрение вопросов с точки зрения заказчика;

Совместная реализация метода представителями заказчика и ИТ-организации (команда метода SOA).

К числу преимуществ данного метода относятся эффективность подхода, прямая связь между заказчиком и поставщиком и более широкая область для предложений по улучшению сервиса.

Пост технического наблюдения (ТОР)

Данный метод заключается в наблюдении специальной командой ИТ-специалистов одного выбранного аспекта доступности. Его можно использовать в тех случаях, когда обычные средства не обеспечивают достаточной поддержки. Метод ТОР позволяет объединить знания проектировщиков и руководителей систем.

Расчеты доступности сервиса

Основным достоинством данного метода является рациональный, эффективный и неформальный подход, который быстро дает результат.

Программное обеспечение автоматизации процессов itil

  1. Bmc software
  2. Computer associates
  3. Hewlett-packard
  4. Microsoft

Bmc software

Компания BMC Software - всемирно известный разработчик и поставщик средств администрирования сетей, приложений, баз данных, ERP- и CRM-систем, повышающих доступность, производительность и восстанавливаемость критических бизнес-приложений и данных. Продукты BMC доступны для широкого спектра платформ, включая различные реализации и версии UNIX, Windows, OS/2, OS/390, OpenVMS и NetWare. Из характерных для продуктов BMC особенностей в первую очередь следует отметить ориентацию на поддержку соглашений об уровне обслуживания пользователей (Service Level Agreement, SLA) и построение модели функционирования, направленной на реализацию такого соглашения, а также их высокую производительность (рис. 1). Компания предлагает следующие семейства продуктов для управления ИТ-инфраструктурой:

  • BMC Application Management - средство предназначено для управления производительностью и доступностью бизнес-приложений (включая приложения компаний Oracle и SAP) и серверных продуктов (таких, как Microsoft Exchange и J2EE-серверы BEA WebLogic, IBM WebSphere и др.);
  • BMC Database Management - средство для администрирования, управления производительностью и восстановлением баз данных, управляемых СУБД ведущих производителей - Oracle, IBM, Microsoft, Sybase;
  • BMC Infrastructure Management - средство для управления операционными системами серверов и мэйнфреймов, хранилищами данных, сетями, аппаратным обеспечением, ПО промежуточного звена, а также для оптимизации производительности указанных категорий программного обеспечения;
  • BMC Operations Management - средство для выполнения рутинных операций по расписанию и для составления отчетов о событиях в сети;
  • BMC Remedy Service Management - средство для поиска, обнаружения, моделирования сбоев в приложениях и реагирования на них;
  • BMC Security Management - средство для управления правами доступа пользователей к приложениям и корпоративным ресурсам.

Данные приложений BMC могут храниться в базе данных о конфигурациях BMC Atrium CMDB (Configuration Management Database), обладающей удобными средствами визуализации данных.

Bmc software

Отметим, что продукты BMC включают документированный прикладной программный интерфейс, позволяющий создавать на их основе собственные решения и осуществлять интеграцию средств BMC с другими приложениями.

Рис. 1. Области управления ИТ-инфраструктурой, охватываемые продуктами BMC

Computer associates

Семейство продуктов Unicenter для управления ИТ-инфраструктурой компании Computer Associates (CA) можно адаптировать для применения практически в любой вычислительной среде.

В состав данного семейства входят следующие продукты:

  • Unicenter Asset Management - инструмент для автоматизации управления ИТ-активами предприятия, с помощью которого осуществляется комплексный учет и контроль ИТ-ресурсов. Функциональность системы Unicenter Asset Management способствует повышению качества управленческих решений, связанных с ИТ-активами предприятия, и уменьшению сопутствующих рисков. Unicenter Asset Management обеспечивает мониторинг использования приложений на серверах, персональных компьютерах и других клиентских устройствах. Кроме того, этот продукт позволяет автоматизировать процессы управления ИТ-активами, включая учет и инвентаризацию программных и аппаратных средств, работающих в сети предприятия, обслуживание различных составляющих ИТ-инфраструктуры, администрирование лицензий и формирование отчетов в гетерогенных средах (рис. 2);

Рис. 2. Области интегрированного управления ИТ-инфраструктурой, охватываемые продуктами Computer Associates

  • Unicenter Software Delivery - обеспечивает автоматизацию процессов развертывания и обновления программного обеспечения на настольных, мобильных и карманных компьютерах, а также на серверах в гетерогенных сетевых средах, включая доставку приложений, распространение исправлений и обновлений, управление системными конфигурациями и откат инсталляций на различных программных и аппаратных платформах. Данный продукт создает условия для повышения оперативности работы ИТ-служб и снижения расходов на информационную поддержку бизнеса за счет автоматизации ИТ-процессов и внедрения каталогов приложений с развитыми возможностями самообслуживания. Одним из ключевых преимуществ Unicenter Software Delivery является высокая степень автоматизации процессов установки и обслуживания ПО и гибкое и детальное управление разрешениями на доставку приложений;
  • Unicenter Remote Control - это надежная и защищенная корпоративная система удаленного управления Windows-компьютерами. Перечень задач удаленного управления включает обслуживание удаленных сервисов, таких как сетевые приложения, администрирование серверов и удаленное управление компьютерами конечных пользователей (например, при оказании технической поддержки). Эта система является одним из лучших отраслевых решений в своем классе и обеспечивает централизованное обслуживание систем, управление на основе политик, разграничение прав доступа, аудит сеансов и развитые возможности администрирования. Unicenter Remote Control полностью отвечает запросам крупных предприятий в части удаленного управления и позволяет оператору одновременно выполнять сразу несколько задач: копировать файлы на удаленный компьютер, общаться с пользователем, запускать приложения, наблюдать и фиксировать пользовательские действия, а также управлять параметрами настройки и безопасности. Отметим, что при разработке Unicenter Remote Control особое внимание было уделено сокращению сроков внедрения и освоения системы.

Hewlett-packard

HP OpenView представляет собой комплекс программных продуктов, ориентированных на управление корпоративными информационными технологиями любого масштаба - от небольших систем на базе Windows-серверов до крупных распределенных систем на базе различных версий UNIX, Linux и Windows, содержащих несколько тысяч компьютеров. В данный комплекс входят средства управления сетями, операционными системами, приложениями, а также их производительностью, копированием и хранением данных, сервисами.

Портфель программных решений HP OpenView состоит из нескольких семейств продуктов (рис. 3), среди которых средства управления серверами и приложениями, хранением данных, сетями, Интернет-технологиями и телекоммуникационным оборудованием (существует спектр продуктов HP OpenView, предназначенный специально для телекоммуникационных компаний, и сегодня НР является наиболее известным поставщиком средств управления телекоммуникационным оборудованием). Отдельно отметим наличие в портфеле решений HP средств управления ИТ-услугами.

Рис. 3. Портфель программных решений HP OpenView для ИТ-подразделений

К средствам управления серверами и приложениями следует отнести в первую очередь HP OpenView Operations for Windows и HP OpenView Operations for Unix . Эти продукты предназначены для мониторинга и управления производительностью приложений, а также для осуществления контроля событий в сети и приложениях. HP OpenView Operations for Windows интегрируется со средствами управления сетевой инфраструктурой HP OpenView Network Node Manager , что позволяет производить автоматический поиск новых серверов, добавленных в сеть, а затем выполнять автоматическое развертывание требующихся компонентов и политик на основе результатов поиска сервисов.

Hewlett-packard

Для управления производительностью приложений в состав указанного семейства входят средства HP OpenView Performance Manager и Performance Agents , позволяющие с помощью единого интерфейса осуществлять централизованный мониторинг, анализ и прогнозирование использования ресурсов в распределенных и неоднородных средах, а также HP OpenView Performance Insight, помогающий осуществлять мониторинг событий в сети и приложениях, анализировать их. Решения HP OpenVew Report Packs и HP OpenView Reporter предназначены для создания отчетов о работе распределенной IT-инфраструктуры предприятия на основе данных, полученных от приложений HP OpenView.

Для управления идентификацией и доступом к ИТ-ресурсам в состав семейства HP OpenView входят продукты HP OpenView Select Identity, HP OpenView Select Access и HP OpenView Select Federation , а для управления резервным копированием и восстановлением данных серверных СУБД - HP OpenView Storage Data Protector . Последний из названных продуктов является решением корпоративного уровня для защиты данных и восстановления систем в чрезвычайных ситуациях, реализующим технологию мгновенного восстановления, а также альтернативные варианты аварийного восстановления для устранения внеплановых простоев, что позволяет восстановить работоспособность информационной системы за несколько минут.

Отметим также наличие в данном семействе продуктов, предназначенных для осуществления взаимодействия с конечными пользователями с целью улучшения качества их обслуживания, - HP OpenView Service Desk , а также средства мониторинга бизнес-процессов HP OpenView Business Process Insight и средства управления архитектурой, ориентированной на сервисы, - HP OpenView Service Oriented Architecture Manager .

Hewlett-packard

Для управления Интернет-сервисами в данном семействе продуктов предусмотрено решение HP OpenView Internet Services , позволяющее осуществлять внешнее зондирование прикладных служб, Интернет-сервисов и протоколов посредством моделирования запросов пользователей к каталогам, почтовым службам, веб-службам, сервисам удаленного доступа (в том числе коммутируемого и беспроводного доступа).

Семейство продуктов IBM Tivoli, предназначенных для управления приложениями предприятий различного масштаба, основано на наборе базовых компонентов, из которых строится решение для конкретного предприятия. Главной отличительной особенностью данного семейства продуктов является так называемое упреждающее управление IT-инфраструктурой, способное выявлять и устранять неисправности еще до их возникновения. Продукты семейства Tivoli доступны для платформ AIX, HP-UX, Sun Solaris, Windows, Novell NetWare, OS/2, AS/400, Linux, z/OS, OS/390. Отметим, что в последнее время IBM рекомендует внедрять продукты семейства Тivoli с целью следования методикам библиотеки ITIL (Information Technology Infrastructure Library), сместив акцент в позиционировании своих продуктов с управления ИТ-ресурсами и системами на управление ИТ-услугами (рис. 4).

Рис. 4. Некоторые из программных продуктов Tivoli, поддерживающих ITIL-процесс управления услугами

Семейство продуктов Tivoli включает решения для управления конфигурацией и операционной поддержки:

  • IBM Tivoli Configuration Manager - позволяет управлять установкой и обновлением ПО, в том числе и на карманные компьютеры;
  • IBM Tivoli License Manager - предназначено для инвентаризации программного обеспечения;
  • IBM Tivoli Remote Control - позволяет устанавливать политики для управления IT-ресурсами предприятия и удаленно администрировать настольные системы;
  • IBM Tivoli Workload Scheduler - дает возможность автоматизировать рабочие нагрузки.

Помимо средств управления конфигурациями, семейство продуктов Tivoli включает решения для управления производительностью и доступностью:

  • IBM Tivoli Monitoring - для осуществления распределенного мониторинга различных систем, автоматического обнаружения и устранения проблем и анализа тенденций;
  • IBM Tivoli Monitoring for Databases (поддерживаются СУБД производства IBM, Oracle и Microsoft) и Tivoli Manager for Sybase - для централизованного управления серверами и базами данных;
  • IBM Tivoli Monitoring for Web Infrastructure - для управления web-серверами и серверами приложений;
  • IBM Tivoli Monitoring for Applications - для управления бизнес-приложениями SAP;
  • IBM Tivoli Analyzer для Lotus Domino 6.0 и IBM Tivoli Monitoring for Transaction Performance - для обнаружения проблем производительности систем, основанных на серверных продуктах самой IBM;
  • IBM Tivoli Web Site Analyzer - для анализа трафика посетителей, статистики посещаемости страниц, целостности информационного наполнения web-сайта;
  • IBM Tivoli Service Level Advisor - для обеспечения упреждающего управления и прогнозирования отказов посредством количественного анализа производительности;
  • IBM Tivoli NetView - для управления сетью;
  • IBM Tivoli Switch Analyzer - для обнаружения и заполнения всех коммутаторов сетевого уровня;
  • IBM Tivoli Enterprise Console - для многоуровневого поиска причин неисправностей и анализа событий.

Кроме того, имеется ряд решений для автоматизированного управления распределением ИТ-ресурсов и пиковыми нагрузками.

В состав семейства Tivoli входят также продукты для обеспечения безопасности:

  • IBMDirectory Server - для синхронизации данных о безопасности в масштабе всех используемых приложений;
  • IBM Directory Integrator - для интеграции идентификационных параметров, содержащихся в каталогах, базах данных, системах коллективной работы и бизнес-приложениях;
  • IBM Tivoli Identity Manager и IBM Tivoli Access Manager for Operating Systems - для управления доступом к приложениям и операционным системам;
  • IBM Tivoli Risk Manager - для централизованного управления защитой сети.

Помимо этого семейство Tivoli включает широкий спектр продуктов для управления резервным копированием и системами хранения данных.

Microsoft

Хотя сегодня Microsoft и не является лидером рынка средств управления ИТ-инфраструктурой, средства управления приложениями производства этой компании применяются в нашей стране достаточно широко.

Основное назначение средств Microsoft Microsoft Systems Management Server (SMS) и Microsoft Operations Manager (MOM), а также средств администрирования, доступных пользователям последних версий серверных операционных систем Microsoft (таких, как Automated Deployment Services, Remote Installation Services, Microsoft Group Policy Management Console, Microsoft Windows Update Services), - управление программным обеспечением, автоматическая установка операционных систем Microsoft и предназначенных для них приложений, автоматическая доставка обновлений, управление доступом и правами пользвателей (рис. 5).

Рис. 5. Управление информационными системами с помощью Microsoft Operations Manager и Microsoft Systems Management Server

Microsoft Systems Management Server предназначен для обеспечения автоматического распространения и учета программного обеспечения в крупных распределенных системах на основе операционных систем самой Microsoft, включая планирование с определением оборудования и ПО в локальной сети, проверку, анализ, внедрение бизнес-приложений для различных целевых групп пользователей, установку приложений на вновь появившиеся рабочие места в соответствии с правами пользователя. Данный продукт позволяет осуществить целевую установку различного ПО для разных групп пользователей, а также решать проблемы, связанные с инвентаризацией ПО и с контролем над использованием ПО и аппаратных ресурсов за счет сбора информации об установленных в сети программных продуктах и оборудовании и об их использовании.

Microsoft

Microsoft Operations Manager предназначен для выявления и устранения неполадок в работе сети, оборудования и приложений за счет прямого мониторинга происходящих событий, а также состояния и производительности сетевых ресурсов и выдаче предупреждений о потенциальных проблемах (рис. 6).

Рис. 6. Мониторинг состония серверов с помощью Microsoft Operations Manager

Для управления ИТ-инфраструктурой небольших компаний или специализированными группами серверов (до 10 шт.) предназначен продукт Microsoft Operations Manager 2005 Workgroup Edition . Он позволяет выявить потенциальные опасности в функционировании программного обеспечения и благодаря встроенным средствам анализа предотвратить перерастание их в серьезные проблемы, повысить эффективность ИТ-операций, упростить поддержку гетерогенных платформ и приложений, а также создавать собственные пакеты обновления.

Кроме того, существуют отдельные решения для управления произвоительностью и для анализа событий для компонентов ИТ-инфраструктуры, основанной на серверных продуктах Microsoft, такие как Active Directory Management Pack - для отслеживания состояния службы каталогов Active Directory, Exchange Management Pack - для управления сервисами обмена сообщениями и хранилищами данных Exchange, а также ряд других продуктов. Для обеспечения взаимодействия со средствами управления ИТ-инфраструктурой производства других компаний имеется продукт MOM Connector Framework , позволяющий осуществлять двунаправленную трансляцию предупреждений и синхронизацию данных с помощью web-служб.

Управление иб

  1. Cobit - «цели контроля для информации и связанных с ней технологий»
  • Читать раздел 1
  • Microsoft operational framework
    • Читать раздел 1
  • Модель команды mof
    • Читать раздел 1
  • Модель управления рисками mof
    • Читать раздел 1

    Стандарт «Цели контроля для информации и связанных с ней технологий» (CobiT), сейчас уже в третьем издании, помогает реализовать многочисленные потребности в области управления, формируя взаимосвязи между бизнес-рисками, требованиями контроля и техническими вопросами. Это позволяет сформировать хорошую практику управления ИТ во всех группах процессов в рамках стандарта, также описать виды ИТ-деятельности в виде управляемой и логически выстроенной структуры. «Хорошая практика» по CobiT – это согласованные рекомендации экспертов, которые помогают оптимизировать инвестиции в информатизацию и предоставляют систему показателей, на которые можно ориентироваться в случае возникновения внештатных ситуаций.

    Основная концепция CobiT состоит в том, что при осуществлении контроля ИТ информация рассматривается как продукт, необходимый для поддержания целей или требований бизнеса и как результат совместного применения ИТ и связанных ресурсов, которые должны управляться ИТ-процессами.

    Стандарт CobiT включает в себя следующую серию книг:

    1. Краткое изложение для руководства.

    2. Основы.

    3. Цели контроля (детализированных целей - 318 штук)

    4. Руководство по управлению.

    5. Руководство по проведению аудита.

    6. Методики внедрения.

    Стандарт CobiT выделяет 34 ИТ-процесса, объединенные в четыре следующие группы (рисунок 1.1):

    1. Планирование и организация – процессы, охватывающие вопросы стратегии и тактики, а также определения путей развития ИТ, лучше всего способствующих достижению бизнес-целей.

    2. Приобретение и внедрение – процессы, охватывающие вопросы разработки и приобретения решений ИТ, которые должны быть интегрированы в бизнес-процесс. Изменение существующих систем.

    Cobit - «цели контроля для информации и связанных с ней технологий»

    3. Эксплуатация и сопровождение – процессы, фактически предоставляющие требуемые услуги.

    4. Контроль – процессы управленческого надзора и независимой оценки с привлечением внутреннего и внешнего аудита или других источников.

    Для каждого из 34 ИТ-процессов определена одна цель контроля уровня ИТ-процессов (намерение или желаемый результат, который достигается посредством внедрения процедур контроля в ИТ-деятельность). Данные цели контроля в дальнейшем разбиваются на детализированные цели контроля. Таких детализированных целей в стандарте CobiT определено 318.

    Рисунок 1.1. ИТ-процессы CobiT

    Согласно CobiT, ИТ-процессы используются для обеспечения следующих 7 требований к информации (частично перекрывающих друг друга).

    1. Полезность – информация является актуальной и соответствует БП, своевременно поставляется, непротиворечива и пригодна для использования.

    2. Эффективность – предоставление информации на основе оптимального использования ресурсов.

    3. Конфиденциальность – защита информации от НСД.

    4. Целостность – точность и полнота информации в соответствии с бизнес-ценностями и ожиданиями.

    5. Доступность – информация доступна по требованию БП в настоящее время и в будущем.

    6. Соответствие требованиям – соответствие требованиям законодательства, регулирующих органов и договорных обязательств, которым подчиняются БП.

    7. Достоверность – обеспечение руководства необходимой информацией для осуществления управления организацией и исполнения им обязанностей в отношении финансовой деятельности и представления отчетности регулирующим органам.

    Cobit - «цели контроля для информации и связанных с ней технологий»

    Цели контроля ИТ-процессов могут обеспечивать выше перечисленные требования к информации и быть основными либо второстепенными.

    CobiT определяет также ИТ-ресурсы, которые задействованы в обеспечении выше указанных требований к информации. Выделено 5 классов ИТ-ресурсов:

    1. Данные – информационные объекты в широком смысле, в том числе неструктурированные, графика, звук.

    2. Приложения – совокупность ручных и программных процедур.

    3. Технология – аппаратное обеспечение, ОС, СУБД, сети, мультимедиа, и т.д.

    4. Инфраструктура – все ресурсы для размещения и поддержки ИС.

    5. Персонал – включает в себя персонал и его навыки, осведомленность и умение планировать, организовывать, приобретать, поставлять, обслуживать и контролировать ИС и услуги.

    Цели контроля ИТ-процессов, связь их с требованиями к информации и ИТ-ресурсами представлены на рисунке 1.2.

    Рисунок 1.2. Цели контроля ИТ-процессов

    Таким образом, для каждой цели контроля определяются определены основные и второстепенные требования к информации, которые они поддерживают. Также определено, какие ресурсы задействованы при обеспечении данных требований.

    В книге CobiT «Руководство по управлению» вводится модель уровня развития процессов организации с оценкой уровня развития от 0 (не существующего) до 5 (оптимизированного). Данная модель зрелости в дальнейшем используется при проведении аудитов ИТ-процессов и ответа на вопрос – в какой степени ИТ-процессы соответствуют необходимым требованиям. С этой точки зрения CobiT имеет хорошие точки соприкосновения с банковским стандартом России.

    В CobiT для каждого из 34 процессов вводятся ключевые показатели достижения цели. Они определяют контрольные показатели, которые постфактум сигнализируют руководству о достижении процессом ИТ требований бизнеса. Эти контрольные показатели обычно выражены такими требованиями к информации как:

    Cobit - «цели контроля для информации и связанных с ней технологий»

    Доступность информации необходимой для обеспечения потребностей бизнеса.

    Отсутствие рисков для целостности или конфиденциальности.

    Рентабельность процессов и эксплуатации.

    Подтверждение надежности, полезности и соответствия требованиям.

    Для каждого из 34 процессов вводятся ключевые показатели деятельности - которые свидетельствуют о том, насколько хорошо ИТ-процесс выполняет свои функции и служит достижению поставленных целей. Они являются главными показателями того, насколько поставленные цели могут быть вообще достигнуты, а также хорошими показателями существующих возможностей, практики и навыков.

    Для каждого из 34 ИТ-процессов определена качественная шкала (0-5), которая указывает – в каком случае процесс нужно относить к определенной модели уровня развития.

    В книге CobiT «Руководство по проведению аудита», для каждого из 34 процессов определено, каким образом оценивать уровень его соответствия установленным требованиям. Для каждого из них определены:

    1. Лица организации, которых следует опросить при проведении аудита.

    2. Информация и документы, которые нужно получить от опрашиваемых лиц.

    3. Факторы, которые требуется оценить (вида опросного листа).

    4. Факторы, которые требуется протестировать (проверить).

    В книге CobiT «Методики внедрения» говорится о том, на кого надо повлиять для внедрения COBIT в организации, дается план мероприятий по внедрению COBIT. Даются опросные листы для персонала, используемые на этапе внедрения, для внутренней оценки корпоративного управления ИТ, внутренней диагностики руководства. Приведены формы по аудиту и оценке риска.

  • Ветеринарно – санитарные требования к качеству воды (СанП и Н), гигиена поения. Расчеты в потребности воды.
  • высшего профессионального образования. «Российский государственный университет сервиса»

  • Определения

    Всем известно , что в Microsoft Exchange DAG означает « Database Availability Group » — «Группа Доступности Базы данных».

    База данных потому что уровень высокой доступности сервера почтовых ящиков Exchange 2010 , определяется базой данных , а не сервером , именно база данных является той единицей , которая может перемещаться между несколькими серверами в пределах группы доступности баз данных в случае сбоя. Этот принцип известен как мобильность базы данных.

    Группа — потому что сфера наличия определяется серверами почтовых ящиков в группе обеспечения доступности баз, которые объединены в отказоустойчивый кластер и работают вместе как группа .

    Доступность — этот термин , кажется, наименее очевидным и наиболее запутанным . Как ни странно, этот термин имеет прямое математическое определение и играет важную роль в понимании принципов проектирования Exchange в целом .

    Википедия определяет « доступность» как обозначение одного из следующих действий :
    Степень , в которой система, подсистема , или оборудование находится в указанном рабочем состоянии, случай отказа, по крайней мере неизвестен , т.е. случайное время . Проще говоря , доступность — это доля времени, когда система находится в состоянии функционирования . Математически это выражается в 1 минус недоступность .
    Отношение (а) общего времени функционирования в течение заданного интервала к (б) величине интервала .

    В терминах теории вероятностей , данное определение означает то же : вероятность того, что данная система или компонент «в рабочем состоянии» в любой произвольный момент времени .

    Математически это может быть измерено путем подсчета количества времени, когда система доступна («Время работы «) в течение некоторого большого статистически репрезентативного периода (обычно года ), и разделив его на общую длину периода . Используя широко принятые сроки среднее время между отказами (MTBF — Mean Time Between Failures) и среднее время обслуживания (MTTR — Mean Time To Repair) — представляем доступность системы / время работы между отказами, время простоя системы в течение любого данного отказа , — доступность может быть выражена как фракция:

    Противоположная математическая характеристика будет вероятность отказа :

    Доступность часто выражается как «количество девяток «, в соответствии со следующей таблицей :

    Уровень доступности Значение доступности Вероятность отказа Допустимое время простоя в год
    Две девятки 99% 1% 5256 минут = 3.65 дня
    Три девятки 99.9% 0.1% 525.6 минут = 8.76 часов
    Четыре девятки 99.99% 0.01% 52.56 минут
    Пять девяток 99.999% 0.001% 5.26 минут

    Конечно , значение доступности будет отличаться в зависимости от того принимаем ли мы во внимание запланированные (плановые) и внеплановые (незапланированные) простои или только незапланированные простои . Соглашение об уровне обслуживания (SLA) , которое выражает бизнес-требования доступности должно содержать конкретную информацию. Но во всех случаях наличие той или иной системы или компонента зависит от многих факторов , и чрезвычайно важно определить и понять эти зависимости и как они влияют на доступность .

    Влияние зависимостей на доступность

    Доступность базы данных почтовых ящиков Exchange зависит от наличия многих других сервисов и компонентов — например , подсистема хранения, на которой размещена база данных , сервер, на котором работает эта базу данных , подключение к сети этого сервера , и т.д. Все эти важные компоненты , и выход из строя любого из них будет означать отказ сервиса , даже если сама база данных является совершенно работоспособной . Это означает, что для того, чтобы база данных была доступны как служба , каждая зависимость также должна быть доступна . Если мы правильно идентифицируем и изолируем компоненты зависимостей , то можем математически рассчитать , как они определяют результирующий уровень доступности базы данных почтового ящика Exchange.

    Для данной базы данных почтовых ящиков , следующие компоненты можно считать, как критические зависимости :
    дисковая подсистема базы данных / система хранения — например A1 ;
    сервер почтовых ящиков (как аппаратные, так и программные компоненты ) — A2 ;
    сервер клиентского доступа (аппаратное и программное обеспечение компонентов ) — помним, что в Exchange 2010 все клиенты подключаются к базе данных почтовых ящиков только через Client Access Server (Сервер с ролью клиентского доступа), и давайте предположим, что CAS установлен отдельно от сервера почтовых ящиков — A3 ;
    сетевое подключение между клиентами и Client Access Server, и между сервером клиентского доступа и сервером почтовых ящиков — A4 ;
    электроэнергия в центре обработки данных , где расположены серверы и системы хранения — A5.

    Этот список можно было бы продолжить … Например , Active Directory и DNS также представляют критическую зависимость для Exchange. Кроме того , в дополнение к чисто технологическим зависимостям , на доступность оказывает влияние таких факторов, как человеческая ошибка , неправильное выполнение стандартных операций обслуживания, отсутствие координации команды техподдержки. Все это может привести к неработоспособности . Мы не будем пытаться компилировать любой исчерпывающий перечень зависимостей , а вместо этого сосредоточимся на том, как они влияют на общую доступность услуг .

    Поскольку сами эти компоненты по отдельности независимы друг от друга , наличие каждого из них представляет собой самостоятельное мероприятие , а полученный уровень доступности базы данных почтовых ящиков Exchange представляет собой сочетание всех этих событий (другими словами , для того, чтобы база данных почтовых ящиков была доступна для клиентов все эти компоненты должны доступны ). Из теории вероятностей , вероятность сочетания независимых событий является продуктом отдельных вероятностей для каждого события :

    Например, если подбросить три монеты , вероятность выпадения «орла» для всех трех монет (1/2) * (1/2) * (1/2) = 1/8 .

    Важно понимать, что , значение доступности не может быть больше чем 1 (или 100% ), и в результате доступность сервиса является продуктом доступности индивидуальных компонентов , значение доступности которых не может быть больше , чем самый низкий из составляющих зависимость доступности.

    Это можно проиллюстрировать на примере , представленном в следующей таблице (цифры примерны):

    Критическая зависимость Вероятность отказа Уровень доступности
    Сервер почтовых ящиков и система хранения 5% 95%
    Сервер клиентского доступа 1% 99%
    Сеть 0.5% 99.5%
    Питание 0.1% 99.9%
    6.51383% 95% x 99% x 99.5% x 99.9% = 93.48617%

    Из этого примера , можно увидеть, как критически важные зависимости влияют на доступность сервиса. Даже для базы данных почтовых ящиков , которая никогда не выходит из строя (не будет повреждена , никогда не получит никаких вирусных инфекции и т.д.) , доступность до сих пор остается ниже 93,5 %!

    Заключение : Большое количество сервисных зависимостей уменьшается доступность .

    Все, что мы сделаем для уменьшения количества или воздействия зависимостей положительно скажется на общей доступности сервиса . Например , мы могли бы улучшить ситуацию путем упрощения и обеспечения управления серверами и оптимизации оперативных процедур . С технической стороны , мы можем попробовать уменьшить количество сервисных зависимостей , сделав наш дизайн проще — например , устраняя сложные системы хранения на основе SAN , волоконных коммутаторов , контроллеров массива , и даже RAID контроллеров и заменив его простым DAS с минимумом движущихся частей .
    Снижение сервисных зависимостей само по себе не может быть достаточно, чтобы довести доступность до желаемого уровня . Еще один очень эффективный способ увеличить доступность и свести к минимуму воздействие критических зависимостей обслуживания заключается в привлечении различных методов резервирования , таких как использование двух источников питания , объединение сетевых карт , подключение серверов к нескольким сетевым коммутаторам , используя RAID для операционной системы , развертывания аппаратных балансировщиков для серверов клиентского доступа и нескольких копий баз данных почтовых ящиков . Но как именно увеличение избыточности позволяет достигнуть высокой доступности ? Давайте более подробно рассмотрим балансировку нагрузки и несколько копий базы данных в качестве важных примеров .

    Как влияет резервирование на доступность

    Концептуально все методы резервирования означают одно : есть более одного экземпляра компонента , который доступен и может быть использован либо одновременно (как с балансировщиками нагрузки ) или в качестве замены (как в случае с несколькими копиями базы данных ). Давайте предположим, у нас есть n экземпляров данного компонента (n серверов в массиве CAS , или n копий баз данных в DAG ). Даже если один из них выходит из строя, другие еще могут быть использованы для обеспечения высокого уровня доступности . Единственная ситуация, когда мы столкнемся с фактическим отказом сервиса, когда все экземпляры перестанут быть доступны.

    Как определено ранее , вероятность отказа для любого данного экземпляра Р = 1 — А. Все экземпляры статистически независимы друг от друга , что означает, что работоспособность или выход из строя любого из них не влияет на доступность в других случаях . Например , выход из строя данной копии базы данных не влияет на вероятность отказа для другой копии этой базы данных (возможен логичный нюанс , когда поврежденная копия распространит изменения на другие экземпляры, но давайте игнорировать этот фактор — в конце концов, всегда можно воспользоваться отстроченной копией базы данных или вариантом восстановления средствами традиционного резервного копирования ).

    Опять используя ту же теорему теории вероятностей , вероятность отказа набора n независимых компонентов является продуктом вероятностей для каждого компонента . Так как все компоненты здесь идентичные (различные экземпляры того же объекта ):

    Очевидно, как P < 1, P n меньше P , что означает, что вероятность отказа уменьшается , и соответственно , доступность увеличивается :

    Рассмотрим некоторый реальный пример из жизни для ясности . Скажем , что мы устанавливаем несколько копий базы данных почтовых ящиков ; каждая копия размещается на одном диске SATA . По статистике, процент неудач SATA дисков составляет ~ 5 % в течение года , что дает нам 5 % вероятность отказа : P = 0,05 (что означает наличие 95% : A = 0,95 ). Как изменится доступность по мере добавления копии базы данных ? Посмотрим на следующей таблице :

    Количество копий Вероятность отказа Уровень доступности
    1 P 1 = P = 5% A 1 = 1 – P 1 = 95%
    2 P 2 = P 2 = 0.25% A 2 = 1 – P 2 = 99.75%
    3 P 3 = P 3 = 0.0125% A 3 = 1 – P 3 = 99.9875%
    4 P 4 = P 4 = 0.000625% A 4 = 1 – P 4 = 99.9994%

    Впечатляет ? В принципе, каждый дополнительный экземпляр базы данных на SATA диск вводит коэффициент умножения 5% или 1/20 , так что вероятность отказа становится в 20 раз ниже, с каждой копии (и, соответственно , доступность увеличивается) . Мы можем видеть, что даже на самых ненадежных дисках SATA , внедряя всего 4 копии баз данных приносит нам доступность базы данных в пять девяток .
    Это уже очень хорошо , но можем ли сделать еще лучше? Можем ли мы увеличить доступность еще , не делая архитектурных изменений (например, при добавлении еще одной копии базы данных )?

    На самом деле , можем. Если нам улучшить индивидуальную доступность любого компонента зависимости, он будет фактором повышения общей доступности сервиса , и приведет к гораздо более сильному эффекту, чем от добавления избыточного компонента . Например , одним из возможных способов сделать это , является использование Nearline SAS диски вместо дисков SATA . Диски Nearline SAS имеют годовой уровень отказов ~ 2,75 % вместо ~ 5 % для SATA . Это уменьшит вероятность отказа для компонента хранения и , следовательно, увеличит общую доступность сервиса . Достаточно сравнить эффект от добавления нескольких копий базы данных :
    5% Коэффициент AFR = 1/20 = умножение каждого нового экземпляра делает повреждение базы данных в 20 раз реже .
    2,75 % AFR = 1/36 коэффициент умножения = каждый новый экземпляр делает повреждение базы данных в 36 раз реже .

    Это значительное влияние на доступность базы данных, что также объясняет указания использовать концепцию собственной защиты данных Exchange — Exchange Native Data Protection, которая объясняет, что несколько копий базы данных может быть заменой для традиционных резервных копий , если развернуто достаточное количество (три или больше).

    Та же логика применима к развертывании нескольких серверов клиентского доступа в массиве CAS , нескольких сетевых коммутаторов и т.д. Предположим, что мы развернули 4 копии базы данных и 4 сервера клиентского доступа , и давайте вернемся к компоненту таблицу доступности , которые мы анализировали ранее :

    Критическая зависимость Вероятность отказа Уровень доступности
    Сервер почтовых ящиков и хранилище (4 копии) 5% ^ 4 = 0.000625% 99.999375%
    Сервер клиентского доступа (4 сервера, развернутых отдельно) 1% ^ 4 = 0.000001% 99.999999%
    Сеть 0.5% 99.5%
    Питание 0.1% 99.9%
    Общее значение (зависит от всех указанных компонентов) 0.6% 99.399878%

    Мы можете видеть, что как только мы развернули 4 сервера клиентского доступа и 4 копии баз данных , вероятность отказа от общего обслуживания уменьшилась более чем в 10 раз (с 6,5% до 0,6% ) и, соответственно, доступность услуг увеличилась с 93,5 % до гораздо более приличного значения 99,4 %!

    Вывод: Добавление избыточности для зависимостей повышает доступность .

    Соединим вместе

    Возникает интересный вопрос от предыдущих выводов . Мы проанализировали два различных фактора, влияющих на общую доступность услуг двумя различными способами и нашли два четких вывода :
    добавление больше системных зависимостей уменьшается доступность
    добавление избыточности в системных зависимостях увеличивает доступность
    Что произойдет, если соединить в решение оба фактора? Какие тенденции сильнее?
    Рассмотрим следующий сценарий :
    Мы используем два сервера почтовых ящиков в группе DAG с двумя копиями базы данных почтовых ящиков (один экземпляр на каждом сервере ), и мы используем два сервера клиентского доступа в массиве с балансировкой нагрузки . (Для простоты мы будем рассматривать только наличие базы данных почтовых ящиков для клиентских подключений , не рассматривая роль транспортного сервера-концентратора и единой системы обмена сообщениями ) . Если предположить, что каждый сервер имеет свою индивидуальную вероятность отказа P , будет ли наличие такой системы лучше или хуже , чем от одного развернутого автономного сервера Exchange с обеими ролями сервера почтовых ящиков и клиентского доступа ?

    В первом сценарии , серверы почтовых ящиков являются независимыми и станут недоступны , только если оба сервера выйдут из строя. Вероятность выхода из строя набора из двух серверов почтовых ящиков будет P × P = P 2 . Соответственно , его доступность будет A MBX = 1 – P 2 . Следуя той же логике , служба CAS будет недоступна только , если оба сервера клиентского доступа выйдут из строя, поэтому вероятность отказа для набора из двух серверов клиентского доступа будет снова P × P = P 2 и, соответственно, его доступность будет A CAS = 1 – P 2 .
    В этом случае , как мы уже поняли, два сервера почтовых ящиков или два сервера клиентского доступа являются примерами избыточных компонентов системы .
    Продолжаем этот сценарий . Для того, чтобы вся система была доступна , оба набора серверов (набор серверов почтовых ящиков и набор серверов клиентского доступа ) должны быть доступны одновременно . Не выходят из строя одновременно , но доступны одновременно , потому что теперь они представляют системные зависимости , а не избыточные компоненты . Это означает, что в целом доступность службы является продуктом доступности каждого набора :

    Конечно, второй вариант значительно проще, так как существует только один сервер и рассмотреть его доступность просто A = 1 – P .
    Так что теперь мы рассчитали значения доступности для обоих сценариев. Значение которого выше , (1-P 2 ) 2 или 1-P ?

    Если построить графики обеих функций , мы увидим следующее поведение :

    Мы видим, что для малого значения Р, наличие комплексной системы из 4 серверов выше, чем от наличия одного сервера. Нет ничего удивительного, это то, что мы ожидали, не так ли? Тем не менее, при Р ~ 0,618 — два участка пересекают, и при больших значениях P единая система сервера на самом деле имеет более высокую доступность. Конечно, вероятнее было бы ожидать, что значение Р должно быть очень близко к нулю в реальной жизни. Однако, если мы планируем создать собственное решение из очень ненадежных компонентов, вероятно, решение в виде одного сервера будет лучше.

    Влияние точек отказа

    К сожалению, сценарии развертывания, описанные выше, в реальной жизни встречаются редко. Например, как повлияет на изменение доступности при условии развертывания сервера с несколькими ролями? Мы заметили, что в приведенном выше примере, сочетание ролей сервера эффективно снижает количество служебных зависимостей, так что, вероятно, все будет хорошо? А что произойдет, если мы разместим две копии базы данных из одной базы данных на одном массиве SAN или DAS? Что делать, если все серверы почтовых ящиков подключены к одному коммутатору сети? Что делать, если у нас есть все вышеперечисленное и многое другое?

    Все эти ситуации сталкивают нас с понятием точки отказа. В приведенных выше примерах серверного оборудования или массив SAN или сетевой коммутатор представляют собой точки отказа. Точка отказа ломает независимость или избыточность компонентов, что он сочетает — например, выход из строя компонентов серверного оборудования в сервере с сочетанием ролей означает, что все роли на этом сервере станут недоступны; соответственно, отказ диска или массива SAN означает, что все копии баз данных, размещенных на данном диске или массиве становятся недоступными.

    Но наличие точки отказа не обязательно плохо. Важным отличием является то, что компоненты, составляющие точку отказа — отличаются от зависимостей системы или избыточных компонентов системы. Рассмотрим два из приведенных выше примеров, чтобы понять эту разницу.

    Сценарий сервера с мультиролями

    Давайте сравним наличие двух различных систем:
    1.Роли сервера почтовых ящиков и сервера клиентского доступа, размещенные на том же сервере, который имеет вероятность аппаратных сбоев P;
    2.Те же роли размещены на двух отдельных серверов, каждый из которых имеет одинаковую вероятность отказа оборудования.

    В первом случае, аппаратные средства одного сервера представляют собой точку отказа. Это означает, что все размещенные роли либо доступны, либо недоступны. Это просто, в целом доступность такой системы A = 1 – P.

    Во втором случае, в целом сервис будет доступен только тогда, когда оба сервера доступны независимо (потому как каждая роль представляет собой критическую зависимость). Поэтому, основываясь на теории вероятностей, его наличие будет A × A = A2.

    Опять же, как А <1, это означает, что A2 < А, так во втором случае доступность будет ниже.

    Судя по всему, мы можем добавить другие роли сервера Exchange (Hub Transport, и единой системы обмена сообщениями при необходимости) по тому же сценарию, не нарушая эту логику.

    Вывод: Размещение ролей сервера Exchange на сервере с мультиролью повышает общую доступность услуг.

    Сценарий общего хранилища

    Теперь давайте рассмотрим другой сценарий точки отказа (две копии базы данных Exchange на одном массиве), и сравним доступность базы данных в следующих двух случаях:

    1.Две копии баз данных, размещенных на одном и том же хранилище (массив SAN или DAS), который имеет вероятность отказа P;
    2.Те же копии баз данных, размещенные на двух отдельных системах хранения данных, каждая из которых имеет одинаковую вероятность отказа.

    В первом случае, общее хранилище представляет собой точку отказа. Как и в предыдущем сценарии, это означает, что обе копии базы данных доступны или недоступны одновременно, так что общий уровень доступности снова A = 1 – P.

    Во втором случае, в целом служба будет доступна, если по крайней мере одна система доступна и недоступна только если обе системы выйдут из строя. Системы хранения являются независимыми. Поэтому, вероятность отказа для общего обслуживания P × P = P2 и, соответственно, общая доступность услуг является A = 1 – P2.

    Опять же, если P < 1, то это означает, что Р2 <Р, и, следовательно, 1 – P2 > 1 – P. Это означает, что уровень доступности во втором случае гораздо выше.

    Вывод: Размещение копий одной базы данных на одной и той же системе хранения уменьшает общую доступность услуг.

    Так в чем же разница между этими двумя сценариями, почему введение точек отказа увеличивает доступность в первом случае и снижает доступность в другом?

    Это потому, что точка отказа в первом случае сочетает обслуживание зависимостей, эффективно уменьшая их количество и, следовательно, повышает уровень доступности, в то время как точка отказа во втором случае сочетает избыточные компоненты, эффективно уменьшая избыточность и поэтому доступность ухудшается.

    Все эти понятия и выводы могут быть, представлены в следующем виде:

    Выводы

    Архитектура Exchange 2010 предоставляет мощные возможности для добавления избыточности (например, развертывание нескольких копий базы данных или несколько серверов клиентского доступа в массиве CAS ) и уменьшения количества системных зависимостей (путем объединения ролей сервера Exchange или с помощью простой архитектуры хранения без чрезмерного количества критических компонентов ). Простые правила и формулы , представленные в этой статье позволяют рассчитать влияние на стоимость доступности от развертывания дополнительных копий баз данных или из сочетания ролей сервера Exchange. Также можно рассчитать влияние точек отказа. Реальная жизнь редко вписывается в простые базовые сценарии , и понадобятся гораздо более сложные расчеты , чтобы получить разумные оценки уровня доступности реальных систем ; это можно облегчить и просто измерить уровень доступности статистически и проверить , отвечает ли он требованиям SLA . Тем не менее, понимание факторов, влияющих на доступность вместе с сложностью технического решения должно помочь спроектировать решение правильно и достичь значительного увеличения общего уровня доступности служб даже для самых взыскательных бизнес-требований .