Интернет Windows Android

Гилёв - Перевод конфигурации на управляемые блокировки. Гилёв - Перевод конфигурации на управляемые блокировки Установка 1с на ssd диск

К нам часто приходят вопросы про то что тормозит 1с, особенно при переходе на версию 1с 8.3, благодоря нашим коллегам из ООО "Интерфейс", мы подробно рассказываем:

В наших прошлых публикациях мы уже касались влияния производительности дисковой подсистемы на скорость работы 1С, однако данное исследование касалось локального использования приложения на отдельном ПК или терминальном сервере. В тоже время большинство небольших внедрений предполагают работу с файловой базой по сети, где в качестве сервера используется один из пользовательских ПК, либо выделенный файловый сервер на базе обычного, чаще всего также недорогого, компьютера.

Небольшое исследование русскоязычных ресурсов по 1С показало, что данный вопрос старательно обходится стороной, в случае возникновения проблем обычно советуется переход к клиент-серверному или терминальному режиму. А также практически общепринятым стало мнение, что конфигурации на управляемом приложении работают значительно медленнее обычных. Как правило аргументы приводятся "железные": "вот Бухгалтерия 2.0 просто летала, а "тройка" еле шевелится", безусловно, для истины в этих словах есть, поэтому попробуем разобраться.

Потребление ресурсов, первый взгляд

Перед тем, как начать это исследование, мы поставили перед собой две задачи: выяснить, действительно ли конфигурации на основе управляемого приложения медленнее обычных и какие именно ресурсы оказывают первоочередное влияние на производительность.

Для тестирования мы взяли две виртуальные машины под управлением Windows Server 2012 R2 и Windows 8.1 соответственно, выделив им по 2 ядра хостового Core i5-4670 и 2 ГБ оперативной памяти, что соответствует примерно средней офисной машине. Сервер разместили на RAID 0 массиве из двух WD Se, а клиент на аналогичном массиве из дисков общего назначения.

В качестве подопытных баз мы выбрали несколько конфигураций Бухгалтерии 2.0, релиза 2.0.64.12 , которую затем обновили до 3.0.38.52 , все конфигурации запускались на платформе 8.3.5.1443 .

Первое, что обращает на себя внимание, это выросший размер информационной базы "тройки", причем существенно выросший, а также гораздо большие аппетиты к оперативной памяти:

Мы уже готовы услышать привычное: "да чего они там такого добавили в эту тройку", но давайте не будем спешить. В отличие от пользователей клиент-серверных версий, которые требуют наличия более-менее квалифицированного администратора, пользователи файловых версий крайне редко задумываются об обслуживании баз. Также редко об этом думают обслуживающие (читай - обновляющие) эти базы сотрудники специализированных фирм.

Между тем информационная база 1С - это полноценная СУБД своего формата, которая тоже требует обслуживания и для этого даже есть инструмент, который называется Тестирование и исправление информационной базы . Возможно злую шутку сыграло название, которое как-бы подразумевает, что это инструмент для устранения проблем, но низкая производительность - тоже проблема, а реструктуризация и реиндексация, вместе со сжатием таблиц - хорошо известные любому администратору СУБД средства оптимизации баз данных. Проверим?

После применения выбранных действий база резко "похудела", став даже меньше "двойки", которую тоже никто никогда не оптимизировал, также немного уменьшилось потребление ОЗУ.

В последствии, после загрузки новых классификаторов и справочников, создания индексов и т.п. размер базы вырастет, в целом базы "тройки" больше баз "двойки". Однако более важно не это, если вторая версия довольствовалась 150-200 МБ оперативной памяти, то новой редакции нужно уже полгигабайта и из этого значения следует исходить, планируя необходимые ресурсы для работы с программой.

Сеть

Пропускная способность сети - один наиболее важных параметров для сетевых приложений, особенно, как 1С в файловом режиме, перемещающих по сети значительные объемы данных. Большинство сетей небольших предприятий построены на базе недорогого 100 Мбит/с оборудования, поэтому мы начали тестирование именно со сравнения показателей производительности 1С в сетях 100 Мбит/с и 1 Гбит/с.

Что происходит при запуске файловой базы 1С по сети? Клиент скачивает во временные папки достаточно большое количество информации, особенно если это первый, "холодный", запуск. На 100 Мбит/с мы ожидаемо упремся в ширину канала и загрузка может занять значительное время, в нашем случае около 40 секунд (цена деления графика - 4 сек).

Второй запуск происходит быстрее, так как часть данных сохраняется в кэше и находится там до перезагрузки. Переход на гигабитную сеть способен значительно ускорить загрузку программы, как "холодный", так и "горячий", причем соотношение значений при этом соблюдается. Поэтому мы решили выразить результат в относительных значениях, взяв за 100% самое большое значение каждого замера:

Как можно заметить из графиков, Бухгалтерия 2.0 загружается при любой скорости сети вдвое быстрее, переход со 100 Мбит/с на 1 Гбит/с позволяет ускорить время загрузки в четыре раза. Разницы между оптимизированной и неоптимизированной базами "тройки" в данном режиме не наблюдается.

Также мы проверили влияние скорости сети на работу в тяжелых режимах, например, при групповом перепроведении. Результат также выражен в относительных значениях:

Здесь уже интереснее, оптимизированная база "тройки" в 100 Мбит/с сети работает с такой же скоростью, как и "двойка", а неоптимизированная показывает вдвое худший результат. На гигабите соотношения сохраняются, неоптимизированная "тройка" также вдвое медленнее "двойки", а оптимизированная отстает на треть. Также переход на 1 Гбит/с позволяет сократить время проведения в три раза для редакции 2.0 и в два раза для 3.0.

Для того, чтобы оценить влияние скорости сети на повседневную работу мы воспользовались Замером производительности , выполнив в каждой базе последовательность заранее предопределенных действий.

Собственно, для повседневных задач пропускная способность сети не является узким местом, неоптимизированная "тройка" всего лишь на 20% медленнее двойки, а после оптимизации оказывается примерно настолько же быстрее - сказываются преимущества работы в режиме тонкого клиента. Переход на 1 Гбит/с не дает оптимизированной базе никаких преимуществ, а неоптимизированная и двойка начинают работать быстрее, показывая небольшую разницу между собой.

Из проведенных тестов становится очевидно, что сеть не является узким местом для новых конфигураций, а управляемое приложение работает даже быстрее обычного. Также можно рекомендовать переход на 1 Гбит/с если для вас критичны тяжелые задачи и скорость загрузки баз, в остальных случаях новые конфигурации позволяют эффективно работать даже в медленных 100 Мбит/с сетях.

Так почему же 1С тормозит? Будем разбираться дальше.

Дисковая подсистема сервера и SSD

В прошлом материале мы добились увеличения производительности 1С разместив базы на SSD. Возможно недостаточно производительности дисковой подсистемы сервера? Мы сделали замеры производительности дисковой сервера во время группового проведения сразу в двух базах и получили довольно оптимистичный результат.

Несмотря на относительно большое количество операций ввода-вывода в секунду (IOPS) - 913, длина очереди не превысила 1,84, что для двухдискового массива очень хороший результат. Исходя из него можно сделать предположение, что зеркала из обычных дисков будет достаточно для нормальной работы 8-10 сетевых клиентов в тяжелых режимах.

Так нужен ли SSD на сервере? Лучше всего ответить на этот вопрос поможет тестирование, которое мы провели по аналогичной методике, сетевое подключение везде 1 Гбит/с, результат также выражен в относительных значениях.

Начнем со скорости загрузки базы.

Может быть кому-то и покажется удивительным, но на скорость загрузки базы SSD на сервере не влияет. Основной сдерживающий фактор здесь, как показал предыдущий тест, пропускная способность сети и производительность клиента.

Перейдем к перепроведению:

Выше мы уже отмечали, что производительности дисковой вполне достаточно даже для работы в тяжелых режимах, поэтому на скорость проведения SSD также не оказывает влияния, кроме неоптимизированной базы, которая на SSD догнала оптимизированную. Собственно, это еще раз подтверждает, что операции оптимизации упорядочивают информацию в базе данных, уменьшая количество случайных операций ввода вывода и повышая скорость доступа к ней.

На повседневных задачах картина аналогичная:

Выигрыш от SSD получает только неоптимизированная база. Вы, конечно, можете приобрести SSD, но гораздо лучше будет задуматься о своевременном обслуживании баз. Также не забывайте о дефрагментации раздела с информационными базами на сервере.

Дисковая подсистема клиента и SSD

Влияние SSD на скорость работы локально установленной 1С мы разбирали в предыдущем материале, многое из сказанного справедливо и для работы в сетевом режиме. Действительно, 1С достаточно активно использует дисковые ресурсы, в том числе и для фоновых и регламентных задач. На рисунке ниже можно видеть, как Бухгалтерия 3.0 довольно активно обращается к диску в течении порядка 40 секунд после загрузки.

Но при этом следует осознавать, что для рабочей станции где активная работа производится с одной - двумя информационными базами ресурсов производительности обычного HDD массовой серии вполне достаточно. Приобретение SSD способно ускорить некоторые процессы, но радикального ускорения в повседневной работе вы не заметите, так как, например, загрузка будет ограничиваться пропускной способностью сети.

Медленный жесткий диск способен замедлить некоторые операции, но сам по себе являться причиной торможения программы не может.

Оперативная память

Несмотря на то, что оперативка сейчас неприлично дешева, многие рабочие станции продолжают работать с тем объемом памяти, который был установлен при покупке. Вот тут и подстерегают первые проблемы. Уже исходя из того, что в среднем "тройке" требуется около 500 МБ памяти можно предположить, что общего объема оперативной памяти в 1ГБ для работы с программой будет недостаточно.

Мы уменьшили память системы до 1 Гб и запустили две информационные базы.

На первый взгляд все не так и плохо, программа поумерила аппетиты и вполне уложилась в доступную память, но не будем забывать, что потребность в оперативных данных не изменилась, так куда же они делись? Сброшены в дисковый, кэш, подкачку и т.п., суть этой операции состоит в том, что не нужные в данный момент данные отправляются из быстрой оперативной памяти, количества которой недостаточно, в медленную дисковую.

К чему это приведет? Посмотрим, как используются ресурсы системы в тяжелых операциях, например, запустим групповое перепроведение сразу в двух базах. Сначала на системе с 2 ГБ оперативной памяти:

Как видим, система активно использует сеть, для получения данных и процессор для их обработки, дисковая активность незначительна, в процессе выполнения обработки она эпизодически вырастает, но не является сдерживающим фактором.

Теперь уменьшим память до 1 ГБ:

Ситуация радикальным образом меняется, основная нагрузка теперь приходится на жесткий диск, процессор и сеть простаивают, ожидая пока система считает с диска в память нужные данные и отправит туда ненужные.

При этом даже субъективная работа с двумя открытыми базами на системе с 1 ГБ памяти оказалась крайне некомфортной, справочники и журналы открывались со значительной задержкой и активным обращением к диску. Например, открытие журнала Реализация товаров и услуг заняло около 20 секунд и сопровождалось все это время высокой дисковой активностью (выделено красной линией).

Чтобы объективно оценить влияние оперативной памяти на производительность конфигураций на основе управляемого приложения мы провели три замера: скорость загрузки первой базы, скорость загрузки второй базы и групповое перепроведение в одной из баз. Обе базы полностью идентичны и созданы копированием оптимизированной базы. Результат выражен в относительных единицах.

Результат говорит сам за себя, если время загрузки вырастает примерно на треть, что еще вполне терпимо, то время выполнения операций в базе вырастает в три раза, ни о какой комфортной работе в таких условиях говорить не приходится. Кстати, этот тот случай, когда покупка SSD способна улучшить ситуацию, но гораздо проще (и дешевле) бороться с причиной, а не с последствиями, и просто купить нужное количество оперативной памяти.

Недостаток оперативной памяти - основная причина по которой работа с новыми конфигурациями 1С оказывается некомфортной. Минимально подходящими следует считать конфигурации с 2 ГБ памяти на борту. При этом учитывайте, что в нашем случае были созданы "тепличные" условия: чистая система, запущены только 1С и диспетчер задач. В реальной жизни на рабочем компьютере как правило открыты браузер, офисный пакет, работает антивирус и т.д, и т.п., поэтому исходите из потребности 500 МБ на одну базу плюс некоторый запас, чтобы при тяжелых операциях вы не столкнулись с недостатком памяти и резким снижением производительности.

Процессор

Центральный процессор без преувеличения можно назвать сердцем компьютера, так как именно он, в конечном итоге, осуществляет обработку всех вычислений. Чтобы оценить его роль мы провели еще один набор тестов, такой же, как и для оперативной памяти, уменьшив количество доступных виртуальной машине ядер с двух до одного, при этом тест выполнялся два раза с объемами памяти в 1 ГБ и 2 ГБ.

Результат оказался довольно интересным и неожиданным, более мощный процессор довольно эффективно брал на себя нагрузку в условиях недостатка в ресурсах, в остальное время не давая каких-либо ощутимых преимуществ. 1С Предприятие сложно назвать приложением, активно использующим процессорные ресурсы, скорее нетребовательным. А в тяжелых условиях на процессор ложится нагрузка не столько по обсчету данных самого приложения, сколько обслуживания накладных расходов: дополнительных операций ввода вывода и т.п.

Выводы

Итак, почему тормозит 1С? В первую очередь это недостаток оперативной памяти, основная нагрузка в этом случае ложится на жесткий диск и процессор. А если они не блистают производительностью, как это обычно бывает в офисных конфигурациях, то получаем ситуацию, описанную в начале статьи - "двойка" работала нормально, а "тройка" безбожно тормозит.

На второе место стоит вынести производительность сети, медленный 100 Мбит/с канал способен стать реальным бутылочным горлышком, но в тоже время режим тонкого клиента способен поддерживать довольно комфортный уровень работы даже на медленных каналах.

Затем следует обратить внимание на дисковую, покупка SSD вряд ли будет хорошим вложением денег, а вот заменить диск на более современный будет не лишним. Разницу между поколениями жестких дисков можно оценить по следующему материалу: Обзор двух недорогих дисков серии Western Digital Blue 500 ГБ и 1 ТБ.

И наконец процессор. Более быстрая модель конечно же не будет лишней, но большого смысла увеличивать его производительность нет, если только данный ПК не используется для тяжелых операций: групповых обработок, тяжелых отчетов, закрытия месяца и т.п.

Надеемся данный материал поможет вам быстрее разобраться в вопросе "почему тормозит 1С" и решить его наиболее эффективно и без лишних затрат.

В группе LinkedIn “Storage Professionals” (кстати рекомендую обратить внимание на существование дискуссионных групп в LinkedIn, бывает интересно) вот уже которую неделю обсуждается тема:
SSD drives failure rates
Некоторые цитаты оттуда, которые я приведу без перевода, благо все понятно (каждый абзац - цитата-фрагмент из сообщения отдельного человека в данном треде).
I’m working as a contractor at a bank in the midwest and we have SSD’s in EMC VMAX’s for about 9 months. We haven’t seen any failures yet
I once ran a multi week attempt to burn out various vendors’ SSDs. I ran them flat out 100% random writes for about a month. Fusion IOs at something like 30k IOPs per drive, STECs / Intels around 7k. Never was able to get any of them to fail.
The Fusion IO did as many writes that month as a single SAS drive could do in over a decade.

We have approximately 150 SSD drives and have seen 1 failure during the past 12 months.
I’ve been using SSDs in a cx4-960 clariion for just under 12 months with no failures (covering large ms sql tempdb).
From my own experience (first shipped SSD systems 2 and half years ago), SLC SSD failure rate is in the same range as rotating drives.

Вот такие дела. Есть над чем подумать тем кто до сих пор считает, что ресурс SSD на запись ужасно ограничен , что SSD ненадежен, и при работе Enterprise Flash Drives дохнет как паленая китайская USB-флешка Kinqston.

Вопрос производительности 1С в файловом режиме стоит довольно остро, особенно перед небольшими фирмами, которые не могут позволить себе существенных вложений в оборудование. Тем не менее "аппетиты" приложения от релиза к релизу только растут и задача повышения быстродействия при умеренных затратах бюджета становится все актуальнее. В этом случае неплохим решением будет приобретение и размещение баз на SSD.

Один из наших клиентов, небольшая фирма по бухгалтерскому обслуживанию, начал жаловаться на медленную работу 1С:Предприятие. Собственно и так не очень быстрая работа приложения стала совсем тоскливой после перехода с Бухгалтерии 2.0 на Бухгалтерию 3.0.

В наличие имелся простой терминальный сервер на Core i3 2120, 8 Гб RAM, с дисковым массивом RAID 1 из двух Western Digital RE4, который обслуживал от трех до шести пользователей, каждый из которых работал с двумя - тремя базами одновременно.

Анализ производительности сразу выявил узкое место - дисковая подсистема (скриншот сделан уже после установки SSD, поэтому к RAID массиву относятся логические диски C: и E:).

Несложные расчеты показали, что запуск даже одной информационной базы практически полностью использует производительность массива, около 150 IOPS при текущем соотношении чтение/запись - фактический предел для зеркала из двух не самых быстрых дисков. На что косвенно указывает и размер очереди.

Одновременный запуск нескольких баз в начале рабочего дня приводил к существенному замедлению работы сервера и снижал отзывчивость системы. Также наблюдадлась неприятная задумчивость при работе с журналами, при формировании отчетов и т.п.

Тест производительности массива также показал невысокий результат, по сегодняшним меркам более подходящий портативным дискам.

Стало ясно - требуется модернизация дисковой подсистемы. Даже по предварительным прикидкам, создание производительного массива на основе массовых HDD упиралось как в доступный бюджет, так и в физические возможности железа, которое просто не имело необходимого количества SATA-портов и дисковых корзин в корпусе. Поэтому было принято решение о приобретении SSD.

Так как высоких дисковых нагрузок не предусматривалось, то выбор производился в первую очередь из соображений цены. Скоростные характеристики также отходили на второй план, так как узким местом становился интерфейс SATA-II. В итоге был приобретен 128Gb Corsair Neutron LAMD , который будучи установленным в сервер показал следующие скоростные характеристики:

Как видим, операции последовательного доступа ожидаемо уперлись в пропускную способность интерфейса, но в нашем случае это имеет второстепенное значение. Основное внимание следует обратить на операции случайного доступа, которые на порядок превосходят аналогичные показатели традиционных HDD.

Следующий вопрос, который нужно решить: это создать ли "зеркало" из SSD и пожертвовать TRIM ради отказоустойчивости или оставить одиночный диск, выбрав скорость вместо отказоустойчивости. Следует отметить, что современные SSD кроме команды TRIM используют собственные технологии борьбы с деградацией, такие как сбор мусора, что позволяет довольно эффективно работать даже на системах без TRIM. Используемый в данной серии SSD контроллер LAMD (Link_A_Media Devices) как раз таки отличается весьма эффективными технологиями сбора мусора, на уровне накопителей корпоративного уровня, что в общем неудивительно, так как его разработчики давно работают в enterprise-сегменте.

Так как объем ежедневно вводимых документов невелик, то мы ограничились единственным SSD при обязательных ежедневных бекапах. Косвенно эффект от применения твердотельного диска можно оценить по монитору производительности:

Количество операций ввода-вывода существенно выросло, как и скорость обмена с диском, при этом длина очереди не превышает единицы. Это очень неплохие показатели, осталось проверить насколько наши действия ускорили работу непосредственно с 1С:Предприятие.

Для этого мы провели небольшое экспресс-тестирование в ходе которого измеряли время загрузки информационной базы и время группового перепроведения комплекта документов за определенный период времени. В ходе тестирования применялась конфигурация 1С:Бухгалтерия 3.0.27.7 на платформе 8.3.3.721 .

Также в ходе анализа производительности мы обратили внимание на тот факт, что в своей работе 1С:Предприятие активно использует временные папки, которые в нашем случае были расположены на жестком диске. Поэтому в целях достижения максимальной производительности их стоит также перенести на SSD, однако для любителей экономить ресурс твердотельных дисков мы включили в тест оба варианта: когда базы расположенны на SSD, а временная папка на HDD и когда для работы приложения полностью используется SSD.

Как видим, перенос информационных баз на SSD сразу уменьшил время их загрузки более чем вдвое, а перепроведение ускорилось приблизительно на 30%. При этом полностью сняласть проблема с падением производительности при совместной работе.

Перенос на SSD временных папок позволяет сократить время загрузки более чем втрое и приблизительно в два раза ускорить проведение документов. Здесь есть над чем подумать даже убежденным приверженцам экономии ресурсов диска. Наше мнение по данному вопросу следующее, если вы купили SSD - то следует использовать его по полной программе.

Сделаем небольшое отступление. Используемый нами диск Corsair Neutron имеет ресурс 2-3K циклов стирания/записи . Несложные расчеты показывают, что если ежедневно полностью перезаписывать всю емкость диска, то для исчерпания ресурса потребуется 5-8 лет. Кроме того статистика показвает, что основная причина выхода из строя SSD в течении гарантийного срока не связана с исчерпанием ресурса, а представляет собой производственный брак или ошибки в прошивке.

В заключение хочется сказать, что применение SSD на сегодняшний день пожалуй единственный эффективный способ существенно повысить производительность 1С:Предприятие в файловом режиме. И, что особенно важно, доступный по цене даже для небольших предприятий.

Основная цель написания статьи — чтобы не повторять очевидные нюансы тем администраторам (и программистам), которые еще не набрали опыта с 1С.

Вторичная цель, если у меня будут какие-то недочеты, — на Инфостарте мне это укажут быстрее всего.

Неким стандартом "де факто" уже стал тест В. Гилева . Автор на своем сайте дал вполне понятные рекомендации, я же просто приведу некоторые результаты, и прокомментирую наиболее вероятные ошибки. Естественно, что результаты тестирования на Вашем оборудовании могут отличаться, это просто для ориентира, что должно быть и к чему можно стремиться. Сразу хочу отметить, что изменения надо делать пошагово, и после каждого шага проверять, какой результат это дало.

На Инфостарте подобные статьи есть, в соответствующих разделх буду ставить на них ссылки (если пропущу что-то - просьба подсказать в комментариях, добавлю). Итак, предположим у вас тормозит 1С. Как диагностировать проблему, и как понять кто виноват, администратор или программист?

Исходные данные:

Тестируемый компьютер, основной подопытный кролик: HP DL180G6, в комплектации 2*Xeon 5650, 32 Gb, Intel 362i , Win 2008 r2. Для сравнения, сопоставимые результаты в однопоточном тесте показывает Core i3-2100. Оборудование специально взял не самое новое, на современном оборудовании результаты заметно лучше.

Для тестирования разнесенных серверов 1С и SQL, сервер SQL: IBM System 3650 x4, 2*Xeon E5-2630, 32 Gb, Intel 350, Win 2008 r2.

Для проверки 10 Gbit сети использовались Intel 520-DA2 адаптеры.

Файловая версия . (база лежит на сервере в расшаренной папке, клиенты подключаются по сети, протокол CIFS/SMB). Алгоритм по шагам:

0. Добавляем на файловый сервер тестовую базу Гилева в ту же папку, что и основные базы. С клиентского компьютера подключаемся, запускаем тест. Запоминаем получившийся результат.

Подразумевается, что даже для старых компьютеров 10 летней давности (Pentium на 775 socket ) время от нажатия на ярлык 1С:Предприятие до появления окна базы должно пройти меньше минуты. (Celeron = медленная работа).

Если у Вас компьютер хуже, чем пентиум на 775 socket с 1 гб оперативной памяти, то я Вам сочувствую, и комфортной работы на 1С 8.2 в файловой версии Вам будет добиться тяжело. Задумайтесь или об апгрейде (давно пора), или о переходе на терминальный (или web, в случае тонких клиентов и управляемых форм) сервер.

Если компьютер не хуже, то можно пинать администратора. Как минимум — проверить работу сети, антивируса и драйвера защиты HASP.

Если тест Гилева на этом этапе показал 30 "попугаев" и выше, но рабочая база 1С все равно работает медленно - вопросы уже к программисту.

1. Для ориентира, сколько же может "выжать" клиентский компьютер, проверяем работу только этого компьютера, без сети. Тестовую базу ставим на локальный компьютер (на очень быстрый диск). Если на клиентском компьютере нет нормального ССД, то создается рамдиск. Пока, самое простое и бесплатное — Ramdisk enterprise .

Для тестирования версии 8.2 вполне достаточно 256 мб рамдиска, и! Самое главное. После перезагрузки компьютера, с работающим рамдиском, на нем должно быть свободно 100-200 мб. Соответственно, без рамдиска, для нормальной работы свободной памяти должно быть 300-400 мб.

Для тестирования версии 8.3 рамдиска 256 мб хватит, но свободной оперативной памяти надо больше.

При тестировании нужно смотреть на загрузку процессора. В случае, близком к идеальному(рамдиск), локальная файловая 1с при работе загружает 1 ядро процессора. Соответственно, если при тестировании у вас ядро процессора загружено не полностью — ищите слабые места. Немного эмоционально, но в целом корректно, влияние процессора на работу 1С описано . Просто для ориентира, даже на современных Core i3 с высокой частотой вполне реальны цифры 70-80.

Наиболее часто встречающиеся ошибки на этом этапе.

а) Неправильно настроенный антивирус. Антивирусов много, настройки для каждого свои, скажу лишь то, что при грамотной настройке ни веб, ни касперский 1С не мешают. При настройках "по умолчанию" - может отниматься примерно 3-5 попугаев (10-15%).

б) Режим производительности. Почему-то на это мало кто обращает внимания, а эффект - самый весомый. Если нужна скорость - то делать это обязательно, и на клиентских и на серверных компьютерах. (Хорошее описание у Гилева . Единственный нюанс, на некоторых материнских платах если выключить Intel SpeedStep то нельзя включать TurboBoost).

Если коротко - во время работы 1С происходит очень много ожиданий ответа от других устройств (диск, сеть и пр). Во время ожидания ответа, если режим производительности включен сбалансированный, то процессор понижает свою частоту. Приходит ответ от устройства, надо работать 1С (процессору), но первые такты идут с пониженной частотой, потом частота повышается - а 1С снова ждет ответа от устройства. И так - много сотен раз в секунду.

Включать режим производительности можно (и желательно) в двух местах:

Через BIOS. Отключить режимы C1, C1E, Intel С-state (C2, C3,C4). В разных биосах они называтся по разному, но смысл один. Искать долго, требуется перезагрузка, но если сделал один раз - потом можно забыть. Если в BIOS все сделать правильно, то скорости добавится. На некоторых материнских платах настройками BIOS можно сделать так, что режим производительности Windows роли играть не будет. (Примеры настройки BIOS у Гилева). Эти настройки в основном касаются серверных процессоров или "продвинутых" BIOS, если Вы такое у себя не нашли, и у вас НЕ Xeon - ничего страшного.

Панель управления - Электропитание - Высокая производительность. Минус - если ТО комптютера давно не проводилось, он будет сильнее гудеть вентилятором, будет больше греться и потреблять больше энергии. Это - плата за производительность.

Как проверить, что режим включен. Запускаем диспетчер задач - быстродействие - монитор ресурсов - ЦП. Дожидаемся, пока процессор ничем не занят.

Это - настройки по умолчанию.

В BIOS C-state включены ,

режим энергопотребления сбалансированный


В BIOS C-state включены , режим высокой производительности

Для Pentium и Core на этом можно остановиться,

из Xeon еще можно выжать немного "попугайчиков"


В BIOS C-state выключены , режим высокой производительности.

Если не использовать Turbo boost - именно так должен выглядеть

сервер, настроенный на производительность


А теперь цифры. Напомню: Intel Xeon 5650, ramdisk. В первом случае тест показывает 23.26, в последнем - 49.5. Разница - почти двухкратная. Цифры могут варьироваться, но соотношение остается практически таким же для Intel Core.

Уважаемые администраторы, вы можете как угодно ругать 1С, но если конечным пользователям нужна скорость - необходимо включать режим высокой производительности.

в) Turbo Boost. Сначала надо понять, поддерживает ли Ваш процессор эту функцию, например . Если поддерживает, то можно еще вполне легально получить немного производительности. (вопросы разгона по частоте, особенно серверов, касаться не хочу, делайте это на свой страх и риск. Но соглашусь с тем, что повышение Bus speed со 133 до 166 дает очень ощутимый прирост как скорости, так и тепловыделения)

Как включать turbo boost написано, например, . Но! Для 1С есть некоторые нюансы(не самые очевидные). Сложность в том, что максимальный эффект от turbo boost проявляется тогда, когда включены C-state. И получается примерно такая картинка:

Обратите внимание, что множитель - максимальный, частота Core speed - красивейшая, производительность - высокая. Но что же будет в результате с 1с?

Множитель

Core speed (частота), GHz

CPU-Z Single Thread

Тест Гилева Ramdisk

файловый вариант

Тест Гилева Ramdisk

клиент-сервер

Без Turbo boost

C-state off, Turbo boost

53.19

40,32

C-state on, Turbo boost

1080

53,13

23,04

А в итоге получается, что по тестам производительности ЦПУ вариант с множителем 23 впереди, по тестам Гилева в файловой версии - производительность с множителем 22 и 23 одинаковая, а вот в клиент-серверной - вариант с множителем 23 ужас ужас ужас (даже, если C-state выставить на уровень 7, то все равно медленнее, чем с выключенным C-state). Поэтому рекомендация, проверьте оба варианта у себя, и выберите из них лучший. В любом случае, разница 49,5 и 53 попугая - достаточно значительная, тем более это без особых усилий.

Вывод - turbo boost включать обязательно. Напомню, что недостаточно включить пункт Turbo boost в биосе, надо еще посмотреть и другие настройки (BIOS: QPI L0s, L1 - disable, demand scrubbing - disable, Intel SpeedStep - enable, Turbo boost - enable. Панель управления - Электропитание - Высокая производительность). И я бы все-таки (даже для файловой версии) остановился на варианте, где c-state выключен, хоть там множитель и меньше. Получится как-то так...

Достаточно спорным моментом является частота памяти. Например вот частота памяти показывается как очень сильно влияющая. Мои же тесты - такой зависимости не выявили. Я не буду сравнивать DDR 2/3/4, я покажу результаты изменения частоты в пределах одной линейки. Память одна и та же, но в биосе принудительно ставим меньшие частоты.




И результаты тестирования. 1С 8.2.19.83, для файлового варианта локальный рамдиск, для клиент-серверного 1С и SQL на одном компьютере, Shared memory. Turbo boost в обоих вариантах выключен. 8.3 показывает сопоставимые результаты.

Разница - в пределах погрешности измерений. Я специально вытащил скрины CPU-Z чтобы показать, что со сменой частоты меняются и другие параметры, те же CAS Latency и RAS to CAS Delay, что нивелирует изменение частоты. Разница будет тогда, когда физически будут меняться модули памяти, с более медленных на более быстрые, но и там цифры не особо значительные.

2. Когда с процессором и памятью клиентского компьютера разобрались, переходим к следующему очень важному месту - сети. Про тюнинг сети написаны многие тома книг, есть статьи на Инфостарте ( , и другие), здесь я на эту тему заострять внимание не буду. Перед началом тестирования 1С просьба убедиться, что iperf между двумя компьютерами показывает всю полосу (для 1 гбит карточек - ну хотя бы 850 мбит, а лучше 950-980), что выполнены советы Гилева . Потом - самой простой проверкой работы будет, как это ни странно, копирование одного большого файла (5-10 гигабайт) по сети. Косвенным признаком нормальной работы на сети в 1 гбит будет средняя скорость копирования 100 мб/сек, хорошей работы — 120 мб/сек. Хочу обратить внимание, что слабым местом (в том числе) может быть и загруженность процессора. SMB протокол на Linux достаточно плохо параллелится, и во время работы он вполне спокойно может «скушать» одно ядро процессора, и больше не потреблять.

И еще. С настройками по умолчанию windows клиент лучше всего работает с windows server (или даже windows рабочая станция) и протоколом SMB/CIFS, linux клиент (debian, ubuntu остальные не смотрел) лучше работает с linux и NFS (с SMB тоже работает, но на NFS попугаи выше). То, что при линейном копировании вин-линукс сервер на нфс копируется в один поток быстрее, еще ни о чем не говорит. Тюнинг debian для 1С - тема отдельной статьи, я к ней еще не готов, хотя могу сказать, что в файловой версии получал даже немного бОльшую производительность, чем Win вариант на этом же оборудовании, но с postgres при пользователях свыше 50 у меня пока еще все очень плохо.

Самое главное , о чем знают "обжегшиеся" администраторы, но не учитывают начинающие. Есть очень много способов задать путь к базе 1с. Можно сделать \\server\share, можно \\192.168.0.1\share, можно net use z: \\192.168.0.1\share (и в некоторых случаях такой способ тоже сработает, но далеко не всегда) и потом указывать диск Z. Вроде бы все эти пути указывают на одно и то же место, но для 1С есть только один способ, достаточно стабильно дающий нормальную производительность. Так вот, правильно делать надо так:

В командной строке (или в политиках, или как Вам удобно) - делаете net use DriveLetter: \\server\share. Пример: net use m: \\server\bases . Я специально подчеркиваю, НЕ IP адрес, а именно имя сервера. Если сервер по имени не виден - добавьте его в dns на сервере, или локально в файл hosts. Но обращение должно быть по имени. Соответственно - в пути к базе обращаться к этому диску (см картинку).

А теперь я на цифрах покажу, почему именно такой совет. Исходные данные: Карты Intel X520-DA2, Intel 362, Intel 350, Realtek 8169. ОС Win 2008 R2, Win 7, Debian 8. Драйвера последние, обновления применены. Перед тестированием я убедился, что Iperf дает полную полосу (кроме 10 гбит карточек, там получилось только 7.2 Gbit выжать, позже посмотрю почему, тестовый сервер еще не настроен как надо). Диски разные, но везде SSD(специально вставил одиночный диск для тестирования, больше ничем не нагружен) или рейд из SSD. Скорость 100 Mbit получена путем ограничения в настройках адаптера Intel 362. Разницы между 1 Gbit медь Intel 350 и 1 Gbit оптика Intel X520-DA2 (полученной путем ограничения скорости адаптера) не обнаружено. Максимальная производительность, турбобуст выключен (просто для сопоставимости результатов, турбобуст для хороших результатов добавляет чуть меньше 10%, для плохих - вообще может никак не сказаться). Версии 1С 8.2.19.86, 8.3.6.2076. Цифры привожу не все, а только самые интересные, чтобы было с чем сравнивать.

Win 2008 - Win 2008

обращение по ip адресу

Win 2008 - Win 2008

Обращение по имени

Win 2008 - Win 2008

Обращение по ip адресу

Win 2008 - Win 2008

Обращение по имени

Win 2008 - Win 7

Обращение по имени

Win 2008 - Debian

Обращение по имени

Win 2008 - Win 2008

Обращение по ip адресу

Win 2008 - Win 2008

Обращение по имени

11,20 26,18 15,20 43,86 40,65 37,04 16,23 44,64
1С 8.2 11,29 26,18 15,29 43,10 40,65 36,76 15,11 44,10
8.2.19.83 12,15 25,77 15,15 43,10 14,97 42,74
6,13 34,25 14,98 43,10 39,37 37,59 15,53 42,74
1С 8.3 6,61 33,33 15,58 43,86 40,00 37,88 16,23 42,74
8.3.6.2076 33,78 15,53 43,48 39,37 37,59 42,74

Выводы (из таблицы, и из личного опыта. Касается только файловой версии):

По сети можно получить вполне нормальные цифры для работы, если эту сеть нормально настроить, и правильно прописать путь в 1С. Даже первые Core i3 вполне могут давать 40+ попугаев, что достаточно неплохо, причем это не только попугаи, в реальной работе разница тоже заметна. Но! ограничением при работе нескольких (больше 10) пользователей уже будет выступать не сеть, тут 1 Гбит еще хватит, а блокировки при многопользовательской работе (Гилев).

Платформа 1C 8.3 в разы требовательнее к грамотной настройке сети. Базовые настройки - см Гилев , но учтите, что влиять может все. Видел ускорение от того, что деинсталлировали (а не просто отключали) антивирус, от убирания протоколов типа FCoE, от смены драйверов на более старую, но microsoft certified версию (особенно касается дешевых карточек типа асусов и длинков), от убирания второй сетевой карточки из сервера. Очень много вариантов, настраивайте сеть вдумчиво. Вполне может быть ситуация, когда платформа 8.2 дает приемленые цифры, а 8.3 - в два или даже больше раз меньше. Попробуйте поиграться с версиями платформы 8.3, иногда получается очень большой эффект.

1С 8.3.6.2076 (может и более поздние, точную версию еще не искал) по сети все-таки настроить попроще, чем 8.3.7.2008. Добиться от 8.3.7.2008 нормальной работы по сети (в сопоставимых попугаях) получилось всего несколько раз, повторить для более общего случая не смог. Сильно не разбирался, но судя по портянкам от Process Explorer там запись не так идет, как в 8.3.6.

Несмотря на то, что при работе на 100Мбит сети график ее загруженности небольшой, (можно сказать что сеть свободная), скорость работы все равно гораздо меньше, чем на 1 гбит. Причина - задержки (latency) сети.

При прочих равных условиях (хорошо работающей сети) для 1С 8.2 соединение Intel - Realtek медленнее на 10%, чем Intel-Intel. А вот realtek-realtek вообще могут дать резкие проседания на ровном месте. Поэтому, если есть деньги - лучше везде держать сетевые карточки Intel, если денег нет - то Intel ставить только на сервер (ваш К.О.). Да и инструкций по тюнингу интелевых сетевых карточек в разы больше.

Настройки антивирусов по умолчанию (на примере drweb 10 версии) отнимают около 8-10% попугаев. Если настроить как надо (разрешить процессу 1cv8 делать все, хоть это и не безопасно) - скорость такая же, как и без антивируса.

Линуксовым гуру НЕ читать. Сервер с samba это здорово и бесплатно, но если на сервер поставить Win XP или Win7 (а еще лучше - серверные ОС), то в файловой версии 1с будет работать быстрее. Да, и samba и стек протоколов и настройки сети и многое многое другое в debian/ubuntu хорошо тюнингуется, но делать это рекомендуется специалистам. Нет смысла ставить линукс с настройками по умолчанию и потом говорить, что он медленно работает.

Достаточно неплохо проверять работу дисков, подключенных через net use, с помощью fio . По крайней мере будет понятно, или это проблемы с платформой 1С, или с сетью/диском.

Для однопользовательского варианта не могу придумать тесты (или ситуацию) ,где была бы видна разница между 1Гбит и 10 Гбит. Единственное, где 10Гбит для файловой версии дал результат лучше - это подключение дисков по iSCSI, но это тема отдельной статьи. Все-таки считаю, что для файловой версии 1 Гбит карточек достаточно.

Почему при 100 Мбит сети 8.3 работает заметно быстрее 8.2 - не понимаю, но факт имел место быть. Все остальное оборудование, все остальные настройки абсолютно одинаковые, просто в одном случае тестируется 8.2, а в другом - 8.3.

Не тюнингованный NFS win - win или win-lin дает 6 попугаев, в таблицу включать не стал. После тюнинга 25 получил, но нестабильно (разбег в измерениях больше 2 единиц). Пока не могу дать рекомендации по использованию windows и NFS протокола.

После всех настроек и проверок запускаем опять тест с клиентского компьютера, радуемся улучшившемуся результату (если получилось). Если результат улучшился, попугаев стало больше 30(а особенно больше 40), пользователей одновременно работает меньше 10 а рабочая база все равно тормозит - практически однозначно проблемы программиста (или Вы уже достигли пика возможностей файловой версии).

Терминальный сервер . (база лежит на сервере, клиенты подключаются по сети, протокол RDP). Алгоритм по шагам:

0. Добавляем на сервер тестовую базу Гилева в ту же папку, что и основные базы. С этого же сервера подключаемся, запускаем тест. Запоминаем получившийся результат.

1. Точно так же, как и в файловой версии, настраиваем работу . В случае терминального сервера - процессор вообще несет на себе основную роль (подразумевается, что нет явных слабых мест, типа нехватки памяти или огромного количества ненужного ПО).

2. Настройка сетевых карточек в случае терминального сервера практически не влияет на работу 1с. Для обеспечения "особого" комфорта, если у вас сервер выдает больше 50 попугаев можно поиграться с новыми версиями RDP протокола, просто для комфорта работы пользователей, более быстрого отклика и скроллинга.

3. При активной работе большого количества пользователей (а здесь уже можно пробовать и 30 человек на одну базу подключить, если постараться) очень желательно поставить SSD диск. Почему-то считается, что диск не особо влияет на работу 1С, но все тесты проводят с включенным на запись кэшем контроллера, что неправильно. Тестовая база маленькая, она вполне помещается в кэш, отсюда и высокие цифры. На реальных (больших) базах все будет совершенно по другому, поэтому для тестов кэш отключен.

Для примера, проверил работу теста Гилева с разными вариантами дисков. Диски ставил из того, что было под рукой, просто тенденцию показать. Разница между 8.3.6.2076 и 8.3.7.2008 небольшая(в варианте Ramdisk Turbo boost 8.3.6 выдает 56.18 а 8.3.7.2008 выдает 55.56, в остальных тестах разница еще меньше). Энергопотребление - максимальная производительность, turbo boost отключен (если не сказано иное).

Raid 10 4x SATA 7200

ATA ST31500341AS

Raid 10 4x SAS 10k

Raid 10 4x SAS 15k

Одиночный SSD

Ramdisk

Включен кэш

RAID контроллера

21,74 28,09 32,47 49,02 50,51 53,76 49,02
1С 8.2 21,65 28,57 32,05 48,54 49,02 53,19
8.2.19.83 21,65 28,41 31,45 48,54 49,50 53,19
33,33 42,74 45,05 51,55 52,08 55,56 51,55
1С 8.3 33,46 42,02 45,05 51,02 52,08 54,95
8.3.7.2008 35,46 43,01 44,64 51,55 52,08 56,18

Включенный кэш RAID контроллера нивелирует всю разницу между дисками, цифры одинаковые и для сата, и для сас. Тестирование с ним для небольшого объема данных бесполезно и не является каким-то показателем.

Для платформы 8.2 разница в производительности между SATA и SSD вариантами - более чем в два раза. Это не опечатка. Если во время теста на САТА дисках смотреть на монитор производительности. то там явно видно "Активное время работы диска (в%)" 80-95. Да, если включить кэш самих дисков на запись скорость вырастет до 35, если включить кэш рейд контроллера - до 49 (независимо от того, какие диски тестируются в данный момент). Но это - синтетические попугаи кэша, в реальной работе при больших базах никогда не будет 100% write cache hit ratio.

Скорости даже дешевых ССД (я тестировал на Agility 3) вполне хватает для работы файловой версии. Ресурс записи - другое дело, тут смотреть надо в каждом конкретном случае, понятно, что у Intel 3700 он будет на порядок выше, но там и цена соответствующая. И да, я понимаю, что при тестировании SSD диска я тоже тестирую в бОльшей степени кэш этого диска, реальные результаты будут меньше.

Самым правильным (с моей точки зрения) решением будет выделить 2 ССД диска в зеркальный рейд для файловой базы (или нескольких файловых баз), и ничего больше туда не помещать. Да, при зеркале ССД изнашиваются одинаково, и это минус, но хотя бы от ошибок электроники контроллера хоть как-то застрахованы.

Основные плюсы ССД дисков для файлового варианта появятся тогда, когда будет много баз, и в каждой по несколько пользователей. Если баз 1-2, и пользователей в районе 10, то и SAS дисков хватит. (но в любом случае - смотреть на загрузку этих дисков, хотя бы через perfmon).

Основные плюсы терминального сервера - у него могут быть очень слабые клиенты, и настройки сети на терминальный сервер влияют гораздо меньше (опять ваш К.О.).

Выводы: если на терминальном сервере запустить тест Гилева (с того же диска, где лежат рабочие базы) и в те моменты, когда тормозит рабочая база, и тест Гилева покажет хороший результат (выше 30) - то в медленной работе основной рабочей базы виноват, скорее всего, программист.

Если же и тест Гилева показываем маленькие цифры, и у вас и процессор с высокой частотой, и диски быстрые, то вот тут администратору надо брать как минимум perfmon, причем с записью всех результатов куда-нибудь, и смотреть, наблюдать, делать выводы. Однозначных советов не будет.

Клиент-серверный вариант .

Тесты проводил только на 8.2, т.к. на 8.3 все достаточно серьезно зависит от версии.

Для тестирования выбирал разные варианты серверов и сети между ними, чтобы показать основные тенденции.

SQL: Xeon E5-2630

SQL: Xeon E5-2630

Fibre channel - SSD

SQL: Xeon E5-2630

Fibre channel - SAS

SQL: Xeon E5-2630

Local SSD

SQL: Xeon E5-2630

Fibre channel - SSD

SQL: Xeon E5-2630

Local SSD

1С: Xeon 5650 =

1С: Xeon 5650 =

Shared memory

1С: Xeon 5650 =

1С: Xeon 5650 =

1С: Xeon 5650 =

16,78 18,23 16,84 28,57 27,78 32,05 34,72 36,50 23,26 40,65 39.37
1С 8.2 17,12 17,06 14,53 29,41 28,41 31,45 34,97 36,23 23,81 40,32 39.06
16,72 16,89 13,44 29,76 28,57 32,05 34,97 36,23 23,26 40,32 39.06

Вроде все интересные варианты рассмотрел,если что-то интересует еще - пишите в комментария, постараюсь сделать.

САС на СХД работает медленнее, чем локальные ССД, даже несмотря на то, что у СХД большие размеры кэша. ССД и локальные и на СХД для теста Гилева работают с сопоставимой скоростью. Какой-то стандартный многопоточный тест (не только записи, а всего оборудования) кроме нагрузочного 1С из ЦУП я не знаю.

Смена сервера 1С с 5520 на 5650 дала практически удвоение производительности. Да, конфигурации серверов не совпадают полностью, но тенденцию показывает (ничего удивительного).

Увеличение частоты на сервере SQL конечно дает эффект, но не такой, как на сервере 1С, MS SQL сервер отлично умеет (если его об этом попросить) использовать многоядерность и свободную память.

Смена сети между 1С и SQL с 1 гбит на 10 гбит дает примерно 10% попугаев. Ожидал большего.

Включение Shared memory эффект все-таки дает, хоть и не 15%, как в описано. Делать обязательно, благо это быстро и просто. Если кто-то при установке дал серверу SQL именованный инстанс, то для работы 1С имя сервера надо указывать не FQDN (будет работать tcp/ip), не через localhost или просто ServerName, а через ServerName\InstanceName, например zz-test\zztest. (Иначе будет ошибка СУБД: Microsoft SQL Server Native Client 10.0: Поставщик общей памяти: Не найдена библиотека общей памяти, использующаяся для установки соединения с SQL Server 2000 . HRESULT=80004005, HRESULT=80004005, HRESULT=80004005, SQLSrvr: SQLSTATE=08001, state=1, Severity=10, native=126, line=0).

Для пользователей меньше 100 единственный смысл для разнесения на два отдельные сервера - это лицензия на Win 2008 Std (и более старые версии), которая поддерживает только 32 Гб ОЗУ. Во всех других случаях - 1С и SQL однозначно надо ставить на один сервер и давать ему побольше (хотя бы 64 Гб) памяти. Давать MS SQL меньше 24-28 Гб ОЗУ - неоправданная жадность (если Вы думате, что у Вас этой памяти ему хватает и все нормально работает - может Вам и файловой версии 1С бы хватило?)

Насколько хуже работает связка 1С и SQL в виртуальной машине - тема отдельной статьи (подсказка - заметно хуже). Даже в Hyper-V все не так однозначно...

Сбалансированный режим производительности - это плохо. Результаты вполне кореллируют с файловой версией.

В многих источниках написано, что отладочный режим (ragent.exe -debug) дает сильное понижение производительности. Ну понижает, да, но 2-3% я бы не назвал значительным эффектом.

Проектирование сервера под нужды «1С:Предприятие 8» для среднего и крупного бизнеса

Материал рассчитан на технических специалистов, проектирующих серверные решения для нужд «1С:Предприятие 8» с нагрузкой 25-250 пользователей и более. Рассматриваются вопросы оценки требуемой производительности по компонентам сервера, с учетом экстремальных по загруженности случаев, влияние виртуализации. Вопросы построения отказоустойчивой корпоративной инфраструктуры для крупных предприятий будут рассмотрены в следующем материале.

Оценка требуемой производительности оборудования.

Для подбора оборудования необходима хотя бы предварительная оценка потребности в ресурсах CPU, RAM, дисковой подсистемы и сетевых интерфейсов.
Здесь можно рассматривать два пути:
а) Экспериментальный, который позволяет получить объективные данные о нагрузке на текущее оборудование, и выявить узкие места;
б) Расчетный, который позволяет сделать оценку на основании эмпирически полученных усредненных данных.
Наиболее эффективным является совместное использование обеих методологий.

  1. Мониторинг нагрузки, оценка результатов, поиск узких мест и формирование требований

Почему важно проводить анализ нагрузки, если у вас есть уже работающая система?
Тут наиболее корректно будет сравнивать с медициной. Когда пациент приходит к врачу, то вначале проводится осмотр, назначаются анализы, затем оценивается весь комплекс имеющейся информации и назначается лечение. Точно та же ситуация и при проектировании сервера.
Приложив усилия к замерам параметров нагрузки и анализу результатов, в качестве вознаграждения мы получим наилучшее соответствие проектируемого сервера своим задачам. Итоговым результатом станут - существенная экономия, как начальных затрат, так и операционных затрат в дальнейшем.

Оценивать производительность сервера мы будем в рамках основных подсистем: центральных процессоров, оперативной памяти, дисковой подсистемы ввода/вывода и сетевых интерфейсов. В среде Windows существует стандартный инструментарий оценки вычислительной нагрузки Windows Performance Monitor (perfmon). В других системах есть свои аналогичные средства оценки.
В общем и целом нагрузка на каждую подсистему сильно зависит от приложений и типов данных, с которыми они работают. Для блока приложений, связанных с 1С, наиболее критичными являются CPU, RAM, а для SQL-сервера еще и дисковая подсистема. При разнесении на несколько серверов критичным также является сетевой интерфейс. Работать будем только с теми параметрами, которые нам важны с точки зрения прикладной задачи.
Данные для анализа необходимо собирать не менее чем за сутки в типовой рабочий день. Идеально - накопить данные за три типовых рабочих дня. Для поиска узких мест желательно снять данные в день наибольшей нагрузки.
Все описанное ниже пригодится, как на этапе подготовки к проектированию нового сервера (для постановки задачи поставщику), так затем и в процессе эксплуатации, для объективной оценки изменений параметров оборудования и возможного дальнейшего «тюнинга» программно-аппаратного комплекса под «1С:Предприятеи 8» в целом.

CPU. В наибольшей степени нас интересует один параметр - «Processor: % Processor Time » («Процессор: % загруженности процессора »). Microsoft про этот параметр говорит следующее: «Этот счетчик отслеживает время, которое ЦП тратит на выполнение потока во время работы. Постоянный уровень загрузки ЦП в диапазоне от 80 до 90 % может указывать на необходимость обновления ЦП или на необходимость добавления нескольких процессоров». Таким образом, если загрузка CPU в среднем находится на уровне 70-80% - это оптимальное соотношение эффективности использования ресурсов CPU и запаса по производительности на пиковые периоды. Меньше - система недогружена. Более 80% - в зоне риска, 90% - система перегружена, необходимо либо разносить нагрузку на другие хосты, либо переезжать на новый, более производительный сервер.

Анализ CPU . Для современных процессоров в первую очередь имеет смысл выяснить, сколько ядер вам необходимо. Сама Windows довольно эффективно распределяет нагрузку между ядрами, и за исключением редких случаев, когда на уровне ПО есть четкая привязка к ядрам - все ядра процессора будут нагружены более-менее равномерно. В общем случае, если у вас параметр «% загруженности процессора » находится в пределах 50-70% - все хорошо, есть резерв. Если менее 50% - значит в вашей системе уже имеется избыточное количество ядер, их число можно уменьшить, либо загрузить сервер другими задачами. Средняя загрузка 80% и более - вашей системе необходимо большее количество ядер.

RAM . Здесь имеет смысл отслеживать два параметра:
«Memory: Available Mbytes » («Память: Доступно МБ »). В нормально работающей системе значение этого счетчика должно быть не менее 10% от объема физической памяти, установленной в сервере. Если объем доступной памяти слишком мал - система вынуждена будет использовать файл подкачки для активных процессов. Как результат - возникают заметные задержки вплоть до эффекта «зависания» системы.
«Memory : % Committed Bytes In Use », «Память: % использования выделенной памяти ». Высокое значение данного счетчика указывает на то, что в системе наблюдается большая нагрузка на оперативную память. Крайне желательно, чтобы данный параметр был ниже 90%, т.к. при 95% появляется вероятность возникновения ошибки OutOfMemory.

Анализ RAM . Ключевым параметром является наличие доступного объема RAM на сервере, что вполне эффективно позволяют мониторить выше приведённые счетчики.

Дисковая подсистема. Очень часто вопросы о быстродействии «1С:Предпряитие 8» связаны с недостаточной производительностью именно дисковой подсистемы. И именно здесь у нас появляются довольно большие возможности по оптимизации оборудования под задачу. Поэтому анализу счетчиков дисковой подсистемы мы уделим максимум внимания.

  1. «% Free Space » — процент свободного пространства на логическом диске. Если свободно менее 15% емкости диска, он считается перегруженным, а его дальнейший анализ скорее всего будет не совсем корректным — на него будет сильно влиять фрагментированность данных на диске. Рекомендуемый объем свободного места на серверном диске — не менее 20%, для SSD желательно больше.
  2. «Avg. Disk sec/Transfer » — среднее время обращения к диску. Счетчик показывает усредненное время в миллисекундах, требуемое для одной операции обмена данными с диском. Для слабо нагруженных систем (например, файловых хранилищ, хранилищ VM) его значение желательно удерживать в пределах 25 - 30 мс. Для высоконагруженных серверов (SQL) — желательно не превышать 10 мс. Большие значения счетчика говорят о перегрузке дисковой подсистемы. Это интегральный показатель, нуждающийся в более детальном анализе. Какие именно операции, чтения или записи, и в какой пропорции, показывают счетчики Avg. Disk sec/Read (среднее время чтения с диска в секундах) и Avg. Disk sec/Write (среднее время обращения к диску на запись).
    Интегральный показатель Avg. Disk sec/Transfer в RAID5/RAID6 при существенном преобладании операций чтения может быть в пределах нормы, а операции записи будут производиться с существенными задержками.
    3. Avg. Disk Queue Length (средняя длина очереди диска) по сути, является интегральным показателем и состоит из Avg. Disk Read Queue Length (средняя длина очереди к диску на чтение) и Avg. Disk Write Queue Length (средняя длина очереди к диску на запись). Он сообщает, сколько операций ввода/вывода в среднем ожидают, когда жесткий диск станет доступным. Это не измеряемый показатель, а вычисляемый по закону Литтла из теории очередей как N = A * Sr, где N — число ожидающих запросов в системе, A — скорость поступления запросов, Sr — время отклика. Для нормально работающей дисковой подсистемы этот показатель не должен превышать больше чем на 1 количество дисков в RAID-группе. В приложениях класса SQL Server его среднее значение желательно удерживать на уровне менее 0,2.
    4. Current Disk Queue Length (текущая длина очереди диска) показывает число не выполненных и ожидающих обработки запросов, адресованных выбранному диску. Это текущее значение, моментальный показатель, а не среднее значение за интервал времени. Время задержки обработки запросов к дисковой подсистеме пропорционально длине очереди. Для комфортной работы в установившемся режиме количество ожидающих запросов не должно превышать количество физических дисков в массиве более чем в 1,5-2 раза (исходим из того, что в массиве из нескольких дисков каждый диск может одновременно выбирать из очереди по одному запросу).
    5. Disk Transfers/sec (обращений к диску/сек) — количество отдельных дисковых запросов ввода-вывода, завершённых в течение одной секунды. Показывает реальные потребности приложений по случайному чтению и записи к дисковой подсистеме. Как показатель, суммирующий несколько отдельных счетчиков — позволяет быстро оценить общую ситуацию.
    6. Disk Reads/sec — количество обращений чтения в секунду, то есть частота выполнения операций чтения с диска. Важнейший параметр для приложений класса SQL Server, определяющий реальную производительность дисковой подсистемы.
    В нормальном устоявшемся режиме интенсивность обращений не должна превышать физические возможности дисков — их индивидуальным пределам, умноженным на количество дисков в массиве.

100-120 IOPS на каждый SATA или NL SAS диск;

200-240 IOPS на каждый SAS 15000 rpm диск;

65 000 IOPS на каждый диск SSD класса Intel SSD s3500 series (SATA);

7. Disk Writes/sec — количество обращений записи в секунду, то есть частота выполнения операций записи на диск. Чрезвычайно важный параметр для приложений класса SQL Server. При работе в нормальном режиме интенсивность обращений не должна превышать физические пределы дисков, умноженные на их количество в массиве и с учетом штрафа на запись для выбранного типа RAID.

80-100 IOPS на каждый SATA или NL SAS диск;

180-220 IOPS на каждый SAS диск;

2 ,20 GHz

DDR4
1600/1866/2133

3 ,50 GHz

DDR4 1600/1866/2133/2400

Табл.1 - Параметры работы с RAM

RAM . На быстродействие всего сервера будет влиять тип установленной памяти. К примеру, LR DIMM в силу своей архитектуры всегда будет иметь большую латентность, чем обычная память RDIMM DDR4. Особенно на относительно коротких запросах, типичных для SQL при работе с 1С. Исходя из большей латентности и существенно более высокой цены, LR DIMM имеет смысл устанавливать только, если нет возможности набрать необходимый объем RAM за счет RDIMM.
Точно так же DDR4 2400 будет работать чуть быстрее, чем DDR4 2133 - если высокие частоты поддерживает CPU.

Сетевой интерфейс. Здесь желательно придерживаться простых правил:
а) На сервере должны быть минимум три сетевых интерфейса 1Gb Ethernet или выше (10Gb, 40Gb), и не менее двух из них на серверных сетевых чипах. Безусловно, при прочих равных следует отдать преимущество 10Gb Ethernet инфраструктуре, особенно с учетом исчезающей малой разницы в цене оборудования (сетевых карт 10Gb и портов 10Gb на коммутаторах 1GB/10Gb).
б) Сервер должен поддерживать ту или иную технологию KVM-over-IP для удалённого управления.
Из тонкостей можно выделить очень хорошую поддержку всеми серверными сетевыми чипами Intel инструментов виртуализации и умение эффективно распределять нагрузку между ядрами CPU для 10Gb+.

Дисковая подсистема :

Дисковая подсистема состоит из двух компонентов:
- подсистема ввода/вывода в виде контроллеров SAS HBA и RAID-контроллеров;
- устройства хранения данных, или в нашем случае - дисков SSD и HDD.

RAID .
Для задач хранения OS и баз данных, как правило, используется RAID 1 или RAID 10, а также их различные программные аналоги.

1. Полностью программный RAID (Soft RAID) средствами Windows Server не может использоваться для загрузочного диска, зато вполне походит для хранения DB, tempDB и SQL log. Технология Windows Storage Spaces обеспечивает достаточно высокие показатели по надежности хранения и по быстродействию, а также предлагает целый ряд дополнительных функций, самой интересной из которых примирительно к задачам 1С является «Многоуровневое хранение» (tiered storage). Преимущество данной технологии в том, что часть наиболее часто запрашиваемых данных система автоматически размещается на SSD.
Применительно к задачам 1С обычно используют или All-Flash массив из SSD, или для очень больших по объёму (1TB и выше) и многолетних баз данных - Многоуровневое хранение.
Одно из преимуществ технологии Windows Storage Spaces - ее способность создать RAID на дисках NVMe.

2. Для размещения OS эффективен аппаратно-программный RAID1, построенный на основе чипсета от Intel и технологии Intel® Rapid Storage Technology (Intel RST ).
В нем операции по вводу-выводу на аппаратном уровне выполняет чипсет материнской платы, практически не задействуя ресурсы CPU. А управление массивом осуществляется на программном уровне, за счет драйверов под Windows.
Как любое компромиссное решение, у Intel RST есть некоторое недостатки.
а) Работа Intel RST зависит от драйверов, загружаемых в операционную систему. И это несет некоторый потенциальный риск, что при обновлении драйверов или OS может возникнуть ситуация, что диск RAID будет недоступен. Она чрезвычайно маловероятна, т.к. компании Intel и Microsoft весьма дружны и очень качественно тестируют свое ПО, но не исключена.
б) Исходя из результатов экспериментов, по косвенным признакам можно предположить, что драйверная модель Intel RST для кэширования на запись использует ресурсы RAM. Это дает прирост производительности, но при этом несет некоторые риски потери данных при незапланированном отключении электропитания сервера.
Есть у данного решения и преимущества.
Одно из них - всегда очень высокая производительность, находящаяся на уровне, а иногда и выше чем у полностью аппаратных RAID-контролеров.
Второе - поддержка аппаратно-программного RAID1 для дисков NVMe (на момент написания материала - не для загрузочных дисков). И вот здесь кроется интересная особенность для тех, у кого используются высоконагруженные дисковые подсистемы. В отличие от Windows Storage Spaces, которая «догружает» занятое вводом/выводом ядро практически до 100%, Intel RST при достижении приблизительно 70% загрузки ядра подключает к процессу ввода/вывода следующее ядро. Как результат - более равномерная нагрузка на ядра CPU и чуть большая производительность при высоких нагрузках.

Рис 4 - Утилизация CPU Windows Storage Spaces vs. Intel RST

3. Полностью аппаратный RAID в сервере с 2-6 SSD в RAID 1 вполне можно получить за счет SAS HBA на чипсете LSI SAS 3008, например, на Intel® RAID Controller RS3WC080 . Для этого в SAS HBA устанавливается специальная “IR”-прошивка. Причем данный SAS HBA поддерживает стандарт SAS 3.0 (12 Gb/s), при цене около $300. Отличным выбором тут будет Intel® RAID Controller RS3WC080, который идет сразу с необходимой прошивкой.
Суть этого решения в том, что серверным SSD не нужен кэш на запись. Более того, более продвинутые RAID-контроллеры также отключают свой встроенный кэш на запись при работе с SSD. Таким образом, не имеющий кэша SAS HBA в режиме RAID-контроллера вполне успешно справляется с задачами скоростной записи и чтения напрямую с SSD, обеспечивая вполне пристойную производительность.

4. Для высоконагруженных серверов с большим количество дисков SSD SAS или SATA желательно установить полноценный RAID-контроллер класса Intel® RAID Controller RS3MC044 или Adaptec RAID 8805 . Они обладают более производительными процессорами ввода/вывода и продвинутыми алгоритмами для работы с дисками HDD и SSD, в том числе позволяющими ускорить сборку массива после замены вышедшего из строя диска.

Устройства хранения данных (SSD и HDD ).
а) Надежность SSD и HDD .
Обычно теоретическою надежность дисков оценивают по параметру «Non-recoverable Read Errors per Bits Read», что можно перевести как «Вероятность появления невосстановимой ошибки чтения на количество считанных бит». Он показывает, после чтения какого объема данных с диска, согласно статистике, следует ожидать появления невосстановимой ошибки.
Еще один важный параметр показывает вероятность отказа диска - AFR (annual failure rate), или «Годовая интенсивность отказов».
Далее в таблице приведены данные для типовых дисков SATA Enterprise HDD 7200 prm (SATA Raid Edition) , SAS HDD Enterprise 15 000 prm , SATA SSD Enterprise .

Параметр

Тип дисков

Enterprise SATA \ SAS NL 7200 prm

Enterprise SAS 15 000 prm
(10 000 prm)

Enterprise SATA SSD

Non-recoverable Read Errors per Bits Read

Объем, при чтении которого статистически ожидается невосстановимая ошибка

Таб. 2 - теоретическая надежность HDD и SSD

Вероятности появления невосстановимых ошибок у Enterprise SATA SSD класса Intel® SSD DC S3510 Series , в 10 раз ниже, чем у SAS HDD Enterprise 15 000 prm, и в 100 раз ниже, чем у SATA Enterprise HDD 7200 prm. Таким образом, SSD Enterprise-класса теоретически и более надежны, чем любые HDD.

б) Далее оценим производительность SSD и HDD .
С точки зрения базы данных, которой, по сути, является 1С, наиболее важными являются всего три параметра диска:
- латентность (Latency), или время отклика диска, измеряется в микросекундах (меньше - лучше);
- количество операций чтения в секунду (Disk Reads/sec) , измеряемой в IOPS (больше - лучше);
- количество операций записи в секунду (Disk Writes/sec), измеряемой в IOPS.
Сведем эти три параметра в одну таблицу:

Параметр

Тип дисков

Enterprise SATA / SAS NL 7200 prm

Enterprise SAS 15 000 prm
(10 000 prm)

Enterprise SATA SSD

Enterprise NVMe SSD

Latency (время отклика диска на чтение/запись), микросекунды

Disk Reads/sec (количество операций чтения в секунду), IOPS

Disk Writes/sec (количество операций записи в секунду), IOPS

Таб. 3 - Производительность HDD и SSD.

Как хорошо заметно из таблицы, NVMe SSD (на примере Intel® SSD DC P3600 Series) по латентности превосходит Enterprise SAS HDD в 100 раз , а по количеству операций ввода-вывода в секунду - в 200 раз на запись и в 1500 раз на чтение.
Разумно ли при этом использовать для размещения баз данных технологии HDD?

в) Объем перезаписи в день для серверных SSD .
Кроме всяких «плюшек» в виде суперконденсатора на случай отключения питания и аппаратных модулей шифрования, серверные SSD имеют важнейший параметр - расчётный объем перезаписи в день от общей ёмкости диска SSD. Если мы говорим о серверных SSD Intel - то подразумеваем ежедневную перезапись этого объема в течении 5 лет, что входит в гарантийные обязательства. Этот параметр позволяет отсортировать SSD на «предназначенные преимущественно для чтения», «ориентированные на запись и чтение» и «рассчитанные на большие нагрузки по перезаписи». В табличной форме это выглядит так:

Диск Intel SSD

Перезапись в день (от емкости)

Таб 4. - Объем перезаписи SSD в день.

Соответственно, можно правильно подбирать диски именно под задачу в сервере.
К примеру, для хранения OS и SQL log вполне достаточно Intel SSD s3510.
Для хранения DB и tempDB больше подойдут Intel SSD s3610 или Intel SSD s3710.

Примеры проектирования дисковых подсистем.
Вооружившись описанным выше, давайте соберем несколько дисковых подсистем под различные требованя.
а) Сервер на 45 пользователей, DB - 15 GB, прирост в год - 4 GB, tempDB - 0,5 GB, SQL log - 2 GB.
Здесь экономически оправданно установить RAID1 из двух дисков Intel SSD s3510 240 GB для нужд OS и SQL Log, и RAID1 из двух дисков Intel SSD s3510 120 GB для нужд DB и tempDB. В качестве RAID-контроллера подойдет «бортовой» Intel® RAPID.
б) Сервер на 100 пользователей, DB - 55 GB, прирост в год - 15 GB, tempDB - 4 GB, SQL log - 8 GB.
Для такого сервера можно предложить RAID1 из двух дисков Intel SSD s3510 240 GB для нужд OS и SQL Log, и RAID1 из двух дисков Intel SSD s3610 200 GB для нужд DB и tempDB. В качестве RAID-контроллера оптимальным будет Intel® RAID Controller RS3WC080 (простой аппаратный, без кэша).
в) Сервер на 200 пользователей, DB - 360 GB, прирост в год - 70 GB, tempDB - 24 GB, SQL log - 17 GB.
Это сервер уже довольно нагруженный. Для OS по-прежнему берем RAID1 из двух дисков Intel SSD s3510 240 GB. SQL Log и tempDB можно разместить на выделенном RAID1 из двух дисков Intel SSD s3510 120 GB. А для таблиц DB собрать RAID10 из четырех дисков Intel SSD s3610 400 GB. В качестве RAID-контроллера уместно использовать «продвинутый» Intel® RAID Controller RS3MC044.

Виртуализация
Производительность современных серверов часто позволяет разместить на одном физическом - целый ряд виртуальных. Для их оптимального размещения желательно помнить, как виртуализация влияет на каждый из компонентов сервера.
CPU и RAM - это участки, которые несут наименьшие потери производительности в виртуальной среде. Соответственно, те программные компоненты, которые задействуют преимущественно их - могут быть безболезненно помещены в Виртуальную машину (VM). К ним относится «1С:Предприятие 8. Сервер приложений х64», сервис Remote Desktop и IIS.
Подсистемы ввода-вывода несут заметно бОльшие потери при виртуализации: 5-15% - сетевой интерфейс и до 25% - дисковая подсистема. У нас есть программный компонент SQL Serve, чувствительный к производительности дисковой подсистемы - вполне логично его разместить не в «VM», а физическом «железе».
Обычно так и делают с отдельно стоящими серверами или группой серверов под 1С:
- на «железо» устанавливается OS Windows и MS SQL Server;
- в VM запускается «1С:Предприятие 8. Сервер приложений х64» и в той же VM «Сервер лицензирования»;
- в отдельной VM сервис Remote Desktop или IIS.
При использовании на одном сервере нескольких программных компонентов, в т.ч. на разных VM, необходимо на уровне дисковой подсистемы предусмотреть дополнительное место для их размещения. Как правило, это системные диски с OS - их увеличивают до 480 GB или более.

Резервное копирование
Достаточно распространенной практикой является установка в сервер двух дисков HDD большой ёмкости (4-8 TB) в RAID1 для хранения локальных копий баз данных, а также в роли файлового хранилища. К такому хранилищу не предъявляется высоких требований по скорости случайного доступа. А линейная скорость как чтения, так и записи получается вполне достаточной для сохранения на нем ежедневной резервной копии и пользовательских файлов. Собрать такой том можно на любом имеющемся варианте RAID-контроллера, а на Intel® RAPID он еще будет и довольно шустро работать.

И, пожалуйста, не забывайте, что у отдельного сервера под ответственные задачи обязательно должно быть избыточное питание .