az internet ablakok Android

Gilleov - átviteli konfiguráció az ellenőrzött zárakhoz. GUILEY - Konfigurációs transzfer a kezelt zárakba telepítés 1c az SSD lemezen

Gyakran kérdéseket találunk arról, hogy lassítja az 1C-t, különösen az 1C 8.3 verzióra való áttéréskor, akinek az LLC "interfész" kollégáinak érdeklődése részletesen elmondható:

A múltbeli kiadványainkban már foglalkoztunk a lemez alrendszerének teljesítményének hatására az 1C sebességére, azonban ez a tanulmány az alkalmazás helyi használatát külön számítógépen vagy terminálkiszolgáló. Ugyanakkor a legtöbb kis implementáció egy hálózati fájlalappal dolgozik, ahol az egyik felhasználói számítógépet szerverként használják, vagy egy kiemelt fájlkiszolgáló a szokásos, leggyakrabban is olcsó, számítógépen is.

Az orosz nyelvű 1c erőforrások kis tanulmánya azt mutatta, hogy ez a kérdés szorgalmasan költséges a pártnak, problémák esetén az ügyfél-kiszolgálóra vagy a terminálrendszerre való áttérés általában ajánlott. És gyakorlatilag általában elfogadta azt a véleményt, hogy a kezelt alkalmazások konfigurációi jelentősen lassabbak, mint a szokásos. Általában az érveket a "vas" adja meg: "Itt van a számviteli 2.0 csak repült, és a" trojka "alig keveredik", természetesen az igazság ebben a szavakban, így megpróbáljuk kitalálni ki.

Erőforrás-fogyasztás, első pillantás

Mielőtt elkezdené ezt a tanulmányt, két feladatot hoztunk létre: megtudjuk, hogy a konfigurációk valóban a kezelt alkalmazáson alapulnak, mint a szokásosnál, és mely erőforrások a teljesítményre vonatkozó elsőbbségi hatás.

A teszteléshez két virtuális gépet vettünk be windows vezérlés A Server 2012 R2 és a Windows 8.1, emelve kiemelve az I5-4670 és 2 GB Host Core 2 GB RAM-ot, amely megfelel egy körülbelül közepes irodai gépnek. A kiszolgálót két WD SE RAID-ra helyezték, és egy ügyfél hasonló tömbjét az általános célú lemezekről.

Kísérleti alapokként számos könyvelési konfigurációt választottunk 2.0, kiadás 2.0.64.12 majd frissítve 3.0.38.52 Minden konfiguráció kezdődött a platformon 8.3.5.1443 .

Az első dolog, ami vonzza a figyelmet, ez nőtt az információs bázis "trojka" méretének, és jelentősen növekszik, valamint sokkal nagyobb étvágyat a RAM-hoz:

Készen állunk arra, hogy meghallgassuk a szokásosnál: "De miért adták hozzá ezt a hármat," de ne siessünk. Ellentétben az ügyfél-kiszolgáló verziókkal, amelyek többé-kevésbé minősített rendszergazdát igényelnek, a fájlverziók felhasználói rendkívül ritkán gondolkodnak a bázisok fenntartásával kapcsolatban. Ritkán gondolkodnak az informatikai szervizelésre (olvasási frissítések) ezeknek a bázisoknak a szakosodott cégek.

Eközben az 1C információs bázis egy teljes körű formátumú DBMS, amely szintén karbantartást igényel, és erre van szükség Az információs bázis tesztelése és rögzítése. Lehet, hogy a neve a vicc játszott, amely mintha azt jelenti, hogy ez egy olyan eszköz, csökken az a probléma, de az alacsony teljesítmény is probléma, és a szerkezetátalakítás és Újraindexelés együtt táblázatok táblázatok jól ismertek olyan adatbázis optimalizálás eszköz. Jelölje be?

A kiválasztott műveletek alkalmazása után az alap élesen "elveszett", még kevésbé "kettős", amelyet senki sem optimalizált, egy kicsit csökkent RAM-fogyasztás is.

Ezt követően új osztályozók és referenciakönyvek letöltése után indexek létrehozása stb. A bázis méretének növekedése általában a "trojka" adatbázis több páros. Azonban ez nem sokkal fontosabb, ha a második verzió 150-200 MB RAM-val tartott, majd egy új kiadásra van szükség fél évre, és ebből az értékről kell eljárnia, megtervezze a szükséges erőforrásokat a programhoz való munkához.

Háló

A hálózati sávszélesség a hálózati alkalmazások egyik legfontosabb paramétere, különösen az 1C-ben a fájl üzemmódban, jelentős mennyiségű adatot mozgatva. A legtöbb kisvállalkozás olcsó 100 Mbps alapján épül fel, ezért kezdtünk tesztelni az 1C teljesítménymutatók összehasonlítását 100 Mbpsben és 1 GB / s hálózatokban.

Mi történik, ha elindítja az 1C fájl adatbázis a hálózaton keresztül? Az ügyfél elegendő mennyiségű információt tölt be az ideiglenes mappákba, különösen akkor, ha ez az első, hideg, elindul. 100 Mbps várhatóan a csatorna szélességében állunk, és a letöltés jelentős időt vehet igénybe, kb. 40 másodpercig (a grafikon ára 4 másodperc).

A második bevezetés gyorsabban fordul elő, mivel az adatok részeként a gyorsítótárba kerül, és ott van újraindítás előtt. A Gigabit hálózatra való áttérés képes jelentősen felgyorsítani a program betöltését, mind a "hideg" és a "forró", mind az értékek aránya megfigyelhető. Ezért úgy döntöttünk, hogy relatív értékeket fejez ki, figyelembe véve a legtöbb 100% -ot nagyon fontos Minden mérés:

Amint látható a grafikonokból, a számvitel 2.0 betöltődik a hálózat bármely sebességének kétszer olyan gyors, az átmenet 100 Mbps / 1 Gbit / s lehetővé teszi, hogy négyszer gyorsítsa fel a letöltési időt. Az optimalizált és nem optimalizált bázisok közötti különbségek "Troika" ez a mód nem látható.

Azt is ellenőriztük, hogy a hálózati sebesség hatása nehéz üzemmódokban dolgozni, például csoportos levelezéssel. Az eredmény relatív értékekben is kifejezve:

Már érdekesebb, itt a "trojka" 100 Mbps optimalizált alapja ugyanolyan sebességgel működik, mint "kétszer", és a legrosszabb eredmény kétszerese. A gigabiton az arányok mentésre kerülnek, a nem optimalizált "trojka" kétszer is a "kettős", és egy harmadik mögött optimalizált. Emellett az 1 GBIT / S átmenet lehetővé teszi az utazás időpontjának háromszor csökkentését a 2.0 kiadásra és kétszer 3,0-re.

Annak érdekében, hogy értékelje a hálózati sebesség hatását a mindennapi munkára, kihasználtunk A termelékenység méréseAz egyes adatbázisokban az előre meghatározott műveletek sorrendje.

Valójában, a mindennapi feladatok esetében a hálózati sávszélesség nem szűk keresztmetszet, nem optimalizált "trojka" csak 20% -kal lassabb, mint két, és az optimalizálás után kiderül, hogy gyorsabb - a vékony kliens üzemmódban való munkavégzés előnyei . Az 1 GBIT / S-hez való áttérés nem ad optimális bázist minden előnynek, és nem optimalizált és kétszerese gyorsabban dolgozik, és kis különbséget mutat maguk között.

A végzett vizsgálatokból nyilvánvalóvá válik, hogy a hálózat nem szűk keresztmetszet az új konfigurációkhoz, és a kezelt alkalmazás még gyorsabban működik, mint a normál. Javasolhatja az átmenetet 1 Gbit / s-re, ha a nehéz feladatok és az adatbázis terhelési sebessége kritikus fontosságú az Ön számára, más esetekben az új konfigurációk lehetővé teszik, hogy hatékonyan működjön akár lassú 100 Mbps-ben is.

Akkor miért lassul az 1c? Tovább fogjuk megérteni.

Lemez alrendszerkiszolgáló és SSD

Az utolsó anyagban az 1C-es teljesítmény növekedését eredményeztük azáltal, hogy az SSD alapját elhelyezte. Talán nem elegendő a szerver lemez alrendszere? A csoportos szerver teljesítményének méréseit a csoporton belül azonnal két bázisban tartottuk, és meglehetősen optimista eredményt kaptunk.

Annak ellenére, hogy viszonylag nagy számú I / O művelet másodpercenként (IOP) - 913, a sorhossz nem haladta meg az 1.84-et, ami nagyon jó eredmény egy kétirányú tömb. Ez alapján feltételezhető, hogy a szokásos lemezek tükrei elegendőek lesznek a normál működéséhez 8-10 hálózati ügyfelek számára nehéz üzemmódokban.

Tehát az SSD-nek szüksége van a szerverre? A legjobb, ha válaszol erre a kérdésre, segítséget nyújt a teszteléshez, amelyet hasonló technikára fordítottunk, a hálózati kapcsolat mindenhol 1 Gbit / s, az eredmény relatív értékekben is kifejezve.

Kezdjük a bázis rendszerindítási sebességével.

Talán valaki csodálatosnak tűnik, de az SSD alap letöltési sebessége nem befolyásolja a kiszolgálót. Itt a fő korlátozó tényező, amint azt az előző teszt, a hálózati sávszélesség és az ügyfél teljesítménye mutatja.

Forduljunk a helyreállításhoz:

Fentebb már említettük, hogy a lemez teljesítménye is elegendő akár munka nehéz mód, ezért a sebesség SSD szintén nem befolyásolja a sebesség, kivéve a nem optimalizált alap, amely az SSD utolérte optimalizálva. Valójában ez ismét megerősíti, hogy az optimalizálási műveletek az adatbázisban lévő információkat racionalizálják, csökkentve a véletlenszerű tranzakciós bemeneti műveletek számát és növelve a hozzáférés sebességét.

A mindennapi feladatokon a kép hasonló:

Az SSD Win csak nem optimalizált alapot kap. Természetesen megvásárolhatja az SSD-t, de sokkal jobban gondolkodni fog a bázis időben történő szolgáltatásairól. Ne felejtsd el a szekció töredezettségmentességét az információs bázisokkal a szerveren.

Ügyféllemez alrendszer és SSD

Az SSD hatása a működési sebességre helyben van telepítve 1c. Az előző anyagokban szétszereltük, sok mindent elmondunk, és a hálózati módban dolgozott. Valójában az 1c aktívan használja a lemezforrásokat, beleértve a háttér- és szabályozási feladatokat is. Az alábbi ábrán látható, hogy a 3.0 elszámolása meglehetősen aktívan kezeli a lemezt a betöltés után 40 másodpercen belül.

De ugyanakkor tisztában kell lennie azzal, hogy a munkaállomás, ahol az aktív munka egy - két információs bázis a szokásos HDD tömeges sorozat teljesítménye elég elég. A felvétel SSD felgyorsíthat néhány folyamatot, de nem észlel egy radikális gyorsulást a mindennapi munkában, mivel például a letöltés csak a hálózat sávszélességére korlátozódik.

Lassú hDD Képes lassítani néhány műveletet, de maga a fékezési program oka nem.

Ram

Annak ellenére, hogy a RAM mostantól olcsóbb, sok munkaállomás továbbra is dolgozik a vásárlás során telepített memória mennyiségével. Itt és hazugság első problémák. Már azon a tényen alapul, hogy az átlagos trojka körülbelül 500 Mb memóriát igényel, feltételezhető, hogy az 1 GB-os RAM teljes összege a programhoz való munkához nem lesz elég.

A rendszer memóriáját 1 GB-ra csökkentjük, és két információs bázist indítottunk el.

Első pillantásra minden nem rossz, a program megtörtént az étvágyat, és teljes mértékben találkozott egy megfizethető memóriába, de nem fogjuk elfelejteni, hogy a működési adatok szükségessége nem változott, így hová mentek? A lemez, a gyorsítótár, a podachka stb., Ennek a műveletnek a lényege, hogy a jelenleg nem gyors RAM-ból származó adatok, amelyek száma nem elegendő egy lassú lemezre.

Hol vezet? Nézzük meg, hogy a rendszer erőforrásait nehéz műveletekben használják, például két bázison azonnal megkezdeni a csoportosítást. Először a rendszeren 2 GB RAM:

Amint azt látja, a rendszer aktívan használja a hálózatot, az adatgyűjtés és a feldolgozás feldolgozására, a lemez aktivitása jelentéktelen, a feldolgozás folyamatában növekszik, de nem elrettentő.

Most csökkenti a memóriát 1 GB-ig:

A helyzet radikálisan változik, a fő terhelés most a merevlemezen van, a processzor és a hálózat készenléti állapotban van, várva, hogy a rendszer a szükséges adatok legyenek a lemezről, és szükségtelenné válik.

Ugyanakkor az 1 GB memóriával rendelkező rendszer két nyílt bázisával való szubjektív munkája rendkívül kényelmetlen, referenciakönyvek és magazinok, amelyek jelentős késleltetéssel és aktív fellebbezésével nyitottak meg a lemezre. Például az áruk és szolgáltatások magazinjának megnyitása körülbelül 20 másodpercet vett igénybe, és mindezt nagy lemezekkel kísérte (piros vonal jelöli).

Ahhoz, hogy objektíven becsülje meg a RAM hatását a konfiguráció teljesítményére a kezelt alkalmazás alapján, három métert végeztünk: az első bázis betöltésének sebessége, a második bázis és csoport tárolásának terhelési sebessége az egyik adatbázisban. Mindkét bázis teljesen azonos és létrehozott az optimalizált bázis másolásával. Az eredmény relatív egységekben fejeződik ki.

Az eredmény önmagában beszél, ha a terhelési idő egyharmada nő, ami még mindig meglehetősen toleráns, az alap működésének időpontja háromszor növekszik, nincs kényelmes munka ilyen körülmények között, nem szükséges beszélni. By the way, ez az a helyzet, amikor az SSD megvásárlása képes javítani a helyzetet, de sokkal könnyebb (és olcsóbb) az ok kezelésére, és nem a következményekkel, és csak megvásárolja a megfelelő mennyiségű RAM-ot .

A RAM hiánya az, hogy az új 1C konfigurációkkal végzett munkák kényelmetlenek legyenek. A minimális megfelelő megfelelő konfigurációk 2 GB memóriával rendelkeznek. Ugyanakkor fontolja meg, hogy az esetünkben az "üvegház" feltételek jöttek létre: nettó rendszer, csak 1c és feladatkezelő fut. A valós életben egy böngésző, irodai csomag, víruskereső stb. Általában nyitva áll a munka számítógépén, és így tovább, így folytassa az 500 MB-os bázisra és néhány állományra, hogy nehéz műveletekkel Nem találkozik a memória hátrányával és a teljesítmény hirtelen csökkenésével.

processzor

A központi processzor túlzás nélkül a számítógép szívének nevezhető, mivel végső soron minden számítással foglalkozik. A szerepének becsléséhez egy másik tesztet töltöttünk, ugyanaz, mint a RAM, csökkentve a nukleáris virtuális gép számát két-ul, míg a vizsgálatot kétszer végeztük 1 GB és 2 GB memóriamennyiséggel.

Az eredmény meglehetősen érdekesnek és váratlannak bizonyult, egy erősebb processzor hatékonyan vette a terhet a források hiánya miatt, ami továbbra is több kézzelfogható előny. Az 1c Enterprise-t nehéz felhívni az alkalmazást, amely aktívan használja a processzor erőforrásokat, meglehetősen nem igénylő. És nehéz körülmények között a processzor a terhelés nem annyira a kérelem alkalmazása, az általános költségek fenntartása: további tranzakciós bemeneti műveletek stb.

következtetések

Akkor miért lassul az 1c? Először is, ez a kos hiánya, a fő terhelés ebben az esetben a merevlemezre és a processzorra esik. És ha nem süt a teljesítmény, mint lenni szokott irodai konfigurációk, megkapjuk a leírt helyzet a cikk elején - „Két” normálisan működött, és a „trojka” fékezés godlessly.

A második helyen érdemes a hálózat teljesítményét, lassú 100 Mbps lehet tudni, hogy lesz egy igazi szűk, de ugyanakkor a vékony kliens módban képes fenntartani egy viszonylag kényelmes szintű munka még a lassú csatornákat.

Ezután figyelmet kell fordítania a lemezre, az SSD vásárlása valószínűleg nem lesz jó befektetés a pénz, hanem a lemez helyettesítésére, nem lesz felesleges. A merevlemezek generációi közötti különbség a következő anyagok szerint becsülhető: A két olcsó nyugati digitális kék 500 GB sorozatú lemezek áttekintése és 1 TB.

És végül a processzor. A gyorsabb modell természetesen nem lesz felesleges, de nincs jó értelme növelni termelékenységét, kivéve, ha ezt a PC-t nem használják nehéz műveletekre: csoportkezelések, nehéz jelentések, a hónap lezárása stb.

Reméljük, hogy ez az anyag segít abban, hogy könnyen megértse azt a kérdést, hogy "miért lassítja az 1-es lassítást", és leghatékonyabban oldja meg, és többletköltség nélkül.

A LinkedIn "Storage Professionals" csoportban (egyébként azt javaslom, hogy figyelmet fordítson a LinkedIn-i vitafórumok létezésére, érdekes), ami már egy hét megvitatott a témáról:
SSD meghajtók meghibásodási aránya
Néhány idézet innen, amit fordítás nélkül adok, jó minden világos (minden bekezdés egy különálló személy üzenetének idéző \u200b\u200bfragmense).
Vállalkozóként dolgozom a Banknál a Midwestben, és az EMC Vmax SSD-je körülbelül 9 hónapig van. Még nem láttunk semmilyen hibát
Egyszer egy többhetes kísérletet próbáltam kiégni a különböző gyártók SSD-jének kiégésére. A 100% -os véletlenszerűen csak egy hónapig futottam. Fúziós iOS valami hasonló, mint 30k Iops / meghajtó, Stecs / internel 7k. Soha nem tudott bármelyiküket meghiúsítani.
A fúziós io olyan sok írást írt, hogy Monnh, mint egyetlen SAS meghajtó, több mint egy évtizede lehet.

Körülbelül 150 SSD meghajtó van, és az elmúlt 12 Monhs alatt 1 kudarcot látott.
Az SSD-t a CX4-960-as CLARION-ban használtam, csak 12 hónap alatt, nem hibás (nagy MS SQL tempdb).
Saját tapasztalataimból (első szállított SSD rendszerek 2 és fél évvel ezelőtt), az SLC SSD hibaaránya ugyanabban a tartományban van, mint forgó meghajtók.

Ez az. Van valami gondolkodni azoknak, akik még mindig azt gondolják, hogy az SSD-erőforrás a belépéshez szörnyen korlátozotthogy az SSD megbízhatatlan, és amikor a munkavégzés flash meghajtók lesznek, mint egy pawned Chinese USB flash meghajtó Kinqston.

Az 1C teljesítmény kérdése a fájlmódban meglehetősen akut, különösen a kisvállalatok előtt, amely nem engedheti meg magának a beruházásokat a berendezésekben. Mindazonáltal az alkalmazás étvágya a kibocsátásból a kibocsátáshoz csak növekszik, és a mérsékelt költségvetési költségek növekvő sebességének feladata egyre relevánsabb. Ebben az esetben az SSD alapú bázisok megszerzése és elhelyezése jó megoldás lesz.

Az egyik ügyfelünk, egy kis számviteli cég, panaszkodott a lassú munka 1c: Enterprise. Valójában nem egy nagyon gyors munka a kérelem lett meglehetősen szomorúság, miután az átmenet a számviteli részlegben a számviteli osztály 3.0.

Egy egyszerű terminálkiszolgáló jelenléte az I3 2120, 8 GB RAM-on, egy két nyugati digitális RE4 raid lemez-tömbjével, amely három-hat felhasználó által szervezett, amelyek mindegyike két-három bázissal dolgozott a Ugyanakkor.

A teljesítményelemzés azonnal kiderült egy keskeny helyet - a lemez alrendszert (a képernyőképet készítették beállítja az SSD-t.Ezért a RAID tömb tartalmaz logikai lemezeket C: és E :).

Fancy számítások azt mutatták, hogy a dob még egy információs bázis gyakorlatilag használja a tömb teljesítménye, mintegy 150 IOPS a jelenlegi arány olvasási / írási - a tényleges határ a tükör két nem a leggyorsabb lemezeket. Mi közvetetten jelzi a sor méretét.

A munkanap kezdetén számos adatbázis egyidejű elindítása a kiszolgáló jelentős lassulásához vezetett, és csökkentette a rendszer reagálhatóságát. Emellett egy kellemetlen gondolat is volt, amikor a naplókkal dolgozott, jelentések kialakításakor stb.

A tömb teljesítményvizsgálata alacsony eredményt is mutatott a mai szabványok szerint, alkalmasabb hordozható lemezek szerint.

Világossá vált - a lemez alrendszerre van szükség. Még az előbb támadások szerint a tömeges merevlemezen alapuló termelő masszív létrehozása mind a megfizethető költségvetésben, mind a vas fizikai lehetőségein nyugszik, amely egyszerűen nem rendelkezett a szükséges számú SATA port és lemezkórházban. Ezért döntöttek az SSD megszerzésére.

Mivel a magas lemezterhelés nem biztosított, a választás elsősorban az ár megfontolásokra készült. A nagysebességű jellemzőket is elutasították a háttérbe, mivel a SATA-II interfész szűk keresztmetszet lett. Ennek eredményeként megvásárolták 128HU Corsair Neutron LamdA kiszolgáló telepítése a következő sebesség jellemzői mutatták be:

Amint láthatjuk, a szekvenciális hozzáférési műveletek várhatóan továbbra is az interfész sávszélességre, de a mi esetünkben másodlagos értéke van. A hangsúlyt kell fizetni a véletlen hozzáférési műveletekre, amelyek nagyságrendűek, amelyek a hagyományos HDD azonos mutatóihoz képest jobbak.

A megoldandó következő kérdés az, hogy "tükör" létrehozása az SSD-ről és az áldozati berendezésről a hibatűrés kedvéért, vagy hagyjon egyetlen lemezt a sebesség kiválasztásával a hiba tolerancia helyett. Meg kell jegyezni, hogy a modern SSD-k, mint a trim-csapat, saját technológiát használnak a degradáció elleni küzdelemhez, például a szemétgyűjtéshez, ami lehetővé teszi, hogy még a rendszerek nélkül is hatékonyan működjön. Használt SSD sorozat LAMD vezérlő (link_a_media eszközök) különbözteti meg nagyon hatásos szemétgyűjtés technológiák szintjén vállalati szintű meghajtók, ami általában nem meglepő, hiszen a fejlesztők már régóta dolgozik a vállalati szegmensben.

Mivel a napi befecskendezett dokumentumok mennyisége kicsi, az egyetlen SSD-re korlátozódunk, kötelező napi biztonsági mentésekkel. Az alkalmazás közvetett hatása szilárd állapotú lemez Értékelheti a teljesítményfigyelőt:

Az I / O műveletek száma jelentősen megnőtt, valamint az árfolyam a lemezen, míg a sor hossza nem haladja meg az egységet. Ezek nagyon jó mutatók, továbbra is ellenőrizni kell, hogy cselekedeteink hogyan gyorsították a munkát közvetlenül az 1C-től: Enterprise.

Ehhez egy kis expressz tesztelést végeztünk, amely során az információs bázis letöltési idejét és a dokumentumok egy bizonyos időtartamra beállított csoport kötelező érvényű idejét mértük. A tesztelés során a konfigurációt használtuk 1c: Számvitel 3.0.27.7 a platformon 8.3.3.721 .

A teljesítményelemzés során is figyelmet fordítottunk arra a tényre, hogy munkánkban 1c: A vállalat aktívan ideiglenes mappákat használ, amelyek esetünkben a merevlemezen található. Ezért a maximális teljesítmény elérése érdekében át kell adni az SSD-be, de a szerelmesek számára a szilárdtestlemez-erőforrást meg kell menteni, mindkét lehetőséget a tesztben tartalmazzuk: amikor a bázisok az SSD-n találhatók A merevlemez, és ha az SSD-t teljes mértékben használják az alkalmazáshoz.

Amint láthatja, az információs alapok átruházása az SSD-ről azonnal csökkentette a betöltés időpontját több mint kétszer is, és az áthaladás körülbelül 30% -kal gyorsult. Ugyanakkor teljesen eltávolította a problémát a teljesítménycsökkenés során, amikor együtt dolgozik.

Az SSD ideiglenes mappákba való átvitel lehetővé teszi, hogy a letöltési időt több mint háromszor és körülbelül kétszer gyorsítsa fel a dokumentumokat. Van valami, ami azt gondolja, hogy meg van győződve arról, hogy megmentse a lemezforrás-megtakarításokat. E kérdéssel kapcsolatos véleményünk a következő, ha SSD-t vásárolt, akkor teljes programban kell használni.

Enyhe visszavonulást fogunk tenni. A lemezt használjuk Corsair neutron. Van erőforrás 2-3K Erase / Rekord ciklusok. A nem komplikált számítások azt mutatják, hogy ha teljes mértékben felülírja a lemez teljes kapacitását minden nap, akkor 5-8 évig tart az erőforrás kimerítésére. Ezenkívül a statisztikák azt mutatják, hogy a jótállási időszak alatt az SSD meghibásodásának fő oka nem kapcsolódik az erőforrás kimerüléséhez, hanem a firmware termelési házasságának vagy hibája.

Következésképpen azt szeretném mondani, hogy az SSD használata ma valószínűleg az egyetlen hatékony módszer Jelentősen növeli a termelékenységet 1c: Enterprise fájl módban. És ami a legfontosabb, megfizethető áron még a kisvállalkozások számára is.

A cikk írásának fő célja az, hogy ne ismételje meg az adminisztrátorok (és programozók) nyilvánvaló árnyalatát, amelyek még nem szereztek tapasztalatot az 1C-vel.

A másodlagos cél, ha van néhány hiányosságom, - az Inforotte-nál gyorsabban rámutat, mint minden.

A V. Gile teszt már bizonyos szabványos "de facto" lett. A szerző az ő helyén adta teljesen érthető ajánlásokat, én egyszerűen csak ad némi eredményt, és megjegyzést a legvalószínűbb hibákat. Természetesen a berendezések vizsgálati eredményei eltérhetnek, csak egy iránymutatásnak kell lennie, és mit kell törekednie. Azonnal meg akarom jegyezni, hogy a módosításokat lépésről lépésre kell elvégezni, és minden lépés után ellenőrizze, hogy melyik eredményt adta.

Vannak hasonló cikkek a inforota, a megfelelő részekben Adom linkeket őket (ha hiányzik valami - mondja el a megjegyzéseket, add). Tehát tegyük fel, hogy lassít, 1c. Hogyan lehet diagnosztizálni a problémát, és hogyan kell megérteni, hogy ki a hibás, rendszergazda vagy programozó?

Kezdeti adatok:

Vizsgált számítógép, fő kísérleti nyúl: HP DL180G6, a konfigurációban 2 * Xeon 5650, 32 GB, Intel 362i, Win 2008 R2. Összehasonlításképpen, összehasonlítható eredmények egyszálú tesztben az I3-2100 magot mutatják. A berendezés kifejezetten nem a legújabb, a modern berendezéseknél az eredmények észrevehetően jobbak.

Az elválasztott 1C és SQL szerverek teszteléséhez SQL Server: IBM System 3650 x4, 2 * Xeon E5-2630, 32 GB, Intel 350, Win 2008 R2.

Az Intel 520-Da2 adaptereket a 10 GBIT hálózat ellenőrzésére használtuk.

Fájlverzió. (Az alap a kiszolgálón egy megosztott mappában található, az ügyfelek csatlakoznak a hálózaton, a CFS / SMB protokollon keresztül). Algoritmus lépésekre:

0. hozzáadása Guille adatbázis a fájl szerver ugyanabba a mappába, mint a fő bázis. Csatlakozom az ügyfélszámítógépről, futtatom a tesztet. Emlékszünk a kapott eredményre.

Magától értetődő, hogy még a régi számítógépek számára is 10 éves (Pentium 775 aljzat ) Az 1C-címke kattintása: Enterprise, amíg az alapablaknak kevesebb, mint egy percig kell átadnia. ( Celeron \u003d lassú munka).

Ha számítógépe rosszabb, mint a Pentium775 aljzat. 1 GB RAM-val, majd szimpatizálok veled és kényelmes munkát az 1C 8.2-re a fájlverzióban, amit meg fog elérni. Gondolj, vagy a frissítésről (IDŐ), vagy a terminálra való áttérésről (vagy szövedék, vékony kliensek esetén és kezelt űrlapok) Szerver.

Ha a számítógép nem rosszabb, akkor rúghatja az adminisztrátort. Legalábbis - ellenőrizze a hálózat működését, vírusirtó és hasp védelmi illesztőprogramokat.

Ha a Gile teszt ebben a szakaszban 30 "papagáj" és fent, de az 1C munkalap még mindig lassan működik - a kérdések már a programozó.

1. Az iránymutatáshoz mennyit "squeeze" egy ügyfélszámítógép, ellenőrizze a számítógép működését csak hálózat nélkül. Vizsgálati bázis helyi számítógép (nagyon gyors lemezen). Ha nincs normál SCED az ügyfélszámítógépen, létrejön Ramdisk. Eddig a legegyszerűbb és ingyenes - Ramdisk Enterprise.

A 8.2-es verzió teszteléséhez 256 MB RAMDISK elég elég, és! A legfontosabb dolog. A számítógép újraindítása után egy működő ramdisk, szabad 100-200 MB. Ennek megfelelően, a RAMDISK nélkül, a normál működéshez szabad memória 300-400 MB-nak kell lennie.

A Ramdisk 8.3 verziójának teszteléséhez 256 MB elég, de az ingyenes RAM kell többé.

A tesztelés során meg kell néznie a processzor terhelését. Abban az esetben, közel az ideális (RAMDISK) közelében, a helyi 1. fájl üzem közben a processzor 1 magját terheli. Ennek megfelelően, ha megvizsgálja Önt, a processzor magja nem teljesen betöltve - keresse meg a gyenge pontokat. Egy kicsit érzelmileg, de általában helyesen, a processzor hatása az 1c munkára. Csak az iránymutatáshoz, még a modern I3-ra, nagy gyakorisággal, a 70-80-as számok meglehetősen valóságosak.

A leggyakoribb hibák ebben a szakaszban.

a) Helytelenül konfigurált antivírus. Számos víruskereső létezik, mindegyikük beállításai csak azt mondom, hogy az illetékes konfigurációval, sem a webnek, sem a Kaspersky 1c zavarnak. Amikor a "Alapértelmezés szerint" beállítások - kb. 3-5 papagáj (10-15%) átadhatók.

b) Teljesítmény üzemmód. Valamilyen oknál fogva kevesen figyelnek erre, és a hatás a legsúlyosabb. Ha szüksége van a sebességre - akkor szükség van rá, mind az ügyfél- és kiszolgálói számítógépeken. (Gilev jó leírása. Az egyetlen árnyalat, néhány alaplapon, ha kikapcsolja az Intel Speedstep-t, akkor nem kapcsolhatja be a Turboboostot).

Ha rövid - az 1c üzemeltetés során sokféle módon válaszolhat más eszközök (lemez, hálózat stb.). A válaszidő alatt, ha a teljesítmény üzemmód kiegyensúlyozott, a processzor csökkenti a frekvenciáját. Az eszközből származik, meg kell dolgozni az 1c (processzor), de az első órák csökkentett frekvenciával mennek, majd a frekvencia növekszik - és az 1C várakozásra vár a készülékre. És így - másodpercenként sok százszor.

Tartalmazza a teljesítménymódot (és lehetőleg) két helyen:

Via BIOS-on keresztül. A C1, C1E módok letiltása, az Intel C-állapot (C2, C3, C4). Különböző BIOS-ban másként hívják őket, de a jelentés az egyik. Keresés sokáig, újraindításra van szükség, de ha egyszer megtörtént - akkor elfelejtheti. Ha mindent BIOS-ban csinálsz, akkor a sebesség hozzáadódik. Egyes alaplapokon a BIOS beállításokat úgy lehet elvégezni, hogy az üzemmód windows teljesítmény A szerepek nem fognak játszani. (A GILEV BIOS beállításainak példái). Ezek a beállítások elsősorban a kiszolgálói feldolgozókra vagy a "fejlett" BIOS-ra vonatkoznak, ha ezt nem találtad meg, és nincs Xeon - semmi szörnyű.

Vezérlőpult - tápegységek - nagy teljesítmény. MINUS - Ha a számítógépet már nem végezték sokáig, akkor nehezebb lesz a ventilátor, és többet fog fogyasztani, és több energiát fogyaszt. Ez egy teljesítménydíj.

Hogyan kell ellenőrizni, hogy az üzemmód engedélyezve van-e. A feladatkezelő - sebesség - erőforrás-monitor - CPU futtattuk. Várjuk, amíg a processzor nem foglalt.

Ezek az alapértelmezett beállítások.

A BIOS C-állapotban beleértve,

energy mód kiegyensúlyozott


A BIOS C-állapotban beleértve, Nagy teljesítményű üzemmód

A Pentium és a mag hagyhatod

a Xeon-tól még mindig egy kicsit "papagáj"


A BIOS C-állapotban tiltva, Nagy teljesítményű üzemmód.

Ha nem használja a Turbo Boost-ot - úgy kell kinéznie, mint ez

teljesítményszerver


És most a számok. Hadd emlékeztessem meg: Intel Xeon. 5650, Ramdisk. Az első esetben a vizsgálat 23.26, az utóbbiakban - 49,5. A különbség majdnem kétszor. A számok változhatnak, de az arány szinte ugyanolyan marad az Intel Core esetében.

Kedves adminisztrátorok, akkor Sidold 1c, ahogy tetszik, de ha a végfelhasználóknak szüksége van sebességre - nagy teljesítményű üzemmódot kell tartalmaznia.

c) Turbo Boost. Először meg kell értened, hogy a processzor támogatja-e ezt a funkciót. Ha támogatja, akkor még mindig jogszerűen kaphat egy kis teljesítményt. (A gyakorisággal kapcsolatos kérdések, különösen a szerverek túllépése, nem akarja ezt megtenni, tegye meg saját felelősségére. De egyetértek azzal, hogy a buszsebesség növekedése 133 és 166 között nagyon kézzelfogható növekedést eredményez a sebesség és a hőtermelés során)

Hogyan lehet bevinni turbó. Például írva. De! Az 1C-nek van néhány árnyalat (nem a legnyilvánvalóbb). A nehézség az, hogy a Turbo Boost maximális hatása a C-állapotban szerepel. És kiderül egy ilyen kép:

Kérjük, vegye figyelembe, hogy a multiplikátor a maximális, a magsebesség gyakorisága gyönyörű, a termelékenység magas. De mi fog történni az 1c-ben?

Tényező

Magsebesség (frekvencia), GHz

CPU-Z egyetlen szál

TEST GILEV RAMDISK.

fájl opció

TEST GILEV RAMDISK.

Ügyfélszerver.

Turbo Boost nélkül

C-State Off, Turbo Boost

53.19

40,32

C-State on, Turbo Boost

1080

53,13

23,04

És a végén kiderül, hogy a vizsgálatok szerint a processzor teljesítményét lehetőség szorzóval 23 előtt, a vizsgálatok szerint a Gilev a fájl verziója - a teljesítmény egy szorzó 22 és 23 azonos, de a kliens-szerver - a beállítást a szorzó 23 horror horror horror (akkor is, ha a C -országhatár a beállított szintre 7, még mindig lassabb, mint a C-state ki). Ezért ajánlások, ellenőrizze mindkét opciót, és válassza ki a legjobbat. Mindenesetre a különbség 49,5 és 53 papagáj - nagyon jelentős, különösen azért, mert sok erőfeszítés nélkül van.

Következtetés - Turbo Boost szükséges. Hadd emlékeztessem önöket, hogy ez nem elég ahhoz, hogy kapcsolja be a turbó pont BIOS, meg kell még nézni más beállítások (BIOS: QPI L0S, L1 - Disable, a kereslet súrolás - Disable, az Intel SpeedStep - engedélyezése, Turbo Boost - Engedélyezés. Vezérlőpult - tápegység - nagy teljesítményű). És még mindig megállok (még a fájlverzióhoz is), ahol a C-állapot ki van kapcsolva, még akkor is van egy szorzó és kevesebb. Kiderült, hogy valahogy ...

Egy meglehetősen ellentmondásos pont a memória gyakorisága. Például a memóriafrekvencia nagyon befolyásoló. A tesztek - nem mutatott ilyen függőségeket. Nem fogom összehasonlítani a DDR 2/3/4-et, megmutatom a frekvenciaváltás eredményeit egy sorban. A memória ugyanaz, de a BIOS-ban a kisebb frekvenciákat kényszerítették.




És vizsgálati eredményeket. 1C. A Turbo Boost mindkét opcióban ki van kapcsolva. 8.3 összehasonlítható eredményeket mutat.

A különbség a mérési hiba alatt van. Különösen kihúztam a CPU-Z képernyőképeket, hogy megmutassuk, hogy más paraméterek, ugyanaz a CAS késleltetés és a CAS késleltetés, a frekvenciaváltás változása, amely szintje a frekvenciaváltás. A különbség akkor lesz, amikor a memóriamodulok fizikailag megváltoznak, sokkal gyorsabban, de nincsenek nagyon jelentős számok.

2. Ha az ügyfélszámítógép processzorával és memóriájával rájöttünk, menjünk a következő nagyon fontos helyre. Számos könyv könyvét írták a hálózat hangolásáról, vannak cikkek az Infostart (és mások), itt nem fogok élesíteni a figyelmet ezen a témában. Az 1c tesztelés előtt győződjön meg róla, hogy a két számítógép közötti IPERF mutatja az egész sávot (1 Gbps kártyára - Nos, legalább 850 Mbps, és jobb 950-980), amelyek Gilev Tippekből készülnek. Ezután - a munka legegyszerűbb ellenőrzése, furcsaan, egy nagy fájl (5-10 gigabájt) másolása a hálózaton keresztül. A normál működés közvetett jele az 1 GBIT-ben az átlagos másolási sebesség 100 Mb / s, jó munka - 120 MB / s. Szeretném figyelni, hogy a gyenge hely (beleértve) lehet a processzor munkaterhelése. SMB. a Linuxról szóló jegyzőkönyv elég párhallú, és a munka során nyugodtan "húsvét" a processzor egyik magja, és már nem fogyasztható.

És tovább. A beállítások a az ablakok alapértelmezése Az ügyfél a Windows Serverrel (vagy akár windows-munkások Állomás) és az SMB / CIFS protokoll, a Linux kliens (Debian, Ubuntu, a többi nem figyelte) jobban működik a Linux és az NFS-vel (az SMB-vel is működik, de az NFS papagájok felett). Az a tény, hogy a Wine Linux szerver lineáris másolatával az NFS-nél gyorsabban másolják, semmi más nem mondja. A Debian tuning az 1C egy külön cikk témája, nem vagyok kész rá, bár azt mondhatom, hogy a fájl verziójában még egy kicsit több termelékenységet kaptam, mint az ugyanazon felszerelés verziója, de a paygress több mint 50 Még mindig nagyon rossz vagyok.

A legfontosabb dolog Amit az adminisztrátorok tudnak a "megszállónak", de ne vegye figyelembe a kezdőknek. Olyan sokféleképpen lehet beállítani az 1C-adatbázis elérési útját. A \\\\ Server \\ Share, akkor lehet, hogy \\\\ 192.168.0.1 \\ Share, nettó Z: \\\\ 192.168.0.1 \\ Share (és bizonyos esetekben ez a módszer is működik, de nem mindig), majd adja meg A Z lemez. Úgy tűnik, hogy ezek az utak ugyanazt a helyet jelzik, de az 1c-nek csak egy út van, egyenletesen adja meg a normál teljesítményt. Szóval szükség van rá:

BAN BEN parancs sor (Vagy a politikában, vagy hogyan kényelmes az Ön számára) - A NET HASZNÁLATI HASZNÁLAT: \\\\ SERVER \\ SHARE. Példa: nET HASZNÁLAT M: \\\\ SERVER \\ Bases. Különösen hangsúlyozom, nem IP-címet, nevezetesen név Szerverek. Ha a kiszolgáló neve nem látható - add hozzá a szerveren lévő DNS-hez, vagy helyileg a Hosts fájlba. De a fellebbezést meg kell nevezni. Ennek megfelelően az adatbázis felé vezető úton lépjen kapcsolatba a lemezen (lásd a képet).

És most megmutatom a számokat, hogy miért ez a Tanács. Forrás adatok: Intel X520-DA2, Intel 362, Intel 350, Realtek 8169. WIN 2008 R2, Win 7, Debian 8. Drivers Az utóbbi, frissítések alkalmazzák. A tesztelés előtt meg voltak győződve arról, hogy az IPERF teljes sávot ad (kivéve a 10 Gbps kártyát, csak 7,2 GBIT Squeeze, később meglátom, miért van a tesztszerver, hogy még nincs konfigurálva). A lemezek eltérőek, de mindenhol SSD (speciálisan beillesztve egyetlen lemezt a teszteléshez, már nem töltötte be) vagy az SSD-ről. Az MBIT sebességét az Intel 362 adapter beállításainak korlátozásával kapjuk meg. Az 1 GBIT Réz Intel 350 és az 1 GBIT Intel X520-Da2 optikának (az adapter sebességének korlátozásával kapott különbség nem észlelhető. A maximális teljesítményt, a TurboBust ki van kapcsolva (csak az eredmények összehasonlíthatóságához, a jó eredmények turbobustja egy kicsit kevesebb, mint 10%, a rossz dolgok nem befolyásolhatják senkit). 1c verzió 8.2.19.86, 2017.3.8. A számok nem hoznak mindent, de csak a legérdekesebb, hogy milyen összehasonlítani.

Win 2008 - Win 2008

iP-cím fellebbezése

Win 2008 - Win 2008

Fellebbezés név szerint

Win 2008 - Win 2008

IP-cím fellebbezése

Win 2008 - Win 2008

Fellebbezés név szerint

Win 2008 - Win 7

Fellebbezés név szerint

Win 2008 - Debian

Fellebbezés név szerint

Win 2008 - Win 2008

IP-cím fellebbezése

Win 2008 - Win 2008

Fellebbezés név szerint

11,20 26,18 15,20 43,86 40,65 37,04 16,23 44,64
1c 8.2. 11,29 26,18 15,29 43,10 40,65 36,76 15,11 44,10
8.2.19.83 12,15 25,77 15,15 43,10 14,97 42,74
6,13 34,25 14,98 43,10 39,37 37,59 15,53 42,74
1c 8.3. 6,61 33,33 15,58 43,86 40,00 37,88 16,23 42,74
8.3.6.2076 33,78 15,53 43,48 39,37 37,59 42,74

Következtetések (az asztalról és a személyes tapasztalatokból. Csak a fájl verzióját érinti):

A hálózaton meglehetősen normális számokat kaphat a munkához, ha ez a hálózat általában konfigurálva van, és helyesen regisztrálja az útvonalat 1c-ben. Még az első i3 is is 40+ papagájot adhat, ami elég jó, és ez nem csak papagáj, valós munkában a különbség is észrevehető. De! A korlátozás több (több mint 10) felhasználó működése során nem lesz a hálózat, akkor is elég 1 Gbit, de blokkolja a multiplayer munka (Gilev) alatt.

1. platform 1c 8.3 Időnként igényesebb az illetékes hálózati konfigurációhoz. Alapvető beállítások - lásd Gilev, de ne feledje, hogy minden hatással lehet. Az FCOE protokollok eltávolításától (és nem csak kikapcsolták) az FCOE protokollok eltávolításától kezdve a víruskereső (és nem csak kikapcsolt), az FCOE protokollok eltávolításától, a meghajtók változó, de a Microsoft Certified Version (különösen az Olcsó kártyákról, például az Asusov és a hosszúságokról), hogy eltávolítsák a második hálózati kártyát A szerver. Sok lehetőség, elgondolkodva konfigurálja a hálózatot. Lehet, hogy a 8.2 platform elfogadható számokat ad, és 8,3 - két vagy több alkalommal kevesebb. Próbálja meg játszani a 8.3 platform verziójával, néha nagyon nagy hatást fejt ki.

1C 8.3.6.2076 (talán később, a pontos verziószámot nem keresett még) a hálózat továbbra is létrehozott könnyebb, mint 8.3.7.2008. A Normál Network Work (összehasonlítható papagájok esetén) a normál hálózati munka (összehasonlítható papagájokban) csak néhány alkalommal sikerült, nem volt lehetséges megismételni egy általánosabb esetben. Nem értettem sokat, de a termékek feltáró termékei alapján ítélve a rekord nem megy oda, mint a 8.3.6.

Annak ellenére, hogy a 100Mbps hálózaton végzett munka során a munkaterhelés ütemezése kicsi, (azt mondhatjuk, hogy a hálózat ingyenes), a munka sebessége még mindig sokkal kevesebb, mint 1 GBIT. Ok - késleltetés (késleltetés) hálózat.

Minden más dolog egyenlő (jól működő hálózat) az 1C 8.2 Az Intel Connection - Realtek lassabb, mint az Intel-Intel. De a Realtek-Realtek ugyanakkor éles szakaszokat adhat. Ezért, ha van pénz - ez jobb megtartani az Intel hálózati kártya mindenhol, ha nincs pénz -, akkor az Intel tegye csak a szerver (a K.O.). Igen, és az Interalal Network kártyák tuningjának utasításai sokszor többek.

AntiVirus beállítások alapértelmezés szerint (a DRWEB 10 verzió példáján) a papagájok 8-10% -át veszik. Ha meg kell konfigurálni, mint amilyennek lennie (lehetővé teszi a folyamat 1CV8 hogy tegyen meg mindent, bár ez nem biztos) - a sebesség ugyanaz, mint anélkül, vírusölő.

Linux guru nem olvasható. A Samba-szal való szerver nagyszerű és ingyenes, de ha Win XP-t vagy Win7-et helyez a kiszolgálón (és még jobb szerver OS), akkor az 1c fájlverzió gyorsabban működik. Igen, és a Samba és a protokoll verem és a hálózati beállítások, és sokkal többet a Debianban / Ubuntuban jól hangolnak, de ajánlott, hogy szakemberek ajánlották. Nincs értelme az alapértelmezett beállításokkal, majd azt mondja, hogy lassan működik.

Elég jól működésének ellenőrzésére a lemezek keresztül csatlakoztatott Net Use segítségével FIO. Legalábbis világos lesz, vagy ezek az 1C-es platform problémái, vagy hálózati / lemezzel vannak.

Egyetlen felhasználói verzió esetén nem tudok tesztelni (vagy helyzet), ahol az 1 GBIT és 10 GBIT közötti különbség lenne. Az egyetlen, ahol a fájlverzió 10Gbitje jobb eredményt adott az eredménynek, hogy csatlakozzon lemezeket iscsi, de ez egy külön cikk témája. Mégis, azt hiszem, hogy az 1. verzió 1 Gbps A kártyák elég.

Miért 100 Mbps 8.3 jelentősen gyorsabban működik 8.2 - Nem értem, de a ténynek volt helye. A többi berendezés, az összes többi beállítás teljesen megegyezik, egyszerűen egy esetben a 8.2-es és a másikban - 8.3.

Nem hangzott NFS Win - Win vagy Win-Lin 6 papagájot ad, nem kapcsolotta be az asztalt. A 25-es hangolás után, de instabil (a méréseknél több mint 2 egység). Nem tudok ajánlásokat adni windows használata és NFS protokoll.

Az összes beállítás és ellenőrzés után indítson egy tesztet az ügyfélszámítógépről, örülj a javított eredményre (ha kiderül). Ha az eredmény javult, a papagájok váltak, mint 30 (és különösen a több mint 40), a felhasználók egyidejűleg működik kevesebb, mint 10, és a munka alapja is lelassul - szinte biztosan a problémák a programozó (vagy már elérte a fájl verziójainak csúcspontja).

Terminálkiszolgáló. (Az alap a kiszolgálón fekszik, az ügyfelek csatlakoznak a hálózaton, RDP protokollon keresztül). Algoritmus lépésekre:

0. Adja hozzá a Gilene Test adatbázisot a kiszolgálónak ugyanazon a mappába, mint a fő bázisok. Ugyanaz a kiszolgáló, amelyet csatlakozik, futtassa a tesztet. Emlékszünk a kapott eredményre.

1. Ugyanígy, mint a fájl verziójában, állítsa be a munkát. Terminálkiszolgáló esetében a processzor általában a fő szerepet játssza (ez azt jelenti, hogy nincsenek nyilvánvaló gyenge pontok, például a memóriahiány vagy a szükségtelen szoftver hatalmas összege).

2. Hálózati kártyák beállítása Terminálkiszolgáló esetében gyakorlatilag nem befolyásolja az 1c működését. Annak érdekében, hogy a "különleges" kényelem, ha van olyan szerver, amely több mint 50 papagájt ad, akkor az RDP protokoll új verzióival játszhat, csak a felhasználók munkájának kényelméért, gyorsabb válasz és görgetés.

3. A nagyszámú felhasználó aktív munkájával (és itt is megpróbálhatunk 30 embert egy adatbázisba csatlakoztatni, ha megpróbálja) nagyon kívánatos SSD lemezt helyezni. Valamilyen oknál fogva úgy gondolják, hogy a lemez nem érinti különösen az 1C működését, de az összes tesztet a vezérlő gyorsítótárával engedélyezték, ami helytelen. A vizsgálati alap kicsi, meglehetősen elhelyezett a gyorsítótárba, innen és magas számokból. A valódi (nagy) bázisokon minden teljesen más lesz, így a gyorsítótár tesztek le vannak tiltva.

Például ellenőriztem a Guille tesztet különböző lemezváltozatokkal. A lemezek kivetették, hogy mi volt a kezében, csak egy tendencia, hogy megmutatja. A különbség 8.3.3.2076 és 2008.3.8., 2008.7.8.8. Energiafogyasztás - A maximális teljesítmény, a Turbo Boost le van tiltva (ha máskülönben van).

RAID 10 4X SATA 7200

ATA ST31500341AS.

RAID 10 4X SAS 10K

RAID 10 4x SAS 15K

Egyetlen SSD.

Ramdisk.

Tartalmazott készpénzt

Raidvezérlő

21,74 28,09 32,47 49,02 50,51 53,76 49,02
1c 8.2. 21,65 28,57 32,05 48,54 49,02 53,19
8.2.19.83 21,65 28,41 31,45 48,54 49,50 53,19
33,33 42,74 45,05 51,55 52,08 55,56 51,55
1c 8.3. 33,46 42,02 45,05 51,02 52,08 54,95
8.3.7.2008 35,46 43,01 44,64 51,55 52,08 56,18

A mellékelt RAID vezérlő gyorsítótár szintje a lemezek közötti teljes különbség, a számok ugyanazok a saz, és a CAC esetében. A kis mennyiségű adatokkal való tesztelés haszontalan és nem egy jelző.

A 8.2-es platform esetében a SATA és az SSD variánsok közötti teljesítmény különbsége - több mint kétszer. Ez nem hibás. Ha a SATA meghajtók tészta alatt megnézi a teljesítményfigyelőt. Ezután jól látható "aktív lemezműködés (%)" 80-95. Igen, ha lehetővé teszi a rekordlemezek gyorsítótárát, a sebesség 35-re emelkedik, ha bekapcsolja a vezérlő gyorsítótárát - akár 49-ig (függetlenül attól, hogy milyen lemezeket teszteltek a pillanatban). De ezek szintetikus gyorsítótár papagájok, a nagy bázisok valódi munkájában soha nem lesz 100% -os írási gyorsítótár-találati arány.

Sebesség Még az olcsó CD-k is (teszteltem az Agility 3-on) elég eléggé a fájl verziójához. A rekord erőforrása egy másik dolog, minden egyes esetben meg kell nézni, világos, hogy az Intel 3700 nagyságrendje magasabb, de az ár megfelelő. És igen, megértem, hogy az SSD lemez tesztelése során többet is tesztelek, mint a lemez gyorsítótár, a valódi eredmények kevesebb lesz.

A legmegfelelőbb (az én szempontból) Az oldatot a lemez 2 CD-jére osztják fel a fájlbázis (vagy több) file bázisok), És semmi más nem helyezkedik el. Igen, a CD-k tükörzel kimerül, és ez mínusz, de legalább az elektronikai vezérlő hibáitól legalább valahogy biztosított.

A fájl CED lemezeinek fő előnyei akkor jelennek meg, ha számos adatbázis van, és mindegyik több felhasználó számára. Ha az 1-2-es adatbázisok és a 10 körüli felhasználók elég, akkor a SAS lemezek elég. (De minden esetben nézze meg ezeket a lemezeket, legalábbis perfonon keresztül).

A terminálkiszolgáló fő előnyei - nagyon gyenge ügyfelek lehetnek, és a hálózati beállítások a terminálkiszolgálóban sokkal kisebbek (ismét a k.o.).

Következtetések: Ha elkezd a Gile tesztet a terminál szerver (az ugyanazon a lemezen, ahol a működő bázisok hazugság), és azokat a pillanatokat, amikor a dolgozó bázis gátolt, és a Gilev teszt megmutatja a jó eredmény (30 év fölöttiek) - utána Lassú munka A fő munkalap hibás, valószínűleg egy programozó.

Ha a Gilene vizsgálat mutatja kis számban, és van egy nagyfrekvenciás processzor, és a lemezek gyors, akkor itt a rendszergazda kell, hogy legalább PerfMon, és a felvétel az összes eredmény valahol, és nézni, nézni, levonni a következtetést. Nem lesz egyértelmű tippek.

Ügyfélszerver verzió.

Csak a 8.2-es években végzett tesztek, mert A 8.3-nál minden komolyan függ a verziótól.

A teszteléshez különféle lehetőségeket választott ki a szerverek és hálózatok között a fő trendek megjelenítéséhez.

SQL: Xeon E5-2630

SQL: Xeon E5-2630

Fiber Channel - SSD

SQL: Xeon E5-2630

Fiber Channel - SAS

SQL: Xeon E5-2630

Helyi SSD.

SQL: Xeon E5-2630

Fiber Channel - SSD

SQL: Xeon E5-2630

Helyi SSD.

1c: Xeon 5650 \u003d

1c: Xeon 5650 \u003d

Megosztott memória.

1c: Xeon 5650 \u003d

1c: Xeon 5650 \u003d

1c: Xeon 5650 \u003d

16,78 18,23 16,84 28,57 27,78 32,05 34,72 36,50 23,26 40,65 39.37
1c 8.2. 17,12 17,06 14,53 29,41 28,41 31,45 34,97 36,23 23,81 40,32 39.06
16,72 16,89 13,44 29,76 28,57 32,05 34,97 36,23 23,26 40,32 39.06

Úgy tűnik, hogy minden érdekes lehetőség figyelembe vett, ha valami érdeklődik - írjon a megjegyzésben, megpróbálom megtenni.

A tároló doboz CAC lassabban működik, mint a helyi CD-k, annak ellenére, hogy a tárolási létesítmény nagy gyorsítótáras méretű. SSD és helyi és a Gilene Tészta SCD-nál összehasonlítható sebességgel. Néhány szabványos többszálú teszt (nemcsak a rekordok és az összes berendezés) a PC-tól az 1C betöltése mellett nem tudom.

Az 1c szerver 5520-tól 5650-ig történő módosítása szinte megduplázza a teljesítményt. Igen, a szerverek konfigurációja nem egyezik meg teljesen, de a trend (semmi meglepő).

Gyakoriságának növelése a SQL szerver természetesen ad hatása, de nem ugyanaz, mint a 1C szerver, MS SQL szerver tudja, hogyan kell használni a többmagos és a szabad memória róla).

Hálózat közötti váltás az 1C és SQL 1 Gbps 10 Gbps ad körülbelül 10% -a papagájok. Többet vártam.

A megosztott memóriahatás beillesztése még mindig megadja, bár nem 15%, amint azt leírtuk. Győződjön meg róla, jó és egyszerű. Ha valaki megadta az SQL Server nevű példányt a telepítés során, akkor a kiszolgáló neve nem adja meg nem adja meg az FQDN (TCP / IP), nem a localhost vagy a SimperName-en keresztül, hanem a ServerName \\ instancename, például a ZZ-TEST \\ ZZTEST. (Egyébként van egy DBMS hiba: Microsoft SQL. Szerver Native Client 10.0: Megosztott memória Szállító: Nem található megosztott memória könyvtárát a kapcsolat telepítéséhez SQL szerver 2000. Hresult \u003d 80004005, hresult \u003d 80004005, hresult \u003d 80004005, sqlsrvr: sqlstate \u003d 08001, state \u003d 1, súlyosság \u003d 10, natív \u003d 126, vonal \u003d 0).

A 100-nál kisebb felhasználók számára a két külön szerver elválasztásának egyetlen értelme a 2008-as STD (és régebbi verziók) licencje, amely csak 32 GB RAM-t támogat. Minden más esetben az 1C és az SQL egyedileg kell egy kiszolgálót helyezni, és többet (legalább 64 GB) memóriát ad. Az MS SQL-t kevesebb, mint 24-28 GB RAM - indokolatlan kapzsiság (ha úgy gondolja, hogy elég ez a memória, és minden rendben működik - tudsz-e, és az 1c-es verziónak elég lenne?)

Ami a rosszabb, az 1C és az SQL csokor egy virtuális gépen működik - egy külön cikk témája (a tipp észrevehetően rosszabb). Még Hyper-V-ben is, minden nem olyan határozottan ...

A kiegyensúlyozott teljesítménymód rossz. Az eredményeket teljes mértékben őrzi a fájl verzióval.

Számos forrásban van írva, hogy a hibakeresési mód (Ragent.exe -debug) erősen csökken a teljesítmény. Jól csökkenti, igen, de 2-3% -kal nem fogok jelentős hatást gyakorolni.

Kiszolgáló kialakítása az "1c: Enterprise 8" igényekhez a közepes és nagyvállalatok számára

Az anyagot olyan technikai szakembereknek tervezték, amelyek az "1c: Vállalat 8" igényeinek kiszolgálói megoldásait tervezik, 25-250 felhasználó terheléssel és így tovább. A kiszolgálói komponenseknél a szükséges teljesítmény értékelésének kérdései figyelembe veszik, figyelembe véve az esetek szélsőséges eseteit, a virtualizáció hatását. A nagyvállalkozások számára a hibatűrő vállalati infrastruktúra kiépítésének kérdéseit a következő anyagok tárgyalják.

A szükséges berendezések teljesítményének értékelése.

A berendezések kiválasztásához szükséges a CPU-források, RAM, lemez alrendszer és hálózati interfészek szükségességének előzetes értékelése.
Itt kétféle módon tarthat:
a) kísérleti, amely lehetővé teszi, hogy objektív adatokat szerezzen az aktuális berendezés terhelésére, és azonosítsa a szűk keresztmetszeteket;
b) kiszámították, amely lehetővé teszi számunkra, hogy az empirikusan megszerzett átlagolt adatok alapján értékeljük.
A leghatékonyabb az, hogy megosszák mindkét módszert.

  1. Terhelésellenőrzés, eredmények értékelése, szűk keresztmetszetek keresése és követelmények kialakítása

Miért fontos a terhelési elemzés elvégzése, ha már van munkarendje?
Itt leginkább hasonlít a gyógyszerrel. Amikor a beteg az orvoshoz jön, az ellenőrzést először elvégzik, az elemzéseket hozzárendelik, majd a rendelkezésre álló információk teljes komplexét nevezik ki, és a kezelés hozzárendelve van. Hasonlóképpen, a helyzet és a szerver tervezése során.
A mérési paraméterek mérésére és az eredmények elemzésére irányuló erőfeszítések érdekében a legmegfelelőbb megfelel a tervezett kiszolgálónak a feladatokhoz. A végeredmény jelentős megtakarításgá válik, mind a kezdeti költségek, mind a működési költségek a jövőben.

A kiszolgáló teljesítményének értékelése A fő alrendszerek részeként leszünk: központi feldolgozókRAM, RAM, lemez alrendszer I / O és hálózati interfészek. A Windows rendszerben van egy szabványos Windows Performance Monitor (Perfmon) számítástechnikai értékelési eszközkészlet. Más rendszereken hasonló értékelési eszközök vannak.
Általánosságban elmondható, hogy az egyes alrendszerek terhelése határozottan az alkalmazásoktól és típusú adatoktól függ, amellyel működnek. Az 1C-vel kapcsolatos alkalmazások blokkjához a legfontosabb a CPU, RAM, és az SQL Server szintén a lemez alrendszer. Ha több kiszolgálóra feloldódsz, akkor a hálózati felület is kritikus. Csak olyan paraméterekkel dolgozunk, amelyek fontosak számunkra az alkalmazott feladat szempontjából.
Az elemzési adatokat legalább naponta kell gyűjteni egy tipikus munkanapban. Ideális - háromféle munkanapra felhalmozódik. A szűk keresztmetszetek kereséséhez kívánatos eltávolítani a legmagasabb terhelés napján lévő adatokat.
Az alábbiakban leírtak mindegyike hasznos az új kiszolgáló kialakításának előkészítéséhez (a szolgáltató feladata), így a működés során, a berendezések paramétereinek és a szoftver lehetséges további "hangolásának" objektív értékeléséhez és a hardver komplexum alatt "1c: enni 8" általában.

PROCESSZOR. A legnagyobb mértékben érdekel egy paraméter - " Processzor:% processzor idő» (« Processzor:% processzor munkaterhelés "). A Microsoft a paraméterről a következőket mondja: "Ez a számláló nyomon követi azt az időt, amikor a CPU a működés közben tölti a fluxust. A CPU letöltésének állandó szintje 80-90% -os tartományban jelezheti, hogy frissíteni kell a CPU-t vagy a több processzor hozzáadásának szükségességét. " Így, ha a CPU terhelése átlagosan 70-80% az optimális aránya felhasználásának hatékonysága CPU erőforrások és a termelékenység tartalékok csúcsidőben. Kevésbé - A rendszer nincs betöltve. Több mint 80% - a kockázati terület 90% - a rendszer túlterhelt, szükséges, hogy vagy utasítsa el a terhelést a többi gép, vagy mozog egy új, termelékenyebb szerver.

CPU elemzés . -Ért modern processzorok Először is, érdemes megtudni, hogy hány magra van szüksége. A Windows maga is hatékonyan elosztja a terhelést a magok között, és a ritka esetek kivételével, ha egyértelműen kötődik a magokhoz - az összes processzormagot többé-kevésbé egyenletesen töltik be. Általában, ha van egy paramétere "% Processzor munkaterhelés"Található 50-70% - Minden rendben van, van egy tartalék. Ha kevesebb, mint 50% azt jelenti, hogy a rendszerben már felesleges számú magja van, számuk csökkenthető, vagy letöltheti a kiszolgálót más feladatokkal. A 80% -os átlagos terhelés - a rendszer nagyobb számú magot igényel.

Ram . Itt van értelme két paramétert követni:
« Memória: elérhető MBYTES» (« Memória: Elérhető MB "). A munkagépben a mérő értékének legalább 10% -ának kell lennie fizikai memóriatelepítve van a szerveren. Ha kötet válaszolt memória Túl kicsi - a rendszer kénytelen használni az aktív folyamatok lapozófájlját. Ennek eredményeképpen észrevehető késések vannak a rendszer "lógása" hatására.
« Memória.:% Elkötelezett Bájtok. BAN BEN. Használat», « Memória: A hozzárendelt memória használatának% -a " A számláló nagy értéke azt jelzi, hogy a rendszerben nagy terhelés figyelhető meg. ram. Rendkívül kívánatos, hogy ez a paraméter 90% alatt van, mert 95% -kal jelenik meg az outofemory hiba valószínűsége.

Ram analízis . A kulcsparaméter a rendelkezésre álló RAM-térfogat elérhetősége a kiszolgálón, amely hatékonyan megengedett a fenti számlálók megfigyelésére.

Lemez alrendszer. Nagyon gyakran kérdések az "1c: az elő-hozzáállás 8" sebességével kapcsolatban a lemez alrendszer elégtelen teljesítményével járnak. És itt van, hogy nagyon nagy lehetőségeket kínálunk a feladat felszerelésének optimalizálására. Ezért maximális figyelmet fordítunk a lemez alrendszer számlálók elemzésére.

  1. « % SZABAD HELY."- a szabad hely százalékos aránya logikai lemez. Ha a lemezkapacitás szabadon kevesebb, mint 15% -a van, akkor túlterheltnek tekinthető, és további elemzése valószínűleg nem lesz teljesen helyes - erősen befolyásolja a lemezen lévő adatok töredezettsége. Az ajánlott mennyiségű szabad hely a szerverlemezen legalább 20%, az SSD esetében előnyösen több.
  2. « AVG. Lemez sec / transfer"- A lemez elérésének átlagos ideje. A mérő az átlagolt időt mutatja milliszekundumban, amely egyetlen lemezes adatcserére van szükség. A gyengén betöltött rendszerekhez (például a fájl tárolásához, VM tárolásához) kívánatos, hogy 25-30 ms tartományban tartsa. Nagy terhelhető szerverekhez (SQL) - kívánatos, hogy ne haladja meg a 10 ms-t. A számláló nagy értékei beszélnek a lemez alrendszer túlterheléséről. Ez egy integrált mutató, amelynek részletesebb elemzést igényel. Milyen műveletek, olvasás vagy írás, és milyen arányban, a számlálók bemutatják AVG. Lemez sec / olvasás (Átlagos olvasási idő a lemezről másodpercben) és AVG. Lemez sec / írás (A felvételi lemez érintkezésének átlagos ideje).
    Integrált mutató AVG. A RAID5 / RAID6 lemezes sec / transzfer6 jelentős túlsúlyos olvasási műveletek lehetnek a normál tartományon belül, és a felvételi műveletek jelentős késedelmekkel járnak.
    3. AVG. Lemezsor hossza. (A lemez sorának átlagos hossza) lényegében szerves mutató és áll AVG. Lemez olvasási sor hossza(A sor átlagos hossza a lemezre az olvasásra) és AVG. Lemez írási sor hossza (Az átlagos várólistára a rekordlemezre). Jelenti, hogy hány I / O műveletet várnak átlagosan, ha a merevlemez elérhetővé válik. Ez nem egy mért mutató, de a Queue elméletből származó kis cselekedet, mint n \u003d a * sr, ahol N a várakozási kérelmek száma a rendszerben, a a kérelmek átvételének sebessége, az SR a válaszidő . A Normálisan futó lemez alrendszer esetében ez a jelző nem haladhatja meg a RAID csoportban több lemezszámot. Az SQL Server Class alkalmazásoknál az átlag kívánatos, hogy 0,2-nél kevesebbet tartson fenn.
    4. Jelenlegi lemez sor hossza (Az aktuális lemez sorhossza) azt mutatja, hogy a nem fejeződött be, és várja a kiválasztott lemezre címzett lekérdezések feldolgozását. Ez az aktuális érték, a pillanatnyi mutató, és nem az időintervallum átlagos értéke. A lemez alrendszerre történő feldolgozásának késleltetési ideje arányos a sor hosszával. A kényelmes munkához a folyamatos üzemmódban a várakozási kérelmek száma nem haladhatja meg a fizikai lemezek számát több mint 1,5-2 alkalommal (folytatjuk azt a tényt, hogy több lemez tömbjében mindegyik lemez egyidejűleg választható a várólistából egy kérésre).
    5. Lemez transzferek / sec (Lemez / s) fellebbezések - A különálló I / O lemezkérések száma egy másodpercen belül befejeződött. Megmutatja a véletlenszerű olvasás és írás iránti kérelmek valós igényeit a lemez alrendszerre. Mint jelző, amely több egyedi számlálót foglal össze - lehetővé teszi, hogy gyorsan értékelje az általános helyzetet.
    6. Lemez olvasmány / sec - a másodpercenkénti értékek száma, azaz a lemezről történő olvasási műveletek gyakorisága. Az SQL Server Class alkalmazások legfontosabb paramétere, amely meghatározza a lemez alrendszer valós teljesítményét.
    A normál beállítási módban, a támogatási intenzitás a fellebbezések nem haladhatja meg a fizikai képességeit a lemezek - az egyéni határértékek szorozva lemezek száma a tömbben.

100-120 iops minden SATA vagy NL SAS meghajtó számára;

200-240 Iops minden SAS 15000 RPM lemezre;

65 000 iops minden SSD S3500 sorozat (SATA);

7. Lemez írja / sec - A rögzítési hívások száma másodpercenként, azaz a lemez nyilvántartásainak végrehajtásának gyakorisága. Rendkívül fontos paraméter az SQL Server alkalmazásokhoz. A normál üzemmódban való munkavégzés során a fellebbezések intenzitása nem haladhatja meg a lemezek fizikai korlátait a tömb számukkal szorozva, és figyelembe véve a kiválasztott RAID típusú rekordok büntetését.

80-100 Iops per SATA vagy NL SAS meghajtó;

180-220 IOPS minden SAS meghajtó számára;

2 , 20 GHz.

DDR4.
1600/1866/2133

3 , 50 GHz.

DDR4 1600/1866/2133/2400

1. táblázat - Munka paraméterek RAM-val

Ram . A telepített memória sebessége befolyásolja a teljes kiszolgáló sebességét. Például az LR DIMM az architektúrája miatt mindig nagyobb latenciája lesz, mint normál memória Rdimm DDR4. Különösen a viszonylag rövid lekérdezésekAz 1C-vel való munka során az SQL-re jellemző. A nagyobb késleltetés és jelentősen magas árAz LR DIMM-nek megfelelően van értelme, ha nem lehet tárcsázni a szükséges RAM-kötetet az RDIMM miatt.
Hasonlóképpen, a DDR4 2400 kissé gyorsabban fog működni, mint a DDR4 2133 - Ha nagy frekvenciák támogatják a CPU-t.

Hálózati felület. Ajánlatos az egyszerű szabályokhoz ragaszkodni:
a) A szervernek legalább három hálózati interfésznek kell lennie 1GB Ethernet vagy magasabb (10 GB, 40 GB), és legalább kettő a kiszolgáló hálózati zsetonjaiban. Természetesen egyéb tényező változatlansága mellett meg kell adni az előnye, hogy 10 GB Ethernet infrastruktúra, különös tekintettel az eltűnő kis különbség a berendezés ára (10GB hálózati kártyák és 10GB portok 1GB / 10GB kapcsolók).
b) A szervernek támogatnia kell egy KVM-OVER-IP-technológiát a távirányítóhoz.
A finomságok, akkor jelölje ki nagyon jó támogatja az összes kiszolgáló hálózati chipek az Intel virtualizációs eszközök és a készség hatékonyan osztja ki a terhelést a CPU magok 10GB +.

Lemez alrendszer :

A lemez alrendszer két összetevőből áll:
- I / O alrendszer SAS HBA és RAID vezérlők formájában;
- Adat tárolóeszközök, vagy esetünk, SSD és HDD lemezek.

RAJTAÜTÉS.
Az OS tárolási feladatokhoz és adatbázisok esetében általában RAID 1 vagy RAID 10-et használnak, valamint különböző program analógjaikat.

1. Teljesen szoftver RAID (lágy raid) windows eszközök A szerver nem használható indító lemezDe nagyon szeretné tárolni db, tempdb és sql napló. A Windows Storage Spaces technológia elegendően nagy teljesítményű megbízhatóságot és sebességet biztosít, és számos további funkciót is kínál, amelyek közül a legérdekesebb az 1C-es feladatok (TIER TÁROLÁS). Ennek a technológianak az az előnye, hogy a leggyakrabban kért adatrendszer részét automatikusan SSD-re helyezik.
Az 1c feladatok tekintetében általában SSD-t használnak, vagy nagyon nagy mennyiségű (1TB és magasabb) és hosszú távú adatbázisok - többszintű tárolás.
A Windows Storage Spaces egyik előnye az, hogy RAID-t hozzon létre az NVME lemezeken.

2. Az Intel Chipset és az Intel® Rapid Storage Technology Technology alapja az OS, a hardver-szoftverek befogadására, Intel Rst).
Benne a hardver szintű bemeneti kimenet műveletei az alaplap chipkészletet hajtják végre, gyakorlatilag nem kerékpáros CPU-erőforrások. És a tömb a Windows illesztőprogramok miatt a program szintjén van vezérelve.
Mint bármilyen kompromisszumos megoldás, az Intel RST néhány hátránya van.
de) Dolgozik Az RST függ a letöltött illesztőprogramoktól operációs rendszer. És olyan potenciális kockázatot visel, hogy a járművezetők vagy az operációs rendszer frissítése során olyan helyzet lehet, hogy a RAID lemez nem érhető el. Ez rendkívül valószínűtlen, mert intel cégek És a Microsoft nagyon barátságos és nagyon jól tesztelt, de nem zárul ki.
b) A kísérletek eredményei alapján a közvetett jellemzőkkel feltételezhető, hogy az Intel RST-vezető modell a gyorsítótárazás rögzítéséhez a RAM erőforrásokat használja. Ez növeli a teljesítményt, ugyanakkor bizonyos kockázatot jelent az adatvesztés kockázata a kiszolgáló tápellátásának nem tervezett leállításával.
Van u ez a megoldás és előnyök.
Az egyikük mindig nagyon nagy teljesítmény a szinten, és néha magasabb, mint a teljesen hardver raid vezérlőké.
A második a hardver-szoftver RAID1 támogatása az NVME lemezekhez (az anyag írásakor - nem a rendszerindító lemezekhez). És itt van egy érdekes tulajdonság azok számára, akiknek nagy betöltött lemez alrendszerei vannak. Ellentétben a Windows Storage Spaces, amely „illik” részt vesz a bevezetés / kimenet a mag szinte 100%, az Intel RST amikor mintegy 70% -át a terhelés a kernel összeköti a következő kernel az input / output folyamat. Ennek eredményeképpen egységesebb terhelés a CPU kernelre és egy kicsit nagyobb teljesítményre nagy terhelésen.

4. ábra - Ártalmatlanítás CPU ablakok tároló terek vs. Intel RST.

3. Teljesen hardveres raid a kiszolgálón 2-6 SSD RAID-ben 1 meglehetősen lehetséges SAS HBA az LSI SAS 3008 lapkakészleten, például az Intel® RAID vezérlő RS3WC080. Ehhez a SAS HBA különleges "IR" -Troachot hoz létre. Ezenkívül ez a SAS HBA támogatja a SAS 3.0 szabványt (12 GB / s), körülbelül 300 dollárért áron. A kiváló választás itt az Intel® RAID vezérlő RS3WC080, amely haladéktalanul a szükséges firmware-vel.
Ennek a megoldásnak az a lényege, hogy a kiszolgáló SSD-nek nincs szüksége írási gyorsítótárra. Ráadásul a fejlettebb RAID-vezérlők is letiltják a beépített felvételi gyorsítótárat az SSD-vel való együttműködés során. Így a SAS HBA gyorsítótárral nem rendelkezik a RAID vezérlő módban, akkor a sebesség belépő és olvasási feladatokkal közvetlenül az SSD-vel való sikeressége, amely eléggé tisztességes teljesítményt nyújt.

4. Nagy betöltött szerverek nagyszámú SSD SAS vagy SATA tárcsával, kívánatos az Intel® RAID vezérlő RS3MC044 vagy Adaptec RAID 8805 teljes körű RAID vezérlőjének telepítése. Termelékenyebb I / O processzorok és fejlett algoritmusuk van hDD lemezek És az SSD, beleértve, hogy lehetővé tegye a tömbszerelvény felgyorsítását a lemez cseréje után.

Adat tárolóeszközök (SSD) és HDD.).
de) Megbízhatóság SSD. és HDD. .
Jellemzően az elméleti megbízhatóságát lemezek becslések szerint a „Nem helyreállítható olvasási hibák Per Bit Read” paraméter, ami lehet fordítani, mint „a valószínűsége, hogy egy kiegyensúlyozatlan olvasási hiba a bitek száma olvasni”. Azt mutatja, miután elolvasta, hogy mi az adatmennyiség a lemezről, a statisztikák szerint, meg kell várnia a kiegyensúlyozatlan hiba megjelenését.
Egy másik fontos paraméter mutatja a lemez meghibásodásának esélyét - AFR (éves kudarc sebessége) vagy az "éves kudarc intenzitása".
Az alábbi táblázat mutatja a SATA Enterprise HDD 7200 PRM (SATA RAID EDITION), a SAS HDD Vállalat 15 000 PRM, SATA SSD vállalkozását.

Paraméter

Lemeztípus

Vállalat SATA \\ SAS NL 7200 PRM

Vállalat SAS 15 000 PRM
(10 000 prm)

Vállalat SATA SSD.

A nem-fordulatszám-olvasási hibák olvasása

A nem állami hiba olvasásának hangereje statisztikailag várható.

Tab. 2 - HDD és SSD elméleti megbízhatósága

Annak a valószínűsége, a megjelenése aszimmetrikus hibák az Enterprise SATA SSD osztály Intel® SSD DC S3510 Series 10-szer alacsonyabb, mint a SAS HDD Vállalat 15.000 PRM, és 100-szor kisebb, mint a SATA HDD Enterprise 7200 PRM. Így az SSD vállalati osztály elméletileg és megbízhatóbb, mint bármely merevlemez.

b) A következő becslése teljesítmény SSD. és HDD. .
Az adatbázis szempontjából, amely valójában 1c, csak három lemezparaméter a legfontosabb:
- A késleltetés (késleltetés) vagy a lemez válaszideje mért mikroszekundumokban (kevésbé jobb) mérhető;
- az olvasási műveletek száma másodpercenként (lemezes olvasmány / sec) az IOPS-ben (több - jobb);
- Az IOPS-ben mért második (lemez írások / sec) rögzítési műveletek száma.
Ezeket a három paramétert egy táblázatba csökkentjük:

Paraméter

Lemeztípus

Vállalat SATA / SAS NL 7200 PRM

Vállalat SAS 15 000 PRM
(10 000 prm)

Vállalat SATA SSD.

Vállalat NVME SSD.

Latencia (Lemez válaszidő az olvasásra / írásra), mikroszekundum

Lemez olvasmány / sec (másodpercenkénti olvasási műveletek száma), IOPS

Lemez írja / sec (másodpercenkénti rekordok száma), iops

Tab. 3 - HDD és SSD teljesítmény.

Mennyire észrevehetően az asztalról, az NVME SSD (az Intel® SSD DC P3600 sorozat példájáról) késleltetés Superior Enterprise SAS HDD 100-szorés a az I / O műveletek száma másodpercenként 200-szor rekordon és befelé 1500-szor Olvasásra.
Ésszerű a HDD technológiai adatbázisok használata?

ban ben) A szerver napi átírásának mennyisége SSD. .
Amellett, hogy mindenféle "zsemle" az űrlapon szuperkondenzátor Abban az esetben, letiltása teljesítmény és a hardveres titkosítás modulok, szerver SSD van a legfontosabb paraméter - a becsült összege felülírása naponta a teljes kapacitása SSD merevlemez. Ha beszélünk szerver SSD Intel - akkor azt jelenti, napi átírta a kötet 5 évig, ami benne van garanciális kötelezettségek. Ez a paraméter lehetővé teszi, hogy az SSD-t "főként az olvasásra", a "Record-orientált és olvasás" és a "nagy felülírási terhelésekre" kiszámítjuk. Táblázatos formában úgy néz ki, mint ez:

Intel SSD lemez

Felülírja a napot (a tartályból)

4. lap - SSD felülírja a térfogat naponta.

Ennek megfelelően helyesen kiválaszthatja a felszolgáló feladatának lemezeit.
Például az OS és az SQL napló tárolása elég elég Intel SSD S3510.
A DB és a TEMPDB tárolására az Intel SSD S3610 vagy az Intel SSD S3710 alkalmasabb.

Példák a design lemez alrendszerekre.
Fegyveres a fentiekkel, gyűjtsük össze több lemez alrendszert különböző követelmények mellett.
a) Szerver 45 felhasználó számára, DB - 15 GB, Évi növekedés - 4 GB, TEMPDB - 0,5 GB, SQL LOG - 2 GB.
Gazdaságilag indokolt, hogy két Intel SSD S3510 240 GB-os meghajtók RAID1-et hozzon létre az OS és az SQL napló igényeihez és a két Intel SSD S3510 120 GB-os Raid1 igényeihez a DB és a TEMPDB igényeihez. A "fedélzeti" Intel® Rapid RAID vezérlőnek alkalmas.
b) 100 felhasználó, DB - 55 GB szerver, az év növekedése - 15 GB, TEMPDB - 4 GB, SQL LOG - 8 GB.
Ilyen szerver esetében a RAID1-et két Intel SSD S3510 240 GB meghajtó kínálja az OS és az SQL napló igényeihez és a két Intel SSD S3610 GB meghajtók RAID1 igényeihez a DB és a TEMPDB igényeihez. Mivel a RAID vezérlő optimális, az Intel® RAID vezérlő RS3WC080 (egyszerű hardver, gyorsítótár nélkül).
c) Szerver 200 felhasználó számára, DB - 360 GB, Évi növekedés - 70 GB, TEMPDB - 24 GB, SQL LOG - 17 GB.
Ez a szerver már meglehetősen betöltött. Az operációs rendszerhez továbbra is RAID1-et veszünk fel a két Intel SSD S3510 240 GB lemezen. Az SQL napló és a tempdb a két Intel SSD S3510 120 GB lemez kiválasztott RAID1-jére helyezhető el. És a db asztalok esetében gyűjtsük össze a RAID10-et négy Intel SSD S3610 400 GB lemezről. RAID vezérlőként helyénvaló az "Advanced" Intel® RAID vezérlő RS3MC044 használata.

Virtualizáció
A modern szerverek teljesítménye gyakran lehetővé teszi, hogy egy fizikai - számos virtuális. Javasoljuk, hogy emlékezzen arra, hogy a virtualizáció hogyan befolyásolja a kiszolgálóelemek mindegyikét.
A CPU és a RAM olyan webhelyek, amelyek a virtuális környezetben a legkisebb teljesítményvesztést viselik. Ennek megfelelően azok a programelemek, amelyek főleg - főként - fájdalmasan virtuális gépbe (VM) lehetnek. Ezek közé tartozik az "1C: Enterprise 8. Alkalmazási szerver x64", Szolgáltatás Távoli asztal. és IIS.
Az I / O alrendszerek észrevehetően nagy veszteségek, ha virtualizáció: 5-15% - hálózati interfész és legfeljebb 25% lemez alrendszer. Van egy SQL kiszolgálási szoftverkomponens, amely érzékeny a lemez alrendszer teljesítményére - nagyon logikus, hogy a "VM" -ben, de a fizikai "hardver".
Általában külön szerverekkel vagy 1c alatti szervercsoportokkal végezzük:
- Az "Iron" telepítés operációs rendszer és SQL Server telepítve van;
- A VM elindul "1c: Enterprise 8. Application Server X64" és ugyanabban a VM Licensing Serverben;
- Egy külön VM Service Távoli asztalon vagy IIS-ben.
Ha több szoftverösszetevőt használ egy kiszolgálón, incl. Különböző VM-ben a lemez alrendszer szintjén szükséges, hogy további helyet biztosítson azoknak. Rendszerint ezek a rendszerlemezek az operációs rendszerrel - 480 GB-os vagy annál nagyobbak.

biztonsági mentés
A meglehetősen elterjedt gyakorlat két merevlemez szerverének telepítése nagy kapacitás (4-8 TB) RAID1-ben az adatbázisok helyi példányainak tárolására, valamint a fájl tárolására. Ez a tároló nem számít fel nagy igényeket a véletlenszerű hozzáféréshez. És mind az olvasás, mind a rekordok lineáris sebessége elég elegendő ahhoz, hogy naponta megmentse biztonsági mentés és felhasználói fájlok. Olyan összegyűjthetsz, hogy bármely rendelkezésre álló RAID vezérlőn, és az Intel® Rapidban még mindig elegendő lesz a munkához.

És kérjük, ne felejtsük el, hogy külön szerverre van szükség a felelős feladatokhoz felesleges táplálkozás .