internetul Windows. Android

Reid mesajul. RAID GRATUIT: Tipuri și procesul de creare

Transferul Centrului de Gravitate cu procesor orientat pe aplicațiile orientate pe date determină o creștere a importanței sistemelor de stocare. Împreună cu această problemă scăzută lățime de bandă Și toleranța la defecțiuni caracteristică unor astfel de sisteme a fost întotdeauna destul de importantă și a necesitat întotdeauna decizia sa.

În industria de calculatoare modernă, discurile magnetice sunt utilizate în mod universal ca un sistem secundar de stocare, deoarece, în ciuda tuturor dezavantajelor sale, acestea au cele mai bune caracteristici pentru tipul adecvat de dispozitive la un preț accesibil.

Caracteristicile tehnologiilor de construcție a discurilor magnetice au condus la o inconsecvență semnificativă între creșterea performanței modulelor procesorului și a discurilor magnetice în sine. Dacă în 1990, cele mai bune dintre seriale au fost de 5,25 "discuri cu un timp de acces mediu 12 ms și un timp de întârziere de 5 ms (cu un timp de agrement de aproximativ 5.000 rpm 1), atunci astăzi palma campionatului aparține de 3,5" Un timp mediu de acces 5 MS și timpul de întârziere este de 1 ms (când revoluțiile axului sunt de 10.000 rpm). Aici vedem îmbunătățirea caracteristici tehnice Prin magnitudine aproximativ 100%. În același timp, viteza procesatorilor a crescut cu mai mult de 2.000%. Acest lucru a fost în mare parte posibil datorită faptului că procesatorii au avantaje directe de utilizare a VLSI (integrare ultra-hand). Utilizarea sa nu numai că face posibilă creșterea frecvenței, dar și numărul de componente care pot fi integrate în cip, ceea ce face posibilă implementarea avantajelor arhitecturale care permit calcule paralele.

1 - Datele medii.

Situația actuală poate fi descrisă ca o criză a sistemului de stocare secundar I / O.

Mărește viteza

Incapacitatea de a crește semnificativ parametrii tehnologici ai discurilor magnetice implică necesitatea de a căuta alte căi, dintre care una este procesarea paralelă.

Dacă aranjați un bloc de date pe discurile n a unor matrice și organizați această plasare, astfel încât să existe posibilitatea citirii simultană a informațiilor, atunci această unitate poate fi considerată mai rapidă (cu excepția timpului de formare a blocului). Deoarece toate datele sunt transmise în paralel, se numește această soluție arhitecturală array de acces paralel (matrice cu acces paralel).

Arrasele de acces paralele sunt utilizate în mod obișnuit pentru aplicațiile care necesită date de dimensiuni mari.

Unele sarcini, dimpotrivă, se caracterizează printr-un număr mare de cereri mici. Astfel de sarcini includ, de exemplu, sarcinile de procesare a bazelor de date. Având o înregistrare a bazei de date pe discurile matricei, puteți distribui descărcarea, poziționarea independentă a discurilor. Această arhitectură este numită obișnuită array independent de acces (O matrice cu acces independent).

Creșteți toleranța la defecțiuni

Din păcate, cu o creștere a numărului de discuri din matrice, fiabilitatea întregii matrice scade. Cu eșecuri independente și lege de distribuție a matricei exponențiale, matricea totală MTTF (timpul mediu de eșec - timpul mediu al funcționării fără probleme) este calculat de MTTF Array \u003d Formula HDD HDD / N HDD / N (MMTF HDD - timpul mediu al funcționării fără probleme a unui disc; NHDD - discuri de număr).

Astfel, este necesară creșterea toleranței de defecțiuni a matricei de discuri. Pentru a mări toleranța la defecțiuni a matricei, se utilizează codificarea excesivă. Există două tipuri principale de codare care sunt utilizate în excesul de discuri este duplicarea și paritatea.

Duplicarea sau oglindirea - cea mai frecvent utilizată în matricele de discuri. Sistemele simple de oglindă utilizează două exemplare ale datelor, fiecare copie este plasată pe discuri separate. Această schemă este destul de simplă și nu necesită costuri hardware suplimentare, dar are un dezavantaj semnificativ - utilizează 50% din spațiul pe disc pentru stocarea unei copii a informațiilor.

A doua metodă de implementare a unor matrice excesive este utilizarea de codare redundantă prin calcularea parității. Paritatea este calculată ca o operație XOR a tuturor caracterelor din datele cuvântului. Utilizarea parității în exces de discuri reduce costurile generale la valoarea calculată prin formula: HDD \u003d 1 / N HDD (HDD HDD - OVD HDD este numărul de discuri din matrice).

Istoria și raidul de dezvoltare

În ciuda faptului că sistemele de stocare a datelor bazate pe discuri magnetice sunt produse timp de 40 de ani, producția de sisteme de toleranță la defecțiuni a început destul de recent. Disclaimerii cu redundanța de date care se numește RAID (o serie redundantă de discuri ieftine - o serie excesivă de discuri ieftine) au fost reprezentate de cercetători (Peterson, Gibson și Katz) de la Universitatea din California din Berkeley în 1987. Dar sistemul raid răspândit a fost obținut numai atunci când discurile potrivite pentru utilizare în exces de matrice au devenit disponibile și destul de productive. De la prezentarea raportului oficial RAID în 1988, cercetarea în exces de discuri a început să crească rapid, în încercarea de a se asigura spectru larg Soluții de compromis - prețul productivității - fiabilitatea.

Cu raidul de abreviere la un moment dat a existat un caz. Faptul este că discurile ieftine în timpul scrisului articol au fost numite toate discurile care au fost folosite în PC, în discuri scumpe contragreutate pentru mainframe (computer universal). Dar pentru utilizarea în ariele RAID a trebuit să utilizeze echipamente destul de scumpe în comparație cu un set complet al PC-ului, astfel încât RAID a început să decripteze ca o gamă redundantă de discuri independente 2 - o gamă excesivă de discuri independente.

2 - Definiția consiliului consultativ RAID

RAID 0 a fost reprezentat de industrie ca definiție a unei matrice de discuri tolerante non-defecte. În Berkeley, RAID 1 a fost definit ca o matrice de discuri oglindă. RAID 2 este rezervat matricei care utilizează codul de chemare. RAID 3, 4, 5 nivele utilizează paritatea pentru a proteja datele de la defecțiuni unice. Aceste niveluri incluzând în conformitate cu al 5-lea au fost prezentate în Berkeley, iar acest raid sistematic a fost adoptat ca un standard de facto.

RAID 3,4,5 niveluri sunt destul de populare, au un bun coeficient de utilizare a spațiului pe disc, dar au un dezavantaj semnificativ - ele sunt stabile doar la defecțiuni unice. Acest lucru este valabil mai ales atunci când se utilizează un număr mare de discuri atunci când probabil că probabilitatea de inactiv simultan pentru mai multe dispozitive crește. În plus, ele se caracterizează printr-o restaurare lungă, care impune, de asemenea, unele restricții pentru utilizarea lor.

Până în prezent, au fost dezvoltate un număr suficient de mare de arhitecturi care să asigure performanța matricei, refuzând simultan orice două discuri fără a pierde date. Printre întregi seturi, este demn de remarcat paritate bidimensională (paritate cu două sponsibile) și uniformă, care utilizează paritatea pentru codare și RAID 6, care utilizează codificarea Reed-Solomon.

În diagrama utilizând paritatea cu două spațiale, fiecare bloc de date este implicat în construcția a două cuvinte de cod independente. Astfel, dacă al doilea disc este în afara ordinului în același cuvânt de cod, un alt cuvânt de cod este utilizat pentru a reconstrui datele.

Redundanța minimă într-o astfel de matrice este realizată cu un număr egal de coloane și linii. Și egală: 2 x pătrat (n disc) (în "pătrat").

Dacă gama de două spațiale nu este organizată în "Piața", atunci când implementarea schemei de mai sus, redundanța va fi mai mare.

Arhitectura uniformă are o paritate cu două spanning a schemei de toleranță a defecțiunilor, dar o altă plasare a blocurilor de informații, care garantează utilizarea minimă a containerelor. Ca și în paritatea celor două spațiale, fiecare bloc de date participă la construirea a două cuvinte de cod independente, dar cuvintele sunt plasate astfel încât coeficientul de redundanță să fie constant (spre deosebire de schema anterioară) și este: 2 x pătrat (N disc).

Folosind două caractere pentru verificarea, paritatea și codurile necorespunzătoare, cuvântul de date poate fi construit astfel încât să asigure toleranța la defecțiuni atunci când apare o defecțiune dublă. O astfel de schemă este cunoscută ca RAID 6. Un cod neîmplinit, construit pe baza codării Reed-Solomon, este calculat de obicei folosind tabele sau ca un proces iterativ care utilizează registre liniare cu feedback, și aceasta este o operație relativ complexă care necesită hardware specializat .

Având în vedere că utilizarea opțiunilor clasice de raid implementarea unei toleranțe suficiente de defecțiuni pentru multe aplicații au adesea o viteză redusă inacceptabilă, cercetătorii din când în când implementează diferite mișcări care ajută la creșterea vitezei sistemelor RAID.

În 1996, Savaven și Wilke le-au oferit frică - o gamă deosebită de redundantă de unități independente (o gamă deosebită de redundantă de discuri independente). Această arhitectură aduce într-o anumită măsură toleranța la defecțiuni față de victima vitezei. Efectuarea unei încercări de compensare a unei mici probleme de înregistrare (problemă cu scriere mică), caracteristică a matricelor RAID ale nivelului al 5-lea, este permisă să lase o lovitură fără a calcula paritatea pentru o anumită perioadă de timp. Dacă discul conceput pentru a înregistra paritatea este ocupat, atunci înregistrarea sa este amânată. Se dovedește teoretic că o scădere de 25% a toleranței la defecțiuni poate crește viteza cu 97%. Frica de fapt modifică modelul de eșecuri ale matricelor rezistente la defecțiuni solide, deoarece cuvântul de cod care nu are o paritate actualizată, susceptibilă la eșecurile discului.

În loc să sacrificați toleranța la defecțiuni, puteți utiliza astfel de modalități tradiționale de a crește viteze precum caching-ul. Având în vedere faptul că traficul de disc are o natură pulsantă, puteți utiliza o memorie de memorie de rezervă pentru stocarea datelor în momentul în care discurile sunt ocupate. Și dacă memoria cache este efectuată sub formă de memorie non-volatilă, atunci, în cazul unei dispariții de energie, datele vor fi salvate. În plus, operațiile în așteptare a discului fac posibilă combinarea blocurilor mici în ordine aleatorie pentru a efectua operațiuni de disc mai eficiente.

Există, de asemenea, multe arhitecturi care, sacrificând volumul, crește viteza. Printre acestea se numără o modificare amânată pe discul de jurnal și o varietate de scheme de modificare a plasării datelor logice în fizice, care vă permit să distribuiți operațiunile în matricea mai eficient.

Una dintre opțiuni - logarea parității. (Înregistrarea parității), care implică o soluție la o problemă mică de înregistrare (problema cu scriere mică) și utilizarea mai eficientă a discurilor. Înregistrarea parității implică o modificare a cantității în RAID 5, înregistrând-o în jurnalul FIFO (logizer de tip FIFO), care este parțial în memoria controlerului și parțial pe disc. Având în vedere faptul că accesul la calea completă este de 10 ori mai eficient decât accesul la sector, cantitățile mari de date de paritate modificată sunt colectate folosind paritatea, care sunt apoi scrise pe un disc pentru a depozita paritatea pe parcursul piesei.

Arhitectură date plutitoare și paritate (Date plutitoare și paritate), care permite redistribuirea plasării fizice a blocurilor de discuri. Sectoarele libere sunt plasate pe fiecare cilindru pentru a reduce lenjerie de rotație (întârzierile de rotație), datele și paritatea sunt plasate pe aceste locuri libere. Pentru a se asigura că puterea este dispărută, paritatea și cartea de date trebuie menținute în memorie non-volatilă. Dacă pierdeți harta de plasare, toate datele din matrice vor fi pierdute.

Virtual Stripping. - este o arhitectură plutitoare de date și paritate utilizând memoria cache a scrisului. Implementarea naturală laturi pozitive ambii.

În plus, există și alte modalități de creștere a vitezei, cum ar fi distribuția operațiunilor RAID. La un moment dat, Seagate a construit suport pentru operațiunile RAID în discurile lor cu interfața fibră de fibră și SCSI. Ceea ce a făcut posibilă reducerea traficului între controlerul central și discurile din raid 5. A fost o inovație cardinală în domeniul implementărilor RAID, însă tehnologia nu a primit niciun vouchere, deoarece unele caracteristici ale standardelor fibrei Chanel și SCSI slăbiți modelul de eșec pentru rețele de discuri.

Pentru același raid 5, a fost prezentată arhitectura TickerTip. Se pare că acest lucru - mecanismul central de control al nodului de origine (inițierea nodului) primește solicitări de utilizator, selectează algoritmul de procesare și apoi transmite lucrările cu discul și paritatea nodului lucrătorului (unitatea de lucru). Fiecare nod de lucru procesează un subset al discurilor din matrice. Ca și în modelul Seagate, componentele de lucru transmit date unul de celălalt fără participarea nodului inițiator. În cazul unei defecțiuni desktop, discurile pe care le-a servit devine inaccesibil. Dar dacă cuvântul de cod este construit astfel încât fiecare simbol să fie procesat printr-un nod de lucru separat, atunci schema de rezistență repetă RAID 5. Pentru a preveni eșecurile nodului inițiatorului, este duplicat, așa că avem o arhitectură care este stabilă să nu reușească . Cu toate caracteristicile sale pozitive, această arhitectură suferă de problema "erorilor de scriere" ("; scrie gaura"). Ce implică o eroare în timp ce schimbarea simultană a cuvântului de cod de mai mulți utilizatori și un eșec nod.

De asemenea, este necesar să menționăm o modalitate destul de populară de a restabili rapid raidul - utilizarea discul liber. (DE REZERVĂ). Dacă unul dintre discurile matricei este refuzat, raidul poate fi restabilit folosind un disc liber în locul eșuatei. Principala caracteristică a unei astfel de implementări este că sistemul intră în statul său anterior (starea tolerantă a defecțiunilor fără intervenție externă). Atunci când utilizați o arhitectură gratuită de distribuție a discului (dirijare distribuită), blocurile logice ale discului de rezervă sunt distribuite fizic peste toate discurile matricei, eliminând necesitatea de a restructura matricea în timpul eșecului discului.

Pentru a evita problema recuperării, caracteristice nivelurilor clasice RAID, se folosește și arhitectura, ceea ce se numește paritatea decltinging (Distribuția parității). Aceasta implică plasarea unui număr mai mic de discuri logice cu un volum mare de discuri fizice mai mici, dar mai mult. Când se utilizează această tehnologie, timpul de răspuns al sistemului la cererea în timpul reconstrucției este îmbunătățit mai mult decât dublat, iar timpul de reconstrucție este semnificativ redus.

Arhitectura principalelor niveluri de raid

Acum, să ne uităm la arhitectura de bază (nivele de bază) raid mai detaliat. Înainte de a lua în considerare unele ipoteze. Pentru a demonstra principiile construirii sistemelor RAID, considerăm un set de discuri n (pentru a simplifica n, vom lua în considerare un număr par), fiecare constă din blocuri M.

Datele vor fi notate by-d m, n, unde m este numărul de blocuri de date, n este numărul de sub-blocuri la care blocul de date este împărțit.

Discurile pot conecta atât la unul cât și la mai multe canale de transmisie de date. Utilizarea canalelor mai mari crește sistemul lățimii de bandă.

RAID 0. Array de disc fără failover (matrice disc cu dungi fără toleranță la defecțiune)

Este o matrice de disc în care datele sunt împărțite în blocuri și fiecare bloc este înregistrat (sau citit) pe un disc separat. Astfel, puteți implementa mai multe operații I / O în același timp.

Beneficii:

  • cea mai mare performanță pentru aplicațiile care necesită o prelucrare intensivă a interogărilor I / O și a datelor mari de date;
  • simplitate;
  • cost redus pe un volum unitar.

dezavantaje:

  • nu o soluție tolerantă la defecțiune;
  • eșecul unui disc implică pierderea tuturor acestor matrice.

RAID 1. Matrice de disc cu duplicare sau oglindă (oglindă)

Oglindirea este o modalitate tradițională de a crește fiabilitatea unei matrice de discuri de volum mic. În cea mai simplă versiune, două discuri sunt utilizate pentru a înregistra aceleași informații și, în caz de refuz al uneia dintre ele, rămășițele sale duble, care continuă să funcționeze în același mod.

Beneficii:

  • simplitate;
  • ușor de restabilit matricea în caz de eșec (copiere);
  • viteză destul de mare pentru aplicații cu o intensitate mare de interogare.

dezavantaje:

  • costul ridicat pe unitate volum - 100% redundanță;
  • rata de transfer redus de date.

RAID 2. Matricul de discuri tolerant de eșec utilizând codul de hemming (codul Hamming ECC).

Codificarea excesivă, care este utilizată în RAID 2, se numește codul de filmare. Codul de chemare vă permite să corectați singuri și să detectați disfuncționalități duale. Astăzi este utilizat în mod activ în tehnologia de codificare a datelor în ECC RAM. Și codificarea datelor privind discurile magnetice.

În acest caz, este arătat un exemplu cu o cantitate fixă \u200b\u200bde discuri datorate sumei descrierii descrierii (cuvântul de date constă din 4 biți, respectiv codul ECC din 3).

Beneficii:

  • corectarea rapidă a erorilor ("în zbor");
  • viteza foarte mare de transfer de date a volumelor mari;
  • cu creșterea numărului de discuri, costurile generale sunt reduse;
  • implementare destul de simplă.

dezavantaje:

  • cost ridicat cu o cantitate mică de discuri;
  • viteză scăzută de procesare a interogării (nu este adecvată pentru sistemele orientate spre tranzacții).

RAID 3. Gama de fabrică cu transfer paralel și paritate (discuri de transfer paralel cu paritate)

Datele sunt împărțite în sublini la nivelul octetului și sunt înregistrate simultan pe toate roțile matricei pe lângă unul care este utilizat pentru paritate. Utilizarea RAID 3 rezolvă o problemă mare de redundanță în RAID 2. Sunt necesare cele mai multe discuri de control utilizate în nivelul raidului 2 pentru a determina poziția unei descărcări defecte. Dar acest lucru nu este necesar, deoarece majoritatea controlorilor pot determina când discul a refuzat folosind semnale speciale sau codificarea suplimentară a informațiilor înregistrate pe disc și utilizate pentru a corecta eșecurile aleatoare.

Beneficii:

  • rata de transfer de date foarte mare;
  • defecțiunea discului afectează puțin viteza matricei;

dezavantaje:

  • implementarea ușoară;
  • performanță scăzută, cu o intensitate mare de cantități mici de date.

RAID 4. Gama de toleranță la eșec de discuri independente cu disc divizat de paritate (discuri independente de date cu discul partid partajat)

Datele sunt împărțite la nivelul blocului. Fiecare bloc de date este scris pe un disc separat și poate fi citit separat. Paritatea grupului Block este generată la înregistrare și este verificată la citire. RAID Nivelul 4 mărește performanța unor cantități mici de date prin paralelism, permițându-vă să efectuați mai mult de o intrare / ieșire pentru simultan. Principala diferență dintre RAID 3 și 4 este că, în acesta din urmă, separarea datelor se efectuează la nivelul sectoarelor și nu la nivelul biților sau octeților.

Beneficii:

  • viteza foarte mare de citire a datelor mari;
  • performanță ridicată, cu o intensitate mare de cititoare de date;
  • mici cheltuieli pentru exerciții excesive.

dezavantaje:

  • performanță foarte scăzută la scrierea datelor;
  • viteza redusă a datelor de citire Volumul mic cu cereri unice;
  • performanță asimetrică în raport cu citirea și scrierea.

RAID 5. Gama de abordare a discurilor independente cu paritate distribuită (discuri independente de date cu blocuri de paritate distribuite)

Acest nivel este similar cu RAID 4, dar spre deosebire de paritatea anterioară este distribuită ciclic prin toate discurile matricei. Această modificare vă permite să creșteți performanța înregistrării unor cantități mici de date în sistemele multitasking. Dacă operațiunile de înregistrare sunt planificate corespunzător, acesta poate fi paralel pentru a gestiona blocurile N / 2, unde n este numărul de discuri din grup.

Beneficii:

  • viteză mare de înregistrare a datelor;
  • viteza de citire a datelor suficiente;
  • performanță ridicată, cu o intensitate mare de solicitări de citire / scriere;
  • mici cheltuieli pentru exerciții excesive.

dezavantaje:

  • viteza de citire a datelor este mai mică decât în \u200b\u200bRAID 4;
  • date reduse de citire / scriere pentru datele de volum mic sub cereri unice;
  • implementare destul de complicată;
  • recuperarea complexă a datelor.

RAID 6. Gama de toleranță la eșec de discuri independente cu două scheme independente de paritate distribuite (discuri independente de date cu două scheme de paritate distribuite independente)

Datele sunt împărțite la nivelul blocului, similar cu RAID 5, dar în plus față de arhitectura anterioară, cea de-a doua schemă este utilizată pentru a crește toleranța la defecțiuni. Această arhitectură este rezistentă la eșecuri duble. Cu toate acestea, atunci când executați o înregistrare logică, se întâmplă șase apeluri la disc, ceea ce mărește considerabil timpul de procesare a unei cereri.

Beneficii:

  • toleranță ridicată a defecțiunilor;
  • viteza de procesare suficient de mare a vitezei;
  • relativ mici deasupra capului pentru excesul de redundanță.

dezavantaje:

  • implementare foarte complicată;
  • recuperarea complexă a datelor;
  • viteză de înregistrare a datelor foarte scăzute.

Controlerele moderne RAID permit combinarea diferitelor niveluri RAID. Astfel, puteți implementa sisteme care combină demnitatea diferitelor nivele, precum și sistemele cu un număr mare de discuri. Aceasta este, de obicei, o combinație nulă (stripare) și orice nivel de toleranță la defecțiune.

RAID 10. Gama de toleranță la eșec cu duplicare și procesare paralelă

Această arhitectură este o gamă de raid de tip 0, ale cărui segmente sunt rețele RAID 1. Combină toleranța și performanța foarte mare a defecțiunilor.

Beneficii:

  • toleranță ridicată a defecțiunilor;
  • performanta ridicata.

dezavantaje:

  • cost foarte ridicat;
  • scalarea limitată.

RAID 30. Gama de toleranță la eșec cu transmisie paralelă de date și performanță sporită.

Este o serie de raid de tip 0, ale căror segmente sunt RAID 3. Arrays, combină toleranța la defecțiuni și performanțele ridicate. De obicei, utilizat pentru aplicații care necesită transfer succesiv de date de volume mari.

Beneficii:

  • toleranță ridicată a defecțiunilor;
  • performanta ridicata.

dezavantaje:

  • preț mare;
  • scalarea limitată.

RAID 50. Matricea tolerantă a eșecului cu paritate distribuită și performanțe ridicate

Este o matrice de tip RAID 0, ale căror segmente sunt matricele RAID 5. Combină toleranța la defecțiuni și performanțele ridicate pentru aplicații cu o intensitate mare de interogare și o rată ridicată de transfer de date.

Beneficii:

  • toleranță ridicată a defecțiunilor;
  • rata de transfer de date ridicată;
  • prelucrare de mare viteză.

dezavantaje:

  • preț mare;
  • scalarea limitată.

RAID 7. Programul de toleranță la eșec optimizat pentru a crește productivitatea. Asincronă optimizată pentru ratele ridicate I / O, precum și ratele ridicate de transfer de date). RAID 7® este o companie de stocare a mărcii înregistrate (SCC)

Pentru a înțelege arhitectura RAID 7, ia în considerare caracteristicile IT:

  1. Toate cererile de transmisie de date sunt procesate asincron și independent.
  2. Toate operațiile de citire / scriere sunt stocate în cache printr-un autobuz de mare viteză X-Bus.
  3. Discul de paritate poate fi plasat pe orice canal.
  4. În microprocesorul controlerului de matrice, sistemul de operare în timp real este utilizat pentru procesarea proceselor.
  5. Sistemul are o scalabilitate bună: până la 12 interfețe gazdă și până la 48 de discuri.
  6. Sistemul de operare controlează canalele de comunicare.
  7. Sunt utilizate discuri SCSI standard, anvelope, plăci de bază și module de memorie.
  8. A utilizat autobuzul de mare viteză X pentru a lucra cu memorie internă cache.
  9. Procedura de generare a parității este integrată în memoria cache.
  10. Discurile atașate la sistem pot fi declarate ca în valoare separat.
  11. Puteți utiliza agentul SNMP pentru a gestiona și monitoriza sistemul.

Beneficii:

  • rata de transfer de date ridicată și viteza de procesare de mare viteză (1,5 - 6 ori mai mare decât alte niveluri standard RAID);
  • scalabilitatea ridicată a interfețelor gazdă;
  • viteza de înregistrare a datelor crește cu o creștere a numărului de discuri din matrice;
  • pentru a calcula paritatea, nu este nevoie de transmitere suplimentară de date.

dezavantaje:

  • proprietatea unui producător;
  • cost foarte mare pe un volum de unitate;
  • perioada de garanție scurtă;
  • nu pot fi servite de către utilizator;
  • trebuie să utilizați o sursă de alimentare neîntreruptă pentru a preveni pierderea datelor din memorie.

Luați în considerare nivelurile standard împreună pentru a compara caracteristicile acestora. Comparația se face în arhitecturile menționate în tabel.

RAIDMinim
Disc
Nevoie
în discuri
Refuz
durabilitate
Viteză
Transmisia de date
Intensitate
Prelucrare
Cereri
Practic
folosind.
0 2 N. foarte inalt
la n x 1 disc
Grafică, Video.
1 2 2n * R\u003e 1 disc
W \u003d 1 disc
până la 2 x 1 disc
W \u003d 1 disc
servere mici de fișiere
2 7 2N. ~ RAID 3.Scăzutmainframe.
3 3 N + 1. ScăzutGrafică, Video.
4 3 N + 1. R W.R \u003d raid 0
W.
servere de fișiere
5 3 N + 1. R W.R \u003d raid 0
W.
servere de baze de date
6 4 N + 2.cel mai inaltscăzutR\u003e 1 disc
W.
folosit extrem de rar
7 12 N + 1. cel mai inaltcel mai inaltdiferite tipuri de aplicații

Creare:

  • * - se ia în considerare opțiunea de obicei utilizată;
  • k - numărul de subscrieri;
  • R - lectură;
  • W - Înregistrare.

Unele aspecte ale implementării sistemelor RAID

Luați în considerare trei opțiuni principale pentru implementarea sistemelor RAID:

  • software (bazat pe software);
  • hardware - bazate pe autobuz;
  • hardware - subsistem autonom (subsistem-bază).

Este imposibil să spunem fără ambiguitate că orice realizare este mai bună decât cealaltă. Fiecare versiune a organizării matricei satisface nevoile utilizatorului în funcție de capacitățile financiare, numărul de utilizatori și aplicații utilizate.

Fiecare dintre implementările de mai sus se bazează pe executarea codului programului. Ele diferă de fapt în cazul în care acest cod este executat: în procesorul central al computerului (implementarea software-ului) sau într-un procesor specializat Controlerul raid (Implementarea hardware).

Principalul avantaj al implementării software-ului este un cost redus. Dar are multe dezavantaje: performanță scăzută, încărcarea de muncă suplimentară a procesorului central, creșterea traficului de anvelope. Programat implementează nivelurile raid simple - 0 și 1, deoarece nu necesită calcule semnificative. Având în vedere aceste caracteristici, sistemele RAID cu implementare software sunt utilizate în serverele de intrare-nivel.

Implementările Hardware RAID sunt mai mult decât software, deoarece utilizează echipamente suplimentare pentru a efectua o operațiune de intrare de ieșire. În același timp, descarcă sau scutesc procesorul central și magistrala de sistem și, în consecință, vă permit să creșteți viteza.

Implementările orientate spre autobuz sunt controlorii RAID care utilizează autobuzul de mare viteză al computerului în care sunt instalate (de obicei, autobuzul PCI). La rândul său, implementările orientate spre anvelope pot fi împărțite în nivel scăzut și la nivel înalt. Primul, de obicei, nu au chipsuri SCSI și folosește așa-numitul portul RAID de pe placa de bază cu un controler SCSI încorporat. În acest caz, funcțiile de procesare a codului RAID și a operațiunilor I / O sunt distribuite între procesor pe controlerul RAID și chips-urile SCSI de pe placa de bază. Astfel, procesorul central este eliberat din procesare cod suplimentar. Și traficul de anvelope scade comparativ cu opțiunea programului. Costul acestor panouri este de obicei mic, mai ales dacă se concentrează pe sistemele RAID - 0 sau 1 (există și implementări ale RAID 3, 5, 10, 30, 50, dar sunt mai scumpe), datorită faptului că acestea Împingeți implementările software de pe piața serverelor inițiale. Controlerele de implementare a anvelopei la nivel înalt au o structură oarecum diferită de frații lor mai tineri. Ele presupun toate funcțiile asociate introducerii / ieșirii și executării codului RAID. În plus, acestea nu sunt la fel de dependente de implementarea plăcii de bază și, de regulă, au mai multe caracteristici (de exemplu, capacitatea de a conecta un modul pentru stocarea informațiilor în memoria cache în cazul unei plăci de bază sau a dispariției energiei). Astfel de controlori sunt de obicei mai scumpi decât nivel scăzut și sunt utilizați în servere de nivel mediu și înalt. Ele, de regulă, implementarea nivelurilor RAID de 0,1, 3, 5, 10, 30, 50. Având în vedere că implementările orientate spre autobuz sunt conectate direct la magistrala Inner PCI computer, acestea sunt cele mai productive dintre sistemele luate în considerare (când organizarea acelorași sisteme gazdă). Viteza maxima Astfel de sisteme pot ajunge la 132 MB / s (32bit PCI) sau 264 MB / S (PCI 64bit) cu o frecvență de anvelope 33MHz.

Împreună cu avantajele menționate mai sus, arhitectura orientată spre anvelope are următoarele dezavantaje:

  • dependența de sistemul de operare și de platformă;
  • scalabilitate limitată;
  • capacități limitate asupra organizării sistemelor de toleranță la defecțiuni.

Toate aceste dezavantaje pot fi evitate folosind subsisteme autonome. Aceste sisteme au o organizație externă complet autonomă și, în principiu, sunt un computer separat care este utilizat pentru organizarea sistemelor de stocare a informațiilor. În plus, în cazul dezvoltării cu succes a tehnologiei canalului de fibră optică, viteza sistemelor autonome nu va da naștere la sistemele orientate spre anvelope.

De obicei, un controler extern este plasat într-un raft separat și, spre deosebire de sistemele cu o organizație de autobuz, poate avea un număr mare de canale I / O, inclusiv canale gazdă, ceea ce face posibilă conectarea mai multor computere gazdă la sistem și să organizați cluster sisteme. În sistemele cu un controler autonom, puteți implementa controlori de backup cald.

Unul dintre dezavantajele sistemelor autonome rămâne valoarea lor mare.

Având în vedere cele de mai sus, observăm că controlorii autonomi sunt utilizați în mod obișnuit pentru a implementa depozite de date de ultimă generație și sisteme de cluster.

Mulți utilizatori au auzit de un astfel de concept ca rețele de discuri RAID, dar în practică puțini oameni își imaginează ceea ce este. Dar, după cum se dovedește, nimic complicat aici. Vom analiza esența acestui termen, numită, pe degete, pe baza explicației informațiilor pentru omul obișnuit obișnuit.

Ce sunt matricele de disc RAID?

În primul rând, luați în considerare interpretarea generală care este oferită de publicațiile pe Internet. Sistemele de discuri de disc sunt sisteme de stocare a informațiilor care constau dintr-un pachet de două și mai multe hard disk care servesc fie pentru a crește viteza de acces la informațiile stocate, fie pentru a le duplica, de exemplu, atunci când salvează copii de rezervă.

Într-un astfel de pachet, numărul hard disk-urilor în ceea ce privește instalarea restricțiilor teoretice nu are restricții. Totul depinde doar de câte conexiuni acceptă plăci de bază. De fapt, de ce se folosesc matricele de disc RAID? Merită acordată atenție faptului că, în direcția dezvoltării tehnologiei (relativ la hard disk), acestea au fost înghețate de mult timp la un moment dat (viteza de rotație a axului 7200 rpm, dimensiunea cache-ului etc. ). Excepția în această privință este doar modelele SSD, dar ele produc în principal doar o creștere a volumului. În același timp, în producția de procesoare sau curse de memorie RAM, progresul mai multă încurcătură. Astfel, datorită utilizării marmărilor de raid, se efectuează o creștere a creșterii productivității la accesarea hard disk-urilor.

RAID Disk Machines: Specii, Scop

În ceea ce privește matricele în sine, ele pot fi împărțite în numerotarea utilizată (0, 1, 2 etc.). Fiecare astfel de număr corespunde executării uneia dintre funcțiile declarate.

Principalul în această clasificare sunt matricele de disc cu numerele 0 și 1 (în continuare va fi clar de ce), deoarece este exact pe ele principalele sarcini.

La crearea de matrice cu mai multe hard disk, utilizați inițial setările BIOS, unde valoarea RAID este setată la secțiunea de configurare SATA. Este important să rețineți că discurile conectate trebuie să aibă parametri absolut identici în ceea ce privește volumul, interfața, conexiunea, memoria cache etc.

RAID 0 (stripare)

Rețele de discuri zero sunt destinate în mod esențial să accelereze accesul la informațiile stocate (înregistrare sau citire). Ei, de regulă, pot avea într-un pachet de la două la patru hard diskuri.

Dar apoi cea mai importantă problemă este că atunci când eliminați informații despre unul dintre discuri, acesta dispare pe alții. Informațiile sunt înregistrate sub formă de blocuri alternativ pe fiecare disc, iar o creștere a productivității este direct proporțională cu numărul de hard disk (adică patru discuri sunt de două ori mai rapid în două). Dar pierderea informațiilor este asociată numai cu faptul că blocurile pot fi amplasate pe diferite discuri, deși utilizatorul din același "conductor" vede fișierele în afișaj normal.

RAID 1.

Rețele de discuri cu o singură denumire se referă la descărcarea imaginii oglinzii (oglindă) și să servească pentru a salva datele prin duplicare.

Aproximativ, cu această stare de lucruri, utilizatorul este oarecum pierde în performanță, dar poate fi foarte sigur că atunci când datele dispare dintr-o secțiune, acestea vor fi stocate în cealaltă.

Raid 2 și mai mare

Măsurile cu numere 2 și mai sus au un scop dublu. Pe de o parte, ele sunt concepute pentru a înregistra informații, pe de altă parte, sunt utilizate pentru corectarea erorilor.

Cu alte cuvinte, rețele de discuri de acest tip combină capacitățile RAID 0 și RAID 1, dar ele nu utilizează mult popular printre computer, deși munca lor se bazează pe utilizarea

Ce este mai bine să utilizați în practică?

Desigur, dacă computerul se presupune că utilizați programe intensive de resurse, cum ar fi jocurile moderne, este mai bine să utilizați RAID 0 arrays. În cazul muncii cu informații importante care trebuie păstrate în orice mod, va trebui să vă întoarceți La rețelele RAID 1. Datorită faptului că ligamentele cu numere de la acolo nu au fost niciodată două și mai mari decât cele populare, utilizarea lor este determinată exclusiv de dorința utilizatorului. Apropo, utilizarea unor matrice zero este practică și dacă utilizatorul descarcă adesea fișierele multimedia, spun, filme sau muzică cu o rată de biți ridicată pentru formatul MP3 sau în standardul Flac.

Restul va trebui să se bazeze pe propriile dvs. preferințe și nevoi. Din aceasta va depinde de utilizarea uneia sau a unei alte matrice. Și, desigur, la instalarea unui pachet, este mai bine să dați preferință discurile SSDÎn comparație cu hard disk-urile convenționale, acestea au deja înregistrări mai mari în viteza înregistrării și citirii. Dar ele trebuie să fie absolut aceleași în caracteristicile și parametrii lor, altfel combinația conectată pur și simplu nu va funcționa. Și tocmai aceasta este una dintre cele mai importante condiții. Deci, trebuie să acordați atenție acestui aspect.

Bună ziua tuturor cititorilor site-ului! Prieteni, am vrut mult timp să vorbesc despre cum să creez o matrice pe un computer RAID (o serie excesivă de discuri independente). În ciuda complexității aparente a problemei, de fapt, totul este foarte simplu și sunt sigur, mulți cititori imediat după citirea acestui articol vor fi puse în funcțiune și va fi fericit să utilizeze acest lucru foarte util, legat de securitatea tehnologiei datelor dvs. .

Cum se creează RAID ARRAY și de ce are nevoie

Nu este un secret faptul că informațiile noastre despre computer nu sunt practic asigurate și sunt situate pe un hard disk simplu, care are proprietatea de a se rupe la momentul cel mai inoportun. A fost recunoscut de mult ca fiind faptul că hDD. Cel mai slab și cel mai indestructibil loc din unitatea noastră de sistem, deoarece are părți mecanice. Acei utilizatori care au pierdut vreodată date importante (includ) din cauza eșecului "șurubului", capabili, pentru ceva timp, cum să evităm astfel de probleme în viitor și primul lucru care vine în minte este crearea unei matrice raid.

Întregul punct al unei game excesive de discuri independente este de a vă salva fișierele pe un hard disk în cazul defalcărilor complete ale acestui disc! Cum să faceți acest lucru, - întrebați, este foarte simplu, aveți nevoie doar de două (puteți chiar diferit în volum) de hard disk.

În articolul de astăzi, vom face cu ajutorul sistemului de operare Windows 8.1, vom crea cele mai ușoare și mai populare hard disk-uri. Raid 1 massival, se numește și "oglindirea" (oglindire). Semnificația "oglinzii" este că informațiile de pe ambele discuri sunt duplicate (scrise în paralel) și două hard disk sunt copii precise ale celuilalt.

Dacă ați copiat fișierul la primul hard disk, atunci al doilea apare exact același fișier și modul în care ați înțeles deja dacă un hard disk nu reușește, atunci toate datele dvs. vor rămâne întregi al doilea Winchester (oglindă). Probabilitatea de defalcare simultan a două hard disk sunt nesemnificative mici.

Singura matrice minus raid 1 este că aveți nevoie de două hard disk-uri și vor funcționa ca un singur, care este, dacă instalați două hard disk în unitatea de sistem din volumul de 500 GB, atunci același 500 va fi disponibil pentru Stocarea fișierelor. GB, nu 1TB.

Dacă un hard disk de două eșuează, îl luați și îl modificați prin adăugarea ca o oglindă la unitatea hard disk deja instalată cu date și asta este.

Personal, eu, de mai mulți ani, folosesc la locul de muncă Raid 1 o serie de unități de două hard disk de 1 tb și acum un an, a avut loc o neplăcere, un "greu" a ordonat o lungă perioadă de timp pentru a trăi, a trebuit să o înlocuiesc chiar acolo, apoi m-am gândit cu groază, așa că aș fi Nu au un raid masiv, un mic răcnet a alergat pe spate, deoarece datele acumulate de mai mulți ani de muncă ar fi dispăruți, așa că am înlocuit pur și simplu defectul "Terabyte" și am continuat să lucrez. Apropo, am, de asemenea, o mică matrice de raid de două hard disk de 500 GB.

Crearea de softwareRAID 1. masiv de două discuri rigide goale Windows 8.1

În primul rând, instalăm două hard disk pure în unitatea noastră de sistem. De exemplu, voi lua două discuri rigide de 250 GB.

Ce trebuie să faceți dacă dimensiunea hard disk-urilor este diferită sau pe un hard disk deja aveți deja informații, citiți în următorul articol.

Deschideți controlul unității

Disc 0. - unitatea SSD cu unitate solidă cu funcționare instalată sistemul Windows. 8.1 pe secțiune (c :).

Discul 1. și Disc 2. - Discuri dure cu un volum de 250 GB pe care colectăm matricea RAID 1.

Mouse-ul drept pe orice disc rigid și alegeți "Creați o oglindă Tom"

Adăugați un disc care va fi o oglindă pentru discul selectat anterior. Primul volum oglindă am ales discul 1, ceea ce înseamnă în partea stângă, selectați discul 2 și faceți clic pe butonul "Adăugați".

Alegem litera Software-ului raid 1 masiv, las scrisoarea (D :). Mai departe

Am sărbătorit Formatarea rapidă a casetei de selectare și faceți clic pe Următorul.

În controlul unității, volumele oglinzii sunt desemnate în roșu-roșu și au o singură literă a discului, în cazul nostru (D :). Copiați toate fișierele pe orice disc și acestea vor apărea imediat pe un alt disc.

În fereastra "Acest computer", software RAID 1 O matrice este afișată ca un disc.

Dacă una dintre cele două hard disk nu reușește, matricea de raid va fi marcată în controlul discului, dar pe cel de-al doilea disc rigid toate datele vor fi în conservare.

Solicitați proiectarea

Descriere Arrays RAID ()

Descriere RAID 0.


Disk Array. productivitate crescuta fără toleranță la defecțiune
Array de disc cu dungi fără toleranță la defecțiune

Array Raid 0 Cel mai productiv și cel puțin protejat de toate raidurile. Datele sunt împărțite în blocuri proporționale cu numărul de discuri, ceea ce duce la o lățime de bandă mai mare. Performanța ridicată a acestei structuri este asigurată de o înregistrare paralelă și de absența suprapunerii. Eșecul oricărui disc din matrice duce la pierderea tuturor datelor. Acest nivel se numește stripare.

Beneficii:
- · cea mai mare performanță pentru aplicațiile care necesită o prelucrare intensă a interogărilor I / O și a datelor mari de date;
- · Ușor de implementat;
- · Cost redus pe unitate volum.
Dezavantaje:
- nu o soluție tolerantă la erori;
- · Eșecul unui disc implică pierderea tuturor datelor matricei.

Descriere RAID 1.


Discuri cu duplicare sau oglindă
Duplexing & Mirroring.
RAID 1 - Oglindirea - reflectarea oglinzii a două discuri. Redundanța structurii acestei matrice asigură toleranța ridicată a defecțiunilor. Matricea se caracterizează printr-un cost ridicat și performanță scăzută.

Beneficii:
- · Ușor de implementat;
- · Ușor de restabilit matricea în caz de eșec (copiere);
- · Viteză destul de mare pentru aplicații cu o intensitate mare de interogare.
Dezavantaje:
- · Cost ridicat pe unitate volum - 100% redundanță;
- · Rata de transfer redus de date.

Descriere RAID 2.


Failover Disk Array folosind codul de hemming
Codul Hamming ECC.
RAID 2 - Utilizează codurile de corecție a erorilor de chimme (Codul Hamming ECC). Codurile vă permit să corectați single și să detectați disfuncționalități duale.

Beneficii:
- corectarea rapidă a erorilor ("pe zbor");
- · Viteza foarte mare a transferului de date a volumelor mari;
- · Cu o creștere a numărului de discuri, cheltuielile generale sunt reduse;
- · Implementare destul de simplă.
Dezavantaje:
- · Cost ridicat cu o cantitate mică de discuri;
- Viteză de procesare cu viteză redusă (nu este adecvată pentru sistemele orientate spre tranzacții).

Descriere RAID 3.


Fabrică de fabrică cu transmisie și paritate paralelă
Discuri de transfer paralel cu paritate

RAID 3 - Datele sunt stocate pe principiul dezbrării la nivelul octeților cu controlul (COP) pe unul dintre discuri. Matricea nu are o problemă de redundanță ca în cel de-al doilea nivel de nivel. Discurile de control utilizate în RAID 2 sunt necesare pentru a determina încărcarea eronată. Cu toate acestea, majoritatea controalelor moderne sunt capabile să determine când discul a refuzat folosind semnale speciale sau codificarea suplimentară a informațiilor înregistrate pe disc și utilizate pentru a corecta eșecurile aleatoare.

Beneficii:
- · Rata de transfer de date foarte mare;
- · Defecțiunea discului afectează viteza matricei;
- · Over capabilă pentru vânzarea de redundanță.
Dezavantaje:
- · Implementarea ușoară;
- Performanță scăzută, cu o intensitate mare de solicitări de date cu volum redus.

Toate plăcile de bază moderne sunt echipate cu un controler RAID integrat, iar modelele de top au chiar mai multe controlere RAID integrate. În ceea ce privește controlorile integrate RAID, sunt solicitate de utilizatorii de acasă - o întrebare separată. În orice caz, placa de bază modernă oferă utilizatorului posibilitatea de a crea o matrice de raid de la mai multe discuri. Cu toate acestea, nu fiecare utilizator de acasă știe cum să creeze o matrice de raid, care nivelul matricei de a alege și într-adevăr nu își imaginează beneficiile și contra utilizării marmărilor RAID.
În acest articol, vom oferi recomandări scurte privind crearea de matrice RAID la PC-ul de acasă și pe un exemplu specific va demonstra modul în care puteți testa independent productivitatea matricei RAID.

Istoria creației

Pentru prima dată, termenul "RAID-MASSIF" a apărut în 1987, când cercetătorii americani Patterson, Gibson și Katz de la Universitatea din California Berkeley în articolul lor "Gama excesivă de discuri ieftine" ("un caz pentru rețelele redundante de discuri ieftine, raid ") A descris ceea ce puteți combina mai multe hard disk-uri ieftine într-un singur dispozitiv logic, astfel încât rezultatul capacității și vitezei sistemului crește, iar eșecul discurilor individuale nu a condus la eșecul întregului sistem.

Deoarece eliberarea acestui articol a trecut mai mult de 20 de ani, însă tehnologia de construcție a matricelor RAID nu și-a pierdut relevanța astăzi. Singurul lucru care sa schimbat de atunci este o decodare a abrevierii raidului. Faptul este că marginea inițială a raidului au fost construite deloc pe discuri ieftine, astfel încât cuvântul ieftin (ieftin) a fost schimbat la independent (independent), care corespundea realității.

Principiul de funcționare

Deci, RAID este o gamă excesivă de discuri independente (redundante de discuri independente), care este atribuită pentru a asigura toleranța la erori și îmbunătățirea performanței. Eșecul de toleranță se realizează din cauza redundanței. Adică, o parte a capacității discului este alocată scopurilor de serviciu, devenind inaccesibile utilizatorului.

Îmbunătățirea performanței subsistemului de disc este asigurată de funcționarea simultană a mai multor discuri și, în acest sens, cu atât mai multe acționări în matrice (până la o anumită limită), cu atât mai bine.

Funcționarea în comun a discurilor din matrice poate fi organizată utilizând accesul paralel sau independent. Cu accesul paralel, spațiul pe disc este împărțit în blocuri (benzi) pentru a înregistra date. În mod similar, informațiile care trebuie înregistrate pe disc sunt împărțite în aceleași blocuri. La înregistrare, blocurile individuale sunt înregistrate pe diferite discuri, iar înregistrarea mai multor blocuri pe diferite discuri are loc simultan, ceea ce duce la o creștere a performanței în operațiunile de înregistrare. Informațiile necesare sunt, de asemenea, citite de blocuri separate simultan cu mai multe discuri, care contribuie, de asemenea, la creșterea performanței proporțional cu numărul de discuri din matrice.

Trebuie remarcat faptul că modelul cu acces paralel este implementat numai cu condiția ca mărimea solicitării de înregistrare a datelor să fie mai mare decât dimensiunea blocului în sine. În caz contrar, este aproape imposibil să se efectueze o înregistrare paralelă a mai multor blocuri. Imaginați-vă situația în care dimensiunea blocului individual este de 8 kB, iar dimensiunea solicitării de înregistrare a datelor este de 64 KB. În acest caz, informațiile inițiale sunt tăiate la opt blocuri de câte 8 kb fiecare. Dacă există o serie de patru discuri, atunci puteți să ardeți simultan patru blocuri sau 32 KB, la un moment dat. Evident, în exemplul considerat, viteza de înregistrare și viteza de citire vor fi de patru ori mai mare decât atunci când se utilizează un singur disc. Acest lucru este valabil numai pentru situația ideală, totuși dimensiunea interogării nu este întotdeauna dornică în dimensiunea blocului și numărul de discuri din matrice.

Dacă dimensiunea datelor înregistrate este mai mică decât dimensiunea blocului, atunci este implementat un model fundamental diferit - acces independent. Mai mult, acest model poate fi utilizat în cazul în care dimensiunea datelor înregistrate este mai mare decât dimensiunea unui bloc. Cu acces independent, toate datele solicitării individuale sunt înregistrate pe un disc separat, adică situația este identică cu funcționarea cu un disc. Avantajul unui model cu acces independent este că, în timp ce intrăm în mai multe solicitări de înregistrare (citiți), acestea vor fi efectuate pe discuri separate independent unul de celălalt. Această situație este tipică, de exemplu, pentru servere.

În conformitate cu diferite tipuri de acces, există diferite tipuri de matrice RAID, care sunt acceptate pentru a caracteriza nivelurile RAID. În plus față de tipul de acces, nivelurile RAID diferă în metoda de plasare și formare a informațiilor redundante. Informațiile excesive pot fi plasate fie pe un disc special dedicat, fie distribuite între toate discurile. Există destul de multe modalități de a forma aceste informații. Cei mai simpli dintre ei este o duplicare completă (100% redundanță) sau oglindire. În plus, sunt utilizate coduri cu corectarea erorilor, precum și calcularea parității.

RAID Niveluri de matrice

În prezent, există mai multe niveluri RAID care pot fi considerate standardizate - este raid 0, raid 1, raid 2, raid 3, raid 4, raid 5 și raid 6.

Sunt utilizate și diferite combinații de niveluri RAID, ceea ce vă permite să combinați avantajele lor. Aceasta este de obicei o combinație a oricărui nivel de toleranță la defecțiune și nivel zero utilizat pentru creșterea productivității (RAID 1 + 0, RAID 0 + 1, RAID 50).

Rețineți că toate controlerele moderne RAID suportă funcția JBOD (doar o bancă de discuri), care nu este destinată să creeze matrice, oferă capacitatea de a se conecta la controlerul raid al discurilor individuale.

Trebuie remarcat faptul că controlorii RAID integrați pe plăcile de bază pentru PC-urile de acasă nu sunt susținute de toate nivelurile RAID. Controlerele RAID cu două porturi suportă numai nivelurile 0 și 1 și controlerele RAID cu un număr mare de porturi (de exemplu, un controler RAID cu 6 port integrate în podul sudic al chipsetului ICH9R / ICH10R) - și nivelurile 10 și 5.

În plus, dacă vorbim despre plăci de bază de pe chipset-urile Intel, atunci este implementat și funcția Intel Matrix RAID, ceea ce vă permite să creați o matrice de raid de nivel multiplu pe mai multe unități de hard disk, evidențiind o parte a spațiului pe disc pentru fiecare dintre ele.

RAID 0.

Nivelul raid 0, strict vorbind, nu este o matrice excesivă și, în consecință, nu asigură fiabilitatea stocării datelor. Cu toate acestea, acest nivel este aplicat în mod activ în cazurile în care este necesar să se asigure performanța ridicată a subsistemului de disc. Când creați o gamă de raid de nivel 0, informațiile sunt împărțite în blocuri (uneori aceste blocuri sunt numite bare (bandă)), care sunt scrise pe discuri individuale, adică un sistem cu acces paralel (cu excepția cazului în care, desigur, permite acest lucru dimensiunea blocului). Datorită posibilității I / O simultană cu discuri multiple, RAID 0 asigură o viteză maximă de transfer de date și o eficiență maximă a spațiului pe disc, deoarece nu este necesar un loc pentru stocarea de verificări. Implementarea acestui nivel este foarte simplă. Practic, RAID 0 este utilizat în zonele în care este necesară o transmisie rapidă a unei cantități mari de date.

RAID 1 (Discul Oglindit)

RAID Nivelul 1 este o serie de două discuri cu redundanță de 100%. Aceasta este, datele în același timp sunt pur și simplu complet duplicate (oglinzi), datorită cărora se obține un nivel foarte ridicat de fiabilitate (precum și costuri). Rețineți că, pentru a implementa nivelul 1, nu este necesar să se prepară discurile și datele despre blocuri. În cea mai simplă caz, două discuri conțin aceleași informații și sunt un disc logic. La defectarea unui disc, funcția sa efectuează un alt (care este absolut transparentă pentru utilizator). Recuperarea matricei este efectuată de copierea simplă. În plus, acest nivel dublează viteza de citire a informațiilor, deoarece această operație poate fi efectuată simultan din două discuri. O astfel de schemă de stocare este utilizată în principal în cazurile în care costul securității datelor este mult mai mare decât costul implementării sistemului de stocare.

RAID 5.

RAID 5 este o matrice de discuri tolerante la defecțiuni cu stocare distribuită a sumelor de verificare. La înregistrare, fluxul de date este împărțit în blocuri (rigidizări) la nivelul octetului și înregistrat simultan pe toate discurile matricei din ordinea ciclică.

Să presupunem că array conține n. discuri și plinătate d.. Pentru fiecare porțiune de la n-1. Curele calculate de control p..

Capturat d 1. înregistrate pe primul disc, plin d 2. - pe al doilea și așa mai departe până la plin d n-1care este scrisă pe ( n.-1) -Th disc. Mai departe de n.- Verificați discurile de discuri p n.și procesul este repetat ciclic de la primul disc la care este plin d N..

Procesul de înregistrare (N-1) Curelele și controalele lor sunt efectuate simultan tuturor n. discuri.

Pentru a calcula controlul, utilizați "Excluderea sau" (XOR), aplicată blocurilor de date înregistrate. Deci, dacă există n. hard disk-uri d. - bloc de date (bandă), apoi suma de control este calculată prin următoarea formulă:

p n \u003d d 1 d 2. ... d 1-1.

În cazul eșecului oricărui disc, datele de pe acesta pot fi restaurate în funcție de datele de control și în funcție de datele rămase pe unități bune.

Ca o ilustrare, considerăm blochează dimensiunea a patru biți. Fie că există doar cinci discuri pentru stocarea datelor și înregistrarea de verificări. Dacă există o secvență de biți 1101 0011 1100 1011, spart în patru biți blocuri, apoi pentru a calcula controlul, trebuie să efectuați următoarea funcționare bitwise:

1101 0011 1100 1011 = 1001.

Astfel, controlul înregistrat pe cel de-al cincilea disc este de 1001.

Dacă unul dintre discuri, de exemplu, al patrulea, a eșuat, atunci blocul d 4. \u003d 1100 va fi inaccesibil la citire. Cu toate acestea, valoarea sa este ușor de restabilit suma de control Și prin valorile celorlalte blocuri cu ajutorul tuturor aceleiași operațiuni "cu excepția sau":

d 4 \u003d D 1 d 2.d 4.p 5.

În exemplul nostru, obținem:

d 4 \u003d (1101) (0011) (1100) (1011) = 1001.

În cazul RAID 5, toate discurile matricei au aceeași dimensiune, cu toate acestea, capacitatea totală a subsistemului discului, accesibilă înregistrării, devine mai mică de un disc. De exemplu, dacă cinci discuri au o dimensiune de 100 GB, dimensiunea reală a matricei este de 400 GB, deoarece 100 GB este returnată la informațiile de control.

RAID 5 poate fi construit pe trei și mai multe hard diskuri. Cu o creștere a numărului de hard disk-uri în matrice, redundanța sa scade.

RAID 5 are o arhitectură independentă de acces, care oferă posibilitatea de a efectua simultan multiple operațiuni de citire sau înregistrare.

RAID 10.

Nivelul RAID 10 este o anumită combinație de niveluri 0 și 1. Minimul pentru acest nivel necesită patru discuri. În raidul 10 masiv al celor patru discuri, ele sunt combinate perechi în matricele de nivel 0 și ambele matrice ca discuri logice Combinat într-o gamă de nivel 1. Este posibilă o altă abordare: discurile inițial sunt combinate în matricele de nivel 1 și apoi discurile logice pe baza acestor matrice - într-o gamă de nivel 0.

Intel matrix raid.

Reglementările raid considerate ale nivelurilor 5 și 1 sunt rareori utilizate la domiciliu, care se datorează în primul rând costului ridicat al acestor soluții. Cel mai adesea pentru PC-urile interne, este o serie de nivel 0 pe două discuri. Așa cum am observat deja, nivelurile RAID 0 nu oferă stocarea datelor și, prin urmare, utilizatorii finali se confruntă cu o alegere: Creați o fiabilitate rapidă, dar fără a oferi o fiabilitate de stocare a datelor RAID de nivel 0 sau, creșterea costului spațiului de disc dublat, - RAID O serie de nivel 1, care asigură fiabilitatea stocării datelor, dar nu permite obținerea unui câștig semnificativ în performanță.

Pentru a rezolva această problemă dificilă, Intel a dezvoltat tehnologia Intel Matrix Storage care vă permite să combinați avantajele matricei de niveluri 0 și 1 în doar două discuri fizice. Și pentru a sublinia că în acest caz nu este vorba doar de matricea raidului, ci despre o matrice care combină și discuri fizice și logice, în titlul de tehnologie, în loc de cuvântul "matrice", cuvântul "matrice" este folosit.

Deci, care este matricea raidului a două discuri care utilizează stocarea Intel Matrix? Ideea principală este că dacă există mai multe hard disk-uri și plăci de bază cu un chipset Intel care acceptă stocarea Intel Matrix, este posibil să se împartă spațiul pe disc în mai multe părți, fiecare dintre acestea va funcționa ca o matrice de raid separată.

Luați în considerare un exemplu simplu de matrice raid de două discuri de 120 GB fiecare. Orice discuri pot fi împărțite în două discuri logice, de exemplu, 40 și 80 GB. Mai mult, două discuri logice de aceeași dimensiune (de exemplu, 40 GB) pot fi combinate într-o matrice raid de nivel 1 și discurile logice rămase din matricea RAID a nivelului 0.

În principiu, folosind două discuri fizice, puteți crea și una sau două matrice raid de nivel 0, dar este imposibil să obțineți doar matricele de nivel 1. Aceasta este, dacă există doar două discuri în sistem, tehnologia Intel Matrix Storage vă permite să creați următoarele tipuri de matrice RAID:

  • o matrice de nivel 0;
  • două matrice de nivel 0;
  • nivelul 0 matrice și matricea de nivel 1.

Dacă în sistem sunt instalate trei discuri dure, atunci este posibil să se creeze următoarele tipuri de matrice RAID:

  • o matrice de nivel 0;
  • o matrice de nivel 5;
  • două matrice de nivel 0;
  • două matrice de nivel 5;
  • nivelul 0 matrice și matricea de nivel 5.

Dacă în sistem sunt instalate patru hard disk-uri, atunci este posibil să se creeze o matrice raid de nivel 10, precum și o combinație de nivel 10 și nivelul 0 sau 5.

De la teorie la practică

Ei au mâncat să vorbească despre computerele de acasă, cele mai populare și mai populare rețele de raid ale nivelurilor 0 și 1. Utilizarea matricei de raid de la trei sau mai multe discuri din PC-ul de acasă este mai degrabă o excepție de la regulă. Acest lucru se datorează faptului că, pe de o parte, costul matricelor RAID crește proporțional cu numărul de discuri implicate în el și pe celălalt - pentru computerele de acasă, capacitatea matricei de discuri și nu performanța sa și fiabilitatea, are o prioritate.

Prin urmare, în viitor, considerăm rețelele de raid ale nivelurilor 0 și 1 bazate pe doar două discuri. Sarcina studiului nostru va include o comparație a performanței și funcționalității matricei de raid ale nivelurilor 0 și 1, create pe baza mai multor controlori ai RAID integrați, precum și studiul dependenței caracteristicilor de viteză ale matricei raidului dimensiunea dreaptă.

Faptul este că, deși teoretic, atunci când se utilizează gama de raid de nivel 0, viteza de citire și înregistrare ar trebui să fie de două ori, în practică, creșterea caracteristicilor de viteză este mult mai puțin modestă și pentru diferiți controlori raidului este diferit. În mod similar, pentru gama de raid de nivel 1: În ciuda faptului că teoretic, viteza de citire ar trebui să fie dublată, în practică nu este atât de netedă.

Pentru testarea noastră comparativă a controlorilor RAID, am folosit placa de bază Gigabyte GA-EX58A-UD7. Această placă se bazează pe chipset-ul Intel X58 Express cu podul sudic ICH10R cu un controler RAID integrat pe șase porturi SATA II, care suportă organizarea rețelelor de raid ale nivelurilor 0, 1, 10 și 5 cu funcția RAID RAID Intel Matrix. În plus, placa Gigabyte GA-EX58A-UD7 este integrată de controlerul GIGABYTE SATA2 RAID, pe baza căruia sunt implementate două porturi SATA II cu posibilitatea de a organiza matrice de raid de niveluri 0, 1 și JBOD.

De asemenea, pe placa GA-EX58A-UD7, controlerul SATA III Marvell 9128 este integrat, pe baza căruia sunt implementate două porturi SATA III cu posibilitatea organizării nivelurilor de matrice de raid 0, 1 și JBOD.

Astfel, pe placa GIGABYTE GA-EX58A-UD7 sunt trei controlori de raid separați, pe baza căreia puteți crea matrice de raid de niveluri 0 și 1 și le puteți compara unul cu celălalt. Reamintim că standardul SATA III este compatibil cu standardul SATA II, prin urmare, pe baza controlerului Marvell 9128, care suportă discurile cu sATA interfață III, puteți crea, de asemenea, matrice de raid utilizând discurile de interfață SATA II.

Standul de testare a avut următoarea configurație:

  • procesor - Ediția Extreme Intel Core i7-965;
  • plăci de bază - Gigabyte GA-EX58A-UD7;
  • versiunea BIOS - F2A;
  • hard Drive - două disc digital WD1002FBYS, un digital WD3200aaks unitate;
  • controlere RAID integrat:
  • Ich10r,
  • Gigabyte SATA2,
  • Marvell 9128;
  • memorie - DDR3-1066;
  • suma memoriei - 3 GB (trei module de 1024 MB);
  • modul de memorie - DDR3-1333, modul de funcționare cu trei canale;
  • placă video - Gigabyte GeForce GTS295;
  • alimentare - Tagan 1300W.

Testarea a fost efectuată în cadrul sistemului de operare Ultimate Microsoft Windows 7 (32 de biți). Sistemul de operare a fost instalat pe discul digital WD3200aaks, care a fost conectat la portul Controler Sata II integrat în Podul de Sud ICH10R. Matricea RAID a fost asamblată pe două discuri WD1002FBYS cu interfața SATA II.

Pentru a măsura caracteristicile de viteză ale matricelor RAID create, am folosit utilitarul Iometru, care este un standard sectorial pentru măsurarea performanței sistemelor de discuri.

Utilitate ometru.

Deoarece am conceput acest articol ca un tip de manual de utilizare pentru crearea și testarea marmelor RAID, va fi logică să începeți cu descrierea utilității Iometru (contor de intrare / ieșire), pe care am observat-o deja este un fel de standard de industrie pentru măsurarea performanței sistemelor de discuri. Acest utilitar este gratuit și poate fi descărcat de la resursa http://www.iometru.org.

Utilitarul Iometru este un test sintetic și vă permite să lucrați cu discuri rigide nedorite pe partiții logice, astfel încât să puteți testa discurile indiferent de structura fișierului și să reducă efectul sistemului de operare.

La testarea este posibilă crearea unui model de acces specific sau "model", care vă permite să specificați execuția hard disk Operațiuni specifice. În cazul creării unui model de acces specific, este permisă modificarea următorilor parametri:

  • dimensiunea cererii de transmisie a datelor;
  • distribuție aleatorie / secvențială (în%);
  • distribuirea operațiunilor de citire / scriere (în%);
  • numărul operațiunilor individuale de I / O care funcționează în paralel.

Utilitarul Iometru nu necesită instalare la computer și constă din două părți: filometrul real și dinamo.

Iometru este o parte de control a programului cu o interfață grafică a utilizatorului care vă permite să produceți toate setările necesare. Dynamo este un generator de sarcină care nu are o interfață. De fiecare dată când porniți fișierul Iomter.exe, generatorul de încărcare dinamo.exe este pornit automat.

Pentru a începe să lucrați cu programul Iometru, este suficient să rulați fișierul Iometer.exe. Aceasta deschide fereastra principală a programului Iometru (figura 1).

Smochin. 1. Fereastra principală a programului Iometru

Trebuie remarcat faptul că utilitarul Iometru permite testarea nu numai a sistemelor locale de disc (DAS), ci și unități de rețea (NAS). De exemplu, poate fi folosit pentru a testa performanța subsistemului de disc al serverului (server de fișiere) utilizând mai mulți clienți de rețea pentru acest lucru. Prin urmare, o parte din marcajele și instrumentele din fereastra Utility Iometer se referă la setările de rețea ale programului. Este clar că atunci când testați discuri și matrice de raid, aceste caracteristici ale programului nu vor fi necesare și, prin urmare, nu vom explica numirea tuturor filelor și instrumentelor.

Deci, atunci când porniți programul IOMTER din partea stângă a ferestrei principale (în fereastra de topologie), va fi afișată structura arborelui tuturor generatoarelor de încărcare care rulează (dinamo instanțe). Fiecare instanță de funcționare a generatorului de încărcare dinamică se numește manager. În plus, programul Iometru este un multi-fir și fiecare run-up individual al instanței generatorului de sarcină dinamo a generatorului de sarcină este numit lucrător. Numărul de lucrători care rulează întotdeauna corespunde numărului de nuclee de procesor logic.

În exemplul nostru, se utilizează doar un singur computer cu procesor quad-core, care suportă tehnologia Hyper-Fileting, astfel că sunt lansate doar un singur manager (o copie a Dynamo) și opt (după numărul de nuclee de procesor logic).

De fapt, pentru testarea discurilor din această fereastră, nu este nevoie să modificați sau să adăugați nimic.

Dacă selectați numele computerului în structura copac a instanțelor dinamice care rulează în copac, apoi în fereastră Ţintă. Pe tab-ul Obiectivul de disc. Sunt afișate toate discurile, garniturile de discuri și alte unități (inclusiv rețeaua) instalate pe computer. Acestea sunt unitățile cu care programul de iometru poate funcționa. Mass-media poate fi marcată cu galben sau albastru. Culoare galbenă marcată secțiuni logice ale transportatorilor și dispozitivelor fizice albastre fără partiții logice create pe ele. Partiția logică poate fi traversată sau nu încrucișată. Faptul este că pentru funcționarea programului cu o partiție logică, trebuie să fie pregătită înainte, creând un fișier special pe acesta egal cu dimensiunea capacității întregii partiții logice. Dacă partiția logică este încrucișată, aceasta înseamnă că secțiunea nu este încă pregătită pentru testare (va fi preparată automat în prima etapă de testare), dar dacă secțiunea nu trece, acest lucru înseamnă că fișierul a fost deja creat Pe secțiunea logică, complet pregătită pentru testare.

Rețineți că, în ciuda capacității susținute de a lucra cu partiții logice, nu este testat în mod optim că discurile nu sunt rupte în partiții logice. Ștergerea secțiunii logice a discului poate fi foarte simplă - prin Snap Gestionarea discurilor. Pentru a accesa, este suficient să faceți clic dreapta pe pictograma Calculator pe desktop și în meniul care se deschide Administra.. În fereastra care se deschide Managementul calculatorului. În partea stângă este necesar să alegeți elementul Depozitare, și în ea - Gestionarea discurilor. După aceea, în partea dreaptă a ferestrei Managementul calculatorului. Toate discurile conectate vor fi afișate. Faceți clic dreapta pe discul dorit și selectați elementul din meniul deschis Ștergeți volumul...., puteți șterge partiția logică de pe discul fizic. Amintiți-vă că atunci când ștergeți partiția logică de pe disc, toate informațiile despre acesta sunt șterse fără posibilitatea de recuperare.

În general, numai discurile curate sau rețele de disc pot fi testate utilizând utilitarul IOMTER. Adică, este imposibil să se testeze discul sau seama de disc pe care este instalat sistemul de operare.

Deci, înapoi la descrierea utilității de la Iometru. La fereastră Ţintă. Pe tab-ul Obiectivul de disc. Trebuie să selectați acel disc (sau array de disc), care va fi supus testelor. Apoi, trebuie să deschideți fila Specificații de acces.(Fig.2) pe care puteți defini scriptul de testare.

Smochin. 2. Accesați specificațiile Fila Utilități Iometru

La fereastră Specificațiile globale de acces Există o listă a scripturilor de testare prestabilită care pot fi atribuite managerului de încărcare. Cu toate acestea, aceste scenarii nu vor fi necesare, astfel încât toate acestea pot fi evidențiate și eliminate (este prevăzut un buton pentru acest lucru Șterge.). După aceea, faceți clic pe buton NouPentru a crea un nou script de testare. În fereastra care se deschide Editați specificațiile de acces Puteți defini un script de boot disc sau o matrice de raid.

Să presupunem că vrem să aflăm dependența vitezei coerentului (liniar) Citire și scriere pe mărimea blocului de solicitare a datelor. Pentru a face acest lucru, trebuie să formăm o secvență de scenarii de încărcare în modul de citire secvențială cu diferite dimensiuni de bloc și apoi o secvență de scripturi de descărcare într-un mod de înregistrare secvențială cu diferite dimensiuni ale blocurilor. În mod tipic, dimensiunea blocurilor este selectată ca o serie, fiecare membru al cărei membru este de două ori mai mare decât cel precedent, iar primul mandat al acestei serii este de 512 octeți. Aceasta este, dimensiunea blocurilor alcătuiesc următorul rând: 512 octeți, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 kB, 1 MB. Făcând dimensiunea blocului este mai mare de 1 MB cu operații consecutive, nu există niciun sens, deoarece cu astfel de dimensiuni mari de blocuri de date, viteza operațiilor consecutive nu se schimbă.

Deci, voi forma un script de descărcare într-un mod de citire secvențială pentru un bloc de 512 octeți.

În câmpul Nume. fereastră Editați specificațiile de acces Introduceți numele scriptului de descărcare. De exemplu, secvențial_read_512. Următorul în câmp Dimensiunea cererii de transfer. Setați dimensiunea blocului de date 512 octeți. Slider. Procentul de distribuție aleatorie / secvențială (Raportul procentual dintre operațiile secvențiale și selective) Schimbarea până când se oprește spre stânga, astfel încât toate operațiunile noastre să fie doar consecvente. Ei bine, glisorul Definirea raportului procentual între operațiile de citire și scriere, schimbarea până când se oprește spre dreapta, astfel încât toate operațiunile noastre să fie citite numai. Parametrii rămași din fereastră Editați specificațiile de acces Nu trebuie să schimbați (Fig.3).

Smochin. 3. Editați fereastra de specificare a accesului pentru a crea un script de descărcare secvențială
Cu dimensiunea blocului de date 512 octeți

Faceți clic pe buton O.K., iar primul script pe care l-am creat va apărea în fereastră Specificațiile globale de acces Pe tab-ul Specificații de acces. Utilități de tip Iometru.

În mod similar, trebuie să creați scripturi pentru alte blocuri de date, totuși, pentru a facilita munca, este mai ușor să creați din nou un script de fiecare dată făcând clic pentru acest buton Nou, dar prin selectarea ultimului script creat, faceți clic pe butonul Editați copia. (Editați o copie). După aceea, fereastra se deschide din nou. Editați specificațiile de acces Cu setările ultimului nostru scenariu creat. Se va schimba doar numele și dimensiunea blocului. După efectuarea unei proceduri similare pentru toate celelalte dimensiuni ale blocului, puteți trece la formarea de scenarii pentru o intrare consistentă, care se face complet similar, cu excepția faptului că glisorul Procentul de distribuție Citire / scriereRaportul procentual dintre operațiunile de citire și scriere trebuie mutat în stânga.

În mod similar, puteți crea scripturi pentru înregistrarea și citirea selectivă.

După ce toate scenariile sunt gata, acestea trebuie să fie atribuite managerului de descărcare, adică specificați ce scenarii vor funcționa Dinam..

Pentru aceasta, verificați din nou că în fereastră TOPOLOGIE. Numele calculatorului este evidențiat (adică managerul de încărcare pe PC-ul local) și nu un lucrător separat. Acest lucru asigură că scenariile de încărcare vor fi atribuite tuturor lucrătorilor deodată. Următorul în fereastră Specificațiile globale de acces Alocăm toate scenariile de încărcare create de noi și apăsați butonul. Adăuga.. Toate scenariile de încărcare dedicate vor fi adăugate la fereastră. (Figura 4).

Smochin. 4. Atribuirea încărcării managerului de scenarii de încărcare create

După aceea, trebuie să mergeți la fila Configurarea testului. (Figura 5), \u200b\u200bunde puteți seta ora de execuție a fiecărui script pe care l-am creat. Pentru a face acest lucru în grup Timp de alergare. Setați scenariul de execuție a timpului. Va fi suficient pentru a seta timpul egal cu 3 minute.

Smochin. 5. Setarea scenariului de timp Executie

În plus, în domeniu Descriere Test. Trebuie să specificați numele întregului test. În principiu, această filă are multe alte setări, dar nu sunt necesare pentru sarcinile noastre.

După efectuarea tuturor setărilor necesare, se recomandă salvarea testului creat făcând clic pe bara de instrumente de pe butonul cu imaginea unei dischete. Testul este salvat cu extensia * .icf. Ulterior, va fi posibilă utilizarea scenariului de încărcare creat, rularea fișierului Iomter.exe și fișierul salvat cu extensia * .icf.

Acum puteți trece direct la testarea făcând clic pe butonul cu imaginea casetei de selectare. Vi se va cere să specificați numele fișierului cu rezultatele testelor și să selectați locația sa. Rezultatele testului sunt salvate într-un fișier CSV, care este apoi ușor de exportat în Excel și prin instalarea filtrului în prima coloană, selectați datele dorite cu rezultatele testului.

În timpul testării, rezultatele intermediare pot fi observate în fila. Rezultatul afișajului.și determinați la ce scenariul de sarcină se referă, puteți în fila Specificații de acces.. La fereastră Specificația de acces atribuită Scriptul executabil este afișat în scenarii verzi, executate - roșu și nu a fost încă executat scenarii - în albastru.

Deci, am revizuit tehnicile de bază pentru lucrul cu utilitarul IOMTER, care va fi necesar pentru a testa discurile individuale sau matricele de raid. Rețineți că nu le-am spus despre toate posibilitățile utilității Iometru, dar descrierea tuturor capacităților sale depășește domeniul de aplicare al acestui articol.

Crearea unei matrice de raid bazate pe controlerul Gigabyte SATA2

Deci, începem să creăm o matrice de raid bazată pe două discuri folosind controlerul Gigabyte Sata2 Raid. Desigur, Gigabyte însăși nu produce chips-uri și, prin urmare, sub chip, Gigabyte Sata2 ascunde un cip smoldat al unei alte companii. După cum puteți afla din fișierul de șofer Inf, vorbim despre controlerul seriei Jmicron JMB36X Series.

Accesul la meniul Configurare a controlerului este posibil la etapa de încărcare a sistemului, pentru care trebuie să apăsați pe ecranul CTRL + G când apare inscripția corespunzătoare pe ecran. În mod natural, înainte de setările BIOS, este necesar să se determine modul de funcționare a două porturi SATA legate de controlerul Gigabyte SATA2, cum ar fi RAID (altfel, accesul la meniul de configurator RAID ARRAY va fi imposibil).

Meniul de configurare a controlerului Gigabyte Sata2 RAID este destul de simplu. Așa cum am observat deja, controlerul este un port doi și vă permite să creați matrice RAID de nivel 0 sau 1. Puteți șterge sau crea o matrice de raid prin meniul Configurare controler. Când creați o matrice de raid, aveți posibilitatea de a specifica numele său, selectați un nivel de matrice (0 sau 1), setați dimensiunea dreaptă pentru RAID 0 (128, 84, 32, 16, 8 sau 4K), de asemenea determinând dimensiunea matricei.

Dacă se creează matricea, atunci orice schimbări în acesta nu mai sunt posibile. Adică, este imposibil să schimbați matricea creată pentru matricea creată, de exemplu, nivelul sau dimensiunea completă. Pentru a face acest lucru, trebuie să eliminați o matrice (cu o pierdere de date) și apoi să o creați din nou. De fapt, aceasta este caracteristică nu numai de controlerul Gigabyte Sata2. Incapacitatea de a schimba parametrii creați de matricele RAID este o caracteristică a tuturor controlorilor, care rezultă din principiul implementării matricei RAID.

După matrice pe baza controlerului Gigabyte Sata2, informațiile curente despre acesta pot fi vizualizate utilizând utilitarul Gigabyte Raid Configurator, care este instalat automat împreună cu șoferul.

Crearea unei matrice de raid bazate pe controlerul Marvell 9128

Configurarea controlerului RAID Marvell 9128 este posibilă numai prin setările BIOS ale plăcii GIGABYTE GA-EX58A-UD7. În general, trebuie spus că meniul controlerului Marvell 9128 este oarecum umed și poate induce în eroare utilizatorii neexperimentați. Cu toate acestea, vom spune despre aceste defecte minore puțin mai târziu, în timp ce luăm în considerare funcționalitatea de bază a controlerului Marvell 9128.

Deci, în ciuda faptului că acest controler acceptă lucrul cu discuri cu interfața SATA III, este, de asemenea, pe deplin compatibilă cu discurile cu interfața SATA II.

Controlerul Marvell 9128 vă permite să creați o gamă de raid de niveluri 0 și 1 pe baza a două discuri. Pentru o serie de nivel 0, puteți seta dimensiunea bateriei de 32 sau 64 kB, precum și specificați numele matricei. În plus, există și o astfel de opțiune ca rotunjire gigabyte, care are nevoie de explicații. În ciuda numelui, consonant cu numele companiei producătorului, funcția de rotunjire a gigabyte nu are nimic de-a face cu ea. Mai mult decât atât, nu este conectat la nivelul de nivel 0 RAID, deși în setările controlerului se poate determina tocmai pentru matricea acestui nivel. De fapt, aceasta este prima dintre acele facilități ale configuratorului controlerului Marvell 9128, pe care l-am menționat. Caracteristica de rotunjire GIGABYTE este definită numai pentru gama de raid de nivel 1. Vă permite să utilizați pentru a crea un nivel de nivel 1 Două discuri (de exemplu, diverse producători sau modele diferite), a căror recipient este ușor diferit de altul . Funcția de rotunjire Gigabyte specifică doar diferența dintre dimensiunile a două discuri utilizate pentru a crea o gamă de raid de nivel 1. În controlerul Marvell 9128, caracteristica de rotunjire Gigabyte vă permite să setați diferența în dimensiunea discurilor 1 sau 10 GB .

Un alt defect de configurare a controlerului Marvell 9128 este că atunci când creați o gamă de raid de nivel 1, utilizatorul are capacitatea de a alege o dimensiune de plinătate (32 sau 64 kB). Cu toate acestea, conceptul de drept nu este determinat deloc pentru matricea de raid de nivel 1.

Crearea unei matrice de raid bazate pe controlerul integrat în ICH10R

Controlerul RAID integrat în Podul de Sud ICH10R este cel mai frecvent. După cum sa observat deja, acest controler RAID 6-portul și susține nu numai crearea de matrice de raid 0 și raid 1, ci și RAID 5 și RAID 10.

Accesul la meniul Configurare a controlerului este posibil la pasul de încărcare a sistemului, pentru care trebuie să apăsați pe combinația cheie Ctrl + I când apare inscripția corespunzătoare pe ecran. În mod natural, înainte în setările BIOS, este necesar să se determine modul de funcționare al acestui controler ca RAID (altfel, accesul la meniul de configurator RAID ARRAY va fi imposibil).

Meniul de configurare a controlerului RAID este suficient. Prin meniul Configurare controler, puteți șterge sau crea o matrice de raid. Când creați o matrice de raid, puteți specifica numele acestuia, selectați nivelul de matrice (0, 1, 5 sau 10), setați dimensiunea rămasă pentru RAID 0 (128, 84, 32, 16, 8 sau 4K), ca precum și determină dimensiunea matricei.

Compararea performanței matricei de raid

Pentru a testa matricele de raid utilizând utilitarul IOMTER, am creat un scenariu de citire secvențială, înregistrare serială, citire selectivă și înregistrare selectivă. Dimensiunile blocurilor de date din fiecare scenariu de sarcină au fost următoarea secvență: 512 octeți, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 kB, 1 MB.

La fiecare dintre controlorii RAID, o serie de raid 0 a fost creată cu toate dimensiunile valabile și o serie de RAID 1. În plus, pentru a putea estima câștigurile de performanță primite de la utilizarea matricei de raid, De asemenea, am testat un singur disc pe fiecare controler RAID.

Deci, întoarceți-vă la rezultatele testelor noastre.

Gigabyte STAA2 Controler

În primul rând, luați în considerare rezultatele testelor matricei RAID pe baza controlerului Gigabyte SATA2 (figura 6-13). În general, controlerul a fost literalmente misterios, iar performanța sa pur și simplu dezamăgită.

Smochin. 6. Serial de viteză
și operațiunile selective ale discului
Western Digital WD1002FBYS.

Smochin. 7. Serial de viteză

Cu dimensiunea benzii de 128 kb
(Controler gigabyte SATA2)

Smochin. 12. Serial de viteză
și operații de probă pentru RAID 0
Cu dimensiunea benzii de 4 kb
(Controler gigabyte SATA2)

Smochin. 13. Serial de viteză
și operațiunile de probă
Pentru RAID 1 (controler gigabyte SATA2)

Dacă vă uitați la caracteristicile de viteză ale unui disc (fără o matrice raid), atunci viteza maximă consistentă a cititorului este de 102 MB / s, iar viteza maximă de înregistrare consistentă este de 107 MB / s.

Când creați o matrice RAID 0 cu o gamă completă de 128 kb, viteza maximă de citire consistentă crește la 125 MB / s, adică crește cu aproximativ 22%.

Cu dimensiunea strappului 64, 32 sau 16 kB, viteza maximă de citire secvențială este de 130 MB / s, iar viteza maximă de înregistrare consistentă este de 141 MB / s. Adică, cu dimensiunile specificate, rata maximă de citire consistentă crește cu 27%, iar rata maximă de înregistrare consistentă este de 31%.

De fapt, nu este suficient pentru o serie de nivel 0, și aș dori viteza maximă a operațiunilor consecutive de mai sus.

Cu dimensiunea strappului de 8 kB, viteza maximă a operațiunilor consecutive (citire și scriere) rămâne aproximativ aceeași ca și în ceea ce privește dimensiunea Straper 64, 32 sau 16 KB, cu o lectură selectivă - probleme evidente. Cu dimensiunea crescândă a blocului de date, până la 128 kbytes, rata de citire a eșantionului (așa cum ar trebui) crește proporțional cu dimensiunea blocului de date. Cu toate acestea, cu dimensiunea blocului de date cu mai mult de 128 kb, rata de citire a eșantionului scade aproape la zero (aproximativ 0,1 MB / s).

Cu dimensiunea strappului 4 kbyte, nu numai rata de citire a probelor cu dimensiunea blocului este mai mare de 128 KB, dar și viteza cititorului secvențial la o dimensiune a blocului de peste 16 kB.

Folosind matricea RAID 1 de pe controlerul Gigabyte Sata2, practic nu se schimbă (în comparație cu un singur disc) viteza citirii secvențiale, cu toate acestea, viteza maximă consistentă de înregistrare este redusă la 75 MB / s. Amintiți-vă că pentru matricea RAID 1 1, viteza de citire ar trebui să crească, iar viteza de înregistrare nu trebuie să scadă în comparație cu viteza de citire și înregistrare a unui singur disc.

Pe baza rezultatelor testelor controlerului Gigabyte SATA2, se poate face o singură concluzie. Utilizați acest controler pentru a crea RAID 0 și RAID 1 Arrays are sens numai atunci când toate celelalte controlere RAID (Marvell 9128, ICH10R) sunt deja implicate. Deși este destul de greu să vă imaginați o situație similară.

Controler Marvell 9128.

Controlerul Marvell 9128 a demonstrat caracteristici de viteză mult mai mare în comparație cu controlerul Gigabyte Sata2 (fig.14-17). De fapt, diferențele se manifestă chiar și atunci când controlerul cu un disc funcționează. Dacă viteza maximă de citire secvențială este de 102 MB / s pentru controlerul Gigabyte SATA2 și este realizat cu dimensiunea blocului de date 128 KB, apoi pentru controlerul Marvell 9128, viteza maximă de citire secvențială este de 107 MB / s și este realizată cu Dimensiunea blocului de date 16 KB.

Atunci când creați o serie de RAID 0 cu dimensiunea cu gamă completă de 64 și 32 kB, viteza maximă de citire secvențială crește la 211 MB / s, iar o înregistrare secvențială este de până la 185 MB / s. Aceasta este, cu aceeași dimensiune a grevei, rata maximă de citire consistentă crește cu 97%, iar viteza maximă consistentă de înregistrare este de 73%.

Diferența esențială a indicatorilor de mare viteză a matricei RAID 0 cu dimensiunea strappului 32 și 64 kb nu este observată, totuși, utilizarea completă de 32 kb este mai preferabilă, deoarece în acest caz viteza operațiilor secvențiale la un bloc Dimensiunea mai mică de 128 kB va fi puțin mai mare.

Când creați o serie de RAID 1 pe controlerul Marvell 9128, viteza maximă a operațiunilor consecutive este practic schimbată în comparație cu un singur disc. Deci, dacă pentru un singur disc, viteza maximă a operațiunilor succesive este de 107 MB / s, apoi pentru RAID 1 este egal cu 105 MB / s. De asemenea, menționăm că pentru RAID 1, rata de citire a eșantionului este ușor deteriorată.

În general, trebuie remarcat faptul că controlerul Marvell 9128 are caracteristici bune de viteză și este foarte posibil să se utilizeze atât pentru crearea de matrice de raid, cât și pentru conectarea discurilor unice la acesta.

Controlerul ICH10R.

Controlorul RAID încorporat în ICH10R sa dovedit a fi cea mai mare preparație a tuturor celor testate de noi (fig.1-25). Când lucrați cu un singur disc (fără a crea o matrice RAID), performanța sa este de fapt aceeași cu performanța controlerului Marvell 9128. Reatrul maxim consistent și viteza de înregistrare este de 107 MB și este realizată cu dimensiunea blocului de date 16 KB.

Smochin. 18. Serial de viteză
și operațiunile de probă
Pentru discul digital WD1002FBYS (controlerul ICH10R)

Dacă vorbim despre matricea RAID 0 de pe controlerul ICH10R, atunci viteza maximă de citire și înregistrare consistentă nu depinde de dimensiunea dreaptă și este de 212 MB / s. Numai dimensiunea blocului de date depinde de dimensiunea statului valoare maximă Viteza citirii și scrierii consecvente. După cum arată rezultatele testului, pentru RAID 0 bazat pe controlerul ICH10R, este optim să utilizați o gamă completă de 64 kB. În acest caz, valoarea maximă a ratei de citire și înregistrare secvențială se realizează cu dimensiunea blocului de date de numai 16 kb.

Deci, rezumând, încă o dată subliniem că controlorul RAID încorporat în ICH10R depășește semnificativ performanța tuturor celorlalți controlori ai RAID integrat. Și având în vedere că posedă și o mai mare funcționalitate, utilizați optim acest controler special și pur și simplu uitați de existența tuturor celorlalți (cu excepția cazului în care, desigur, discurile SATA III nu sunt utilizate în sistem).