RAID

Den aktuelle version af siden er endnu ikke blevet gennemgået af erfarne bidragydere og kan afvige væsentligt fra den version , der blev gennemgået den 14. september 2021; checks kræver 33 redigeringer .

RAID ( Redundant Array of  Independent Disks  - et redundant array af uafhængige (uafhængige) diske ) er en datavirtualiseringsteknologi til at kombinere flere fysiske diskenheder til et logisk modul for at forbedre fejltolerance og (eller) ydeevne.

Historie

Udtrykket "RAID" blev foreslået i 1987 af Patterson ( David A. Patterson ), Gibson ( Garth A. Gibson ) og Katz ( Randy H. Katz ) som en forkortelse for engelsk.  Redundant række af billige diske ("redundant række af billige diske"). I deres præsentation argumenterede de for deres opfindelse for de relativt lave omkostninger ved en række billige diske designet til personlige computere sammenlignet med højkapacitetsdiske, som de kaldte "SLED" ( Single Large Expensive Drive ) [1] .

Senere ændrede afkodningen af ​​udtrykket sig til Redundant Array of Independent Disks (en redundant række af uafhængige (uafhængige) diske), fordi dyre serverdiske ofte blev brugt i arrays.

Petterson og kolleger hos Berkeley præsenterede specifikationer for fem niveauer af RAID, der er blevet de facto-standarden [1] :

Blandt moderne implementeringer af RAID-arrays findes der yderligere specifikationsniveauer:

En hardware-RAID-controller kan have yderligere funktioner og understøtte flere RAID-arrays på forskellige niveauer på samme tid. Samtidig har mange RAID-controllere indbygget i bundkortet kun to tilstande i BIOS-indstillingerne (aktiveret eller deaktiveret), så en ny harddisk tilsluttet et ubrugt controller-slot med RAID-tilstand aktiveret kan ignoreres af systemet, indtil det er tilknyttet som et andet (spændt)JBOD bestående af én disk.

RAID-niveauer implementeret ved hjælp af ZFS -filsystemet :

Grundlæggende niveauer af RAID-modellen

RAID 0

RAID 0 (striping - "striping") er et diskarray med to eller flere harddiske uden redundans. Informationen er opdelt i datablokke ( ) af en fast længde og skrives til begge/flere diske på skift, det vil sige henholdsvis en blok ( ) til den første disk, og den anden blok ( ) til den anden disk.

Fordele:

Fejl:

RAID 1

RAID 1 (spejling - "spejling") - en række af to (eller flere) diske, der er fulde kopier af hinanden. Ikke at forveksle med RAID 1+0 (RAID 10), RAID 0+1 (RAID 01), som bruger mere sofistikerede spejlingsmekanismer.

Fordele:

Fejl:

RAID 2

Arrays af denne type er baseret på brugen af ​​Hamming-koden . Diske er opdelt i to grupper: for data og for fejlkorrektionskoder, og hvis data er gemt på diske, er der behov for diske til at gemme korrektionskoder . Det samlede antal diske i dette tilfælde vil være lig med . Data fordeles på tværs af diske beregnet til lagring af information på samme måde som i RAID 0, det vil sige, at de er opdelt i små blokke efter antallet af diske. De resterende diske gemmer fejlkorrektionskoder, hvorefter informationsgendannelse er mulig i tilfælde af en harddiskfejl. Hamming-metoden har længe været brugt i ECC -hukommelsen og giver dig mulighed for at rette enkeltfejl og opdage dobbeltfejl i farten.

Fordelen ved et RAID 2-array er, at diskoperationer er hurtigere end en enkelt disk.

Ulempen ved et RAID 2-array er, at det mindste antal diske, hvor det giver mening at bruge det, er 7, kun fra dette antal kræver det færre diske end RAID 1 (4 diske med data, 3 diske med fejlkorrektionskoder) , yderligere redundans falder eksponentielt.

RAID 3

I et RAID 3-array af diske er data opdelt i bidder, der er mindre end en sektor (opdelt i bytes) og fordelt på tværs af diskene. En anden disk bruges til at gemme paritetsblokke. I RAID 2 blev diske brugt til dette formål , men de fleste oplysninger på kontroldiskene blev brugt til on-the-fly fejlkorrektion, mens de fleste brugere er tilfredse med simpel datagendannelse i tilfælde af skade (ved hjælp af XOR-operationen) , som der er nok data til, der passer på én dedikeret harddisk.

Forskelle mellem RAID 3 og RAID 2: umuligheden af ​​at rette fejl på farten.

Fordele:

Fejl:

RAID 4

RAID 4 ligner RAID 3, men adskiller sig ved, at data er opdelt i blokke i stedet for bytes. Således var det muligt delvist at "vinde" problemet med lav dataoverførselshastighed på en lille mængde. Skrivning er langsom på grund af det faktum, at paritet for en blok genereres under skrivning og skrives til en enkelt disk.

Af de meget udbredte lagringssystemer bruges RAID-4 på NetApp -enheder (NetApp FAS), hvor dens mangler er blevet elimineret med succes ved at betjene diske i en speciel gruppeskrivetilstand, bestemt af det interne WAFL -filsystem, der bruges på enheder .

RAID 5

RAID 5 er et diskarray med datablokstribning og paritet [3] .

Den største ulempe ved RAID-niveau 2 til 4 er manglende evne til at udføre parallelle skriveoperationer, da en separat paritetsdisk bruges til at lagre paritetsinformation. RAID 5 har ikke denne ulempe. Datablokke og kontrolsummer skrives cyklisk til alle diske i arrayet, der er ingen asymmetri i diskkonfigurationen. Kontrolsummer er resultatet af en XOR- operation (eksklusiv eller). Xor har en funktion, der gør det muligt at erstatte enhver operand med resultatet, og ved hjælp af xor-algoritmen få den manglende operand som et resultat. For eksempel: a xor b = c (hvor a , b , c  er tre diske i raid-arrayet), hvis a fejler, kan vi få det ved at sætte c i stedet for og tegne xor mellem c og b : c xor b = a . Dette gælder uanset antallet af operander: a xor b xor c xor d = e . Hvis c fejler , så indtager e sin plads , og efter xor får vi c som et resultat : a xor b xor e xor d = c . Denne metode giver i det væsentlige version 5 fejltolerance. Det tager kun 1 disk at gemme xor -resultatet , hvis størrelse er lig med størrelsen på enhver anden disk i RAID'et.

Det mindste antal brugte diske er tre.

Fordele:

Fejl:

Når en disk fejler, falder pålideligheden af ​​volumen øjeblikkeligt til RAID 0-niveauet med det tilsvarende antal diske n-1, det vil sige n-1 gange lavere end pålideligheden af ​​en disk - denne tilstand kaldes kritisk (degradere eller kritisk). At returnere et array til normal drift kræver en langvarig gendannelsesproces, der kommer med et betydeligt tab i ydeevne og øget risiko. Under gendannelse (genopbygning eller rekonstruktion) udfører controlleren en lang intensiv læsning, som kan forårsage fejl på en eller flere diske i arrayet. Derudover kan læsninger detektere tidligere uopdagede læsefejl i kolde dataarrays (data, der ikke tilgås under normal arraydrift, arkiverede og inaktive data), hvilket forhindrer gendannelse. Hvis der opstår en fejl, før arrayet er fuldstændig gendannet, eller der opstår en uoprettelig læsefejl på mindst én disk mere, så ødelægges arrayet, og dataene på det kan ikke gendannes ved konventionelle metoder. RAID-controllere kan bruge SMART- attributanalyse til at forhindre sådanne situationer.

RAID 6

RAID 6 er et array med fire eller flere drev med P+Q- eller DP-paritet, designet til at beskytte mod datatab, hvis to harddiske i arrayet fejler på samme tid. En sådan pålidelighed opnås på bekostning af ydeevne og kapacitetsreduktion - for at gendanne information kræves to beregningsoperationer, og to diske i arrayet bruges ikke til at lagre data, men til at overvåge deres integritet og genoprette efter fejl. På grund af de to redundansdiske har den en højere grad af pålidelighed. Blandt diskarrays er RAID 6 den mest pålidelige, men også den langsomste. Dataskrivehastigheden i et RAID 6-array er mærkbart, op til 50 % lavere end i RAID 5, selv på et helt RAID 6-array, mens læsehastigheden for RAID 6 P + Q ikke adskiller sig meget fra RAID 5 og RAID. 10 [3] .

RAID 6 kræver mindst fire diske - to eller flere datadiske og to paritetsdiske [3] .

Ydeevnevurderinger [3]
Situation RAID 5 RAID 6 P+Q RAID 6DP
Valgfri indgang 100 % halvtreds % halvtreds %
Seriel adgang 100 % 90 % 60 %
Gendannelse af en enkelt disk i et array 100 % ~100 % langsommere

RAID 6 muligheder [3] :

Afhængigt af implementeringen kan RAID 6 DP-arrays have forskellige grænser for antallet af nødvendige diske. I mange implementeringer skal antallet af diske i et array være et primtal (f.eks. 5, hvoraf 3 datadiske og 2 paritetsdiske; 7, heraf 5 datadiske og 2 paritetsdiske; 11, hvoraf 9 data diske og 2 paritetsdiske osv.), har nogle implementeringer et andet krav - antallet af array-diske skal være én mindre end et primtal (4, 6, 10 osv.). Sådanne begrænsninger reducerer fleksibiliteten i at bygge dataarrays [3] .

Begrænsningerne i mulighederne for antallet af diske i et RAID 6 DP-array er relateret til kompleksiteten i at beregne den dobbelte paritet af den "lodrette stribe" af data på et vilkårligt antal diske. Implementeringer med et antal diske, der er et multiplum af et primtal, tillader brugen af ​​simple algoritmer til at kontrollere dataintegriteten, mens implementeringer uden sådanne begrænsninger bruger komplekse algoritmer, som yderligere bremser diskarrayet [3] .

Fordelen ved RAID 6 er dens pålidelighed - den er den højeste af alle RAID-dataarrays, dette bestemmer omfanget af RAID 6-arrays - computermiljøer, der kræver et højt niveau af kontinuerlig datatilgængelighed [3] .

Ulemperne ved RAID 6 er relativt høje omkostninger og tab af ydeevne sammenlignet med RAID 5. RAID 6-ydeevnen er den laveste blandt alle RAID-arrays [3] .

Matematiske principper

De fleste RAID 6 P+Q-implementeringer bruger et Galois -polynomium ( polynomium ) , hvor det første polynomium er det eksklusive "eller" brugt i RAID 5 (dets værdi skrives til "P"-disken), det andet polynomium er mere komplekst , normalt repræsenterer det et eksklusivt "eller" med en multiplikator [3] . RAID 6 DP-implementeringer bruger XOR-beregning for både vandrette og lodrette bitstriber i diskarrayet, hver paritetsdisk gemmer sin egen paritet (vandret eller lodret) [3] .

Kombinerede niveauer

Ud over de grundlæggende RAID-niveauer fra 0 til 6, beskrevet i "Common RAID Disk Drive Format (DEF)-standarden", er der kombinerede niveauer med navne som "RAID α+β" eller "RAID αβ", som normalt betyder " En RAID β, der består af flere RAID α' (nogle gange fortolker leverandører dette på deres egen måde), nogle gange omtalt som en hybrid RAID [4] .

For eksempel:

Kombinerede niveauer arver både fordele og ulemper ved deres "forældre": udseendet af striping i RAID 5 + 0-niveauet tilføjer ikke nogen pålidelighed til det, men det har en positiv effekt på ydeevnen. RAID 1+5-niveauet er nok meget pålideligt, men ikke det hurtigste og i øvrigt ekstremt uøkonomisk: den anvendelige kapacitet af volumen er mindre end halvdelen af ​​diskenes samlede kapacitet.

RAID 01 (RAID 0+1)

Et RAID 01 (RAID 0+1)-array kaldes et stribespejle [5] . Det er et RAID 1-array, der består af to indlejrede RAID 0-arrays. Antallet af diske i begge indlejrede RAID 0-arrays skal være det samme, på grund af denne funktion kan denne type kun fungere med et lige antal diske.

Afhængigt af producenten af ​​RAID-controlleren, kan RAID 0+1 betyde en anden konfiguration, desuden tilbyder nogle modeller oprettelsen af ​​RAID 0+1 på et ulige antal enheder [6] , faktisk implementerer RAID 1E under dette navn .

Som i "ren" RAID 1 er den nyttige volumen af ​​arrayet halvdelen af ​​den samlede volumen af ​​alle diske (hvis de er diske med samme kapacitet).

Fejltolerancen for RAID 01 er lavere end for RAID 10 med omtrent samme ydeevne og samme volumen, så denne type RAID bruges praktisk talt ikke.

RAID 10 (RAID 1+0)

RAID 10 (RAID 1 + 0) er et spejlet array, hvor data skrives sekventielt til flere diske, som i RAID 0. Denne arkitektur er en RAID 0 type array, hvis segmenter er RAID 1 arrays i stedet for individuelle diske. , skal en matrix på dette niveau indeholde mindst 4 diske (og altid et lige tal). RAID 10 kombinerer høj fejltolerance og ydeevne.

RAID 10 er en ret pålidelig mulighed for datalagring på grund af det faktum, at hele RAID 10-arrayet kun vil fejle, hvis alle drevene i det samme RAID 1-array svigter. I et samlet array på 4 drev, med et defekt drev, er chancen fejl på den anden i samme array er 1/3×100=33%.

Til sammenligning vil RAID 0+1 fejle, hvis to drev fejler i forskellige arrays. Chancen for fejl på et drev i et tilstødende array er 2/3×100=66%. Men da RAID 0-arrayet med det fejlbehæftede drev ikke længere er i brug, kan det resterende sunde drev i dette array udelukkes fra beregningen, og vi får en chance for, at det næste drev vil deaktivere arrayet - 2/2 × 100 = 100 %.

Nogle producenter, såsom HP, bruger betegnelsen RAID 1+0 i deres RAID-controllere (HP Smart Array P400) ikke kun til RAID 10. RAID-typen vil afhænge af antallet af diske, der bruges i konfigurationen. Valg af RAID 1+0 i en 2-drev-konfiguration vil resultere i RAID 1, og for 4 drev, RAID 10.

Ikke-standard RAID-niveauer

RAID 1E

RAID 1E (forbedret) er et spejl, der kan køre på et ulige antal enheder.

Der er mindst to forskellige RAID 1E-algoritmer:

Manualen til din RAID-controller angiver muligvis ikke, hvilken type RAID 1E (nær eller interleaved) den understøtter [9] . Fælles for dem er, at de er velegnede til at skabe en række af tre diskenheder.

I RAID 1E nær, skrives den første blok af data til disk #1 og til disk #2 (fuld kopi, som i RAID 1). Den næste blok går til disk nr. 3 og disk nr. 4 (hvis der ikke er flere diske, er der f.eks. ingen disk nr. 4 i arrayet, den 3. disk er den sidste - controlleren vender tilbage til disk nr. .1 og går til næste stribe).

I RAID 1E interleaved er dataene indflettet i strimler: selve dataene skrives i den første strimmel, og en kopi af den skrives i den anden strimmel. Når du flytter fra en bjælke til en anden, øges indekset for den enhed, hvorfra optagelsen begynder. Således skrives den første blok af data til disk #1 i den første strimmel og til disk #2 i den anden strimmel, den anden blok af data skrives til disk #2 i den første strimmel og til disk #3 i den anden. strimler og så videre.

Den resulterende arraykapacitet ved brug af RAID 1E er , hvor N er antallet af diske i arrayet, og S er kapaciteten på den mindste disk.

Fordele:

Fejl:

Minimumsantallet af diske er tre (med to kan det ikke skelnes fra RAID 1).

RAID 7

RAID 7 er et registreret varemærke tilhørende Storage Computer Corporation og er ikke et separat RAID-niveau. Array-strukturen er som følger: data lagres på diske, én disk bruges til at lagre paritetsblokke. Diskskrivninger cachelagres ved hjælp af RAM, selve arrayet kræver en obligatorisk UPS ; i tilfælde af strømsvigt er data beskadiget.

Tallet 7 i navnet giver indtryk af, at systemet på en eller anden måde er dets "lillebrødre" RAID 5 og 6 overlegent, men matematikken i RAID 7 adskiller sig ikke fra RAID 4, og cache og batterier bruges i alle RAID-controllere niveauer (jo dyrere controlleren er, jo større er sandsynligheden for at have disse komponenter). Derfor, selvom ingen benægter, at RAID 7 har høj pålidelighed og hastighed, er det ikke en industristandard, men snarere et marketingtrick fra den eneste producent af sådanne enheder, og kun dette firma yder teknisk support til dem [10] .

RAID-DP

Der er en modifikation af NetApps RAID-4 - RAID-DP (Dual Parity). Forskellen fra et traditionelt array ligger i allokeringen af ​​to separate diske til kontrolsummer. På grund af interaktionen mellem RAID-DP og WAFL -filsystemet (alle skriveoperationer er sekventielle og udføres på ledig plads), er ydeevnefaldet elimineret både i sammenligning med RAID-5 og i sammenligning med RAID-6.

Hardware RAID-controllere

De repræsenterer et udvidelseskort eller er placeret uden for serveren (for eksempel som en del af et eksternt diskundersystem eller NAS ) [11] . De har deres egen processor, mange har cachehukommelse for at fremskynde arbejdet. Batterier er valgfrit installeret i dyrere enheder (Battery Backup Unit, forkortelse BBU, kemikalie eller kondensator ) for at gemme data i cachen i tilfælde af en nødstrømsudfald. Kondensatorbatterier er mere moderne, men dyrere, da de desuden kræver et ikke-flygtigt FLASH-hukommelsesmodul, hvor cachen vil blive kopieret i tilfælde af en ulykke. Sådanne batterier forringes ikke over tid og kræver, i modsætning til kemiske, ikke udskiftning i serverens levetid [12] .

For at tilslutte diske kan controlleren have interne eller eksterne porte eller begge dele. Porte kan laves i henhold til forskellige standarder (se listen over interne og eksterne SAS-stik , samt SFF-8639 for et eksempel ).

Controllere fra forskellige producenter er som regel ikke kompatible og kan ikke udskiftes med hinanden - dette skal huskes i tilfælde af fejl på controllerkortet. Oplysninger om RAID-array-konfigurationen gemmes på diske, men kun en controller fra samme producent kan læse den, selv fra fuldt funktionsdygtige diske, og genskabe arrayet [13] . For at forhindre sådanne problemer er der klyngedisksystemer [14] . Software RAID-arrays har heller ikke denne ulempe.

Yderligere funktioner i RAID-controllere

Mange RAID-controllere er udstyret med et sæt ekstra funktioner:

Sammenligning af RAID-niveauer

Niveau Antal diske Effektiv kapacitans [15] [16] [17] [18] [19] Tilladt antal defekte diske Pålidelighed Læsehastighed Optagehastighed Bemærk
0 fra 2 S×N Ingen meget lav høj høj Tab af data i tilfælde af fejl på nogen af ​​diskene!
en fra 2 S N−1 diske meget høj gennemsnit gennemsnit N gange prisen på diskplads; den højest mulige pålidelighed; mindst mulig størrelse, enkelt disk læse/skrivehastighed
1E fra 3 S×N/2 1 til N/2−1 diske høj høj lav Tab af data, hvis to tilstødende diske fejler på samme tid, eller den første med den sidste
ti fra 4, endda S×N/2 1 til N/2 diske [20] høj høj høj det dobbelte af omkostningerne ved diskplads, tab af data, når en spejlgruppe (RAID 1) fejler, drift er mulig, hvis mindst én af enhver disk fra en spejlgruppe (RAID 1) overlever i hver spejlgruppe (RAID 1).
01 fra 4, endda S×N/2 1 til N/2 diske [20] lav høj høj fordoble omkostningerne ved diskplads, tab af data, når en spejlgruppe fejler (RAID 1), drift er kun mulig, hvis alle diske i en stribe gruppe (RAID 0) overlever.
5 fra 3 S×(N−1) 1 skive gennemsnit høj gennemsnit
halvtreds fra 6, endda S×(N−2) 1 til 2 diske [21] gennemsnit høj høj
51 fra 6, endda S×(N−2)/2 fra 2 til N/2+1 diske [22] høj høj lav det dobbelte af prisen på diskplads
5E fra 4 S×(N−2) 1 skive gennemsnit høj høj backup-drevet er i
tomgang og bliver ikke kontrolleret
5EE fra 4 S×(N−2) 1 skive gennemsnit høj høj backup-drevet er i
tomgang og bliver ikke kontrolleret
6 fra 4 S×(N−2) 2 diske høj høj lav eller medium skrivehastighed afhængig af implementering (kan matche RAID 5 skrivehastighed)
60 fra 8, endda S×(N−4) 2 til 4 diske [21] gennemsnit høj gennemsnit
61 fra 8, endda S×(N−2)/2 fra 4 til N/2+2 diske [22] høj høj lav det dobbelte af prisen på diskplads

Software RAID

For at implementere RAID kan du bruge ikke kun hardware, men også fuldstændig softwarekomponenter ( drivere ). For eksempel på Linux-kernesystemer findes support direkte på kerneniveau . Linux RAID-enheder kan administreres ved hjælp af mdadm -værktøjet . Software RAID har sine fordele og ulemper. På den ene side koster det ingenting (i modsætning til hardware RAID-controllere ). På den anden side bruger software RAID nogle CPU- ressourcer .

Linux-kernen 2.6.28 understøtter software-RAID-niveauerne 0, 1, 4, 5, 6 og 10. Implementeringen gør det muligt at oprette RAID på individuelle diskpartitioner, hvilket svarer til Matrix RAID beskrevet nedenfor. Opstart fra RAID er understøttet.

OS'er i Windows NT- familien , såsom Windows NT 3.1/3.5/3.51/ NT4 / 2000 / XP / 2003 , har understøttet software RAID 0, RAID 1 og RAID 5 siden designet af denne familie (se Dynamisk disk ). Windows XP Home understøtter ikke RAID. Windows XP Pro understøtter RAID 0, og understøttelse af RAID 1 og RAID 5 er blokeret af udviklerne, men kan ikke desto mindre aktiveres ved at redigere OS-systemets binære filer, hvilket er forbudt i henhold til licensaftalen [23] . Windows 7 understøtter software RAID 0 og RAID 1, Windows Server 2003 understøtter 0, 1 og 5.

FreeBSD har flere software RAID-implementeringer. For eksempel kan atacontrol enten bygge fuld software RAID eller understøtte semi-hardware RAID på chips som ICH5R. I FreeBSD, siden version 5.0, styres diskundersystemet af GEOM-mekanismen indbygget i kernen. GEOM leverer en modulær diskstruktur, takket være hvilken moduler som gstripe (RAID 0), gmirror (RAID 1), graid3 (RAID 3), gconcat (der kombinerer flere diske i en enkelt diskpartition) blev født. Der er også legacy ccd (RAID 0, RAID 1) og gvinum (vinum logical volume manager) klasser. Fra og med FreeBSD 7.2 understøttes ZFS -filsystemet , som kan bygge niveauer 0, 1, 5 og 6, såvel som kombinerbare niveauer.

OpenSolaris og Solaris 10 bruger Solaris Volume Manager , som understøtter RAID 0, RAID 1, RAID 5 og enhver kombination af dem som 1+0. RAID 6 understøttes i ZFS -filsystemet .

Matrix

Matrix RAID er en teknologi implementeret af Intel i sydbroerne af dets chipsæt , startende med ICH6R. Denne teknologi er ikke et nyt niveau af RAID og har ingen hardwareunderstøttelse. BIOS-værktøjer giver dig mulighed for at organisere flere enheder i et logisk array, hvis videre behandling er præcis som et RAID-array, er tildelt driveren. Teknologien gør det muligt at organisere flere arrays af RAID 1-, RAID 0- og RAID 5-niveauer samtidigt på forskellige diskpartitioner [24] . Dette giver dig mulighed for at vælge øget pålidelighed for nogle partitioner og høj ydeevne for andre.

Senere annoncerede Intel omdøbningen af ​​Matrix RAID-teknologi til Intel Rapid Storage Technology (Intel RST) [25] .

Liste over Intel-controllere, der understøtter Intel RST [26] :

Yderligere udvikling af ideen om RAID

Ideen med RAID-arrays er at kombinere diske, som hver især betragtes som et sæt sektorer, og som et resultat "ser" filsystemdriveren som om en enkelt disk og arbejder med den uden at være opmærksom på dens indre struktur. Du kan dog opnå en betydelig stigning i disksystemets ydeevne og pålidelighed, hvis filsystemdriveren "ved", at den ikke fungerer med én disk, men med et sæt diske.

Desuden, hvis nogen af ​​diskene i RAID 0 ødelægges, vil al information i arrayet gå tabt. Men hvis filsystemdriveren har placeret hver fil på én disk, og mappestrukturen er korrekt organiseret, så vil kun de filer, der var på denne disk, gå tabt, når nogen af ​​diskene ødelægges; og filer, der udelukkende er på de bevarede diske, forbliver tilgængelige. En lignende idé om "øgende pålidelighed" er implementeret i JBOD -arrays .

Placering af filer i en "hver fil ligger udelukkende på én disk"-tilgang har en kompleks/tvetydig effekt på disksystemets ydeevne. For små filer er latency (tidspunkt for placering af hovedet over det ønskede spor + ventetid på, at den ønskede sektor kommer under hovedet) vigtigere end det faktiske tidspunkt for læsning/skrivning; Derfor, hvis en lille fil er helt på én disk, vil adgangen til den være hurtigere, end hvis den er spredt over to diske (strukturen af ​​RAID-arrays er sådan, at en lille fil ikke kan være på tre eller flere diske). For store filer kan det være værre at placere den på én disk end at placere den på flere diske; dette vil dog kun ske, hvis data udveksles i store blokke; eller hvis der laves mange små adgange til filen i en asynkron tilstand, som giver dig mulighed for at arbejde med alle de diske, som denne fil er placeret på på én gang.

Ulemper ved RAID

Korrelerede nedbrud

Drev i et array, med undtagelse af reservedele ("reserve"), er ofte af samme alder i starten, udsat for samme belastning og miljømæssige påvirkninger, dette krænker antagelserne om den uafhængige sandsynlighed for drevfejl; fejl er faktisk statistisk korreleret. I praksis er chancen for en anden fejl før den første genopretning højere end chancen for tilfældige fejl.

Konfigurationsinkompatibiliteter

Selvom array-konfigurationen er gemt direkte på de fysiske diske, er der ingen generelt accepteret standard for kodning og lagring af den. Når en controller fejler, er brugeren tvunget til at købe en kompatibel controller for at gendanne adgangen til data i stedet for at genskabe et tomt array.

Se også

Noter

  1. 12 Patterson et al., 1988 .
  2. R.LAB. RAID-arrays - pålidelighed og ydeevne. RAID1 . Hentet 8. juni 2008. Arkiveret fra originalen 28. juni 2008.
  3. 1 2 3 4 5 6 7 8 9 10 11 Stegner, G. Fordele og ulemper ved RAID 6  : [ arch. 9. marts 2009 ] / AWi Verlag // OSP. - 2007. - 12. juli.
  4. Mishra, SK Dual-Crosshatch Disk Array  : A Highly Reliable Hybrid-RAID Architecture // Proceedings of the 1995 International Conference on Parallel Processing : [ eng. ]  / SK Mishra, SK Vemulapalli, P. Mohapatra. - CRC Press , 1995. - Vol. 1. - P. I-146-I-149. - ISBN 978-0-8493-2615-8 . — ISBN 084932615X .
  5. RAID-arrays - Informatik
  6. Vælg RAID-niveauet . Hentet 29. september 2012. Arkiveret fra originalen 17. november 2015.
  7. Mikrosemi. Valg af de rigtige RAID-konfigurationer: RAID 1E . Hentet 3. januar 2018. Arkiveret fra originalen 3. januar 2018.
  8. 1 2 Adaptec Inc. Løsninger til datalagring. Hvilket RAID-niveau skal jeg vælge? — RAID 1E . Hentet 3. januar 2018. Arkiveret fra originalen 10. januar 2017.
  9. ReclaiMe Free RAID Recovery - RAID 1E-typer . Hentet 3. januar 2018. Arkiveret fra originalen 4. januar 2018.
  10. PC Guide - RAID niveau 7 . Hentet 7. august 2018. Arkiveret fra originalen 21. juni 2010.
  11. IXBT. Vælg din RAID-controller. 01.10.1999 . Hentet 28. juli 2018. Arkiveret fra originalen 29. juli 2018.
  12. Alt, hvad du ville vide om RAID-controllere, men var for doven til at se. 06.10.2016 . Hentet 28. juli 2018. Arkiveret fra originalen 29. juli 2018.
  13. Habr, 24/02/2012. Hvad skal man gøre, hvis RAID-controlleren fejler? . Hentet 7. august 2018. Arkiveret fra originalen 8. august 2018.
  14. FAQ om den praktiske implementering af RAID . Hentet 7. august 2018. Arkiveret fra originalen 8. august 2018.
  15. Her er N antallet af diske i arrayet, S er volumen på den mindste disk.
  16. RAID 0, RAID 1, RAID 5, RAID6, RAID 10 eller hvad er RAID-niveauer? (utilgængeligt link) . Hentet 11. december 2010. Arkiveret fra originalen 20. marts 2011. 
  17. Dynamisk diskintroduktion - RAID-niveauer . Hentet 11. december 2010. Arkiveret fra originalen 15. december 2010.
  18. RAID-array og server: Hardware- og servicesammenligning . Hentet 11. december 2010. Arkiveret fra originalen 10. september 2011.
  19. Sammenfatning af RAID-niveauer . Hentet 11. december 2010. Arkiveret fra originalen 19. juni 2010.
  20. 1 2 Information vil ikke gå tabt, hvis drev fejler inden for forskellige spejle.
  21. 1 2 Information vil ikke gå tabt, hvis det samme antal diske i forskellige striber fejler.
  22. 1 2 Information vil ikke gå tabt, hvis diske i samme spejl fejler.
  23. Oprettelse af et software-RAID 5-array under Windows XP . Hentet 19. april 2009. Arkiveret fra originalen 7. marts 2009.
  24. Intel Rapid Storage Technology (Intel RST). RAID 0, 1, 5, 10, Matrix RAID, RAID Klar . Hentet 6. januar 2014. Arkiveret fra originalen 7. januar 2014.
  25. Intel Rapid Storage Technology (Intel RST). produkt oversigt . Hentet 6. januar 2014. Arkiveret fra originalen 7. januar 2014.
  26. Understøttede Intel-chipsæt og controller-hubs . Hentet 3. januar 2018. Arkiveret fra originalen 4. januar 2018.
  27. LSI MegaRAID 320-0 Zero Channel RAID Controller Brugervejledning Arkiveret 7. januar 2010 på Wayback Machine 

Litteratur

Links