Solid state harddisk er sagen

Priserne på ssd’er er i bund, og derfor giver vi et overblik over dine valgmuligheder.

Artiklens øverste billede
Ssd-drev er endelig blevet så billige, at de kan bruges til lagring. Foto: altomdata.dk

Er ssd’er omsider blevet så billige, at vi kan bruge dem til lagring af store datamængder? Mens dette blad går i trykken, er svaret entydigt ja. Sammenlignet med priserne på de første mainstream-ssd’er til forbrugere for ti år siden får man i dag ti gange så megen lagerplads for en fjerdedel af pengene. I 2008 kostede et drev på 80 GB fra et af de store firmaer omkring 6000 kroner. Og i dag? Priserne på ssd’er på 240 til 256 GB begynder omkring 250 kroner. Og hvad med modellerne på 480 til 512 GB? Regn med priser fra 400 kroner.

Bevares, man skal være modig for at satse på en af de billigste løsninger fra mindre kendte producenter. Men i dag kan man fra et af de store navne få komplette ssd’er på 1 TB helt ned til cirka 1100 kroner. For mange pc-brugere er det både billigt nok og stort nok til at være en oplagt løsning til lagring af store datamængder. Hvis du har brug for store mængder hukommelse eller simpelthen ønsker at maksimere din lagerplads til ingen penge, er traditionelle magnetiske drev sagen for dig. Men en terabyte eller tre er tilstrækkeligt for de fleste af os, og set i den sammenhæng er ssd’er i dag et seriøst valg.

Det kan godt være, at det lyder som en simpel salgstale for solid state, men de praktiske realiteter bag det at vælge et drev er langt mere komplicerede. Ssd-teknologi har udviklet sig umådeligt, siden de første mainstreamdrev til forbrugere kom på markedet for cirka ti år siden. Med denne udvikling følger også komplikationer. Et godt ssd drejer sig om langt mere end imponerende tal for læsning og skrivning. Når det gælder slutbrugerens oplevelse, kan andre faktorer som latens og vilkårlig adgang være vigtigere. Driftssikkerhed og levetid tæller også, hvad enten vi taler om drevteknologi eller brugerscenarier.

Se også: Sony klar med ekstremt hurtig SSD til tasken

Selv på komponentniveau – for ikke at tale om komplette drev – er der langt flere forhandlere af ssd-controllere og hukommelseschips, end der er producenter af grafikchips og cpu’er. Det er svært at følge med i alle mulighederne. Tilsvarende er det langt mere kompliceret at vurdere den reelle ydelse hos et ssd, end det er for andre kernekomponenter. Men det er ikke noget problem, fordi vi er her og står klar til at give dig et solidt overblik over ssd’ernes aktuelle tilstand.

Udsalg på Flash

Skru tiden tilbage til efteråret 2008 og til lanceringen af Intels hotte nye ssd, X25-M. Det var ikke det første ssd, der sigtede direkte på forbrugermarkedet, men det markerede fremkomsten af ssd’er, der byggede på NAND-flashhukommelse som forbrugerteknologi, til trods for at prisen var høj. Det førnævnte 80 GB-drev til 6000 kroner? Jep, det var et Intel X25-M.

Det afgørende er, at X25-M og dets tidlige ssd-søskende lignede den endelige brik i det puslespil, der skulle føre til en pc uden bevægelige dele. Farvel og tak til magnetiske drev med roterende plader.

Man glemmer nemt, hvor revolutionerende et spring det var at gå fra traditionelle harddiske til solid state. Groft sagt betød bevægelige dele latens og upålidelighed. Det skulle imidlertid vise sig, at overgangen til lager uden bevægelige dele ikke gik glat. Efter at ssd’erne lagde ud med at tromle harddiskene med forrygende ydelsestal, stod det hurtigt klart, at sagerne ikke var så enkle endda. Det bør retfærdigvis nævnes, at Intel X25-M ikke var det første problematiske ssd, og det blev heller ikke det sidste. Men det var en meget højprofileret repræsentant for fænomenet.

Se også: Så stor (eller lille) skal ssd-disken være

Problemet er, at ydelsen hos ssd’er, der er konfigureret med NAND-flashhukommelse, bliver svækket med tiden. Årsagen lyder omtrent sådan: NAND-flashhukommelse består af celler. Disse celler er arrangeret i en hierarkisk struktur. Individuelle celler er arrangeret i strenge, som igen er arrangeret i arrays. Disse arrays udgør sider, og nu er vi oppe på et samlet antal celler pr. side, der typisk ligger på 32.000-128.000. Disse sider er igen arrangeret i endnu større blokke, der skal måles i megabytes.

Nu spørger du vel: og hvad så? Hold fast. Mens NAND-hukommelse kan læses og skrive i sider, kan man kun slette dem i hele blokke. Grunden til det er kompleks, og den omfatter spændingsniveauer og minimeringsfejl. Men påvirkningen på ydelsen er tankevækkende. Det er en smal sag at skrive til tomme hukommelsesceller. Men overskrivning af eksisterende data er langt mere krævende. Alle data fra den relevante blok skal kopieres til en cachehukommelse, hele blokken skal slettes, og derefter skal den igen skrives med de ændrede data.

M.2 er nu standardvalget til højtydende ssd’er. Foto: altomdata

Når et drev nærmer sig fuld kapacitet, og der er færre tomme celler, arrays, sider og blokke til rådighed, er det ikke svært at forstå, hvordan det påvirker ydelsen. Men selv når et drev har omfattende ledig kapacitet, kan ydelsen bliver markant forringet. Det hænger igen sammen med, at det kun er fulde blokke, der kan slettes. Konsekvensen er i første omgang, at når sider i en blok bliver slettet på operativsystem-niveau, bliver de på drevet kun markeret som døde eller redundante. Hvis man for alvor skal slette disse sider, ville det kræve, at man sletter hele blokken og dermed cache og genskrive eventuelle sider, der indeholder levende data. På kort sigt er det derfor nemt simpelthen at markere sider, som indeholdende redundante data i stedet for at slette dem.

Det langsigtede resultat er, at efterhånden som et ssd bliver fyldt op, bliver det stadig mere bøvlet at jonglere med data. Et næsten fuldt drev betyder masser af tidskrævende processer med læsning, cache, sletning, ændring og skrivning. Men det samme gælder – eller i hvert fald gjaldt – for et massivt anvendt drev med masser af ledig plads. Tilbage i 2008 førte det til meget dyre ssd’er, der blev til stammende og næsten ubrugelige stykker silicium.

Der er siden opstået adskillige teknologier, der råder bod på dette, herunder intelligent affaldsindsamling og TRIM-kommandoen, der i høj grad løste problemet med ekstrem forringelse af ssd-ydelse. Men sagaen fortsætter i den forstand, at den varslede et mere omfattende problem.

Vurdering af ssd-ydelse er langt mere kompliceret end blot at måle det maksimale gennemløb fra et fabriksnyt drev.

Intels Optane-drev sætter nye standarder for respons. Foto: altomdata.dk

Husk lige den betragtning. Vi vender tilbage til spørgsmålet om, hvordan ssd-ydelse og ssd-test har udviklet sig siden begyndelsen. Man først skal vi se på ssd-markedets aktuelle tilstand og gennemgå de teknologier og muligheder, der er til rådighed.

Grundlaget for ssd’er omfatter formater og interface. Der er i øjeblikket to dominerende løsninger. Den første omfatter drev, der befinder sig i 2,5”-kabinetter, og som er forbundet via et SATA-interface og med kabler. For nylig er drev, der ligger på 22 mm brede kredsløb, og som primært kommunikerer over et pci-e-interface, blevet populære, og de er kendt under navnet M.2.

SATA-baserede drev er tydeligst begrænsede i form af båndbredde. Den nyeste SATA III-specifikation topper ved et praktisk maksimum på 600 MB/sek. M.2-drev og andre pci-e-drev er begrænsede af antallet af de pci-e-lanes, de bruger. M.2-drev har i øjeblikket et maksimum på fire pci-e 3.0-lanes og dermed 3,9 GB/sek. praktisk anvendelig båndbredde. Blandt de mindre udbredte typer finder vi ssd’er, der er konfigureret som rene pci-e-kort og U.2-drev. De sidstnævnte kombinerer teoretisk set det bedste af både SATA og pci-e, men de har ikke slået an i desktopsystemer.

Intels Optane-drev sætter nye standarder for respons. Foto: altomdata.dk

Flere nuancer inddrager kontrolprotokoller. Kort sagt var den oprindelige AHCI-protokol i forbindelse med SATA-interfacet aldrig udtænkt med tanke på drev uden bevægelige dele. Det problem løser den nyere NVMe-protokol (Non Volatile Memory Express) imidlertid, og den er med til at muliggøre de fleste af de teoretiske fordele ved ssd-teknoogi, navnlig når det gælder vilkårlig adgang-ydelse. De fleste, men ikke alle, M.2-drev understøtter NVMe, og det bør man huske, når man skal købe drev.

Husk bundkortet

Naturligvis er bundkortsupport central i denne forbindelse. Ældre kort har ikke M.2-slots. Den gode nyhed er, at man kan få konverterkort til M.2-ssd’er, som man kan slutte til standard-pci-e-slots. Men husk, at ældre bundkort måske ikke leger pænt sammen med nyere ssd’er, navnlig ikke dem, der bruger NVMe-protokollen. Vores anbefaling, når det gælder bundkort, der ikke har et M.2-slot, består i at tjekke support af bootning fra NVMe-drev, før man tager for givet, at den er til stede.

Se også: Stortest: SSD’er: Lynhurtigt lager i maskinen

Det er også værd at overveje platformsupport af pci-e-baserede drev generelt. Med Intels mainstream-l og mobile platforme bliver M.2-slots forbundet via chipsættet og ikke direkte til cpu’ens egne pci-e-lanes. Det betyder, at drevene i sidste ende kommunikerer med cpu’en via DMI-bussen. Den aktuelle implementering af DMI-bussen er i realiteten en quadlane-pci-e 4.0-forbindelse, blot med et andet navn. Problemet er naturligvis, at DMI-bussen bærer hele chipsætbåndbredden, herunder usb, traditionelt lager, netværkstrafik og potentielt flere M.2-ssd’er.

Man kan undgå denne begrænsning ved at bruge et rent pci-e-ssd eller et pci-e-M.2-adapterkort, der passer ind i et af de tilgængelige x16 pci-e-slots, og som dermed får forbindelse direkte til cpu’en. Imidlertid er det sådan, at eftersom Intels mainstream-desktopprocessorer kun har 16 pci-e-lanes til rådighed, vil det at bruge begge pci-e-16-slots betyde, at et installeret grafikkort må falde fra 16 til otte lanes, og det kan få indflydelse på gaming-ydelsen under ekstreme omstændigheder. Men til både Intels dyreste desktopplatforme og alle AMD’s eksisterende desktopplatforme er der tilstrækkeligt med lanes, som går direkte til cpu’en, til at køre et komplet 16-lane-grafikinterface ved siden af en quadlane-pci-e-lagerløsning.

Ydelsen i den virkelige verden drejer sig om meget mere end det rå gennemløb. Foto: altomdata.dk

Den sidste bundkort-relaterede bekymring består i at sikre, at man har en optimal konfiguration. Når kort tilbyder flere M.2 slots, er de måske ikke helt jævnbyrdige, når det gælder pci-e-lanes. Hertil kommer, at ikke blot vil slots dele DMI-linket på et mainstream-Intel-kort som nævnt ovenfor, men de vil få konflikter med SATA-lagerbussen. Groft sagt vil der med ethvert givet bundkort være både begrænsninger for og optimale konfigurationer til at forbinde en blanding af M.2- og SATA-drev. Find flere oplysninger i dit bundkorts manual.

Nu kommer vi til den aktuelle teknologi, der bliver brugt til hukommelseschips i et ssd. Konventionel NAND-flashhukommelse er stadig den dominerende ikkeflygtige hukommelsesteknologi i ssd’er. Bevares, Intels Optane- og Samsungs Z-SSD rummer potentielt ikkeflygtige hukommelses-alternativer i form af henholdsvis 3D Xpoint og Z-NAND. Men det er stadig teknologier i deres vorden.

Selv blandt NAND-ssd’er finder man imidlertid afvigende teknologier til hukommelsesceller. Vi kan begynde med SLC, MLC, TLC og QLC NAND. Disse teknologier kan lagre henholdsvis en, to, tre og fire bits data pr. hukommelsescelle. Fordelene ved at forøge kapaciteten pr. celle er tydelig nok – større kapacitet på et mindre område og dermed lavere udgifter. Men i takt med at celletætheden stiger, må man afveje virkningerne.

For det første falder holdbarheden stejlt. Single-level-cell NAND-flashhukommelse (SLC) kan levere op til 100.000 program/erase-cyklusser før en given hukommelsescelle mister sin evne til at lagre data. Tallet falder 1.000 for den nyeste QLC NAND. Det er et enormt dyk i holdbarhed.

Så er der ydelse. For en QLC-hukommelsescelle betyder læsning og skrivning af en celles indhold, at der skal skelnes mellem og bruges 16 mulige spændingsniveauer. Det korte af det lange er, at læsning og skrivning til multilevel-NAND-celler bliver en stadig mere krævende proces i takt med, at celletætheden stiger.

Algoritmisk fordeling

Naturligvis er der opstået teknologier, som mindsker både tab af holdbarhed og ydelse i takt med, at celletætheden stiger. Algoritmer sikrer, at skrivninger bliver spredt jævnt over drevet, mens over-provisionering af hukommelse betyder, at ethvert givet drev kan tolerere en bestemt mængde cellefejl, før den kapacitet, der er til rådighed, begynder at mindskes. Den slags foranstaltninger er gode nok til, at Crucial specificerer sit nye QLC-baserede drev, P1, med en gennemsnitlig tid til fejl på 1,8 millioner timer og en generel skriveholdbarhed på 200 TB, og det burde være rigeligt til de fleste kunder.

I mellemtiden bliver ydelsen markant forbedret ved, at man allokerer en stor mængde hukommelse som en cache, der kører i den langt hurtigere SLC-tilstand. Men efterhånden som drevet bliver fyldt op og til sidst æder sig ind på denne SLC-cache, begynder ydelsen at svinde ind. Det er endnu et eksempel på, at ssd-ydelse ikke er ganske ligetil. Det hjælper også med at forklare, hvorfor store, billige drev uundgåeligt må være langsommere.

Se også: Vind sikker datalagring på farten

Når det gælder 3D NAND-hukommelse, kan man få den med flere celletætheder ligesom standarden, 2D NAND, men den indrager flere lag af hukommelsesceller, der ligger oven på hinanden, i stedet for et enkelt 2D-lag af celler. Bortset fra de indlysende fordele hvad angår hukommelsestæthed, rummer 3D NAND også indbyggede fordele i ydelse og holdbarhed. Det er årsagen til, at Samsungs hurtigste NAND-baserede ssd’er, herunder 970 Pro, bruger 3D NAND.

Øverst til venstre: U.2-interfacet har ikke vundet indpas i klient-pc’er. Øverst til højre: Husk, at bundkortsupport for de nyeste ssd’er kan være kritisk. Foto: altomdata.dk

Bortset fra interface, kontrolprotokoller og hukommelsestype spiller ssd-controllerchips en anden vigtig rolle, når vi taler om ydelse. Desværre ved man ikke meget om nogen given ssd-controller, og det er som regel umuligt at foretage direkte sammenligninger. Lad os nøjes med at konstatere, at billigere drev som regel klarer sig med controllere, der har mere beskedne specifikationer. Den slags controllere kan typisk klare høje teoretiske tophastigheder, men de får problemer, når det gælder mere specielle detaljer ved ssd-ydelse. Et mål for IOPS-ydelse kan være en nyttig målestok, når man i den sammenhæng skal sammenligne drev.

Det bringer os på det nydeligste tilbage til spørgsmålet om ssd-ydelse og ssd-test. Det viser sig, at høj sekventiel ydelse faktisk ikke er så kritisk for pc-arbejde i det virkelige liv. I stedet afhænger hovedparten af lagertrafik af hurtig adgang til små mængder data, der ligger klattet rundt-omkring på drevet. Det er det, der fører til en hurtig og kvik desktop-pc eller laptop. Størrelsen af disse små stumper bliver dikteret af lagerets mindste bloksektorer, der for moderne harddiske og ssd’er ligger på 4 kB. Derfor taler man af og til om 4k-vilkårlig adgang.

Hertil kommer, at adgang til 4k-vilkårlig ydelse også inddrager spørgsmålet om kødybde. Kort fortalt er kødybde et mål for antallet af samtidige krav om drevadgang. Eftersom ssd’er typisk har flere adgangskanaler, kan de eksekvere adgangskrav parallelt og give dynger af båndbredde.

Det er ganske almindeligt for en server-pc, der leverer websider eller databaseadgang til mange klienter.

Til desktop-pc’er? Ikke rigtig. Det er i stedet meget lave kødybder på en til fire, der betyder noget, og i disse scenarier betyder et ssd’s iboende parallelisme meget mindre. For at gøre en lang historie kort; Hvis du er på jagt efter en enkelt målestok, der giver den bedste indsigt i, hvordan et givet ssd vil få din pc til at føles kvikkere til daglig, er det 4k-vilkårlig løsning med en kødybde én benchmark, du skal have fat i. Den højeste sekventielle ydelse er simpelthen ikke fyldestgørende nok.

Artiklen er publiceret i samarbejde med altomdata.dk

Andre læser

Mest læste

Del artiklen