Tech-Exkurs

Sollte man die derzeit interessantesten offenen Fragen moderner Hardware aufzählen, so wird eines der Themen die "Lebensdauer des Solid State Drives" sein. Tief im Verborgenen der Elektrotechnik existiert dieses geheimnisvolle Gebiet, das nicht wenige düstere Abgründe hat und so bereits seine Opfer forderte. Falls man es betritt, wird der Fragesteller schon am Anfang mit Äußerungen wie "Es gibt nun einmal keine Langzeittests, darum kann hierüber keine zuverlässige Aussage getroffen werden!" konfrontiert. So wird er blind und verunsichert seinen weiteren Weg zur Antwort antreten müssen. Dieser kleine Tech‐Exkurs soll als Hoffnungsschimmer dienen, um die dunklen Abgründe der Unwissenheit ein wenig zu erhellen, damit die Wanderung auf dem Pfad unbeschadet überstanden werden kann.

Bevor wir uns jedoch mutig in das theorielastige Themengebiet „Lebenserwartung von SSDs“ wagen, werfen wir einen ersten Blick auf relevante Fakten, um die Funktionsweise dieser neuen Speichermedien besser zu verstehen. So neu, wie der unbedarfte Leser meinen möchte, sind diese Massenspeicher nämlich nicht. Der Speicherbaustein der SSDs, NAND‐Flash, wird schon seit Jahren in kleineren, meist weniger performanten und erschwinglichen Geräten eingesetzt: USB Flash Drives. Was die Solid State Drives von der bekannten USB Variante unterscheidet, ist vor allem ein deutlich komplexerer Kontroller. Dieser soll die anspruchsvollen Aufgaben eines fest im System eingebundenen oder gar für das Betriebssystem verwendeten Datenträgers mit Wear Leveling-Verfahren zur Schonung der SSD übernehmen. Dabei sorgt ein ausgeklügelter Algorithmus dafür, dass die gesamten Speicherbausteine eines SSD möglichst gleichmäßig benutzt und vor allem möglichst wenig neu beschrieben werden müssen. Der erhöhte Speicherbedarf eines HDD-Ersatzes wird durch die Anbindung mehrerer Flashchips an den Kontroller bewerkstelligt, der Multichannelfähigkeiten besitzt. Der gesamte Aufbau wird in einem 1.8"-, 2.5"- oder 3.5"-Standardgehäuse verpackt. Die Stärken und Schwächen eines SSD lassen sich demnach auf die altbekannte Technik der USB Flash Drives zurückführen. Um zu klären, wie sich die Schwächen auf die Lebensdauer auswirken, muss insbesondere folgende Frage beantwortet werden: Wie werden Daten auf NAND Speicher abgelegt und ausgelesen?
Die Welt der Computer ist denkbar einfach: Einsen und Nullen ‐ Strom fließt oder fließt nicht. Dieses Prinzip steuert unsere moderne Hardware. Dabei wird die Ziffer 0 oder 1 als ein Bit bezeichnet, abgeleitet aus binary digit. Die Ziffernfolge 01110001 entspricht 8 Bit oder 1 Byte. Die Bezeichnungen KByte, Gbyte oder ähnliche Präfixe sorgen meist für Verwirrung, so dass wir uns hier an die Vorschriften der IEC halten werden, vgl.  beispielsweise diesen Artikel auf Wikipedia.de. 1024 Byte werden demnach als 1 KiB geschrieben. Das binäre Datensystem wird bislang auch für Speichermedien übernommen, obwohl schon Ansätze anderer Datenverarbeitung entwickelt wurden. Wird bei der Festplattentechnik noch mit Schreib‐ und Leseköpfen ähnlich eines Plattenspielers gearbeitet, die auf einer ferromagnetisch beschichteten Scheibe (Platter) die Daten abnehmen, so fällt der mechanische Teil bei einem SSD weg. Die HDD schreibt die Daten durch Magnetisieren und Entmagnetisieren bestimmter Bereiche der sich drehenden Platter. Die Magnetisierungszustände werden vom Lesekopf in Analogie zu einem Tonabnehmer in die Datenbits zurückübersetzt. Die Performance wird durch die Umdrehungsgeschwindigkeit der Platter, der physikalischen Größe der magnetischen Sektoren, sowie der Ausrichtungsgeschwindigkeit der Köpfe bestimmt. Ein weiterer Aspekt, der bei der Performancebetrachtung nicht außer Acht gelassen werden sollte, ist die Lage der Daten und deren sogenannter Fragmentation ‐ der Aufteilung einer Datei in mehrere Einzelstücke, die unterschiedlich lokalisiert auf den Plattern verteilt sind. Zudem sinkt die Geschwindigkeit einer sich drehenden Scheibe zu den Innenbereichen hin ab. Die Daten können dort nur langsamer verarbeitet werden. Zusammengefasst hat die HDD mechanisch bedingt hohe Hürden zu nehmen, damit die Datenintegrität bewahrt und die Ausfallwahrscheinlichkeit minimiert wird. Wenn kein Motor vorhanden ist, kann auch kein Motor stehen bleiben. Wenn sich keine Köpfe zwischen den sich schnell drehenden Plattern bewegen, kann auch keine Erschütterung zu einer Kollision beider beitragen, das meist zum Ende eines Festplattendaseins führt. Diese typischen Festplattendefekte entfallen bei einem SSD. Ein ernst zu nehmender und wünschenswerter Schritt in der Entwicklung neuer Speichermedien wurde eingeleitet.
Ein Dateisystem wie FAT oder NTFS basiert auf Clustern, andere Sprechen bei microsoftunabhängigen Betriebssystemen auch von Blöcken, den kleinsten verwaltbaren Datenpaketen auf einem Speichermedium. Die Clustergröße des Betriebssystems kann in einem gewissen Umfang frei gewählt werden. Die kleinste Einheit ist zumeist 512 Byte groß. Zur Auseinanderhaltung der Begriffe wird für das Dateisystem nachfolgend Cluster verwendet, denn der Begriff Block bezeichnet in der Festplattentechnik die kleinste adressierbare Einheit, zu der die Hardware oder besser gesagt das Zusammenspiel der Hardware mit der Firmware des Kontrollers fähig ist. Cluster und Block müssen nicht identisch sein. Vielmehr ist es üblich, dass die Clustergröße meist einem Vielfachen der Blockgröße entspricht. Größere Festplattenkapazitäten führten dazu, dass die begrenzte Anzahl an Adressierungsmöglichkeiten eines Dateisystems nicht mehr ausreichte, um die gesamte Kapazität einer HDD mit der Blockgröße anzusprechen. Zudem ergeben sich Performancevorteile, da Dateien, die kleiner als oder gleich groß als ein Cluster sind, in einem Datenpaket abgearbeitet werden. Der Verwaltungsaufwand des Betriebssystems nimmt ab. Als ein Nebeneffekt wird auch die Fragmentierungsrate gesenkt. Beim Formatieren kann die Clustergröße demnach auch auf Werte wie 4 KiB oder gar 32 KiB eingestellt werden. Optimal wäre eine Größe zu wählen, die dem arithmetischen Mittelwert der Größe aller Dateien entspräche. Dadurch eignen sich große Cluster vor allem zum Verwalten von großen Dateien. Arbeitet man hingegen mit vielen kleinen Dateien, so sollten auch die Cluster dementsprechend gewählt werden. Somit wird der Speicherplatz effektiver genutzt und das System beschleunigt. Wichtig sind in dem Zusammenhang die Begriffe „Random Read“, „Random Write“ und die „Accesstime“ zu nennen. Daten, die über mehrere Cluster verteilt liegen, können auf der HDD so lokalisiert sein, dass die Köpfe sich für jeden Teilabschnitt neu ausrichten müssen. Diese zufälligen Lese‐ und Schreibaufträge brauchen eine bestimmte Zugriffszeit (Accesstime), bis der Vorgang des Neuausrichtens abgelaufen ist. Sollten die Daten ohne mehrmaliges Neuausrichten der Köpfe abgearbeitet werden können, wird von sequentiellem Lesen oder Schreiben gesprochen. Die Zugriffsgeschwindigkeit auf Daten, welche vor allem bei erstmaligen Programmstarts und Öffnen von Dateien limitiert, hängt hauptsächlich von der Drehgeschwindigkeit der Plattern ab. Erst später kann das Betriebssystem die Daten auch aus dem Cache entnehmen. So ist die von Western Digital angebotene HDD‐Serie Velociraptor unter Enthusiasten beliebt, da diese durch die hohe Umdrehungsgeschwindigkeit (10.000 anstatt 7.200 Umdrehungen pro Minute bei „gewöhnlichen“ 3,5“ HDDs) Zugriffszeiten von etwa 4ms ermöglicht. Die drehenden Scheiben erzeugen aber Wärme, Vibrationen und entsprechend Lärm. Hochleistungsfestplatten z.B. SAS‐HDDs mit 15000 Umdrehungen pro Minute haben nicht zu letzt einen hohen Stromhunger. Im mobilen Sektor und im Heimanwenderbereich sind geringe Stromaufnahme, lautloser Betrieb, geringe Bauhöhe, minimales Gewicht und insbesondere Zuverlässigkeit Faktoren, die jedem Käufer die Frage aufdrängen: „Gibt es nichts besseres als HDDs?“

SSDs schicken sich hingegen an, alle Nachteile einer herkömmlichen Festplatte zu beseitigen und auch deutlich länger zu überleben. Wie soll das möglich sein?
Ein Solid State Drive kommt ohne bewegliche Teile aus. Daten werden bei NAND Flash basierenden Speichermedien auf elektronischer Ebene verarbeitet, bei dem der Speicher entweder aus Single Level Cells (SLC) oder Multi Level Cells (MLC) besteht. Die Datenspeicherung erfolgt, indem ein zusätzliches Elektron in eine Flashzelle entweder „hineingedrückt“ wird, dies entspricht dem Wert 0, oder das Elektron entfernt wird (Wert 1). Ein Oxidgate, in der Halbleitertechnik auch als MOSFET bekannt, sorgt dafür, dass das Elektron in der Position gefangen ist und ohne Spannung diesen molekularen Schalter nicht überwinden sollte. Für die Spannungsänderungen ist ein Kondensator zuständig, der je nach chemischen Bestandteilen im MOSFET selbst zu finden ist. Eine SLC-Zelle ist nur fähig, ein Bit (ein Elektron) zu speichern, in MLC-Zellen können zwei oder mehr Bits gespeichert werden. Ein besonderer Nachteil der MLC Technologie ist, dass die Zellen nur einmal beschrieben werden können, ohne erneut gelöscht zu werden. Im Fachjargon spricht man von NOP 1 (Number of Partial Page Operation). Die SLC-Variante erlaubt nach aktuellen Datenblättern zumindest 4 NOPs, bevor diese gelöscht werden. Fasst man einige Milliarden dieser Zellen in Speichersteinen zusammen, und kombiniert mehrere diese Speichersteine über einen Kontroller, erhält man ein SSD.
Analog zu den Festplatten werden mehrere Zellen zu Einheiten, den Pages, zusammengefasst ‐ die kleinste verwaltbare Einheit der SSDs. Die Pagegröße ist relativ unterschiedlich. Für Daten stehen meist 2048 oder 4096 Bytes zur Verfügung. Hinzu kommen meist noch weitere 64 operatible Bytes, mit denen der Kontroller den Zustand der Zellen markiert und auch Ersatzzellen anbieten kann. Ein Block oder auch „Erase Block“ genannt umfasst typischerweise 128 Pages zum Teil sogar mehr. Ein gesamter Speicherbaustein besteht zur Zeit etwa aus 4000 Blöcken. Blöcke umfassen immer die selben Pages und können nicht dynamisch angepasst werden. Ein großes Problem der NAND‐Technologie liegt in der Unfähigkeit, einzelne Pages zu beschreiben bzw. zu löschen. Es muss vor einem Überschreiben einer einzelnen Page immer ein ganzer Block zurückgesetzt werden, in dem alle MOSFETS gleichzeitig geöffnet, die Elektronen entfernt und die gesamten Zellen auf den Wert 1 zurückgestellt werden. Ferner kommt hinzu, dass eine Speicherzelle im speziellen der MOSFET nur eine begrenzte Funktionsdauer besitzt. Dies bedeutet, dass das Elektron ohne zutun aus der Zelle entweichen kann und Datenverlust droht. Wiederholte Löschzyklen schädigen die empfindlichen Oxidgates um so mehr. Für SLC-Speicher wird angenommen, dass nach ca. 100.000, für MLC nach 10.000 Löschzyklen die Funktionstüchtigkeit des MOSFET nicht mehr gegeben ist. Wie immer bei solchen Angaben sind dies Schätzwerte und diesem Falle nicht mal statistisch gut belegt. Wer also meint, eine Zelle müsse laut Hersteller so lange durchhalten, der kann schnell sein blaues Wunder erleben. Durch die ungünstige Schreibfunktion bedingt, werden Blöcke schneller als nicht benutzbar markiert, als man denkt. Ist eine Page dahingeschieden und keine Ersatzzellen mehr für diese Page vorhanden, so sollte der gesamte Block unbrauchbar geworden sein. Eine SLC-Zelle kann nach 100.001 Zyklen zerstört sein, erst nach 32 Millionen oder doch schon nach 100. Nur so viel ist sicher: Die MLC lebt definitiv kürzer als die SLC-Variante und ist zudem auch noch anfälliger für Defekte anderer Art. Nicht ohne Grund sind MLC‐SSDs nur halb so teuer wie ihre Verwandten.
Durch die Eigenheiten von NAND‐Flash ist den SSDs eine begrenzte Lebenszeit gegeben. Wie lange diese ist, hängt von mehreren Faktoren ab, die wir der Reihe nach kurz umreißen.

Güte der Chips: Den Unterschied zwischen SLC und MLC haben wir bereits kurz erläutert. Zudem kommt noch hinzu, dass MLC deutlich anfälliger gegenüber Spannungsschwankungen ist und Fehler trotz ECC nicht ausschließbar sind. Die Ursache liegt im unterschiedlichen Aufbau von MLC- und SLC-Speicher und insbesondere in den verwendeten Materialien. Die Wahrscheinlichkeit eines MLC-Fehlers liegt dreimal so hoch wie bei SLC. Interessant ist diese Tatsache vor allem für Serverumgebungen, bei denen es aufgrund der erhöhten Last eher zu plötzlichen Schwankungen kommt, als in Laptops oder Desktop‐Computern.
Auch nicht zu unterschätzen ist die Tatsache, dass Ausschussware gerne in kostengünstigen Laufwerken verbaut wird. Vorher per Lasercut um die defekten Bereiche beschnitten, wird der funktionierende Teil lieber gewinnbringend verkauft als -mindernd entsorgt. Die Devise "You get what you pay for" (Du bekommst wofür Du bezahlst) macht auch vor der SSD‐Technologie nicht halt.

Wear Leveling: Ohne dieses Verfahren wären SSDs bei der geringen Haltbarkeit aktueller NAND‐Chips nur bedingt einsetzbar und man liefe im erhöhten Maße Gefahr, sich das SSD „kaputtzuschreiben“. So sorgt das Verfahren dafür, dass alle Erase Blocks möglichst mit gleichen Anteilen benutzt und vor allem gelöscht werden. Ohne diese Maßnahme wäre es in kürzester Zeit möglich, bestimmte Bereiche der SSD zu zerstören, indem man eine kleine Datei wieder und wieder abspeichert und anschließend löscht. Stück für Stück könnte man so für das Ausmappen (Stilllegen) von Blöcken sorgen. Wichtige Daten, die auf sicher geglaubten Pages liegen, werden samt Block in die ewigen Jagdgründe eingehen.
Im Detail wird entweder sogenanntes statisches oder dynamisches Wear Leveling eingesetzt. Bei der dynamischen Variante werden neue Daten in bisher weniger verbrauchte Blöcke geschrieben. Beim statischen Verfahren werden auch bereits gespeicherte Daten bei Bedarf verschoben, so dass auch andere, selten eingesetzte Zellen beschrieben frei werden und gleich häufig durch Löschvorgänge belastet sind. Einen erheblichen Anteil am Gelingen dieser Vorgehensweise hat auch die Größe des Speichermediums: Je mehr freier Speicher vorhanden ist, desto länger überleben alle Zellen. Das ganze geschieht übrigens nicht ohne Aufwand und wird vom Kontroller im SSD übernommen. Je leistungsfähiger dieser arbeitet, desto weniger Performanceverlust muss durch Wear Leveling hingenommen werden. Generell ist jedoch mit einem Performanceabfall zu rechnen, je mehr an Daten auf den SSDs gespeichert sind, insbesondere bei MLC‐SSDs.

Reserverzellen: Falls doch mal eine Zelle ausfällt, wird sie ausgemappt und ersetzt. Woher die Ersatzzellen genommen werden, ist von Hersteller zu Hersteller anders. Der eine reserviert 10% von der offiziellen Angabe der Speicherkapazität, der andere nur 5%. Wieder andere Hersteller haben einen versteckten Vorrat an Austauschzellen, die im Notfall einspringen, die meist im operativen Bereich der 64 Byte liegen. Hierdurch wird die Lebensdauer eines SSD beträchtlich erhöht. Vor Datenschwund beim Sterben der Zelle kann es jedoch nicht schützen.

Die Größe der Erase Blocks: Je größer die Erase Blocks sind, desto öfter müssen sie auch nur für geringfügige Schreibvorgänge weniger kleiner Dateien herhalten, da der Anteil eines Blocks an der Gesamtkapazität einer SSD zunimmt. So gibt es große Unterschiede, die meist nicht durch die Herstellerspezifikationen bekannt gegeben werden. Ein SSD kann gut und gerne auch 4 MiB große Erase Blocks haben, was ganz und gar nicht im Sinne der Lebensdauer stehen dürfte. Eine normale Größe liegt eher bei rund 100KiB bis 500KiB, was groß genug ist. Möchte man die Lebensdauer von SSDs berechnen, ist dies ein elementarer Wert.

Die Art der Nutzung: Dass SSDs mit Lesevorgängen normalerweise keine Probleme haben, wurde nun schon oft bewiesen. Mit dem Schreiben sieht es aber ganz anders aus. Begrenzt durch die tatsächliche Dauer eines Löschvorgangs, der Latenzzeit, ist nur ein gleichzeitiger Schreibvorgang möglich. Die Zeiten variieren dabei von 0,1 ms bei SLCs bis zu gemessenen 214 ms einer MLC unter Last. Die Löschvorgänge werden womöglich auch noch für kleine Dateien kurz hintereinander mehrmals ausgeführt, obwohl ein Erase Block für beide Platz gehabt hätte. Wir haben die Situation eines Random Write. Werden die Blöcke hingegen effizient ausgenutzt und möglichst große Datenmengen darin gemeinsam verstaut, ähnelt dies dem sequentiellen Schreiben einer HDD. Für ein SSD ist das sequentielle Schreiben eindeutig die bessere Wahl, da unnötige Löschvorgänge vermieden werden und die Performance darunter kaum leiden sollte. Sequentielles Schreiben lässt sich am besten dadurch erreichen, wenn der SSD-Kontroller ein sogenanntes "log structured file system" beherrschen würde. Kontroller, die Datenströme in sequentielle Vorgänge umwandeln und praktisch Random Writes überflüssig machen würden, existieren noch nicht auf dem Markt, sind aber in Entwicklung. Diese werden die Lebenszeit von SLC und MLC Solid State Drives drastisch erhöhen, ebenso ihre Schreibleistung. Ein kleiner Vorgeschmack hierzu gibt die Software „Managed Flash Technology (MFT)“ entwickelt von der Easy Computing Company.

Zu der Art der Nutzung gehört auch der Einsatz von Defragmentierungsprogrammen. Wird dieser durch ein eingebautes "log structured file system" in Zukunft ohnehin nebensächlich, ist das Defragmentieren schon durch die NAND‐Flash Technologie zu vernachlässigen. Die Lesezugriffszeiten sind mit bis zu 0.1ms geradezu minimal gegenüber HDDs, so dass auch verstreut gespeicherte Daten schnell abgerufen werden können. Wer dennoch defragmentiert, womöglich auch noch durch den Windowshintergrunddienst, verschenkt kostbare Löschzyklen der Speicherzellen. Außerdem wird das Defragmentieren durch die kontrollerinternen Wear Leveling Funktionen zum Teil ad absurdum geführt. Da Blöcke keine Lokalisation haben, existiert ein Hintereinanderschreiben von Dateien nicht. Bestenfalls können Pages optimal mit zusammenhängenden Daten beschrieben werden. Hiervon ist also dringend abzuraten.

Hinzu kommen einige weitere Faktoren, die gerade zur Zeit für etliche Probleme sorgen. Dazu zählen fehlerhaft arbeitende Kontroller, welche dem Käufer des SSD Glauben machen wollen, ihr gerade erst erstandenes Laufwerk hätte nur eine Kapazität von 15MB. Hier muss von den Herstellern noch Feintuning betrieben werden. Auch wird von auftretender Datenkorruption in Verbindung mit OCZs „Core Series“ berichtet, sobald die Kaspersky Antivirensoftware installiert wird. Insbesondere diese Querelen sorgen momentan für rückläufige Ware. Man sollte sich als Käufer darüber im Klaren sein, dass die SSD-Technik noch in der Entwicklung ist und wie viele Betriebssysteme auch Windows und insbesondere auch Vista nicht auf SSDs optimiert ist. Somit sind die Hersteller gezwungen, Windows in vielen Punkten auszutricksen und die SSDs zur HDD Emulation zu zwingen. Damit die gewünschte Performance erreicht werden kann, hat jeder Hersteller seine eigenen Methoden und der Benutzer keinen Einblick – was das Unterfangen nicht gerade erleichtert.

Wovon sich der potentielle Käufer generell freimachen sollte, sind Begriffe wie MTTF (Meantime before failure) oder MTBF (Meantime between failures). Diese Angaben stellen stets Mittelwerte dar. 1.5 Millionen Stunden können also ebenso gut 10.000 Stunden bedeuten. Zudem nutzen die meisten Hersteller die MTBF, wobei meist im Dunkeln bleibt, ob Meantime between failures (was die fehlerfreie Laufzeit + die Reparaturzeit nach dem Fehler bezeichnet, also länger ist als MTTF), oder Meantime before failures gemeint ist, was eigentlich durch MTTF ausgedrückt werden sollte. Ganz zu schweigen von der Definition eines Fehlers: Ein ausgemappter Block wird selten als Fehler angesehen, trotzdem können Daten dabei unwiederbringlich verloren gehen.

In die gleiche Schublade können Raidsysteme gesteckt werden. Boten diese schon bei HDDs nur bedingt Sicherheit, erscheinen sie bei SSDs zu diesem Zweck fast völlig sinnfrei. Hier gibt es keinen Motor der stehen bleiben kann, keinen Lese‐/Schreibarm, der von heute auf morgen nicht mehr funktioniert. Geht eine Zelle kaputt, so werden die korrupten Daten auf allen eingebundenen Raidfestplatten kopiert. Die Wahrscheinlichkeit, dass ein Kontroller oder die Stromzufuhr bei einem der SSDs so ausfällt, dass keine Daten dabei verloren gehen und der Fehler nicht kopiert wird, ist denkbar gering. Einzig der Raid0-Verbund könnte langfristig überleben, bietet er lediglich eine höhere Lese‐ und Schreibperformance.

Wir haben bewusst auf Formeln verzichtet, welche zwar theoretische Lebenszeiten von SSDs generieren, diese aber wahrscheinlich nicht repräsentieren. Hierzu fehlt es tatsächlich schlichtweg an Erfahrungswerten. Wie in etlichen Foren nachgelesen werden kann, gibt es momentan ohnehin erheblich mehr Probleme durch Softwareabstimmungen. Ohne mit Zahlen zu jonglieren, kann so viel gesagt werden: Verlässlich auf Jahre hin gesehen sind momentan lediglich SLC SSDs mit static Wear Leveling. MLC-SSDs werden auf das Einbinden des log structured file system in die Kontroller warten müssen, bevor auch sie über Jahre fehlerfrei arbeiten können. Wer sich dennoch für das Spiel mit dem Feuer interessiert, kann mit folgender Formel arbeiten:

(Löschzyklen) x (SSD-Kapazität in MB) / Schreibrate in MB/s = Lebenszeit in Sekunden


Bei dieser Formel kann ruhig mit sequentieller Schreibrate gerechnet werden, da das SSD hier deutlich schneller schreibt als beim random write. Ein kleines Rechenbeispiel:

10.000 (MLC) x 128.000 MB / 80 MB/s = ca. 6 Monate Lebensdauer


Es sei hierzu noch angemerkt, dass sowohl die Annahme der Löschzyklen rein hypothetisch ist und ein Dauerbeschreiben der Festplatte über 6 Monate hinweg höchstens in speziellen Serverumgebungen, nicht aber im Desktop oder Laptop‐PC, gegeben ist. Aus diesem Grund werfen wir einen Blick auf eine weitere, etwas optimistischer anmutende Konstruktion aus dem Formelbaukasten der SSD-Lebensdauer:

(SSD-Kapazität in GB) x 10.000 (MLC) / gewünschte Lebensdauer y (beispielsweise 3650 für 10 Jahre) = Schreibleistung des SSD pro Tag, bei gewünschter Lebensdauer y


Geht man hier von 128 GB an Speicherplatz, und 10 Jahren Laufzeit aus, dürfte man pro Tag ca. 350 GB auf die MLCs schreiben. Mit dieser Formel erklären sich auch unwahrscheinlich anmutende Angaben von über 200 Jahren Laufzeit für SLC-Drives bei 100 GB Schreibleistung pro Tag. Diese zweite Formel relativiert die oben errechneten 6 Monate; man realisiert einfach nicht, dass 80 MB/s nahezu 7.000 GB Daten pro Tag bedeuten und somit haarscharf an einem durchschnittlichen Benutzerprofil vorbeischrammen. Aber auch hier sollte man nicht vergessen, dass die Formel auf der Annahme basiert, dass jede einzelne MLC ihre 10.000 Löschzyklen überlebt, bevor ein Fehler auftritt. Stirbt eine Zelle schon bei Zyklus 10, kann Datenkorruption auftreten. Ganz zu schweigen davon, dass der Kontroller unter Umständen nicht so lange überlebt oder durch Stromschwankungen Fehler auftauchen. Ein gutes Beispiel für die Aussage- und Suggestionskraft derartiger Formeln, welche nur grobe Anhaltspunkte geben und Langzeiterfahrungen nicht ersetzen. Darum bleiben wir bei obiger Aussage: Arbeiten die Kontroller erst einmal fehlerfrei, sollte ein SSD im Normalfall mindestens solange wie eine normale HDD überleben. Alles andere wird die Zeit ans Licht bringen.