ZFS nutzt keine klassischen Hardware-RAID-Controller, sondern implementiert Redundanz direkt im Dateisystem. Die RAID-Level von ZFS — RAID-Z1, RAID-Z2, RAID-Z3 und Mirror — bieten unterschiedliche Kompromisse zwischen Kapazität, Performance und Ausfallsicherheit. Die richtige Wahl hängt von Plattenzahl, Plattenkapazität und Verfügbarkeitsanforderungen ab.
Warum kein Hardware-RAID mit ZFS?
ZFS muss direkten Zugriff auf die physischen Datenträger haben. Ein Hardware-RAID-Controller versteckt die einzelnen Platten hinter einem virtuellen Volume — ZFS verliert damit zentrale Fähigkeiten:
- Checksummen: ZFS prüft jede Datenblock-Integrität. Bei Hardware-RAID erkennt ZFS keine Silent Data Corruption.
- Self-Healing: ZFS kann fehlerhafte Blöcke automatisch aus der Redundanz reparieren — nur mit direktem Plattenzugriff.
- Flexible Erweiterung: ZFS-Pools lassen sich durch neue vdevs erweitern, ohne den RAID-Controller umzukonfigurieren.
Die Empfehlung: HBA-Controller (Host Bus Adapter) im IT-Modus oder JBOD-Modus verwenden. Der HBA reicht die Platten direkt an ZFS durch.
Die ZFS RAID-Level
Mirror (RAID 1)
Ein Mirror besteht aus 2 oder 3 identischen Kopien jedes Datenblocks.
- Minimum: 2 Datenträger
- Redundanz: 1 Platte darf ausfallen (2-Way Mirror), 2 Platten (3-Way Mirror)
- Nutzbare Kapazität: 50 % (2-Way) bzw. 33 % (3-Way)
- Read-Performance: Exzellent — ZFS liest von beiden/allen Spiegeln parallel
- Write-Performance: Gut — Daten werden gleichzeitig auf alle Spiegel geschrieben
- Rebuild-Zeit: Schnell — nur die Daten des ausgefallenen Datenträgers müssen kopiert werden
Empfehlung: Ideal für kleine Setups (2–4 Platten), Boot-Drives, SSDs und Log-Devices (SLOG/ZIL). Bei SSDs ist Mirror der Standard, da der Kapazitätsverlust bei schnellen Medien weniger ins Gewicht fällt.
RAID-Z1 (ähnlich RAID 5)
RAID-Z1 verteilt Daten und eine Paritätsinformation über alle Datenträger eines vdevs.
- Minimum: 3 Datenträger (empfohlen: 3–5)
- Redundanz: 1 Platte darf ausfallen
- Nutzbare Kapazität: (n−1)/n — z. B. 80 % bei 5 Platten
- Read-Performance: Gut — sequenziell schnell, IOPS durch Stripe-Breite skalierbar
- Write-Performance: Gut — Parität wird bei jedem Write berechnet
- Rebuild-Zeit: Mittel bis lang — alle Daten aller Platten werden gelesen
Empfehlung: Für unkritische Daten oder wenn eine zweite Backup-Kopie existiert. Bei Platten ab 4 TB raten wir von RAID-Z1 ab — die Rebuild-Zeit bei großen Platten beträgt Stunden bis Tage, und ein zweiter Ausfall während des Rebuilds führt zum Datenverlust.
RAID-Z2 (ähnlich RAID 6)
RAID-Z2 nutzt zwei Paritätsblöcke pro Stripe.
- Minimum: 4 Datenträger (empfohlen: 4–8)
- Redundanz: 2 Platten dürfen gleichzeitig ausfallen
- Nutzbare Kapazität: (n−2)/n — z. B. 75 % bei 8 Platten
- Read-Performance: Gut — vergleichbar mit RAID-Z1
- Write-Performance: Leicht geringer als Z1 — zwei Paritätsberechnungen
- Rebuild-Zeit: Lang — aber während des Rebuilds ist ein zweiter Ausfall toleriert
Empfehlung: Der Standard für Produktivdaten ab 4 Platten. Besonders wichtig bei großen HDDs (8+ TB), wo die Rebuild-Zeit mehrere Stunden bis Tage beträgt. RAID-Z2 ist der beste Kompromiss zwischen Kapazität und Sicherheit.
RAID-Z3 (Triple Parity)
RAID-Z3 nutzt drei Paritätsblöcke pro Stripe.
- Minimum: 5 Datenträger (empfohlen: 6–12)
- Redundanz: 3 Platten dürfen gleichzeitig ausfallen
- Nutzbare Kapazität: (n−3)/n — z. B. 75 % bei 12 Platten
- Read-Performance: Gut
- Write-Performance: Etwas geringer als Z2
- Rebuild-Zeit: Sehr lang — aber selbst bei zwei gleichzeitigen Ausfällen noch Schutz
Empfehlung: Für sehr große vdevs (8+ Platten) mit großen HDDs (12+ TB). Bei Platten dieser Kapazität dauert ein Rebuild so lange, dass während des Rebuilds statistisch gesehen ein weiterer Ausfall auftreten kann. RAID-Z3 gibt die Sicherheit, dass selbst dann keine Daten verloren gehen.
Kapazitätsberechnung
| Konfiguration | Platten | Nutzbare Kapazität | Tolerierbare Ausfälle |
|---|---|---|---|
| 2× Mirror | 2× 16 TB | 16 TB (50 %) | 1 |
| 3× RAID-Z1 | 3× 16 TB | 32 TB (67 %) | 1 |
| 4× RAID-Z1 | 4× 16 TB | 48 TB (75 %) | 1 |
| 4× RAID-Z2 | 4× 16 TB | 32 TB (50 %) | 2 |
| 6× RAID-Z2 | 6× 16 TB | 64 TB (67 %) | 2 |
| 8× RAID-Z2 | 8× 16 TB | 96 TB (75 %) | 2 |
| 6× RAID-Z3 | 6× 16 TB | 48 TB (50 %) | 3 |
| 10× RAID-Z3 | 10× 16 TB | 112 TB (70 %) | 3 |
| 12× RAID-Z3 | 12× 16 TB | 144 TB (75 %) | 3 |
vdev-Breite: Wie viele Platten pro vdev?
Die optimale Anzahl Platten pro vdev hängt vom RAID-Level ab:
- Mirror: 2 (Standard) oder 3 (hohe Verfügbarkeit)
- RAID-Z1: 3–5 Platten (nicht mehr — Rebuild-Risiko steigt)
- RAID-Z2: 4–8 Platten
- RAID-Z3: 6–12 Platten
Faustregel: Die Gesamtzahl der Platten durch die vdev-Breite teilen, um die Anzahl der vdevs zu bestimmen. Ein Pool mit 12 Platten kann z. B. als 2× 6er RAID-Z2 oder 3× 4er RAID-Z2 konfiguriert werden.
Mehr vdevs = mehr IOPS (Schreiboperationen werden über vdevs verteilt). Aber: Ein vdev ist die kleinste Redundanzeinheit — bei einem vdev-Ausfall sind die Daten verloren.
Striped Mirror vs RAID-Z
Für hohe Random-IOPS (Datenbanken, VMs) sind Striped Mirrors oft besser als RAID-Z:
Pool mit 8 Platten:
Option A: 1× RAID-Z2 (8 Platten) → ~6× sequenzielle Speed, ~1× Random-IOPS
Option B: 4× Mirror (je 2 Platten) → ~4× sequenzielle Speed, ~4× Random-IOPS
RAID-Z schreibt immer einen ganzen Stripe — auch bei kleinen Blöcken. Mirrors schreiben nur die betroffenen Blöcke. Für VM-Storage (viele kleine Reads/Writes) sind Mirrors daher oft performanter.
Empfehlungen nach Anwendungsfall
| Anwendung | Empfohlenes Layout | Begründung |
|---|---|---|
| NAS/Fileserver | RAID-Z2 (6–8 HDDs) | Beste Kapazitätsausnutzung bei guter Sicherheit |
| VM-Storage (Proxmox) | Mirror (SSDs) | Maximale IOPS für VM-Workloads |
| Backup-Ziel (PBS) | RAID-Z2 (4–8 HDDs) | Kapazität wichtiger als IOPS |
| Datenbank | Mirror (SSDs) | Random-IOPS entscheidend |
| Archiv (Cold Storage) | RAID-Z3 (8–12 HDDs) | Maximale Sicherheit bei großen Platten |
| Boot-Drive | Mirror (2× SSD) | Einfach, schnell, redundant |
Häufig gestellte Fragen
Kann ich das RAID-Level nachträglich ändern?
Nein — das RAID-Level eines bestehenden vdevs kann nicht geändert werden. Der Pool muss neu erstellt werden. Daher ist die initiale Planung entscheidend. Seit OpenZFS 2.3 können allerdings vdevs um zusätzliche Platten erweitert werden (RAIDZ Expansion).
Wie lange dauert ein Rebuild?
Abhängig von Plattengröße und -geschwindigkeit: Bei einer 16 TB HDD mit ~200 MB/s dauert ein Resilver (ZFS-Rebuild) ca. 22 Stunden. Bei einer 2 TB SSD mit 500 MB/s nur ~1 Stunde.
Was ist besser: RAID-Z2 oder 3-Way Mirror?
Beides toleriert 2 Ausfälle. RAID-Z2 bietet mehr Kapazität (z. B. 67 % bei 6 Platten vs. 33 % bei 3-Way Mirror). 3-Way Mirror bietet bessere Random-IOPS. Für Kapazität → Z2, für Performance → Mirror.
Brauche ich trotzdem ein Backup?
Ja — RAID (jedes Level) schützt vor Plattenausfall, nicht vor versehentlichem Löschen, Ransomware oder Feuer. Ein RAID-Level ersetzt kein Backup. Die 3-2-1-Regel gilt unabhängig vom RAID-Level.
Sie planen ein TrueNAS-Storage-System und sind unsicher welches RAID-Level das richtige ist? Kontaktieren Sie uns — wir dimensionieren den Pool passend zu Ihrem Workload.
Mehr zu diesen Themen:
Weitere Artikel
Backup-Strategie für KMU: Proxmox PBS + TrueNAS als zuverlässiges Backup-Konzept
Backup-Strategie für KMU mit Proxmox PBS und TrueNAS: 3-2-1-Regel umsetzen, PBS als primäres Backup-Target, TrueNAS-Replikation als Offsite-Kopie, Retention Policies und automatisierte Restore-Tests.
TrueNAS mit MCP: KI-gestützte NAS-Verwaltung per natürlicher Sprache
TrueNAS mit MCP (Model Context Protocol) verbinden: KI-Assistenten für NAS-Verwaltung, Status-Abfragen, Snapshot-Erstellung per Chat, Sicherheitsaspekte und Zukunftsausblick.
ZFS SLOG und Special VDEV: Sync Writes beschleunigen und Metadaten optimieren
ZFS SLOG (Separate Intent Log) und Special VDEV erklärt: Sync Writes beschleunigen, SLOG-Sizing, Special VDEV für Metadaten, Hardware-Auswahl mit Optane und Risiken bei Ausfall.