Die Wahl des richtigen Storage-Typs ist eine der folgenreichsten Entscheidungen beim Aufbau einer Proxmox VE-Infrastruktur. Lokaler Speicher, geteilter Storage, softwaredefinierten Cluster-Storage — Proxmox unterstützt ein breites Spektrum an Optionen, und jede davon hat ihre eigenen Stärken und Kompromisse. Dieser Artikel verschafft Ihnen einen strukturierten Überblick über alle gängigen Storage-Typen, erklärt wann welcher Ansatz sinnvoll ist, und gibt konkrete Empfehlungen für den Unternehmenseinsatz.
Lokaler Storage: Die Optionen im Überblick
Lokaler Storage liegt direkt im Proxmox-VE-Host. Er ist einfach einzurichten, bietet niedrige Latenz und eignet sich für viele Einsatzszenarien — ist jedoch nicht ohne weiteres für Live-Migration oder Hochverfügbarkeit geeignet.
Directory (ext4 / XFS)
Der simpelste Storage-Typ: Proxmox verwaltet VM-Images, Container-Rootfs und ISOs als Dateien in einem gewöhnlichen Verzeichnis. Das Dateisystem darunter ist meist ext4 oder XFS.
Vorteile: Keine zusätzliche Konfiguration nötig, sofort einsatzbereit, gut für ISOs und Backups.
Nachteile: Keine nativen Snapshots (nur über QEMU-interne Mechanismen), keine Storage-seitigen Backup-Snapshots, Performance von der zugrunde liegenden Hardware abhängig.
Einsatz: Einstiegsszenario, Homelab, ISO-/Template-Storage.
LVM (Logical Volume Manager)
LVM verwaltet Block-Devices auf dem Host und stellt VMs rohe Block-Geräte zur Verfügung. VM-Images liegen als LVM-Volumes vor.
Vorteile: Geringer Overhead, gute Performance für I/O-intensive Workloads, einfache Verwaltung über Standard-Linux-Tools.
Nachteile: Keine Snapshot-Unterstützung in Proxmox ohne LVM-Thin, kein Overprovisioning möglich, Kapazitätsverwaltung muss manuell erfolgen.
Einsatz: Dedizierte Datenbank-VMs, Workloads mit konstantem I/O-Bedarf.
LVM-Thin
LVM-Thin ist die empfohlene Variante von LVM für Proxmox. Thin-Pools ermöglichen Overprovisioning und — entscheidend — echte Snapshot-Unterstützung.
Vorteile: Snapshots nativ unterstützt, Overprovisioning möglich (mehr VMs als physisch Platz vorhanden), effizientere Speichernutzung.
Nachteile: Bei vollem Pool droht Datenverlust, Monitoring des tatsächlichen Füllstands unbedingt erforderlich, etwas höherer Verwaltungsaufwand als LVM.
Einsatz: Standardlösung auf Hosts ohne ZFS-Anforderungen, wenn Snapshots benötigt werden.
ZFS (lokal)
ZFS ist das funktionsreichste lokale Dateisystem und die empfohlene Wahl für Proxmox-Neuinstallationen. Proxmox bringt native ZFS-Unterstützung mit, kein zusätzliches Setup nötig.
Vorteile: Prüfsummen auf Blockebene (Bit-Rot-Schutz), native Snapshots und Klone, integriertes RAID (Mirror, RAIDZ), Komprimierung, Selbstheilung bei redundanten Konfigurationen.
Nachteile: Höherer RAM-Bedarf (mindestens 8 GB, besser 16–32 GB für ARC-Cache), CPU-Last bei Komprimierung und Prüfsummen, ECC-RAM dringend empfohlen.
Einsatz: Produktivumgebungen, Systeme mit wertvollen Daten, überall wo Datensicherheit Priorität hat.
# ZFS-Mirror beim Proxmox-Setup oder nachträglich anlegen
zpool create -o ashift=12 rpool mirror /dev/sda /dev/sdb
# Komprimierung aktivieren (empfohlen)
zfs set compression=zstd rpool
Geteilter Storage: Netzwerk-basierte Optionen
Geteilter Storage ermöglicht, dass mehrere Proxmox-Hosts gleichzeitig auf dieselben VM-Images zugreifen. Das ist die Voraussetzung für Live-Migration ohne Datenkopie und für Hochverfügbarkeits-Cluster (HA).
NFS (Network File System)
NFS ist der am weitesten verbreitete Netzwerk-Storage-Typ für Proxmox und einfach einzurichten. Ein NFS-Server — oft TrueNAS oder eine dedizierte NAS — stellt Freigaben bereit, die Proxmox als Storage einbindet.
Vorteile: Einfache Einrichtung, breite Kompatibilität, gut für VM-Backups und ISO-Storage, kein spezieller Client nötig.
Nachteile: Keine nativen Snapshots über Proxmox, Performance abhängig von Netzwerk und NFS-Server, bei Netzwerkproblemen entstehen VM-Unterbrechungen.
Einsatz: Backup-Storage, ISO-Bibliothek, geteilter Storage in kleineren Umgebungen.
# NFS-Share in Proxmox einbinden (Datacenter > Storage > Add > NFS)
# Alternativ per CLI:
pvesm add nfs nfs-storage --server 192.168.1.100 --export /mnt/pool/proxmox \
--content images,iso,backup --options vers=4
CIFS/SMB
SMB-Freigaben funktionieren ähnlich wie NFS, sind aber besonders in gemischten Umgebungen mit Windows-Systemen oder Synology-NAS verbreitet.
Vorteile: Gute Integration mit Windows-basierten NAS-Systemen, einfach einzurichten.
Nachteile: Höherer Overhead als NFS, für VM-Images nur bedingt empfehlenswert, Performance unter NFS-Niveau bei gleichem Netzwerk.
Einsatz: Backup-Storage, ISO-Bibliothek, wenn NFS nicht verfügbar ist.
iSCSI mit LVM
iSCSI stellt Block-Devices über das Netzwerk bereit. In Proxmox wird iSCSI oft mit LVM kombiniert: Der iSCSI-LUN wird als Physical Volume in einer LVM-Gruppe verwendet, die dann von allen Cluster-Nodes genutzt wird.
Vorteile: Block-Level-Performance über Netzwerk, HA-tauglich, bekannte LVM-Tools nutzbar, breite Hardware-Kompatibilität.
Nachteile: Konfigurationsaufwand höher als NFS, gleichzeitiger Zugriff mehrerer Hosts erfordert Cluster-LVM (clvm) oder LVM-Lock-Daemon, iSCSI-Ziel-Software oder Hardware-Controller erforderlich.
Einsatz: Umgebungen mit bestehendem SAN, Workloads die Block-Storage benötigen, HA-Cluster.
Ceph RBD
Ceph ist eine softwarebasierte, verteilte Storage-Lösung die direkt in Proxmox VE integriert ist. Ceph verteilt Daten über mehrere Nodes des Clusters und ermöglicht so echten softwaredefinierten Shared Storage ohne externe Hardware.
Vorteile: Kein Single Point of Failure, skalierbar (einfach weitere Nodes hinzufügen), native Proxmox-Integration, Live-Migration und HA ohne externe Abhängigkeit, Snapshots und Klone unterstützt.
Nachteile: Mindestens 3 Nodes erforderlich (empfohlen: 5+), hohe Anforderungen an Netzwerk (dediziertes 10-GbE-Netz empfohlen), erhöhter RAM-Bedarf (Ceph OSD braucht Speicher), Lernkurve bei Administration und Troubleshooting.
Einsatz: Produktions-Cluster ab 3 Nodes, HA-Umgebungen, skalierbare Infrastrukturen.
Vergleichstabelle: Alle Storage-Typen auf einen Blick
| Storage-Typ | Live-Migration | Snapshots | Backups | Performance | Komplexität | HA | Kosten |
|---|---|---|---|---|---|---|---|
| Directory (ext4/XFS) | Nein | Eingeschränkt | Ja | Mittel | Niedrig | Nein | Keine |
| LVM | Nein | Nein | Ja | Hoch | Niedrig | Nein | Keine |
| LVM-Thin | Nein | Ja | Ja | Hoch | Mittel | Nein | Keine |
| ZFS lokal | Nein | Ja | Ja | Hoch | Mittel | Nein | Keine |
| NFS | Ja | Nein* | Ja | Mittel | Niedrig | Ja | NAS/Server |
| CIFS/SMB | Ja | Nein* | Ja | Niedrig–Mittel | Niedrig | Ja | NAS/Server |
| iSCSI + LVM | Ja | Eingeschränkt | Ja | Hoch | Hoch | Ja | SAN/NAS |
| Ceph RBD | Ja | Ja | Ja | Hoch | Hoch | Ja | Hardware (3+ Nodes) |
*Snapshots bei NFS/CIFS sind serverseitig möglich (z. B. ZFS-Snapshots auf TrueNAS), nicht über Proxmox selbst.
Welcher Storage für welchen Anwendungsfall?
Homelab und Einsteiger: ZFS lokal als System-Storage, NFS-Share einer bestehenden NAS für Backups und ISOs. Einfach, zuverlässig, kein zusätzlicher Aufwand.
KMU ohne HA-Anforderung: ZFS lokal (Mirror oder RAIDZ) als primärer VM-Storage, Proxmox Backup Server auf TrueNAS/NFS für Backups. Snapshots und Datensicherheit ohne Cluster-Komplexität.
KMU mit HA-Anforderung (2–4 Nodes): iSCSI-LUNs von TrueNAS als Shared Storage kombiniert mit lokalem ZFS für leseintensive Workloads. Ceph ist hier oft überproportioniert; iSCSI mit TrueNAS als Ziel ist pragmatischer.
Unternehmensumgebung (5+ Nodes): Ceph RBD als nativer Proxmox Shared Storage. Vollständige Integration, keine externe Abhängigkeit, horizontale Skalierbarkeit. Anforderung: dediziertes Ceph-Netzwerk und ausreichend RAM pro Node.
Storage-Typen kombinieren: Best Practices
In der Praxis betreiben die meisten Unternehmen mehrere Storage-Typen parallel — und das ist gewollt. Ein bewährtes Setup für mittelgroße Umgebungen:
- Lokales ZFS (Mirror): Schnelle I/O-intensive VMs (Datenbanken, ERP)
- Ceph RBD oder iSCSI: HA-fähige VMs, die über Nodes migriert werden müssen
- NFS (TrueNAS): Backups, ISO-Bibliothek, Archiv-Storage
- PBS (auf ZFS): Proxmox Backup Server für inkrementelle, deduplizierte VM-Sicherungen
Proxmox VE erlaubt je VM und je Disk die Wahl des Storage-Typs. Eine Datenbank-VM kann also ihre System-Disk auf lokalem ZFS und ihr Backup auf NFS liegen haben.
TrueNAS als externer Storage für Proxmox
TrueNAS (Scale oder Core) ist eine der häufigsten Ergänzungen zu Proxmox-Clustern. TrueNAS basiert auf ZFS und bietet sowohl NFS- als auch iSCSI-Targets — beides offiziell von Proxmox unterstützt.
Typisches Setup: TrueNAS als dedizierte Storage-Appliance stellt iSCSI-LUNs für Shared Block Storage und NFS-Shares für Backup-Storage bereit. Proxmox bindet beides ein und erhält so einen kosteneffizienten, leistungsfähigen Shared Storage ohne proprietäre SAN-Hardware.
Bei iSCSI-Targets auf TrueNAS empfiehlt sich die Nutzung von ZFS-Zvols als Backing-Store — sie bieten Snapshots auf TrueNAS-Seite und werden von TrueNAS direkt verwaltet, unabhängig von Proxmox.
Storage-Monitoring mit DATAZONE Control
Storage-Probleme kündigen sich an: Füllstand steigt, Latenzen erhöhen sich, ZFS-Pools melden Fehler. DATAZONE Control überwacht Ihre gesamte Proxmox-Storage-Infrastruktur zentral: ZFS-Pool-Status, Festplattenauslastung, iSCSI-Verbindungen und NFS-Mount-Status werden kontinuierlich geprüft. Automatische Alerts warnen rechtzeitig, bevor ein voller Storage-Pool VMs zum Stillstand bringt — und geben Ihrem Team Zeit, proaktiv zu handeln.
Fazit
Es gibt keinen universell besten Proxmox-Storage-Typ. ZFS lokal ist für die meisten Einzelhost-Setups die klare Empfehlung. Für HA-Cluster ist Ceph die eleganteste Lösung — vorausgesetzt, die Mindestanforderungen werden erfüllt. NFS und iSCSI von TrueNAS sind pragmatische, kosteneffiziente Alternativen für Shared Storage ohne Ceph-Overhead. Entscheidend ist, die Anforderungen des Workloads zu kennen und Storage-Typen gezielt zu kombinieren.
Sie möchten Ihre Proxmox-Infrastruktur mit dem richtigen Storage-Konzept aufbauen oder optimieren? Kontaktieren Sie uns — wir analysieren Ihre Anforderungen und implementieren eine passgenaue Storage-Architektur für Ihren Betrieb.
Mehr zu diesen Themen:
Weitere Artikel
Backup-Strategie für KMU: Proxmox PBS + TrueNAS als zuverlässiges Backup-Konzept
Backup-Strategie für KMU mit Proxmox PBS und TrueNAS: 3-2-1-Regel umsetzen, PBS als primäres Backup-Target, TrueNAS-Replikation als Offsite-Kopie, Retention Policies und automatisierte Restore-Tests.
Proxmox Notification-System: Matcher, Targets, SMTP, Gotify und Webhooks
Proxmox Notification-System ab PVE 8.1 konfigurieren: Matcher und Targets, SMTP-Setup, Gotify-Integration, Webhook-Targets, Notification-Filter und sendmail vs. neue API.
TrueNAS mit MCP: KI-gestützte NAS-Verwaltung per natürlicher Sprache
TrueNAS mit MCP (Model Context Protocol) verbinden: KI-Assistenten für NAS-Verwaltung, Status-Abfragen, Snapshot-Erstellung per Chat, Sicherheitsaspekte und Zukunftsausblick.