Wir haben erörtert, wie NVMe für heutige Rechenzentren verschiedene technische Möglichkeiten eröffnet, aber auch Herausforderungen darstellt. In der Theorie entkoppelt die Implementierung von NVMe das Speichergerät vom Hardware-Controller und leistet weit mehr als das, was mit SATA und SAS möglich ist.
Abgesehen von Überlegungen zur Leistung ist eine der größten Sorgen für Rechenzentrumsmanager die Redundanz. Während NVMe-Speicher an herkömmliche Hardware-Controller angeschlossen werden können, besteht ein effizienterer Ansatz für Redundanz in einer Software Defined Storage (SDS)-Plattform.
Wenn ein Unternehmen auf NVMe umsteigt, muss es untersuchen, wie es seine Hochverfügbarkeitspraktiken weiterhin erfüllen kann. Dies gilt insbesondere für Unternehmen, die sehr hohe SLAs haben.
Hersteller von hardwarebasierten RAID-Controllern müssen sich auf den Aufstieg von NVMe einstellen und Lösungen zum Anschluss an bestehende U.2-Server-Backplanes anbieten, damit sie hardwarebasierte NVMe-RAID-Lösungen unterstützen können. Es gibt bereits ein paar RAID-Controller-Karten auf dem Markt, die NVMe unterstützen, aber dieser Markt ist noch neu. Da sich HW-basiertes RAID noch in einem relativ frühen Entwicklungsstadium befindet und Unternehmen gerade erst auf NVMe umsteigen, müssen Architekturentscheidungen in Betracht gezogen werden. Denn sie müssen untersuchen, wie sie ihre Hochverfügbarkeitspraktiken weiterhin erfüllen können, sei es durch SW-basierte HCI-Lösungen wie vSAN, Ceph, Linux SW-basiertes RAID oder LVM-Spiegelung und anwendungsbasierte Hochverfügbarkeitsreplikation wie SQL Always-on oder Oracle ASM-Spiegelung. Man kann argumentieren, dass diese SW-basierten Design-Entscheidungen auch bei HW-basierten RAID-Controllern berücksichtigt werden sollten, da letztere nur gegen eine einzelne Fehlerstelle schützen.