Nos damos cuenta de que está visitando el sitio del Reino Unido. ¿Le gustaría visitar nuestro sitio principal?

Gráfico de un microchip con cubos alrededor que representan el almacenamiento

La promesa NVMe: Aproveche al máximo las CPUs existentes

La capacidad de aumentar el rendimiento de la interfaz SATA ha hecho que la mayoría de los centros de datos sean lentos en adoptar la tecnología NVMe. Es más fácil aumentar la capacidad o aumentar el rendimiento con IOPS más altas o una latencia más baja cuando usa algo lento como SATA. Si observa los centros de datos actuales, la mayoría de los arquitectos de centros de datos se centran en mejorar la utilización de la CPU. Con un bastidor o rack lleno de CPUs costosas (independientemente de la cantidad de núcleos o los costos de licencia pagados), los centros de datos rara vez son capaces de utilizar las CPUs hasta cerca del treinta por ciento de su capacidad máxima.

Imagínese pagar por una sala de servidores llena de Ferraris solo para terminar estancado conduciéndolos a 20 mph. Este no es un problema Ford contra Ferrari, sino más bien un problema de combustible sin plomo contra alto octanaje.

NVMe está impulsando un nuevo cambio con velocidades de transferencia y aprovisionamiento en memoria, lo que le permite duplicar la utilización del treinta a casi el sesenta por ciento. Usando la infraestructura existente, NVMe puede hacer que las CPUs se ejecuten de manera más eficiente con menor latencia y mayor rendimiento. Sin embargo, debe poder acomodarse al NVMe. Las limitaciones pueden incluir sus placas base existentes o la imposibilidad de conectar y reemplazar por su factor de forma actual. Se convierte en una remodelación mas amplia.

SSDs para servidores y DC1000B de Kingston

Para pasar de un sistema basado en SAS, la arquitectura del servidor debe cambiar a menos que use un adaptador para meter un SSD NVMe en el bus PCIe. Esto será un cambio de plataforma completo para un cliente. En comparación con el uso de controladores huésped basados en hardware SATA y SAS, la interfaz PCIe está definida por software y ofrece una mayor eficiencia a los procesos exclusivos. Es asombroso cómo NVMe proporciona baja latencia y la capacidad de las CPUs para hacer multiproceso.

Ahora, la siguiente pregunta que podría hacer es: "¿Qué es más importante en la actualidad? ¿Actualizar todo el automóvil o simplemente turboalimentar el motor? "

Para la mayoría de los administradores de centros de datos, el cambio será gradual, comenzando con ligeras actualizaciones como el DC1500M y DC1000Bde Kingston

Ilustración de un velocímetro con un haz de luz que lo atraviesa

NVMe Over Fabrics

NVMe-oF permite el acceso compartido y centralizado de dispositivos NVMe a través de una red especializada (FC/RDMA/TCP), lo que permite el acceso al dispositivo vinculado a la red como si fuera local para los servidores cliente. Los beneficios de la gestión de almacenamiento centralizada de NVMe incluyen una gestión simplificada, una mejor utilización de la capacidad y una eliminación más sencilla de puntos únicos de fallos. La especificación NVMe-oF requiere fabrics de canal de fibra, RDMA o TCP. El protocolo de canal de fibra (FCP) ha sido la tecnología de transporte de almacenamiento empresarial líder desde mediados de la década de 1990, utilizado para transportar paquetes SCSI a través de redes de canal de fibra, por lo que fue fundamental para NVMe definir el nuevo protocolo "FC-NVMe" y hacer posible el transporte de tráfico SCSI y NVMe a través del canal de fibra, lo que permite a los usuarios existentes de FCP en entornos SAN actualizarse a FC-NVMe. RDMA (acceso remoto directo a memoria) es también otro protocolo convencional que ha existido durante años en Infiniband, RoCE (RDMA sobre Ethernet convergente) y fabrics iWARP, por lo que la creación de RDMA fue una forma para NVMe de aprovechar estas tecnologías de transporte existentes. TCP/IP es el protocolo de transporte de red más convencional que tiene sólidos principios de diseño desde finales de los 70. Era natural que NVMe desarrollara una metodología para transportar comandos NVMe a través de redes TCP existentes, para reducir los costos de implementación y acelerar el tiempo de configuración.

La aparición de NVMe-oF también presenta más desafíos para la infraestructura de IT, ya que el cuello de botella que existía con los dispositivos SCSI se mueve hacia los controladores de red y las interfaces, pero muchas empresas han innovado switches y NICs que admiten velocidades de red más altas y QoS altamente ajustables. Los fabricantes de la matriz basada íntegramente en tecnología flash (all-flash array) también han innovado al ofrecer una implementación NVMe-oF de extremo a extremo con una variedad de herramientas para sintonizar una mejor QoS y eliminar vecinos ruidosos.

#KingstonIsWithYou

Artículos relacionados