¿Los centros de datos se están quedando sin espacio de almacenamiento? A medida que la cantidad de datos generados ha crecido en las últimas décadas, los medios tecnológicos han experimentado ataques de pánico periódicos sobre si los centros de datos del mundo tienen la capacidad de almacenamiento para manejar toda esa información. Tomemos, por ejemplo, este titular alarmista de 2007: “Crisis de capacidad: centros de datos que se están quedando sin espacio y están en sobrecarga de energía”. El artículo continúa advirtiendo que los centros de datos se enfrentan a un “momento de crisis” y pronto se enfrentarán a “más y más casos de inactividad y fallas”.
Y, sin embargo, más de diez años después, los centros de datos son más fuertes que nunca, con más de 500,000 instalaciones en todo el mundo con una capacidad total estimada de más de 1400 exabytes ( 1 exabyte es aproximadamente igual a mil millones de gigabytes ). Eso es mucho almacenamiento, pero teniendo en cuenta que solo EE. UU. Produce más de 2.5 millones de gigabytes de datos por minuto, ¿será suficiente?
Tabla de contenidos
Mejoras en la memoria
Un problema al hacer esta pregunta es que rara vez tiene en cuenta los rápidos desarrollos en la tecnología de almacenamiento en el transcurso de la última década. Al igual que el pánico de principios de la década de 2000 por el consumo de energía del centro de datos, las preocupaciones sobre las limitaciones de almacenamiento se basan en el presente. Durante décadas, las unidades de disco duro (HDD) fueron la base del almacenamiento de datos debido a su confiabilidad y costo relativamente bajo. Aunque todavía hay espacio para la innovación, los discos duros finalmente están alcanzando sus límites de rendimiento. Mejoras adicionales requerirían demasiado consumo de energía para ser práctico.
Mientras tanto, las unidades de estado sólido (SSD), mejor conocidas como almacenamiento flash, han logrado enormes avances en confiabilidad, rendimiento y capacidad. Si bien la tecnología aún no ha alcanzado la paridad de precios con el almacenamiento HDD, la compensación de rendimiento ya ha convencido a muchos fabricantes y empresas a abandonar el formato anterior. Más importante aún, la memoria SSD solo ha arañado la superficie de su potencial, con nuevos avances cada año para ofrecer una mejor velocidad y capacidad.
Dispositivos de Internet de las cosas
Una fuente importante de creciente volumen de datos es la proliferación de dispositivos de Internet de las cosas (IoT) . Conectados continuamente a las infraestructuras de red y recolectando datos constantemente, se espera que los dispositivos IoT superen los 20 mil millones de unidades para 2020. Estos dispositivos representan muchas de las proyecciones de crecimiento exponencial que generan dudas sobre la capacidad de almacenamiento de datos global. Incluso las estimaciones más conservadoras esperan que los dispositivos IoT generen docenas de zettabytes (1 zettabyte es aproximadamente igual a 1 billón de gigabytes) de datos anualmente en los próximos cinco años.
Afortunadamente, la naturaleza misma de los dispositivos IoT los convierte en un problema un poco menos desalentador de lo que podrían parecer inicialmente. Gran parte de los datos que recopilan estos dispositivos se procesan localmente, a menudo con la potencia informática propia del dispositivo. En otros casos, estos datos se transmitirán a un centro de datos periférico en lugar de a un centro de datos de grado empresarial o hiperescala. Los centros de datos perimetrales pueden recopilar datos, pero no se utilizan principalmente para almacenarlos. Gran parte de la información recopilada por los dispositivos IoT es redundante o no esencial y puede descartarse fácilmente. Mientras que las arquitecturas de computación de borde requerirán poderosas analíticas Para determinar qué datos se deben conservar y qué se puede marcar para su eliminación, la implementación de estas medidas de filtrado disminuirá en gran medida la presión sobre la capacidad del centro de datos.
Datos no estructurados
Gran parte de los datos que se generan hoy se consideran no estructurados, tal vez hasta el 80% si las estimaciones son precisas. Los datos no estructurados se distinguen por la falta de un formato específico. Puede venir en muchos tamaños, formas y formas, por lo que es un desafío administrarlo. Estos datos pueden contener muchas ideas valiosas de negocios, pero encontrar esas ideas puede ser como buscar una aguja en un pajar . Solo vale la pena guardar aproximadamente un 10% de los datos no estructurados para su análisis.
Gran parte de los datos generados por los dispositivos IoT no están estructurados, por lo que se pueden implementar las mismas estrategias básicas para tratar otras formas de datos no estructurados. Mediante el uso de tecnología cognitiva impulsada por la inteligencia artificial, las empresas ya están encontrando formas de interpretar, evaluar y derivar mejor información de estos datos, lo que facilita la administración en el proceso. El hecho de que los centros de datos tengan un almacenamiento exacto no significa que cada fragmento de datos deba conservarse. Gran parte de esta información es redundante, irrelevante o está dañada, por lo que cualquier herramienta que permita identificar y descartar datos “inútiles” resultará invaluable para un almacenamiento y gestión de datos efectivos.
Más centros de datos en camino
Por supuesto, cuando todo lo demás falla, siempre existe la solución simple: ¡ construir más centros de datos !
Además de invertir en nueva tecnología de memoria y usar análisis para separar el trigo de la paja, las compañías también están tomando medidas para aumentar su capacidad general de datos, invirtiendo más de $ 18 mil millones en la construcción de centros de datos solo en los EE. UU. Esta cifra no incluye planes para modernizar las instalaciones existentes para aprovechar la nueva tecnología de almacenamiento y las mejores prácticas de datos. En los próximos dos a cinco años, se espera que los ingresos del centro de datos de múltiples inquilinos aumenten entre un 12% y un 14% por año . Gran parte de ese crecimiento provendrá de una mayor capacidad.
Además de los centros de datos periféricos altamente ágiles que están ayudando a aprovechar el potencial de IoT, los centros de datos masivos de hiperescala se están apoderando rápidamente del sector empresarial. Estados Unidos también es un jugador líder aquí, con aproximadamente el 44% de las instalaciones de hiperescala del mundo, superando con creces a China (8%) y Alemania (5%). Algunas estimaciones incluso predicen que más del 50% de todo el tráfico de datos pasará por estos centros de datos masivos en los próximos años. En el otro extremo del espectro, muchas compañías están experimentando con centros de datos modulares que pueden ensamblarse en el sitio para colocar el almacenamiento más cerca de los usuarios finales y reutilizar el espacio comercial existente para quitarle presión a la capacidad de la red.
Con todas las innovaciones en hardware de memoria y construcción de centros de datos durante la última década, los informes de la “sobrecarga del centro de datos” parecen haber sido muy exagerados. Si bien el almacenamiento de datos siempre será una preocupación crítica para las empresas, la combinación de la nueva tecnología de almacenamiento y una administración de memoria más eficiente está preparada para proporcionar a las empresas todas las herramientas que necesitan para lidiar con las cantidades realmente masivas de datos que se generan hoy y en el futuro .
Leer también:5 formas en que los MSP pueden beneficiarse de una asociación de centro de datos; La conectividad como Servicio, CaaS; transmisiones de datos de la más alta calidad; Data Center Power Design e Infraestructura: lo que necesita saber
Consultor y escritor sobre Marketing online, Social media y temas Geek en general. Comprometido con HostDime en los portales de habla hispana.
More from Data Center
PCI DSS: qué es y qué debo hacer al respecto
PCI DSS: qué es y qué debo hacer al respecto.Hay muchas reglas y regulaciones que las empresas deben seguir cuando …
¿Por qué los centros de datos de hiperescala están aquí para quedarse?
0¿Por qué los centros de datos de hiperescala están aquí para quedarse? A finales de 2017, más de 390 centros …
Métricas y kpis de rendimiento de un servidor web
Métricas y kpis de rendimiento de un servidor web.A medida que una aplicación gana más usuarios en un entorno de …