Empresas como Amazon, Microsoft y Google nos han demostrado que podemos confiarles nuestros datos personales. Ahora es el momento de recompensar esa confianza dándoles control total sobre nuestras computadoras, tostadoras y automóviles.
Permitirme presentaros la informática perimetral o Edge Computing.
Edge es una palabra de moda. Al igual que «IoT» y «nube» antes, Edge significa todo y nada. Pero he estado viendo a algunos expertos de la industria en YouTube, escuchando algunos podcasts e incluso, en ocasiones, leyendo artículos sobre el tema. Y creo que se me ocurrió una definición útil y algunas posibles aplicaciones para esta tecnología de moda.
En este artículo comprenderás lo que es Edge Computing, cómo funciona, la influencia de la nube, los casos de uso perimetral, las compensaciones y las consideraciones de implementación.
Indice
¿Qué es Edge Computing?
Edge Computing es una arquitectura de tecnología de la información (TI) distribuida en la que los datos del cliente se procesan en la periferia de la red, lo más cerca posible de la fuente de origen.
Los datos son el elemento vital de los negocios modernos, ya que brindan información comercial valiosa y respaldan el control en tiempo real de los procesos y operaciones comerciales críticos. Las empresas de hoy están inundadas en un océano de datos, y se pueden recopilar grandes cantidades de datos de forma rutinaria desde sensores y dispositivos IoT que operan en tiempo real desde ubicaciones remotas y entornos operativos inhóspitos en casi cualquier parte del mundo.
Pero esta avalancha virtual de datos también está cambiando la forma en que las empresas manejan la informática. El paradigma de computación tradicional basado en un centro de datos centralizado e Internet todos los días no es adecuado para mover ríos de datos del mundo real que crecen sin cesar. Las limitaciones de ancho de banda, los problemas de latencia y las interrupciones impredecibles de la red pueden conspirar para perjudicar dichos esfuerzos. Las empresas están respondiendo a estos desafíos de datos mediante el uso de la arquitectura informática de vanguardia.
En términos más simples, la informática perimetral mueve una parte de los recursos informáticos y de almacenamiento fuera del centro de datos central y más cerca de la fuente de los datos en sí. En lugar de transmitir datos sin procesar a un centro de datos central para su procesamiento y análisis, ese trabajo se realiza donde realmente se generan los datos, ya sea una tienda minorista, una planta de producción, una empresa de servicios públicos en expansión o en una ciudad inteligente.
Solo el resultado de ese trabajo informático en el borde, como información comercial en tiempo real, predicciones de mantenimiento de equipos u otras respuestas procesables, se envía de vuelta al centro de datos principal para su revisión y otras interacciones humanas.
Por lo tanto, la informática perimetral está remodelando la TI y la informática empresarial.
¿Cómo funciona?
Edge computing es todo una cuestión de ubicación. En la informática empresarial tradicional, los datos se producen en un punto final del cliente, como la computadora de un usuario. Esos datos se mueven a través de una WAN como Internet, a través de la LAN corporativa, donde una aplicación empresarial almacena y trabaja con los datos. Los resultados de ese trabajo se transmiten luego al terminal del cliente. Este sigue siendo un enfoque probado en el tiempo para la computación cliente-servidor para la mayoría de las aplicaciones comerciales típicas.
Pero la cantidad de dispositivos conectados a Internet y el volumen de datos producidos por esos dispositivos y utilizados por las empresas está creciendo demasiado rápido para que las infraestructuras de centros de datos tradicionales lo acomoden. Para 2025, el 75 % de los datos generados por las empresas se crearán fuera de los centros de datos centralizados. La perspectiva de mover tantos datos en situaciones que a menudo pueden ser sensibles al tiempo o a las interrupciones ejerce una presión increíble sobre Internet global, que a menudo está sujeto a congestión e interrupciones.
Por lo tanto, los arquitectos de TI han cambiado el enfoque del centro de datos central al borde lógico de la infraestructura, tomando los recursos informáticos y de almacenamiento del centro de datos y moviéndolos al punto donde se generan los datos. El principio es sencillo: si no puedes acercar los datos al centro de datos, acerca el centro de datos a los datos.
El concepto de computación perimetral no es nuevo y tiene sus raíces en ideas de computación remota que datan de hace décadas, como oficinas remotas y sucursales, donde era más confiable y eficiente ubicar los recursos informáticos en la ubicación deseada en lugar de confiar en una única ubicación central.
Edge Computing coloca el almacenamiento y los servidores donde están los datos, lo que a menudo requiere poco más que un bastidor parcial de equipo para operar en la LAN remota para recopilar y procesar los datos localmente. En muchos casos, el equipo de cómputo se implementa en recintos blindados o endurecidos para proteger el equipo de temperaturas extremas, humedad y otras condiciones ambientales. El procesamiento a menudo implica la normalización y el análisis del flujo de datos para buscar inteligencia comercial, y solo los resultados del análisis se envían de vuelta al centro de datos principal.
La idea de inteligencia de negocios puede variar dramáticamente. Algunos ejemplos incluyen entornos minoristas donde la videovigilancia del piso de la sala de exposición podría combinarse con datos de ventas reales para determinar la configuración del producto o la demanda del consumidor más deseable.
Otros ejemplos involucran análisis predictivos que pueden guiar el mantenimiento y reparación de equipos antes de que ocurran defectos o fallas reales. Otros ejemplos más a menudo se alinean con los servicios públicos, como el tratamiento de agua o la generación de electricidad, para garantizar que el equipo funcione correctamente y mantener la calidad de la producción.
Informática perimetral, en la nube y en la niebla
Edge computing está estrechamente asociado con los conceptos de cloud computing y fog computing. Aunque existe cierta superposición entre estos conceptos, no son lo mismo y, en general, no deben usarse indistintamente. Es útil comparar los conceptos y comprender sus diferencias.
Una de las formas más sencillas de comprender las diferencias entre la informática de borde, la nube y la niebla es resaltar su tema común: los tres conceptos se relacionan con la informática distribuida y se centran en la implementación física de los recursos informáticos y de almacenamiento en relación con los datos que se producen. La diferencia es una cuestión de dónde se encuentran esos recursos.
Borde
Edge computing es el despliegue de recursos informáticos y de almacenamiento en el lugar donde se producen los datos. Idealmente, esto coloca la computación y el almacenamiento en el mismo punto que la fuente de datos en el perímetro de la red.
Por ejemplo, se puede instalar un pequeño recinto con varios servidores y algo de almacenamiento encima de una turbina eólica para recopilar y procesar datos producidos por sensores dentro de la propia turbina. Como otro ejemplo, una estación ferroviaria podría colocar una cantidad modesta de cómputo y almacenamiento dentro de la estación para recopilar y procesar innumerables datos de sensores de tráfico ferroviario y de vías.
Los resultados de cualquier procesamiento de este tipo se pueden enviar de vuelta a otro centro de datos para su revisión humana, archivo y fusión con otros resultados de datos para un análisis más amplio.
Nube
La computación en la nube es una implementación enorme y altamente escalable de recursos informáticos y de almacenamiento en una de varias ubicaciones globales distribuidas (regiones). Los proveedores de la nube también incorporan una variedad de servicios preempaquetados para las operaciones de IoT, lo que convierte a la nube en una plataforma centralizada preferida para las implementaciones de IoT.
Pero a pesar de que la computación en la nube ofrece recursos y servicios mucho más que suficientes para abordar análisis complejos, la instalación regional en la nube más cercana aún puede estar a cientos de millas del punto donde se recopilan los datos, y las conexiones dependen de la misma conectividad de Internet temperamental que admite los centros de datos tradicionales.
En la práctica, la computación en la nube es una alternativa, o a veces un complemento, a los centros de datos tradicionales. La nube puede acercar mucho más la computación centralizada a una fuente de datos, pero no al borde de la red.
Niebla
Pero la elección de la implementación de cómputo y almacenamiento no se limita a la nube o al perímetro. Un centro de datos en la nube puede estar demasiado lejos, pero la implementación perimetral puede ser simplemente demasiado limitada en recursos, o físicamente dispersa o distribuida, para que la computación perimetral estricta sea práctica. En este caso, la noción de fog computing puede ayudar.
La computación en la niebla generalmente da un paso atrás y coloca los recursos de cómputo y almacenamiento «dentro» de los datos, pero no necesariamente «en» los datos.
Los entornos de computación en la niebla pueden producir cantidades desconcertantes de sensores o datos de IoT generados en áreas físicas expansivas que son demasiado grandes para definir un borde. Los ejemplos incluyen edificios inteligentes, ciudades inteligentes o incluso redes eléctricas inteligentes.
Considera una ciudad inteligente donde los datos se pueden usar para rastrear, analizar y optimizar el sistema de transporte público, los servicios públicos municipales, los servicios de la ciudad y guiar la planificación urbana a largo plazo. Una implementación de borde único simplemente no es suficiente para manejar tal carga, por lo que la informática de niebla puede operar una serie de implementaciones de nodos de niebla dentro del alcance del entorno para recopilar, procesar y analizar datos.
Es importante recordar que la computación en la niebla y la computación perimetral comparten una definición y arquitectura casi idénticas, y los términos a veces se usan indistintamente incluso entre los expertos en tecnología.
Importancia de Edge Computing
Las tareas informáticas exigen arquitecturas adecuadas, y la arquitectura que se adapta a un tipo de tarea informática no necesariamente se adapta a todos los tipos de tareas informáticas. Edge Computing se ha convertido en una arquitectura viable e importante que admite la computación distribuida para implementar recursos informáticos y de almacenamiento más cerca, idealmente en la misma ubicación física que la fuente de datos. En general, los modelos de computación distribuida no son nuevos, y los conceptos de oficinas remotas, sucursales, colocación de centros de datos y computación en la nube tienen un historial largo y comprobado.
Pero la descentralización puede ser un desafío, ya que exige altos niveles de supervisión y control que se pasan por alto fácilmente al alejarse de un modelo informático centralizado tradicional.
Edge Computing se ha vuelto relevante porque ofrece una solución efectiva a los problemas de red emergentes asociados con el movimiento de enormes volúmenes de datos que las organizaciones actuales producen y consumen. No es sólo un problema de cantidad. También es cuestión de tiempo; las aplicaciones dependen del procesamiento y las respuestas que son cada vez más sensibles al tiempo.
Considera el auge de los coches sin conductor. Dependerán de señales de control de tráfico inteligentes. Los automóviles y los controles de tráfico deberán producir, analizar e intercambiar datos en tiempo real. Multiplica este requisito por una gran cantidad de vehículos autónomos, y el alcance de los problemas potenciales se vuelve más claro. Esto exige una red rápida y receptiva.
Limitaciones
La computación perimetral y de niebla aborda tres limitaciones principales de la red:
Ancho de ancha
El ancho de banda es la cantidad de datos que una red puede transportar a lo largo del tiempo, generalmente expresado en bits por segundo. Todas las redes tienen un ancho de banda limitado y los límites son más severos para la comunicación inalámbrica. Esto significa que existe un límite finito para la cantidad de datos, o la cantidad de dispositivos, que pueden comunicar datos a través de la red. Aunque es posible aumentar el ancho de banda de la red para acomodar más dispositivos y datos, el coste puede ser significativo, todavía hay límites finitos (más altos) y no resuelve otros problemas.
Latencia
La latencia es el tiempo necesario para enviar datos entre dos puntos de una red. Aunque la comunicación idealmente se lleva a cabo a la velocidad de la luz, las grandes distancias físicas junto con la congestión o las interrupciones de la red pueden retrasar el movimiento de datos a través de la red. Esto retrasa cualquier análisis y proceso de toma de decisiones, y reduce la capacidad de un sistema para responder en tiempo real. Incluso costó vidas en el ejemplo del vehículo autónomo.
Congestión
Internet es básicamente una «red de redes» global. Aunque ha evolucionado para ofrecer buenos intercambios de datos de propósito general para la mayoría de las tareas informáticas cotidianas, como intercambios de archivos o transmisión básica, el volumen de datos involucrado con decenas de miles de millones de dispositivos puede abrumar a Internet, causando altos niveles de congestión y forzando retransmisiones de datos que consumen mucho tiempo.
En otros casos, las interrupciones de la red pueden exacerbar la congestión e incluso interrumpir por completo la comunicación con algunos usuarios de Internet, lo que hace que el Internet de las cosas sea inútil durante las interrupciones.
Al implementar servidores y almacenamiento donde se generan los datos, la informática perimetral puede operar muchos dispositivos en una LAN mucho más pequeña y más eficiente donde los dispositivos locales de generación de datos utilizan un amplio ancho de banda, lo que hace que la latencia y la congestión sean prácticamente inexistentes. El almacenamiento local recopila y protege los datos sin procesar, mientras que los servidores locales pueden realizar análisis de borde esenciales, o al menos preprocesar y reducir los datos, para tomar decisiones en tiempo real antes de enviar resultados, o solo datos esenciales, a la nube o centro de datos central.
Casos de uso y ejemplos de Edge Computing
En principio, las técnicas informáticas de borde se utilizan para recopilar, filtrar, procesar y analizar datos «in situ» en el borde de la red o cerca de él. Es un medio poderoso de usar datos que no se pueden mover primero a una ubicación centralizada, generalmente porque el gran volumen de datos hace que tales movimientos sean costosos, tecnológicamente poco prácticos o podrían violar las obligaciones de cumplimiento, como la soberanía de datos. Esta definición ha generado innumerables ejemplos y casos de uso del mundo real:
Fabricación
Un fabricante industrial implementó la computación perimetral para monitorizar la fabricación, lo que permitió el análisis en tiempo real y el aprendizaje automático en el perímetro para encontrar errores de producción y mejorar la calidad de fabricación del producto. Edge Computing apoyó la adición de sensores ambientales en toda la planta de fabricación, proporcionando información sobre cómo se ensambla y almacena cada componente del producto, y cuánto tiempo permanecen en stock.
El fabricante ahora puede tomar decisiones comerciales más rápidas y precisas con respecto a las instalaciones de la fábrica y las operaciones de fabricación.
Agricultura
Considera un negocio que produce cultivos en interiores sin luz solar, tierra o pesticidas. El proceso reduce los tiempos de crecimiento en más de un 60%. El uso de sensores permite a la empresa realizar un seguimiento del uso del agua, la densidad de nutrientes y determinar la cosecha óptima. Los datos se recopilan y analizan para encontrar los efectos de los factores ambientales y mejorar continuamente los algoritmos de cultivo y garantizar que los cultivos se cosechen en las mejores condiciones.
Optimización de la red
Edge Computing puede ayudar a optimizar el rendimiento de la red midiendo el rendimiento de los usuarios en Internet y luego empleando análisis para determinar la ruta de red de baja latencia más confiable para el tráfico de cada usuario. En efecto, la informática perimetral se utiliza para «dirigir» el tráfico a través de la red para lograr un rendimiento óptimo del tráfico sensible al tiempo.
Lugar de trabajo seguro
Edge Computing puede combinar y analizar datos de cámaras en el sitio, dispositivos de seguridad de los empleados y varios otros sensores para ayudar a las empresas a supervisar las condiciones del lugar de trabajo o garantizar que los empleados sigan los protocolos de seguridad establecidos, especialmente cuando el lugar de trabajo es remoto o inusualmente peligroso, como los sitios de construcción o plataformas petrolíferas.
Sanidad mejorada
La industria de la salud ha ampliado drásticamente la cantidad de datos de pacientes recopilados de dispositivos, sensores y otros equipos médicos. Ese enorme volumen de datos requiere computación perimetral para aplicar la automatización y el aprendizaje automático para acceder a los datos, ignorar los datos «normales» e identificar los datos problemáticos para que los médicos puedan tomar medidas inmediatas para ayudar a los pacientes a evitar incidentes de salud en tiempo real.
Transporte
Los vehículos autónomos requieren y producen entre 5 TB y 20 TB por día, recopilando información sobre la ubicación, la velocidad, el estado del vehículo, las condiciones de la carretera, las condiciones del tráfico y otros vehículos. Y los datos deben agregarse y analizarse en tiempo real, mientras el vehículo está en movimiento. Esto requiere una gran cantidad de computación a bordo: cada vehículo autónomo se convierte en un «borde». Además, los datos pueden ayudar a las autoridades y las empresas a gestionar las flotas de vehículos en función de las condiciones reales sobre el terreno.
Venta minorista
Las empresas minoristas también pueden producir enormes volúmenes de datos a partir de vigilancia, seguimiento de existencias, datos de ventas y otros detalles comerciales en tiempo real. Edge Computing puede ayudar a analizar estos diversos datos e identificar oportunidades comerciales, como una campaña o un límite final efectivo, predecir ventas y optimizar los pedidos de proveedores, etc. Dado que los negocios minoristas pueden variar drásticamente en los entornos locales, la computación perimetral puede ser una solución eficaz para el procesamiento local en cada tienda.
Beneficios
Edge Computing aborda desafíos de infraestructura vitales, como las limitaciones de ancho de banda, el exceso de latencia y la congestión de la red, pero existen varios beneficios adicionales potenciales para Edge Computing que pueden hacer que el enfoque sea atractivo en otras situaciones.
Autonomía
Edge computing es útil cuando la conectividad no es confiable o el ancho de banda está restringido debido a las características ambientales del sitio. Los ejemplos incluyen plataformas petroleras, barcos en el mar, granjas remotas u otros lugares remotos, como una selva tropical o un desierto. Edge Computing hace el trabajo de cómputo en el sitio, a veces en el propio dispositivo de borde, como los sensores de calidad del agua en los purificadores de agua en aldeas remotas, y puede guardar datos para transmitirlos a un punto central solo cuando la conectividad está disponible.
Al procesar los datos localmente, la cantidad de datos que se envían se puede reducir considerablemente, lo que requiere mucho menos ancho de banda o tiempo de conectividad de lo que sería necesario de otro modo.
Soberanía de datos
Mover grandes cantidades de datos no es solo un problema técnico. El viaje de los datos a través de las fronteras nacionales y regionales puede plantear problemas adicionales para la seguridad de los datos, la privacidad y otras cuestiones legales.
Edge computing se puede utilizar para mantener los datos cerca de su fuente y dentro de los límites de las leyes de soberanía de datos vigentes, como el RGPD de la Unión Europea, que define cómo se deben almacenar, procesar y exponer los datos. Esto puede permitir que los datos sin procesar se procesen localmente, oscureciendo o asegurando cualquier dato confidencial antes de enviar cualquier cosa a la nube o al centro de datos principal, que puede estar en otras jurisdicciones.
Seguridad de borde
Finalmente, la computación perimetral ofrece una oportunidad adicional para implementar y garantizar la seguridad de los datos. Aunque los proveedores de la nube tienen servicios de IoT y se especializan en análisis complejos, las empresas siguen preocupadas por la seguridad de los datos una vez que salen del borde y regresan a la nube o al centro de datos.
Al implementar la computación en el perímetro, cualquier dato que atraviese la red de regreso a la nube o al centro de datos puede protegerse a través del cifrado, y la implementación del perímetro en sí puede fortalecerse contra piratas informáticos y otras actividades maliciosas, incluso cuando la seguridad en los dispositivos IoT sigue siendo limitada.
Desafíos
Si bien la computación perimetral tiene el potencial de brindar beneficios convincentes en una multitud de casos de uso, la tecnología está lejos de ser infalible. Más allá de los problemas tradicionales de las limitaciones de la red, existen varias consideraciones clave que pueden afectar la adopción de la informática perimetral:
Capacidad limitada
Parte del atractivo que la computación en la nube aporta a la computación perimetral o de niebla es la variedad y la escala de los recursos y servicios. La implementación de una infraestructura en el perímetro puede ser efectiva, pero el alcance y el propósito de la implementación del perímetro deben estar claramente definidos. Incluso una implementación extensa de computación en el perímetro tiene un propósito específico a una escala predeterminada utilizando recursos limitados y pocos servicios.
Conectividad
Edge Computing supera las limitaciones típicas de la red, pero incluso la implementación de Edge más indulgente requerirá un nivel mínimo de conectividad. Es fundamental diseñar una implementación perimetral que se adapte a una conectividad deficiente o errática y tener en cuenta lo que sucede en el perímetro cuando se pierde la conectividad. La autonomía, la IA y la planificación elegante de fallas a raíz de los problemas de conectividad son esenciales para el éxito de la informática perimetral.
Seguridad
Los dispositivos de IoT son notoriamente inseguros, por lo que es vital diseñar una implementación informática de vanguardia que haga hincapié en la gestión adecuada de los dispositivos, como la aplicación de la configuración basada en políticas, así como la seguridad en los recursos informáticos y de almacenamiento, incluidos factores como parches y actualizaciones de software, con especial atención al cifrado en los datos en reposo y en vuelo.
Los servicios de IoT de los principales proveedores de la nube incluyen comunicaciones seguras, pero esto no es automático cuando se crea un sitio perimetral desde cero.
Ciclos de vida de los datos
El problema perenne con el exceso de datos actual es que gran parte de esos datos son innecesarios. Considera un dispositivo de monitorización médica: son solo los datos problemáticos los que son críticos, y no tiene mucho sentido mantener días con datos normales de pacientes. La mayoría de los datos involucrados en el análisis en tiempo real son datos a corto plazo que no se conservan a largo plazo.
Una empresa debe decidir qué datos guardar y qué descartar una vez que se realizan los análisis. Y los datos que se retienen deben estar protegidos de acuerdo con las políticas comerciales y reglamentarias.
Implementación
Edge computing es una idea sencilla que puede parecer fácil en papel, pero desarrollar una estrategia cohesiva y realizar una implementación sólida en el borde puede ser un ejercicio desafiante.
El primer elemento vital de cualquier implementación exitosa de tecnología es la creación de una estrategia comercial y técnica significativa. Tal estrategia no se trata de elegir proveedores o equipo. En cambio, una estrategia perimetral considera la necesidad de computación perimetral. Comprender el «por qué» exige una comprensión clara de los problemas técnicos y comerciales que la organización está tratando de resolver, como superar las limitaciones de la red y observar la soberanía de los datos.
Dichas estrategias podrían comenzar con una discusión sobre qué significa el borde, dónde existe para el negocio y cómo debería beneficiar a la organización. Las estrategias perimetrales también deben alinearse con los planes comerciales existentes y las hojas de ruta tecnológicas. Por ejemplo, si la empresa busca reducir el espacio de su centro de datos centralizado, entonces el borde y otras tecnologías informáticas distribuidas podrían alinearse bien.
A medida que el proyecto se acerca a la implementación, es importante evaluar cuidadosamente las opciones de hardware y software. Hay muchos proveedores en el espacio de la informática perimetral, incluidos Adlink Technology, Cisco, Amazon, Dell EMC y HPE. Cada oferta de producto debe evaluarse en cuanto a coste, rendimiento, características, interoperabilidad y soporte. Desde la perspectiva del software, las herramientas deben proporcionar visibilidad y control completos sobre el entorno de borde remoto.
La implementación real de una iniciativa informática de borde puede variar drásticamente en alcance y escala, desde algunos equipos informáticos locales en un recinto resistente a la batalla sobre una utilidad hasta una amplia gama de sensores que alimentan una conexión de red de baja latencia y gran ancho de banda a la red. No hay dos implementaciones de borde iguales. Son estas variaciones las que hacen que la estrategia y la planificación perimetrales sean tan críticas para el éxito del proyecto perimetral.
Una implementación perimetral exige una supervisión exhaustiva. Recuerda que puede ser difícil, o incluso imposible, llevar al personal de TI al sitio perimetral físico, por lo que las implementaciones perimetrales deben diseñarse para proporcionar resiliencia, tolerancia a fallas y capacidades de autorreparación.
Las herramientas de monitorización deben ofrecer una visión general clara de la implementación remota, permitir un aprovisionamiento y una configuración sencillos, ofrecer alertas e informes completos y mantener la seguridad de la instalación y sus datos. La monitorización perimetral a menudo implica una variedad de métricas y KPI, como la disponibilidad del sitio o el tiempo de actividad, el rendimiento de la red, la capacidad y la utilización del almacenamiento y los recursos informáticos.
Y ninguna implementación perimetral estaría completa sin una cuidadosa consideración del mantenimiento perimetral:
Seguridad
Las precauciones de seguridad física y lógica son vitales y deben incluir herramientas que enfaticen la gestión de vulnerabilidades y la detección y prevención de intrusiones. La seguridad debe extenderse a los sensores y dispositivos IoT, ya que cada dispositivo es un elemento de red al que se puede acceder o piratear, lo que presenta una cantidad desconcertante de posibles superficies de ataque.
Conectividad
La conectividad es otro problema, y se deben tomar disposiciones para el acceso al control y la generación de informes incluso cuando la conectividad para los datos reales no está disponible. Algunas implementaciones perimetrales usan una conexión secundaria para la conectividad y el control de respaldo.
Gestión
Las ubicaciones remotas y, a menudo, inhóspitas de las implementaciones perimetrales hacen que el aprovisionamiento y la gestión remotos sean esenciales. Los administradores de TI deben poder ver lo que sucede en el perímetro y controlar la implementación cuando sea necesario.
Mantenimiento físico
Los requisitos de mantenimiento físico no pueden pasarse por alto. Los dispositivos IoT a menudo tienen una vida útil limitada con reemplazos de batería y dispositivos de rutina. El engranaje falla y eventualmente requiere mantenimiento y reemplazo. La logística práctica del sitio debe incluirse con el mantenimiento.
Edge computing, IoT y posibilidades 5G
Edge Computing continúa evolucionando, utilizando nuevas tecnologías y prácticas para mejorar sus capacidades y rendimiento. Quizás la tendencia más notable es la disponibilidad de borde, y se espera que los servicios de borde estén disponibles en todo el mundo para 2028. Donde la computación de borde a menudo es específica de la situación actual, se espera que la tecnología se vuelva más omnipresente y cambie la forma en que se usa Internet, trayendo más abstracción y posibles casos de uso para la tecnología de punta.
Esto se puede ver en la proliferación de productos de cómputo, almacenamiento y dispositivos de red diseñados específicamente para la computación perimetral. Más asociaciones de múltiples proveedores permitirán una mejor interoperabilidad y flexibilidad de productos en el borde. Un ejemplo incluye una asociación entre AWS y Verizon para brindar una mejor conectividad al borde.
Las tecnologías de comunicación inalámbrica, como 5G y Wi-Fi 6, también afectarán las implementaciones y la utilización del borde en los próximos años, lo que permitirá capacidades de virtualización y automatización que aún no se han explorado, como una mejor autonomía del vehículo y migraciones de cargas de trabajo al borde, mientras hacer que las redes inalámbricas sean más flexibles y rentables.
Edge computing ganó notoriedad con el auge de IoT y el repentino exceso de datos que producen estos dispositivos. Pero con las tecnologías de IoT aún en una etapa relativamente temprana, la evolución de los dispositivos de IoT también tendrá un impacto en el desarrollo futuro de la informática de punta.
Un ejemplo de tales alternativas futuras es el desarrollo de centros de datos micro modulares (MMDC). El MMDC es básicamente un centro de datos en una caja, colocando un centro de datos completo dentro de un pequeño sistema móvil que se puede implementar más cerca de los datos, como en una ciudad o una región, para acercar la informática mucho más a los datos.