Edge Computing, recursos en tiempo real

Loading color scheme

Edge Computing, recursos en tiempo real

Edge Computing, recursos en tiempo real

En un momento en el que el almacenamiento y procesamiento de datos en la nube y el internet de las cosas está en boga, parecería contradictorio ver un concepto como Edge Computing llegar al interés público. ¿Qué tiene de nuevo que las máquinas puedan procesar datos dentro de sí mismas? Es algo intrínseco de los sistemas, especialmente ahora que varios dispositivos pueden mantenerse conectados a través de una misma red. Pero no se trata del procesamiento de datos, sino del enfoque, y aquí te explicaremos qué hace que el Edge Computing sea especial. 

¿Cómo funciona el Edge Computing?

Edge Computing es una cuestión de ubicación. En la informática empresarial tradicional, los datos se generan en el punto final del cliente, como la computadora del usuario. Estos datos viajan a través de una red de área amplia, como Internet, a través de una LAN corporativa, donde una aplicación corporativa almacena y procesa los datos. Los resultados de este trabajo se envían de vuelta al punto final del cliente. Sigue siendo el enfoque probado en el tiempo para la computación cliente-servidor, para la mayoría de las aplicaciones comerciales típicas.

Sin embargo, la cantidad de dispositivos conectados a Internet y el volumen de datos producidos por estos dispositivos y utilizados por las empresas está creciendo demasiado rápido para que lo contengan las infraestructuras de centros de datos tradicionales. La perspectiva de mover tantos datos en situaciones que a menudo pueden ser sensibles al tiempo, genera una tensión increíble en Internet global, que suele ser propenso a la congestión y fallas.

Por lo tanto, los arquitectos de Tecnologías de la Información (TI) han cambiado su enfoque del centro de datos central al borde lógico de la infraestructura, sacando los recursos informáticos y de almacenamiento del centro de datos y moviéndolos al punto donde se generan los datos. El principio es simple: si no puede acercar los datos al centro de datos, acerque el centro de datos a los datos.

Edge Computing coloca el almacenamiento y los servidores donde residen los datos, lo que a menudo requiere solo una fracción de un rack de equipo para ejecutarse en una LAN remota para recopilar y procesar datos en el sitio. En muchos casos, los equipos informáticos se alojan en cajas blindadas o reforzadas para protegerlos de temperaturas extremas, humedad y otras condiciones ambientales. El procesamiento a menudo implica estandarizar y analizar el flujo de datos para encontrar inteligencia comercial, y solo los resultados del análisis se envían de vuelta al centro de datos principal.

Edge Computing

¿Por qué es importante el Edge Computing?

Las tareas informáticas requieren arquitecturas adecuadas, y una arquitectura adecuada para un tipo de tarea informática puede no serlo necesariamente para todas las demás. Edge Computing se ha convertido en una arquitectura viable e importante que admite la computación distribuida para implementar recursos informáticos y de almacenamiento más cerca de la fuente de datos, idealmente en la misma ubicación física que la fuente de datos. En general, los modelos de computación distribuida no son nuevos y los conceptos de oficinas remotas, sucursales, alojamiento de centros de datos y computación en la nube tienen una historia larga y comprobada.

Sin embargo, la descentralización puede ser un desafío, ya que requiere un alto nivel de supervisión y control que se pasa por alto fácilmente al alejarse del modelo informático centralizado tradicional. Edge Computing se ha vuelto relevante ya que ofrece una solución efectiva a los desafíos de redes emergentes asociados con el movimiento de las enormes cantidades de datos que las organizaciones producen y consumen hoy en día. No es sólo un problema de cantidad. También es cuestión de tiempo; las aplicaciones dependen del procesamiento y las respuestas son cada vez más sensibles al tiempo.

Piense en la aparición de los coches autónomos. Dependen de señales de control de tráfico inteligentes. Los vehículos y los sistemas de control de tráfico deberán recibir, analizar e intercambiar datos en tiempo real. Multiplique ese requisito por la gran cantidad de automóviles autónomos, y la escala de los problemas potenciales se vuelve más evidente. Esto requiere una red rápida y receptiva. La computación perimetral y de niebla resuelve tres limitaciones principales de la red: rendimiento, latencia y congestión o confiabilidad.

  • El rendimiento es la cantidad de datos que una red puede transferir en un período de tiempo determinado, generalmente expresado en bits por segundo. Todas las redes tienen un ancho de banda limitado y estas limitaciones son más severas para las comunicaciones inalámbricas. Esto significa que existe un límite finito para la cantidad de datos o la cantidad de dispositivos que pueden transmitir datos a través de la red. Si bien es posible aumentar el ancho de banda de la red para acomodar más dispositivos y datos, los costos pueden ser significativos, todavía existen límites finitos (más altos) y esto no resuelve otros problemas.
  • Latencia. La latencia es el tiempo que se tarda en transferir datos entre dos puntos de una red. Si bien, idealmente, los datos se intercambian a la velocidad de la luz, las largas distancias físicas, combinadas con la congestión o las fallas de la red, pueden retrasar el movimiento de datos a través de la red. Esto retrasa cualquier proceso analítico y de toma de decisiones y también reduce la capacidad del sistema para responder en tiempo real. En el ejemplo del automóvil autónomo, esto podría costar vidas.
  • Congestión. Internet es esencialmente una red de redes mundial. Aunque ha evolucionado para ofrecer un buen intercambio de datos de propósito general para la mayoría de las tareas informáticas cotidianas, como compartir archivos o transmitir datos básicos, la cantidad de datos involucrada en decenas de miles de millones de dispositivos puede abrumar a Internet, lo que provoca altos niveles de congestión y tiempo para transmitir datos. En otros casos, las interrupciones de la red pueden exacerbar la congestión e incluso cortar por completo las comunicaciones con algunos usuarios de Internet, lo que inutiliza Internet durante las interrupciones.
    Al colocar los servidores y el almacenamiento donde se generan los datos, la computación perimetral puede administrar múltiples dispositivos en una LAN mucho más pequeña y más eficiente, donde los dispositivos locales de generación de datos utilizan exclusivamente el ancho de banda alto, lo que hace que la latencia y la congestión sean prácticamente inexistentes. El almacenamiento local recopila y protege los datos sin procesar, mientras que los servidores perimetrales pueden realizar análisis críticos en el perímetro, o al menos preprocesar y reducir los datos, para tomar decisiones en tiempo real antes de enviar resultados o simplemente datos básicos a la nube o al centro de datos central.

Ventajas del Edge Computing

Autonomía. Edge Computing es útil cuando las comunicaciones no son confiables o el ancho de banda es limitado debido a las condiciones ambientales. Los ejemplos incluyen plataformas petroleras, barcos en el mar, granjas remotas u otros lugares remotos como la selva tropical o el desierto.

Independencia de los datos. Mover grandes cantidades de datos no es solo un problema técnico. El viaje de datos a través de las fronteras nacionales y regionales puede crear seguridad de datos adicional, privacidad y otros problemas legales. Edge Computing se puede utilizar para mantener los datos cerca de su fuente y dentro de las leyes de soberanía de datos aplicables que rigen cómo se almacenan, procesan y divulgan los datos.

Seguridad. Finalmente, la computación perimetral brinda una oportunidad adicional para la implementación y la seguridad de los datos. Si bien los proveedores de la nube brindan servicios de IoT (Internet of the Things) y se especializan en análisis de extremo a extremo, las empresas siguen preocupadas por la seguridad y la integridad de los datos cuando salen de la frontera y regresan a la nube o al centro de datos. Al implementar la computación perimetral, cualquier dato que pase a través de la red de regreso a la nube o al centro de datos se puede proteger con encriptación, y la implementación perimetral en sí misma se puede proteger de los piratas informáticos y otras actividades maliciosas, incluso cuando la seguridad de los dispositivos IoT sigue siendo limitada.

Una solución para mejorar el rendimiento

Probablemente el mejor atractivo del Edge Computing sea su capacidad de manejar recursos en tiempo real. Una aplicación que efectivamente puede mejorar el rendimiento de sus sistemas dependiendo del enfoque que se le dé. Esta es una perspectiva del avance tecnológico que no se puede ignorar. 

 

Para leer más contenido sobre tecnología, puedes consultar nuestro artículo sobre Big Data, ¿qué es y para qué sirve?

Master en big data

6 tipos de tecnología sostenible
¿Qué es el marketing de guerrilla?
 

Comentarios

No hay comentarios por el momento. Se el primero en enviar un comentario.
Invitado
Jueves, 25 Abril 2024