El impulso revolucionario de la computación en el borde

La computación edge es una de las tecnologías más importantes de la época moderna. Gracias a la edge, las organizaciones pueden aprovechar innovaciones que consumen datos como la inteligencia artificial, la biometría, el Internet de las cosas y la gestión de dispositivos finales.

Índice de Contenido
  1. ¿Qué había antes de la edge?
  2. Desde servidores centralizados hasta los primeros enfoques en la edge
  3. Computación edge: desde datos de contenido hasta aplicaciones empresariales

¿Qué había antes de la edge?

El impulso revolucionario de la computación en el borde - Borde | Imagen 1 Newsmatic

Para comprender los primeros días de la edge, debemos remontarnos a la historia de las computadoras. Los orígenes de la computación se remontan a más de 200 años en la historia. Sin embargo, no fue hasta la Segunda Guerra Mundial cuando las computadoras de procesamiento de datos comenzaron a tomar forma con dispositivos como la computadora analógica mecánica del MIT de 1931 y la Máquina de Turing de 1936, un principio para una máquina universal creado por el científico británico Alan Turing.

Según la línea de tiempo de LiveScience, las décadas de los 40, 50 y 60 presenciaron avances en la computación, pero todas estas computadoras compartían algo en común. Eran grandes, a menudo ocupando salas enteras, y procesaban todos los datos en el lugar. De hecho, eran como servidores de datos. Estas computadoras masivas eran caras, poco comunes y difíciles de construir. Se utilizaban principalmente por el ámbito militar, los gobiernos y las grandes industrias.

A fines de la década de 1970, empresas tecnológicas como IBM, Intel, Microsoft y Apple comenzaron a tomar forma, y los microprocesadores y otra microtecnología dieron forma inevitablemente a las primeras computadoras personales. Para la década de 1980, computadoras icónicas como el Macintosh de Apple en 1984 se encontraban en todos los hogares. Estas computadoras personales proporcionaron nuevas aplicaciones, pero al igual que las grandes máquinas de los primeros días, procesaban todos los datos en el dispositivo.

No fue hasta 1989 que comenzó un cambio significativo en la computación de datos cuando Tim Berners-Lee inventó la World Wide Web, el primer servidor web, el primer navegador web y el protocolo de formato llamado Lenguaje de marcado de hipertexto (HTML).

Los datos pasaron de ser procesados por dispositivos a ser procesados por servidores, creando el modelo de servidor-computadora. Pero incluso antes de que se creara oficialmente Internet, Berners-Lee sabía que este modelo tenía un gran problema: la congestión. Berners-Lee se dio cuenta de que cuando más dispositivos se conectaban a Internet, los servidores que proporcionaban los datos se veían afectados. Eventualmente, se alcanzaría un punto de ruptura inevitablemente y las aplicaciones y los sitios web estaban destinados a tener fallas y colapsos en un futuro cercano.

Tendencias fintech 2023: aceleración e innovación en la transformación digital

Desde servidores centralizados hasta los primeros enfoques en la edge

El mismo año en que se creó la web, un pequeño grupo de científicos informáticos del MIT presentó una propuesta comercial en la competencia MIT $50K de 1998. El grupo fue seleccionado como uno de los finalistas ese año. De ese grupo surgió una empresa que cambiaría la forma en que se gestiona los datos en todo el mundo, y esa empresa era Akamai.

Akamai, con una facturación anual de $ 3.5 mil millones, más de 355,000 servidores en más de 135 países y más de 1,300 redes en todo el mundo, es una empresa de redes de distribución de contenido, ciberseguridad y servicios en la nube. Sin embargo, en 1998, eran un pequeño grupo de científicos que trabajaban para resolver el problema de congestión de tráfico que tenía la web en sus inicios. Preveían cómo la congestión iba a paralizar Internet y desarrollaron un concepto innovador para garantizar que los datos fluyeran sin problemas sin que los sitios colapsaran. Así nació la primera arquitectura de computación edge.

Este modelo se alejaba de las relaciones de servidores centralizados que gestionaban todas las transferencias de datos y se alejaba de la relación servidor-dispositivo. La edge descentralizaba este modelo, creando miles de redes y servidores que aliviaban el ancho de banda y reducían la latencia y la fatiga de procesamiento de datos.

El artículo de Akamai de 2002 titulado "Distribución global de entregas de contenido" reveló cómo la empresa desplegó su sistema con 12,000 servicios en más de 1,000 redes para combatir los cuellos de botella y los apagones del servicio al entregar contenido desde la edge de Internet.

"La entrega de contenido desde una sola ubicación puede presentar graves problemas de escalabilidad, confiabilidad y rendimiento del sitio", explicó Akamai. "Al almacenar en caché el contenido en la edge de Internet, reducimos la demanda en la infraestructura del sitio y brindamos un servicio más rápido para los usuarios, cuyo contenido proviene de servidores cercanos".

El sistema de Akamai, cuando se lanzó en 1999, se centró en la entrega de objetos web como imágenes y documentos. Pronto evolucionó para distribuir páginas y aplicaciones generadas dinámicamente, manejando multitudes repentinas mediante la asignación de más servidores a sitios que experimentaban altas cargas. Con control y mapeo automático de la red, el concepto de computación edge presentado por Akamai todavía se utiliza hoy en día.

Beneficios del cómputo en el borde: optimización

Computación edge: desde datos de contenido hasta aplicaciones empresariales

Poco después del surgimiento de la red edge de Akamai, las grandes empresas tecnológicas y los proveedores comenzaron a ofrecer redes de distribución de contenido similares para satisfacer las demandas del auge global de Internet. Durante la siguiente década, el enfoque principal de la edge estuvo en la gestión de datos para sitios web, pero nuevas tecnologías encontrarían nuevos usos para la edge.

El modelo "Servidores centrales-Servidores edge-Dispositivo" experimentaría otro cambio a medida que comenzaran a surgir el IoT, los dispositivos inteligentes y nuevos puntos finales. La red edge hoy en día agrega dispositivos y nodos que pueden procesar datos en el dispositivo mismo. Su función principal no se limita a la distribución de contenido en Internet.

Las empresas utilizan la edge para procesar datos en el lugar, evitando transferencias costosas y que consumen tiempo en la nube y mejorando sus operaciones. Los dispositivos IoT conectados mediante 5G son utilizados por el sector minorista para opciones de pago instantáneas, inventarios y experiencia del cliente, mientras que las industrias utilizan el IoT y los dispositivos de punto final para mejorar el rendimiento, los conocimientos, la seguridad y las operaciones.

Aunque los usos de la edge se han alejado de la distribución de contenido en línea y están alineados con cada negocio, almacenar, procesar, gestionar y distribuir datos en la edge sigue siendo fiel a su esencia.

La historia de la computación edge aún se está escribiendo, ya que en sus últimos 30 años ha visto desarrollos increíbles y la innovación no muestra signos de desaceleración. La edge continuará impulsando avances, ya que los servidores centralizados y la nube no pueden competir con su velocidad, baja latencia, costos, ventajas de seguridad y capacidades de gestión de datos.

Qué es un desarrollador de edge y qué habilidades necesita

En Newsmatic nos especializamos en tecnología de vanguardia, contamos con los artículos mas novedosos sobre Borde, allí encontraras muchos artículos similares a El impulso revolucionario de la computación en el borde , tenemos lo ultimo en tecnología 2023.

Artículos Relacionados

Subir

Utilizamos cookies para mejorar su experiencia de navegación, mostrarle anuncios o contenidos personalizados y analizar nuestro tráfico. Al hacer clic en “Aceptar todo” usted da su consentimiento a nuestro uso de las cookies.