¿Qué es Internet?

Internet es una arquitectura de sistema que ha revolucionado las comunicaciones y los métodos de comercio al permitir la interconexión de varias redes informáticas de todo el mundo. A veces denominada “red de redes”, Internet surgió en los Estados Unidos en la década de 1970, pero no se volvió visible para el público en general hasta principios de la década de 1990. Para 2020, se estima que aproximadamente 4500 millones de personas, o más de la mitad de la población mundial, tienen acceso a Internet.

Internet brinda una capacidad tan poderosa y general que puede usarse para casi cualquier propósito que dependa de la información, y es accesible para todas las personas que se conectan a una de sus redes constituyentes . Admite la comunicación humana a través de las redes sociales , correo electrónico (e-mail), “salas de chat”, grupos de noticias y transmisión de audio y video, y permite que las personas trabajen en colaboración en muchos lugares diferentes. Admite el acceso a la información digital por muchas aplicaciones, incluida la World Wide Web. Internet ha demostrado ser un caldo de cultivo para un gran número cada vez mayor de “empresas electrónicas” (incluidas las filiales de empresas físicas tradicionales) que realizan la mayor parte de sus ventas y servicios a través de Internet.

Origin y desarrollo

Primeras redes

Las primeras redes informáticas fueron sistemas dedicados para propósitos especiales como SABRE (un sistema de reserva de aerolíneas) y AUTODIN I (un sistema de comando y control de defensa), ambos diseñados e implementados a fines de la década de 1950 y principios de la de 1960. A principios de la década de 1960, los fabricantes de computadoras habían comenzado a utilizar tecnología de semiconductores en productos comerciales, y tanto el procesamiento por lotes convencional comohabía sistemas de tiempo compartido en funcionamiento en muchas empresas grandes y tecnológicamente avanzadas. Los sistemas de tiempo compartido permitieron que los recursos de una computadora se compartiesen en una sucesión rápida con múltiples usuarios, pasando por la cola de usuarios tan rápido que la computadora parecía dedicada a las tareas de cada usuario a pesar de la existencia de muchos otros accediendo al sistema “simultáneamente”. Esto condujo a la noción de compartir recursos informáticos (llamados ordenadores host o simplementehosts) en toda una red. Se previeron interacciones de host a host , junto con acceso a recursos especializados (como supercomputadoras y sistemas de almacenamiento masivo) y acceso interactivo de usuarios remotos a los poderes computacionales de sistemas de tiempo compartido ubicados en otros lugares. Estas ideas se realizaron por primera vez enARPANET , que estableció la primera conexión de red de host a host el 29 de octubre de 1969. Fue creado por la Agencia de Proyectos de Investigación Avanzada (ARPA) de laDepartamento de Defensa de EE.UU. ARPANET fue una de las primeras redes informáticas de propósito general. Conectó computadoras de tiempo compartido en sitios de investigación apoyados por el gobierno, principalmente universidades en elEstados Unidos , y pronto se convirtió en una pieza crítica de infraestructura para la comunidad de investigación en ciencias de la computación en los Estados Unidos. Rápidamente surgieron herramientas y aplicaciones, como el protocolo simple de transferencia de correo (SMTP, comúnmente conocido como correo electrónico), para enviar mensajes cortos, y el protocolo de transferencia de archivos ( FTP ), para transmisiones más largas. Con el fin de lograr comunicaciones interactivas rentables entre computadoras, que normalmente se comunican en breves ráfagas de datos, ARPANET empleó la nueva tecnología deconmutación de paquetes . La conmutación de paquetes toma mensajes grandes (o fragmentos de datos informáticos) y los divide en piezas más pequeñas y manejables (conocidas como paquetes) que pueden viajar de forma independiente a través de cualquier circuito disponible hasta el destino objetivo, donde las piezas se vuelven a ensamblar. Por lo tanto, a diferencia de las comunicaciones de voz tradicionales, la conmutación de paquetes no requiere un único circuito dedicado entre cada par de usuarios.

Las redes de paquetes comerciales se introdujeron en la década de 1970, pero se diseñaron principalmente para brindar acceso eficiente a computadoras remotas mediante terminales dedicados. Brevemente, reemplazaron las conexiones de módem de larga distancia por circuitos “virtuales” menos costosos sobre redes de paquetes. En los Estados Unidos, Telenet y Tymnet eran dos de esas redes de paquetes. Ninguno admitía comunicaciones de host a host; en la década de 1970 esto seguía siendo competencia de las redes de investigación, y lo seguiría siendo durante muchos años.

DARPA (Agencia de Proyectos de Investigación Avanzada de Defensa; anteriormente ARPA) apoyó iniciativas para redes de paquetes terrestres y satelitales. El sistema de radio por paquetes basado en tierra proporcionó acceso móvil a los recursos informáticos, mientras que la red de paquetes por satélite conectó a los Estados Unidos con varios países europeos y permitió conexiones con regiones remotas y muy dispersas. Con la introducción de la radio por paquetes, la conexión de un terminal móvil a una red informática se volvió factible . Sin embargo, los sistemas de tiempo compartido todavía eran demasiado grandes, difíciles de manejar y costosos para ser móviles o incluso para existir fuera de un entorno informático de clima controlado.. Por lo tanto, existía una fuerte motivación para conectar la red de radio por paquetes a ARPANET para permitir que los usuarios móviles con terminales simples accedieran a los sistemas de tiempo compartido para los que tenían autorización. De manera similar, DARPA utilizó la red satelital de paquetes para conectar los Estados Unidos con terminales satelitales que prestan servicios al Reino Unido, Noruega, Alemania e Italia. Estos terminales, sin embargo, tenían que estar conectados a otras redes en países europeos para poder llegar a los usuarios finales. Surgió así la necesidad de conectar la red de paquetes por satélite, así como la red de paquetes por radio, con otras redes.

Fundación de Internet

Internet fue el resultado del esfuerzo por conectar varias redes de investigación en los Estados Unidos y Europa . Primero, DARPA estableció un programa para investigar la interconexión de “redes heterogéneas”. Este programa, llamado Internetting, se basó en el concepto recientemente introducido de redes de arquitectura abierta, en el que las redes con interfaces estándar definidas estarían interconectadas por “puertas de enlace”. Se planeó una demostración funcional del concepto. Para que el concepto funcionara, se tuvo que diseñar y desarrollar un nuevo protocolo ; de hecho, también se requería una arquitectura de sistema.

En 1974 , Vinton Cerf , entonces en la Universidad de Stanford en California, y este autor , entonces en DARPA, colaboraron en un artículo que describía por primera vez tal protocolo y arquitectura del sistema, a saber, el protocolo de control de transmisión (TCP), que permitía diferentes tipos de máquinas. en redes de todo el mundo para enrutar y ensamblar paquetes de datos. TCP, que originalmente incluía el protocolo de Internet (IP), un mecanismo de direccionamiento global que permitía a los enrutadores llevar los paquetes de datos a su destino final, formó elEstándar TCP/IP , que fue adoptado por el Departamento de Defensa de los EE. UU. en 1980. A principios de la década de 1980, la “arquitectura abierta” del enfoque TCP/IP fue adoptada y respaldada por muchos otros investigadores y, finalmente, por tecnólogos y empresarios de todo el mundo.

En la década de 1980, otros organismos gubernamentales de EE. UU. estaban muy involucrados en la creación de redes, incluido elFundación Nacional de Ciencias (NSF), el Departamento de Energía y la Administración Nacional de Aeronáutica y del Espacio (NASA). Si bien DARPA había desempeñado un papel fundamental en la creación de una versión a pequeña escala de Internet entre sus investigadores, la NSF trabajó con DARPA para expandir el acceso a toda la comunidad científica y académica y hacer de TCP/IP el estándar en todas las redes de investigación con apoyo federal. En 1985–86, la NSF financió los primeros cinco centros de supercomputación: en la Universidad de Princeton , la Universidad de Pittsburgh , la Universidad de California , San Diego , la Universidad de Illinois y la Universidad de Cornell .. En la década de 1980, la NSF también financió el desarrollo y el funcionamiento delNSFNET , una red nacional de “columna vertebral” para conectar estos centros. A fines de la década de 1980, la red operaba a millones de bits por segundo. NSF también financió varias redes locales y regionales sin fines de lucro para conectar a otros usuarios a NSFNET. Algunas redes comerciales también comenzaron a fines de la década de 1980; pronto se les unieron otros, y elCommercial Internet Exchange (CIX) se formó para permitir el tráfico de tránsito entre redes comerciales que, de otro modo, no se habría permitido en la red troncal de NSFNET. En 1995, luego de una revisión exhaustiva de la situación, la NSF decidió que ya no se requería el soporte de la infraestructura NSFNET , ya que muchos proveedores comerciales ahora estaban dispuestos y podían satisfacer las necesidades de la comunidad de investigación, y se retiró su soporte. Mientras tanto, NSF había fomentado una colección competitiva de redes troncales comerciales de Internet conectadas entre sí a través de los llamados puntos de acceso a la red (NAP).

Desde el origen de Internet a principios de la década de 1970, el control de la misma pasó constantemente de la administración del gobierno a la participación del sector privado y, finalmente, a la custodia privada con la supervisión y la indulgencia del gobierno. En la actualidad, un grupo poco estructurado de varios miles de personas interesadas, conocido como el Grupo de Trabajo de Ingeniería de Internet, participa en un proceso de desarrollo de base para los estándares de Internet. Los estándares de Internet son mantenidos por la Sociedad de Internet sin fines de lucro, un organismo internacional con sede en Reston, Virginia. La Corporación de Internet para la Asignación de Nombres y Números ( ICANN ), otra organización privada sin fines de lucro, supervisa varios aspectos de la política con respecto a los nombres y números de dominio de Internet.

Expansión comercial

El auge de los servicios y aplicaciones comerciales de Internet ayudó a impulsar una rápida comercialización de Internet. Este fenómeno fue el resultado de varios otros factores también. Un factor importante fue la introducción de la computadora personal y la estación de trabajo a principios de la década de 1980, un desarrollo que a su vez fue impulsado por un progreso sin precedentes en la tecnología de circuitos integrados y una rápida caída concomitante en los precios de las computadoras. Otro factor, que adquirió una importancia creciente, fue la aparición de Ethernet y otras “redes de área local” para conectar computadoras personales. Pero también intervinieron otras fuerzas. Tras la reestructuración de AT&Ten 1984, NSF aprovechó varias opciones nuevas para los servicios de red troncal digital a nivel nacional para NSFNET. En 1988, la Corporación para Iniciativas Nacionales de Investigación recibió la aprobación para realizar un experimento que vinculaba unservicio de correo electrónico (MCI Mail) a Internet. Esta aplicación fue la primera conexión a Internet de un proveedor comercial que no formaba parte de la comunidad de investigación. Rápidamente siguió la aprobación para permitir el acceso de otros proveedores de correo electrónico, e Internet comenzó su primera explosión en el tráfico.

En 1993, la legislación federal permitió a NSF abrir la red troncal de NSFNET a usuarios comerciales. Antes de ese momento, el uso de la red troncal estaba sujeto a una política de “uso aceptable”, establecida y administrada por la NSF, según la cual el uso comercial se limitaba a aquellas aplicaciones que servían a la comunidad de investigación. NSF reconoció que los servicios de red suministrados comercialmente, ahora que estaban disponibles, en última instancia serían mucho menos costosos que la financiación continua de los servicios de red para fines especiales.

También en 1993, la Universidad de Illinois hizo ampliamente disponible Mosaic, un nuevo tipo de programa informático , conocido comobrowser , que se ejecutaba en la mayoría de los tipos de computadoras y, a través de su interfaz de “apuntar y hacer clic”, simplificaba el acceso, la recuperación y la visualización de archivos a través de Internet.Mosaic incorporó un conjunto de protocolos de acceso y estándares de visualización desarrollados originalmente en la Organización Europea para la Investigación Nuclear ( CERN ) por Tim Berners-Lee para una nueva aplicación de Internet denominadaWorld Wide Web (WWW). En 1994Netscape Communications Corporation (originalmente llamada Mosaic Communications Corporation) se formó para desarrollar aún más el navegador y el software del servidor Mosaic para uso comercial. Poco tiempo después, el gigante del softwareMicrosoft Corporation se interesó en admitir aplicaciones de Internet en computadoras personales (PC) y desarrolló su Navegador web Internet Explorer (basado inicialmente en Mosaic) y otros programas. Estas nuevas capacidades comerciales aceleraron el crecimiento de Internet, que ya en 1988 ya venía creciendo a un ritmo del 100 por ciento anual.

A fines de la década de 1990 había aproximadamente 10.000Proveedores de servicios de Internet (ISP) en todo el mundo, más de la mitad ubicados en los Estados Unidos. Sin embargo, la mayoría de estos ISP solo brindaban servicio local y dependían del acceso a ISP regionales y nacionales para una conectividad más amplia. La consolidación comenzó a fines de la década, con la fusión o la adquisición de muchos proveedores pequeños y medianos por parte de los ISP más grandes. Entre estos proveedores más grandes había grupos comoAmerica Online, Inc. (AOL), que comenzó como un servicio de información de acceso telefónico sin conexión a Internet, pero hizo una transición a fines de la década de 1990 para convertirse en el proveedor líder de servicios de Internet en el mundo, con más de 25 millones de suscriptores para el año 2000. y con sucursales en Australia, Europa, América del Sur y Asia . Los “portales” de Internet ampliamente utilizados como AOL , Yahoo! , Excite, y otros pudieron comandartarifas de publicidad debido a la cantidad de “ojos” que visitaron sus sitios. De hecho, a fines de la década de 1990, los ingresos publicitarios se convirtieron en la búsqueda principal de muchos sitios de Internet, algunos de los cuales comenzaron a especular ofreciendo servicios gratuitos o de bajo costo de varios tipos que se aumentaban visualmente con anuncios. En 2001, esta especulaciónburbuja había estallado.

El siglo XXI y las direcciones futuras

Tras el colapso de la burbuja de Internet vino el surgimiento de lo que se denominó “Web 2.0 ”, una Internet con énfasis en las redes sociales y el contenido generado por los usuarios, y la computación en la nube . Los servicios de redes sociales como Facebook , Twitter e Instagram se convirtieron en algunos de los sitios de Internet más populares al permitir a los usuarios compartir su propio contenido con sus amigos y el resto del mundo. Los teléfonos móviles pudieron acceder a la Web y, con la introducción deteléfonos inteligentes como AppleiPhone (presentado en 2007), la cantidad de usuarios de Internet en todo el mundo se disparó de aproximadamente una sexta parte de la población mundial en 2005 a más de la mitad en 2020.

La mayor disponibilidad de aplicaciones habilitadas para el acceso inalámbrico que antes no eran económicas. Por ejemplo, los sistemas de posicionamiento global (GPS) combinados con el acceso inalámbrico a Internet ayudan a los usuarios móviles a ubicar rutas alternativas, generar informes precisos de accidentes e iniciar servicios de recuperación, y mejorar la gestión del tráfico y el control de la congestión. Además de los teléfonos inteligentes, las computadoras portátiles inalámbricas y los asistentes digitales personales (PDA), se desarrollaron dispositivos portátiles con entrada de voz y anteojos de visualización especiales.

Si bien la estructura precisa de la futura Internet aún no está clara, muchas direcciones de crecimiento parecen evidentes. Una es hacia mayores velocidades de acceso a la red troncal y a la red. Las tasas de datos de la red troncal de 100 mil millones de bits (100 gigabits) por segundo están fácilmente disponibles en la actualidad, pero las tasas de datos de 1 billón de bits (1 terabit) por segundo o más eventualmente serán comercialmente factibles . Si el desarrollo del hardware, el software, las aplicaciones y el acceso local de las computadoras se mantiene al mismo ritmo, es posible que los usuarios accedan a las redes a velocidades de 100 gigabits por segundo. A tales velocidades de datos, el video de alta resolución, de hecho, múltiples flujos de video, ocuparía solo una pequeña fracción del ancho de banda disponible. El ancho de banda restante podría usarse para transmitir señales auxiliares.información sobre los datos que se envían, lo que a su vez permitiría una rápida personalización de las pantallas y una pronta resolución de ciertas consultas locales. Gran parte de la investigación, tanto pública como privada, se ha centrado en los sistemas integrados de banda ancha que pueden transportar simultáneamente múltiples señales: datos, voz y video. En particular, el gobierno de EE. UU. ha financiado investigaciones para crear nuevas capacidades de red de alta velocidad dedicadas a la comunidad de investigación científica.

Está claro que la conectividad de las comunicaciones será una función importante de una Internet futura a medida que más máquinas y dispositivos estén interconectados. En 1998, después de cuatro años de estudio, el Grupo de trabajo de ingeniería de Internet publicó un nuevo estándar de dirección IP de 128 bits destinado a reemplazar el estándar convencional de 32 bits. Al permitir un gran aumento en la cantidad de direcciones disponibles (2 128 , en lugar de 2 32 ), este estándar permite asignar direcciones únicas a casi todos los dispositivos electrónicos imaginables. Así, a través de la “Internet de las cosas ”, en el que todas las máquinas y dispositivos podrían conectarse a Internet, las expresiones oficina, hogar y automóvil “cableados” pueden adquirir nuevos significados, incluso si el acceso es realmente inalámbrico.

La difusión de texto digitalizado, imágenes y grabaciones de audio y video a través de Internet, principalmente disponibles hoy en día a través de la World Wide Web, ha resultado en una explosión de información. Claramente, se necesitan herramientas poderosas para administrar la información basada en la red. La información disponible en Internet hoy puede no estar disponible mañana sin que se preste especial atención a su conservación y archivo .tecnicas La clave para hacer que la información esté disponible de forma persistente es la infraestructura y la gestión de esa infraestructura. Los repositorios de información, almacenados como objetos digitales, pronto poblarán Internet. Al principio, estos repositorios pueden estar dominados por objetos digitales específicamente creados y formateados para la World Wide Web, pero con el tiempo contendrán objetos de todo tipo en formatos que las computadoras de los usuarios podrán resolver dinámicamente en tiempo real. El movimiento de objetos digitales de un repositorio a otro seguirá estando disponible para los usuarios autorizados a acceder a ellos, mientras que las instancias replicadas de objetos en múltiples repositorios brindarán alternativas .a los usuarios que pueden interactuar mejor con ciertas partes de Internet que con otras. La información tendrá su propia identidad y, de hecho, se convertirá en un “ciudadano de primera clase” en Internet.

Relacionados

Deja un comentario