Las computadoras realmente se convirtieron en grandes inventos en las últimas dos décadas del siglo XX. Pero su historia se remonta más de 2500 años atrás al ábaco: una calculadora simple hecha de cuentas y alambres, que todavía se usa en algunas partes del mundo en la actualidad. La diferencia entre un ábaco antiguo y una computadora moderna parece enorme, pero el principio, hacer cálculos repetidos más rápidamente que el cerebro humano, es exactamente el mismo.

1. Ábacos y calculadoras

Es una medida del brillo del ábaco, inventado en el Medio Oriente alrededor del año 500 a. C., que siguió siendo la forma más rápida de calculadora hasta mediados del siglo XVII.

Luego, en 1642, con solo 18 años, el científico y filósofo francés Blaise Pascal (1623-1666) inventó la primera calculadora mecánica práctica , la Pascalina, para ayudar a su padre recaudador de impuestos a hacer sumas. La máquina tenía una serie de dientes entrelazados (ruedas dentadas con dientes alrededor de sus bordes exteriores) que podían sumar y restar números decimales.

Varias décadas después, en 1671, el matemático y filósofo alemán Gottfried Wilhelm Leibniz(1646-1716) se le ocurrió una máquina similar pero más avanzada.

En lugar de usar engranajes, tenía un «tambor escalonado» (un cilindro con dientes de longitud creciente alrededor de su borde), una innovación que sobrevivió en las calculadoras mecánicas durante 300 años. La máquina Leibniz podría hacer mucho más que la de Pascal: además de sumar y restar, podría multiplicar, dividir y resolver raíces cuadradas. Otra característica pionera fue el primer almacén de memoria o «registro».

Además de desarrollar una de las primeras calculadoras mecánicas del mundo, Leibniz es recordado por otra contribución importante a la informática: fue el hombre que inventó el código binario, una forma de representar cualquier número decimal usando solo los dos dígitos cero y uno. Aunque Leibniz no hizo uso del binario en su propia calculadora, hizo pensar a otros.

En 1854, poco más de un siglo después de la muerte de Leibniz, el inglés George Boole (1815-1864) utilizó la idea para inventar una nueva rama de las matemáticas llamada álgebra booleana.

En las computadoras modernas, el código binario y el álgebra booleana permiten que las computadoras tomen decisiones simples al comparar largas cadenas de ceros y unos. Pero, en el siglo XIX, estas ideas todavía estaban muy adelantadas a su tiempo. A los matemáticos e informáticos les llevaría otros 50 a 100 años descubrir cómo usarlos (descubra más en nuestros artículos sobre calculadoras y puertas lógicas ).

2. Motores de cálculo

Ni el ábaco ni las calculadoras mecánicas construidas por Pascal y Leibniz realmente fueron calificadas como computadoras. Una calculadora es un dispositivo que facilita y agiliza el cálculo de las personas, pero necesita un operador humano.

Una computadora, por otro lado, es una máquina que puede operar automáticamente, sin ayuda humana, siguiendo una serie de instrucciones almacenadas llamadas programa (una especie de receta matemática). Las calculadoras se convirtieron en computadoras cuando las personas idearon formas de hacer calculadoras programables y totalmente automáticas.

Cómo se usaban las tarjetas perforadas en las primeras computadoras. Un dibujo de la Patente Art of Compiling Statistics de Herman Hollerith, 8 de enero de 1889.

Foto: Tarjetas perforadas: Herman Hollerith perfeccionó la forma de usar tarjetas perforadas y cinta de papel para almacenar información y alimentarla en una máquina. Existen dibujos de su Arte de compilación de estadísticas de 1889 (Patente de EE. UU. # 395,782), que muestra cómo se perfora una tira de papel (amarillo) con diferentes patrones de agujeros (naranja) que corresponden a las estadísticas recopiladas sobre las personas en el censo de EE. UU. Imagen cortesía de la Oficina de Patentes y Marcas de los Estados Unidos.

La primera persona en intentar esto fue un matemático inglés bastante obsesivo y notoriamente gruñón llamado Charles Babbage (1791-1871). Muchos consideran a Babbage como el «padre de la computadora» porque sus máquinas tenían una entrada (una forma de alimentar los números), una memoria (algo para almacenar estos números mientras se realizaban cálculos complejos), un procesador (el generador de números que llevó a cabo los cálculos) y una salida (un mecanismo de impresión), los mismos componentes básicos compartidos por todas las computadoras modernas.

Durante su vida, Babbage nunca completó una sola de las máquinas enormemente ambiciosas que intentó construir. Eso no fue una sorpresa. Cada uno de sus «motores» programables fue diseñado para usar decenas de miles de engranajes hechos con precisión., una máquina Pascal o Leibniz aumentaba mil veces en dimensiones, ambición y complejidad.

Durante un tiempo, el gobierno británico financió Babbage, por un monto de £ 17,000, luego una suma enorme. Pero cuando Babbage presionó al gobierno para obtener más dinero para construir una máquina aún más avanzada, perdieron la paciencia y se retiraron. Babbage fue más afortunado al recibir ayuda de Augusta Ada Byron (1815-1852), condesa de Lovelace, hija del poeta Lord Byron.

Como matemática entusiasta, ayudó a refinar las ideas de Babbage para hacer que su máquina fuera programable, y es por eso que a veces se la conoce como la primera programadora de computadoras del mundo. Poco del trabajo de Babbage sobrevivió después de su muerte. Pero cuando, por casualidad, sus cuadernos fueron redescubiertos en la década de 1930, los informáticos finalmente apreciaron el brillo de sus ideas. Desafortunadamente, para entonces, la mayoría de estas ideas ya habían sido reinventadas por otros.

Babbage tenía la intención de que su máquina eliminara el trabajo pesado de los cálculos repetitivos. Originalmente, se imaginó que sería usado por el ejército para compilar las tablas que ayudaron a sus artilleros a disparar cañones con mayor precisión.

Hacia finales del siglo XIX, otros inventores tuvieron más éxito en su esfuerzo por construir «motores» de cálculo. Estadístico estadounidense Herman Hollerith(1860–1929) construyeron una de las primeras máquinas de cálculo prácticas del mundo, a la que llamó tabulador, para ayudar a compilar datos del censo.

Entonces, como ahora, se realizaba un censo cada década, pero, en la década de 1880, la población de los Estados Unidos había crecido tanto a través de la inmigración que un análisis a gran escala de los datos a mano llevaba siete años y medio. Los estadísticos pronto descubrieron que, si las tendencias continuaban, se les agotaría el tiempo para compilar un censo antes de que venza el siguiente.

Afortunadamente, el tabulador de Hollerith fue un éxito increíble: contó todo el censo en solo seis semanas y completó el análisis completo en solo dos años y medio. Poco después, Hollerith se dio cuenta de que su máquina tenía otras aplicaciones, por lo que creó la Tabulation Machine Company en 1896 para fabricarla comercialmente.

3. Bush y la bomba

La historia de la computación recuerda personajes coloridos como Babbage, pero otros que desempeñaron roles importantes, aunque de apoyo, son menos conocidos. En el momento en que CTR se estaba convirtiendo en IBM, el científico del gobierno estadounidense Vannevar Bush (1890-1974) estaba desarrollando las calculadoras más potentes del mundo.

En 1925, Bush hizo el primero de una serie de artilugios difíciles de manejar con nombres igualmente engorrosos: el nuevo multiplicador de interacciones de productos de grabación. Más tarde, construyó una máquina llamada Analizador diferencial, que utilizaba engranajes, correas, palancas y ejes para representar números y realizar cálculos de una manera muy física, como una gigantesca regla de cálculo mecánico.

La calculadora definitiva de Bush fue una máquina mejorada llamada Analizador diferencial Rockefeller, ensamblada en 1935 a partir de 320 km (200 millas) de cable y 150motores electricos . Las máquinas como estas se conocían como calculadoras analógicas , analógicas porque almacenaban números en forma física (como tantas vueltas en una rueda o giros de una correa) en lugar de dígitos. Aunque pudieron realizar cálculos increíblemente complejos, se necesitaron varios días para hacer girar las ruedas y girar la correa antes de que finalmente aparecieran los resultados.

Impresionantes máquinas como el Analizador Diferencial fueron solo una de varias contribuciones sobresalientes que Bush hizo a la tecnología del siglo XX. Otro vino como el maestro de Claude Shannon (1916–2001), un matemático brillante que descubrió cómo los circuitos eléctricos podían vincularse para procesar código binario con álgebra booleana (una forma de comparar números binarios usando la lógica) y así tomar decisiones simples.

Durante la Segunda Guerra Mundial, el presidente Franklin D. Roosevelt nombró al presidente de Bush primero del Comité de Investigación de Defensa Nacional de los Estados Unidos y luego director de la Oficina de Investigación y Desarrollo Científico (OSRD).

En esta capacidad, estuvo a cargo del Proyecto Manhattan, la iniciativa secreta de 2 mil millones de dólares que condujo a la creación de la bomba atómica. Una de las contribuciones finales de Bush en tiempo de guerra fue esbozar, en 1945, una idea para un dispositivo de almacenamiento y uso compartido de memoria llamado Memex que luego inspiraría a Tim Berners-Lee a inventar la World Wide Web.

Pocos fuera del mundo de la informática recuerdan a Vannevar Bush hoy, ¡pero qué legado! Como padre de la computadora digital, un supervisor de la bomba atómica y una inspiración para la Web, Bush jugó un papel fundamental en tres de las tecnologías de mayor alcance del siglo XX.

4. Turing: Probando

Muchos de los pioneros de la informática fueron experimentadores prácticos, pero de ninguna manera todos ellos. Una de las figuras clave en la historia de la informática del siglo XX, Alan Turing (1912–1954) fue un brillante matemático de Cambridge cuyas principales contribuciones fueron a la teoría.de cómo las computadoras procesaron la información.

En 1936, a la edad de solo 23 años, Turing escribió un artículo matemático innovador llamado «Sobre números computables, con una aplicación al problema Entscheidungs», en el que describió una computadora teórica ahora conocida como máquina de Turing (un procesador de información simple que funciona a través de una serie de instrucciones, leer datos, escribir resultados y luego pasar a la siguiente instrucción). Las ideas de Turing fueron muy influyentes en los años siguientes y muchas personas lo consideran el padre de la informática moderna, el equivalente de Babbage del siglo XX.

Aunque esencialmente era un teórico, Turing se involucró con maquinaria real y práctica, a diferencia de muchos matemáticos de su tiempo. Durante la Segunda Guerra Mundial, desempeñó un papel fundamental en el desarrollo de maquinaria para descifrar códigos que, en sí misma, desempeñó un papel clave en la victoria británica en tiempos de guerra.

Más tarde, jugó un papel menor en la creación de varias computadoras experimentales a gran escala, incluyendo ACE (Automatic Computing Engine), Colossus y el Manchester / Ferranti Mark I (descrito a continuación).

Hoy, Alan Turing es más conocido por concebir lo que se conoce como la prueba de Turing, una forma simple de averiguar si una computadora puede considerarse inteligente al comprobar si puede o no mantener una conversación plausible con un ser humano real.

5. Las primeras computadoras modernas

Los años de la Segunda Guerra Mundial fueron un período crucial en la historia de la informática, cuando comenzaron a aparecer poderosas computadoras gigantes. Justo antes del estallido de la guerra, en 1938, el ingeniero alemán Konrad Zuse (1910–1995) construyó su Z1, la primera computadora binaria programable del mundo, en la sala de estar de sus padres.

Al año siguiente, el físico estadounidense John Atanasoff (1903–1995) y su asistente, el ingeniero eléctrico Clifford Berry(1918–1963), construyeron una máquina binaria más elaborada que llamaron Atanasoff Berry Computer (ABC).

Fue un gran avance, 1000 veces más preciso que el analizador diferencial de Bush. Estas fueron las primeras máquinas que utilizaron interruptores eléctricos para almacenar números: cuando un interruptor estaba «apagado», almacenaba el número cero; volteado a su otra posición, «encendido», almacenó el número uno.

Cientos o miles de conmutadores podrían almacenar una gran cantidad de dígitos binarios (aunque el binario es mucho menos eficiente a este respecto que el decimal, ya que se necesitan hasta ocho dígitos binarios para almacenar un número decimal de tres dígitos). Estas máquinas eran computadoras digitales: a diferencia de las máquinas analógicas, que almacenaban números usando las posiciones de ruedas y barras, almacenaban números como dígitos.

La primera computadora digital a gran escala de este tipo apareció en 1944 en la Universidad de Harvard, construida por el matemático Howard Aiken (1900-1973). Patrocinado por IBM, se le conocía como Harvard Mark I o Calculadora automática de secuencia controlada de IBM (ASCC).

Una máquina gigante, con una longitud de 15 m (50 pies), era como una enorme calculadora mecánica integrada en una pared. Debe haber sonado impresionante, porque almacenaba y procesaba números usando relés electromagnéticos «clickety-clack» (imanes operados eléctricamente que cambiaban automáticamente las líneas en el teléfonointercambios): no menos de 3304 de ellos.

Puede que hayan sido impresionantes, pero los relevos sufrieron varios problemas: eran grandes (por eso el Harvard Mark I tenía que ser tan grande); necesitaban fuertes impulsos de poder para hacerlos cambiar; y eran lentos (tomó un tiempo para que un relé cambiara de «apagado» a «encendido» o de 0 a 1).

La mayoría de las máquinas desarrolladas en esta época estaban destinadas a fines militares. Al igual que los motores mecánicos nunca construidos de Babbage, fueron diseñados para calcular las mesas de tiro de artillería y analizar las otras tareas complejas que entonces eran la gran cantidad de matemáticos militares.

Durante la Segunda Guerra Mundial, los militares cooptaron a miles de las mejores mentes científicas: reconociendo que la ciencia ganaría la guerra, la Oficina de Investigación y Desarrollo Científico de Vannevar Bush empleó a 10,000 científicos solo de los Estados Unidos. Las cosas eran muy diferentes en Alemania. Cuando Konrad Zuse ofreció construir su computadora Z2 para ayudar al ejército, no pudieron ver la necesidad y lo rechazaron.

Del lado aliado, las grandes mentes comenzaron a hacer grandes avances. En 1943, un equipo de matemáticos con sede en Bletchley Park, cerca de Londres, Inglaterra (incluido Alan Turing) construyó una computadora llamada Coloso para ayudarlos a descifrar códigos secretos alemanes. Coloso fue la primera computadora totalmente electrónica.

En lugar de relés, utilizó una mejor forma de interruptor conocido como tubo de vacío (también conocido, especialmente en Gran Bretaña, como válvula). El tubo de vacío, cada uno tan grande como el pulgar de una persona y brillando al rojo vivo como una pequeña bombilla eléctrica, fue inventado en 1906 por Lee de Forest (1873-1961), quien lo llamó Audion.

Este avance le valió a De Forest su sobrenombre como «el padre de la radio» porque su primer uso importante fue en receptores de radio , donde amplificaron señales entrantes débiles para que las personas puedan escucharlas con mayor claridad.

En computadoras como ABC y Colossus, los tubos de vacío encontraron un uso alternativo como interruptores más rápidos y compactos.

Al igual que los códigos que intentaba descifrar, Coloso era de alto secreto y su existencia no se confirmó hasta después de que terminó la guerra. En lo que respecta a la mayoría de las personas, los tubos de vacío fueron pioneros de una computadora más visible que apareció en 1946: el Calculador e Integrador Numérico Electrónico (ENIAC).

Los inventores de ENIAC, dos científicos de la Universidad de Pennsylvania, John Mauchly (1907–1980) y J. Presper Eckert (1919–1995), se inspiraron originalmente en el analizador diferencial de Bush; años más tarde, Eckert recordó que ENIAC era el «descendiente de la máquina del Dr. Bush».

Pero la máquina que construyeron era mucho más ambiciosa. Contenía cerca de 18,000 tubos de vacío (nueve veces más que Coloso), medía alrededor de 24 m (80 pies) de largo y pesaba casi 30 toneladas. ENIAC es generalmente reconocida como la primera computadora digital totalmente electrónica y de propósito general del mundo.

Coloso también podría haber calificado para este título, pero fue diseñado exclusivamente para un trabajo (descifrado de código); Como no podía almacenar un programa, no podía reprogramarse fácilmente para hacer otras cosas.

ENIAC fue solo el comienzo. Sus dos inventores formaron la Eckert Mauchly Computer Corporation a fines de la década de 1940. Trabajando con un brillante matemático húngaro, John von Neumann (1903–1957), con sede en la Universidad de Princeton, diseñaron una máquina mejor llamada EDVAC (Electronic Discrete Variable Automatic Computer). En un trabajo clave, von Neumann ayudó a definir cómo la máquina almacenaba y procesaba sus programas, sentando las bases de cómo funcionan todas las computadoras modernas. [6] Después de EDVAC, Eckert y Mauchly desarrollaron UNIVAC 1 (Computadora automática UNIVersal) en 1951.

Fueron ayudados en esta tarea por una joven matemática y reserva naval estadounidense en gran parte desconocida llamada Grace Murray Hopper (1906-1992), quien originalmente empleado por Howard Aiken en el Harvard Mark I. Al igual que el tabulador de Herman Hollerith más de 50 años antes, UNIVAC 1 se utilizó para procesar datos del censo de EE. UU. Luego se fabricó para otros usuarios y se convirtió en la primera computadora comercial a gran escala del mundo.

Máquinas como Colossus, ENIAC y Harvard Mark I compiten por el significado y el reconocimiento en la mente de los historiadores de la informática. ¿Cuál fue realmente la primera gran computadora moderna? Todos y ninguno: estas, y varias otras máquinas importantes, evolucionaron nuestra idea de la computadora electrónica moderna durante el período clave entre finales de la década de 1930 y principios de la década de 1950.

Entre esas otras máquinas había computadoras pioneras creadas por académicos ingleses, en particular la Manchester / Ferranti Mark I, construida en la Universidad de Manchester por Frederic Williams (1911–1977) y Thomas Kilburn (1921–2001), y la EDSAC (Electronic Delay Storage Automatic Calculadora), construida por Maurice Wilkes (1913–2010) en la Universidad de Cambridge.

6. La revolución micro electrónica

Los tubos de vacío fueron un avance considerable en los interruptores de relé, pero las máquinas como la ENIAC eran notoriamente poco confiables. El término moderno para un problema que detiene un programa de computadora es un «error».

La leyenda popular dice que esta palabra entró en el vocabulario de los programadores de computadoras en algún momento de la década de 1950 cuando las polillas, atraídas por las luces brillantes de los tubos de vacío, volaron dentro de máquinas como el ENIAC, causaron un corto circuito y detuvieron el trabajo. Pero también hubo otros problemas con los tubos de vacío. Consumieron enormes cantidades de energía: el ENIAC usaba aproximadamente 2000 veces más electricidad que una computadora portátil moderna. Y ocuparon grandes cantidades de espacio.

Las necesidades militares estaban impulsando el desarrollo de máquinas como la ENIAC, pero el gran tamaño de los tubos de vacío ahora se había convertido en un problema real. ABC había usado 300 tubos de vacío, Coloso tenía 2000, y el ENIAC tenía 18,000. Los diseñadores de ENIAC se habían jactado de que su velocidad de cálculo era «al menos 500 veces mayor que la de cualquier otra máquina informática existente».

Pero el desarrollo de computadoras que eran de un orden de magnitud más potente aún habría necesitado cientos de miles o incluso millones de tubos de vacío, lo que habría sido demasiado costoso, difícil de manejar y poco confiable. Por lo tanto, se requería urgentemente una nueva tecnología.

La solución apareció en 1947 gracias a tres físicos que trabajan en los Laboratorios Bell Telephone (Bell Labs). John Bardeen (1908–1991), Walter Brattain (1902–1987) y William Shockley (1910–1989) estaban ayudando a Bell a desarrollar una nueva tecnología para el sistema telefónico público estadounidense, por lo que las señales eléctricas que transmitían las llamadas telefónicas podían amplificarse más fácilmente y llevado más lejos.

Shockley, quien lideraba el equipo, creía que podía usar semiconductores (materiales como germanio y silicio que permiten que la electricidad fluya a través de ellos solo cuando han sido tratados de manera especial) para hacer una mejor forma de amplificadorque el tubo de vacío Cuando sus primeros experimentos fallaron, hizo que Bardeen y Brattain trabajaran en la tarea por él.

Finalmente, en diciembre de 1947, crearon una nueva forma de amplificador que se conoció como el transistor de contacto de punto. Bell Labs acreditó a Bardeen y Brattain con el transistor y les otorgó una patente. Esto enfureció a Shockley y lo impulsó a inventar un diseño aún mejor, el transistor de unión, que ha formado la base de la mayoría de los transistores desde entonces.

Al igual que los tubos de vacío, los transistores podrían usarse como amplificadores o interruptores. Pero tenían varias ventajas importantes. Eran una fracción del tamaño de los tubos de vacío (generalmente del tamaño de un guisante), no usaban energía a menos que estuvieran en funcionamiento y eran prácticamente 100 por ciento confiables.

El transistor fue uno de los avances más importantes en la historia de la informática y le valió a sus inventores el mayor premio de ciencias del mundo, el Premio Nobel de Física de 1956 . Para entonces, sin embargo, los tres hombres ya se habían separado. John Bardeen había comenzado la investigación pionera en superconductividad , lo que le haría ganar un segundo Premio Nobel en 1972. Walter Brattain se mudó a otra parte de los Laboratorios Bell.

William Shockley decidió quedarse con el transistor, eventualmente formando su propia corporación para desarrollarlo aún más. Su decisión tendría consecuencias extraordinarias para la industria informática. Con una pequeña cantidad de capital, Shockley se propuso contratar los mejores cerebros que pudo encontrar en las universidades estadounidenses, incluido el joven ingeniero eléctrico Robert Noyce (1927–1990) y el químico de investigación Gordon Moore(1929–). No pasó mucho tiempo antes de que el estilo de gestión idiosincrásico y de intimidación de Shockley molestara a sus trabajadores.

En 1956, ocho de ellos, incluidos Noyce y Moore, dejaron el transistor Shockley para fundar una compañía propia, Fairchild Semiconductor, justo en el camino. Así comenzó el crecimiento de «Silicon Valley», la parte de California centrada en Palo Alto, donde desde entonces se han basado muchas de las principales empresas de informática y electrónica del mundo. [8]

Fue en el edificio de Fairchild en California donde ocurrió el siguiente avance, aunque, curiosamente, también ocurrió exactamente al mismo tiempo en los laboratorios de Dallas Instruments de Texas Instruments. En Dallas, un joven ingeniero de Kansas llamado Jack Kilby (1923–2005) estaba considerando cómo mejorar el transistor.

Aunque los transistores fueron un gran avance en los tubos de vacío, quedaba un problema clave. Las máquinas que usaban miles de transistores aún tenían que conectarse manualmente para conectar todos estos componentes. Ese proceso fue laborioso, costoso y propenso a errores.

¿No sería mejor, reflexionó Kilby, si se pudieran hacer muchos transistores en un solo paquete?

Esto lo llevó a inventar el circuito integrado «monolítico» (IC), una colección de transistores y otros componentes que podrían fabricarse de una vez, en un bloque, en la superficie de un semiconductor. El invento de Kilby fue otro paso adelante, pero también tenía un inconveniente: los componentes de su circuito integrado todavía tenían que conectarse a mano.

Mientras Kilby estaba haciendo su gran avance en Dallas, desconocido para él, Robert Noyce estaba perfeccionando casi exactamente la misma idea en Fairchild en California. Sin embargo, Noyce fue mejor: encontró una manera de incluir las conexiones entre componentes en un circuito integrado, automatizando así todo el proceso.

Los circuitos integrados, tanto como los transistores, ayudaron a reducir las computadoras durante la década de 1960. En 1943, el jefe de IBM, Thomas Watson, había bromeado: «Creo que hay un mercado mundial para unas cinco computadoras».

Solo dos décadas después, la compañía y sus competidores habían instalado alrededor de 25,000 grandes sistemas informáticos en todo Estados Unidos. A medida que avanzaba la década de 1960, los circuitos integrados se volvieron cada vez más sofisticados y compactos. Pronto, los ingenieros hablaron de la integración a gran escala (LSI), en la que cientos de componentes podrían agruparse en un solo chip, y luego integrarse a muy gran escala (VLSI), cuando el mismo chip podría contener miles de componentes.

La conclusión lógica de toda esta miniaturización fue que, algún día, alguien podría exprimir una computadora completa en un chip. En 1968, Robert Noyce y Gordon Moore habían dejado Fairchild para establecer una nueva compañía propia.

Con mucha integración en sus mentes, lo llamaron Integrated Electronics o Intel para abreviar. Originalmente habían planeado hacer chips de memoria, pero cuando la compañía obtuvo una orden para hacer chips para una gama de calculadoras de bolsillo, la historia se dirigió en una dirección diferente. Un par de sus ingenieros, Federico Faggin (1941–) y Marcian Edward (Ted) Hoff(1937–), se dieron cuenta de que en lugar de hacer una gama de chips especializados para una gama de calculadoras, podrían hacer un chip universal que pudiera programarse para funcionar en todos ellos.

Así nació la computadora de un solo chip de uso general o el microprocesador, y eso provocó la siguiente fase de la revolución de la computadora.

7. Computadoras personales

Los circuitos integrados, tanto como los transistores, ayudaron a reducir las computadoras durante la década de 1960. En 1943, el jefe de IBM, Thomas Watson, había bromeado: «Creo que hay un mercado mundial para unas cinco computadoras».

Solo dos décadas después, la compañía y sus competidores habían instalado alrededor de 25,000 grandes sistemas informáticos en todo Estados Unidos. A medida que avanzaba la década de 1960, los circuitos integrados se volvieron cada vez más sofisticados y compactos. Pronto, los ingenieros hablaron de la integración a gran escala (LSI), en la que cientos de componentes podrían agruparse en un solo chip, y luego integrarse a muy gran escala (VLSI), cuando el mismo chip podría contener miles de componentes.

La conclusión lógica de toda esta miniaturización fue que, algún día, alguien podría exprimir una computadora completa en un chip. En 1968, Robert Noyce y Gordon Moore habían dejado Fairchild para establecer una nueva compañía propia.

Con mucha integración en sus mentes, lo llamaron Integrated Electronics o Intel para abreviar. Originalmente habían planeado hacer chips de memoria, pero cuando la compañía obtuvo una orden para hacer chips para una gama de calculadoras de bolsillo, la historia se dirigió en una dirección diferente.

Un par de sus ingenieros, Federico Faggin (1941–) y Marcian Edward (Ted) Hoff(1937–), se dieron cuenta de que en lugar de hacer una gama de chips especializados para una gama de calculadoras, podrían hacer un chip universal que pudiera programarse para funcionar en todos ellos. Así nació la computadora de un solo chip de uso general o el microprocesador, y eso provocó la siguiente fase de la revolución de la computadora.

El éxito de la venta de Apple a las empresas fue un gran shock para IBM y las otras grandes empresas que dominaron la industria informática. No se necesitó una hoja de cálculo de VisiCalc para darse cuenta de que, si la tendencia continuaba, empresas nuevas como Apple socavarían el inmensamente lucrativo mercado comercial de computadoras «Big Blue» de IBM. En 1980, IBM finalmente se dio cuenta de que tenía que hacer algo y lanzó un proyecto altamente racionalizado para salvar su negocio. Un año después, lanzó la IBM Personal Computer (PC), basada en un microprocesador Intel 8080, que revirtió rápidamente la fortuna de la compañía y robó el mercado a Apple.

La PC tuvo éxito esencialmente por una razón. Todas las docenas de microcomputadoras que se lanzaron en la década de 1970, incluida Apple] [- eran incompatibles. Todos usaron hardware diferente y trabajaron de diferentes maneras. La mayoría se programaron usando un lenguaje simple, similar al inglés llamado BASIC, pero cada uno usó su propio sabor de BASIC, que estaba estrechamente relacionado con el diseño del hardware de la máquina.

Como resultado, los programas escritos para una máquina generalmente no se ejecutarían en otra sin una gran conversión. Las empresas que escribieron software profesionalmente lo escribieron solo para una máquina y, en consecuencia, no había industria del software para hablar.

En 1976, Gary Kildall(1942–1994), profesor e informático, y uno de los fundadores del Homebrew Computer Club, había encontrado una solución a este problema. Kildall escribió un sistema operativo (software de control fundamental de una computadora) llamado CP / M que actuó como intermediario entre los programas del usuario y el hardware de la máquina.

Con un golpe de genio, Kildall se dio cuenta de que todo lo que tenía que hacer era reescribir CP / M para que funcionara en cada máquina diferente. Entonces, todas esas máquinas podrían ejecutar programas de usuario idénticos, sin ninguna modificación, dentro de CP / M. Eso haría que todos los diferentes microordenadores sean compatibles de un solo golpe. A principios de la década de 1980, Kildall se había convertido en multimillonario gracias al éxito de su invención: el primer sistema operativo de computadora personal. Naturalmente, cuando IBM estaba desarrollando su computadora personal, se le acercó esperando poner CP / M en su propia máquina.

La leyenda dice que Kildall estaba volando su avión personal cuando IBM llamó, por lo que se perdió una de las mejores ofertas del mundo. Pero la verdad parece haber sido que IBM quería comprar CP / M directamente por solo $ 200,000, mientras que Kildall reconoció que su producto valía millones más y se negó a venderlo. En cambio, IBM recurrió a un joven programador llamadoBill Gates (1955–). Su entonces pequeña empresa, Microsoft, creó rápidamente un sistema operativo llamado DOS, basado en un producto llamado QDOS (Sistema operativo rápido y sucio), que adquirieron de Seattle Computer Products.

Algunos creen que Microsoft e IBM engañaron a Kildall de su lugar en la historia de la computadora; El propio Kildall los acusó de copiar sus ideas. Otros piensan que Gates era simplemente el hombre de negocios más astuto. De cualquier manera, la PC IBM, impulsada por el sistema operativo de Microsoft, fue un gran éxito.

Sin embargo, la victoria de IBM fue de corta duración. Curiosamente, Bill Gates había vendido a IBM los derechos de una versión de DOS (PC-DOS) y retuvo los derechos de una versión muy similar (MS-DOS) para su propio uso.

Cuando otros fabricantes de computadoras, especialmente Compaq y Dell, comenzaron a fabricar hardware compatible con IBM (o «clonado»), también acudieron a Gates para obtener el software. IBM cobraba una prima por las máquinas que llevaban su insignia, pero los consumidores pronto se dieron cuenta de que las PC eran productos básicos: contenían componentes casi idénticos, un microprocesador Intel, por ejemplo, sin importar el nombre que tenían en el caso. A medida que IBM perdió cuota de mercado, los últimos vencedores fueron Microsoft e Intel, que pronto suministraron el software y el hardware para casi todas las PC del planeta. Apple, IBM.

8. La revolución del usuario

Afortunadamente para Apple, tuvo otra gran idea. Uno de los trajes más fuertes del Apple II fue su simple «facilidad de uso». Para Steve Jobs, desarrollar computadoras verdaderamente fáciles de usar se convirtió en una misión personal a principios de la década de 1980. Lo que realmente lo inspiró fue una visita al PARC (Centro de Investigación de Palo Alto), un laboratorio informático de vanguardia que luego funcionaba como una división de la Corporación Xerox. Xerox había comenzado a desarrollar computadoras a principios de la década de 1970, creyendo que harían papel (y las fotocopiadoras altamente lucrativas)Xerox hecho) obsoleto.

Uno de los proyectos de investigación de PARC fue una computadora avanzada de $ 40,000 llamada Xerox Alto. A diferencia de la mayoría de las microcomputadoras lanzadas en la década de 1970, que se programaron escribiendo comandos de texto, el Alto tenía una pantalla similar al escritorio con pequeños íconos de imágenes que se podían mover con un mouse: era la primera interfaz gráfica de usuario (GUI, pronunciada «pegajoso») – una idea concebida por Alan Kay (1940–) y que ahora se usa en prácticamente todas las computadoras modernas. El Alto tomó prestadas algunas de sus ideas, incluido el mouse , del pionero informático de los años sesenta Douglas Engelbart (1925–2013).

De vuelta en Apple, Jobs lanzó su propia versión del proyecto Alto para desarrollar una computadora fácil de usar llamada PITS (Person In The Street). Esta máquina se convirtió en Apple Lisa, lanzada en enero de 1983, la primera computadora ampliamente disponible con un escritorio GUI. Con un precio minorista de $ 10,000, más del triple del costo de una PC IBM, la Lisa fue un fracaso comercial.

Pero allanó el camino para una máquina mejor y más barata llamada Macintosh que Jobs presentó un año después, en enero de 1984. Con su memorable anuncio de lanzamiento para Macintosh inspirado en la novela 1984 de George Orwell y dirigida por Ridley Scott (director del distópico) película Blade Runner), Apple golpeó el monopolio de IBM, criticando lo que describió como el enfoque dominante, incluso totalitario, de la empresa: Big Blue era realmente Big Brother.

El anuncio de Apple prometía una visión muy diferente: «El 24 de enero, Apple Computer presentará Macintosh. Y verá por qué 1984 no será como ‘1984’». El Macintosh fue un éxito crítico y ayudó a inventar el nuevo campo de la edición de escritorio a mediados de la década de 1980, sin embargo, nunca estuvo cerca de desafiar la posición de IBM.

Irónicamente, la máquina fácil de usar de Jobs también ayudó a Microsoft a desalojar a IBM como la fuerza líder mundial en informática. Cuando Bill Gates vio cómo funcionaba el Macintosh, con su escritorio de icono de imagen fácil de usar, lanzó Windows, una versión mejorada de su software MS-DOS.

Apple vio esto como un plagio flagrante y presentó una demanda por derechos de autor de $ 5,5 mil millones en 1988. Cuatro años más tarde, el caso colapsó con Microsoft asegurando efectivamente el derecho a usar el «aspecto» de Macintosh en todas las versiones actuales y futuras de Windows. El sistema Windows 95 de Microsoft, lanzado tres años después, tenía un escritorio fácil de usar, similar a Macintosh y MS-DOS ejecutándose detrás de escena.

9. De las redes a internet

Las PC estandarizadas que ejecutan software estandarizado trajeron un gran beneficio para las empresas: las computadoras podían conectarse en redes para compartir información. En Xerox PARC en 1973, el ingeniero eléctrico Bob Metcalfe (1946–) desarrolló una nueva forma de vincular computadoras «a través del éter» (espacio vacío) que llamó Ethernet.

Unos años más tarde, Metcalfe dejó Xerox para formar su propia compañía, 3Com, para ayudar a las empresas a cumplir la «Ley de Metcalfe»: las computadoras se vuelven útiles cuanto más conectadas están con las computadoras de otras personas. A medida que más y más empresas exploran el poder de las redes de área local (LAN), a medida que avanza la década de 1980.

Hoy, la WAN más conocida es Internet , una red global de computadoras y LAN individuales que conecta a cientos de millones de personas. La historia de Internet es otra historia, pero comenzó en la década de 1960 cuando cuatro universidades estadounidenses lanzaron un proyecto para conectar sus sistemas informáticos para crear la primera WAN.

Más tarde, con fondos para el Departamento de Defensa, esa red se convirtió en un proyecto más grande llamado ARPANET (Red de Agencias de Proyectos de Investigación Avanzada). A mediados de la década de 1980, la Fundación Nacional de Ciencias de EE. UU. (NSF) lanzó su propia WAN llamada NSFNET. La convergencia de todas estas redes produjo lo que ahora llamamos Internet más adelante en la década de 1980.

Poco después, el poder de las redes le dio al programador informático británico Tim Berners-Lee(1955–) su gran idea: combinar el poder de las redes de computadoras con la idea de compartir información que Vannevar Bush había propuesto en 1945.

Así nació la World Wide Web , una manera fácil de compartir información a través de una red de computadoras, lo que hizo posible la era moderna de la computación en la nube (donde cualquiera puede acceder a una gran potencia informática a través de Internet sin tener que preocuparse por dónde o cómo se procesan sus datos). ¡Es el invento de Tim Berners-Lee el que te trae esta historia de la informática en macetas hoy!

10. ¿Qué nos espera en el futuro?

¿Qué hay del futuro? El poder de las computadoras (la cantidad de componentes empaquetados en un chip) se ha duplicado aproximadamente cada 18 meses a 2 años desde la década de 1960. Pero se espera que las leyes de la física detengan la Ley de Moore , como se conoce esta idea, y nos obligan a explorar formas completamente nuevas de construir computadoras.

¿Cómo serán las PC del mañana? Una idea muy esperada es que usarán partículas de luz (fotones) en lugar de electrones, un enfoque conocido como computación óptica o fotónica. Actualmente, gran parte del dinero inteligente está apostando por computadoras cuánticas , que implementan formas astutas de manipular átomos para procesar y almacenar información a la velocidad del rayo.

También hay esperanza de que podamos usar spintronics (aprovechando el «giro» de las partículas) y tecnología biomolecular (computación con ADN, proteínas y otras moléculas biológicas), aunque ambas se encuentran en las primeras etapas de la investigación.

Las virutas hechas de nuevos materiales como el grafeno también pueden ofrecer formas de extender la ley de Moore. Independientemente de la tecnología que gane, ¡puede estar seguro de que el futuro de la informática será tan emocionante como el pasado!


👈 REGRESA A LA WIKI: LA WIKI DE WIKININJAS