Qué es la Inteligencia Artificial

La inteligencia artificial -también conocida como IA- es una rama dentro de las ciencias de la computación que se ocupa de construir máquinas inteligentes capaces de realizar tareas que requieren inteligencia similar a la humana.

Guía de Inteligencia Artificial

La IA es una ciencia interdisciplinar con múltiples enfoques, pero los avances en el aprendizaje automático y el aprendizaje profundo están creando un gran cambio de paradigma en prácticamente todos los sectores de la industria tecnológica.

La inteligencia artificial permite que las máquinas modelen e incluso mejoren las capacidades de la mente humana.

Desde el desarrollo de los autómoviles sin conductor hasta la proliferación de asistentes inteligentes como Siri y Alexa, la IA es una parte cada vez más importante de la vida cotidiana. Como resultado de esto, muchas grandes empresas tecnológicas -bigtechs- de diversas industrias están invirtiendo en tecnologías de inteligencia artificial.

Definición de Inteligencia Artificial

Todo lo que debes saber de la Inteligencia Artificial

¿Cómo funciona la inteligencia artificial?

Menos de una década después de ayudar a las fuerzas aliadas a ganar la Segunda Guerra Mundial al descifrar la máquina de encriptación nazi Enigma, el matemático Alan Turing cambió la historia por segunda vez con una simple pregunta: ¿Pueden pensar las máquinas?”

El documento de Turing de 1950 “Maquinaria informática e inteligencia y su posterior documento de Turing, el Test de Turing establecieron el objetivo fundamental y la visión de la IA.

“¿Pueden pensar las máquinas?”, Alan Turing – 1950

En esencia, la IA es la rama de la informática que pretende responder afirmativamente a la pregunta de Turing. El objetivo expansivo de la IA ha dado lugar a muchas preguntas y debates. Tanto es así, que ninguna definición singular del campo es universalmente aceptada.

Definición de Inteligencia Artificial

La principal limitación al definir la IA como simplemente construir máquinas que sean inteligentes es que en realidad no explica qué es la Inteligencia Artificial y qué hace que una máquina sea inteligente.

La IA es una ciencia interdisciplinar con múltiples enfoques, pero los avances en el aprendizaje automático y el aprendizaje profundo están creando un cambio de paradigma en prácticamente todos los sectores de la industria tecnológica.

Sin embargo, recientemente se han propuesto varias pruebas nuevas que han sido bien recibidas, incluido un artículo de investigación de 2019 titulado “Sobre la medida de la inteligencia“.

En este artículo, el veterano investigador de aprendizaje profundo e ingeniero de Google (François Chollet) argumenta que la inteligencia es la velocidad a la que un alumno convierte su experiencia y sus conocimientos previos en nuevas habilidades en tareas valiosas que implican incertidumbre y adaptación.

En otras palabras: Los sistemas más inteligentes, debería poder tomar solamente una pequeña cantidad de experiencia y adivinar cuál sería el resultado en muchas otras situaciones variadas.

Mientras tanto, en su libro de Inteligencia artificial: un enfoque moderno, los autores Stuart Russell y Peter Norvig abordan el concepto de IA al unificar su trabajo en torno al tema de los agentes inteligentes en las máquinas. Con esto en mente, la IA sería “el estudio de agentes que reciben percepciones del entorno y realizan acciones”.

¡REBAJADO!

😉 ECHA UN VISTAZO A LAS PRINCIPALES EMPRESAS DE IA Ver todas las empresas de IA

Norvig y Russell continúan explorando cuatro enfoques diferentes que históricamente han definido el campo de la IA:

Definición de Inteligencia Artificial: 4 Tipos de Enfoques

  • Pensar humanamente: Imitar el pensamiento basado en la mente humana.
  • Pensar racionalmente: Imitar el pensamiento basado en el razonamiento lógico.
  • Actuar humanamente: Actuar de una manera que imite el comportamiento humano.
  • Actuar racionalmente: Actuar de una manera que está destinada a lograr un objetivo particular.

Las dos primeras ideas se refieren a los procesos de pensamiento y al razonamiento, mientras que las otras tratan del comportamiento. Norvig y Russell se enfocan particularmente en los agentes racionales que actúan para lograr el mejor resultado, señalando que “todas las habilidades necesarias para la prueba de Turing también permiten que un agente actúe racionalmente”.

El exprofesor de IA y ciencias de la computación del MIT, Patrick Winston definió la IA como “algoritmos habilitados por restricciones, expuestos por representaciones que respaldan modelos dirigidos a bucles que unen el pensamiento, la percepción y la acción”.

Si bien, estas definiciones pueden parecer abstractas para la persona promedio, ayudan a enfocar el campo como un área de la informática y proporcionan un modelo para infundir máquinas y programas con Aprendizaje Automático y otros subconjuntos de la Inteligencia Artificial.

El futuro de la IA

Cuando uno considera los costos computacionales y la infraestructura de datos técnicos que se ejecutan detrás de la inteligencia artificial, la ejecución real de la IA es un negocio complejo y costoso.

Afortunadamente, ha habido avances masivos en la tecnología informática, como lo indica la Ley de Moore, que establece que la cantidad de transistores en un microchip se duplica aproximadamente cada dos años, mientras que el costo de las computadoras se reduce a la mitad.

Aunque muchos expertos creen que la Ley de Moore probablemente llegará a su fin en algún momento de la década de 2020, esto ha tenido un gran impacto en las técnicas modernas de IA; sin ella, el aprendizaje profundo estaría fuera de discusión, financieramente hablando.

Recientemente, investigaciones encontraron que la innovación de la IA en realidad ha superado la Ley de Moore, duplicándose cada seis meses más o menos en lugar de dos años.

Según esa lógica, los avances que la inteligencia artificial ha logrado en una variedad de industrias que han sido importantes en los últimos años y el potencial de un impacto aún mayor en las próximas décadas, parece casi inevitable.

Los cuatro tipos de inteligencia artificial

La IA se puede dividir en cuatro categorías, según el tipo y la complejidad de las tareas que un sistema puede realizar. Por ejemplo, el filtrado automatizado de correo no deseado se encuentra en la clase más básica de IA, mientras que el potencial lejano de las máquinas que pueden percibir los pensamientos y las emociones de las personas es parte de un subconjunto de IA completamente diferente.

¿Cuáles son los cuatro tipos de Inteligencia Artificial?

  • Máquinas reactivas: Capaces de percibir y reaccionar ante el mundo que tienen delante mientras realiza tareas limitadas.
  • Memoria limitada: Capaz de almacenar datos y predicciones pasadas para informar predicciones de lo que puede suceder a continuación.
  • Teoría de la mente: Capaz de tomar decisiones basadas en sus percepciones de cómo se sienten los demás y toman decisiones.
  • Autoconciencia: Capaz de operar con la conciencia a nivel humano y comprender su propia existencia.

Máquinas reactivas

Una máquina reactiva sigue los principios más básicos de la IA y como su propio nombre indica, solamente es capaz de usar su inteligencia para percibir y reaccionar ante el mundo que tiene delante. Una máquina reactiva no puede almacenar una memoria y como resultado, no puede confiar en experiencias pasadas para informar sobre la toma de decisiones en tiempo real.

Percibir el mundo directamente, significa que las máquinas reactivas están diseñadas para completar solo un número limitado de tareas especializadas. Sin embargo, reducir intencionalmente la visión del mundo de una máquina reactiva no es ningún tipo de medida de reducción de costos y en cambio, significa que este tipo de IA será más confiable y reaccionará de la misma manera, a unos mismos estímulos.

Un ejemplo famoso de una máquina de IA reactiva sería la computadora Deep Blue que fue diseñada por IBM en la década de 1990 como una supercomputadora para jugar al ajedrez y fue capaz de derrotar al gran maestro internacional Gary Kasparov en un juego.

Deep Blue, solamente era capaz de identificar las piezas en un tablero de ajedrez y saber cómo se mueve cada una según las reglas del ajedrez, reconociendo la posición actual de cada pieza y determinando cuál sería el movimiento más lógico en ese momento.

La computadora no perseguía futuros movimientos potenciales de su oponente, ni intentaba colocar sus propias piezas en una mejor posición. Cada movimiento era visto como una realidad propia e instantánea, separada de cualquier otro movimiento que se haya hecho con anterioridad.

Otro ejemplo de una máquina de IA reactiva de juegos, es la máquina AlphaGo de Google. AlphaGo tampoco es capaz de evaluar movimientos futuros, pero depende de su propia red neuronal para evaluar los desarrollos del juego actual, lo que le da una ventaja sobre Deep Blue ante un juego más complejo.

AlphaGo también superó a sus competidores de clase mundial enfocadas hacía el campo del juego, derrotando al jugador campeón de Go (Lee Sedol) en 2016.

Aunque su alcance es limitado y no se modifica fácilmente, la IA mecánica reactiva puede alcanzar un alto nivel de complejidad y ofrece confiabilidad cuando se crea para cumplir con tareas repetitivas.

Memoria limitada

La IA de memoria limitada tiene la capacidad de almacenar datos y predicciones anteriores al recopilar información y sopesar decisiones potenciales, esencialmente buscando en el pasado pistas sobre lo que puede suceder a continuación.

La IA de memoria limitada es más compleja y presenta mayores posibilidades que las máquinas reactivas.

La IA de memoria limitada se crea cuando un equipo entrena continuamente a un modelo sobre cómo analizar y utilizar nuevos datos o se crea un entorno de IA, para que los modelos puedan entrenarse y renovarse automáticamente.

Cuando se utiliza IA de memoria limitada en el aprendizaje automático, se deben seguir seis pasos:

  • Se deben crear datos de entrenamiento.
  • Se debe crear el modelo de aprendizaje automático.
  • El modelo debe poder hacer predicciones.
  • El modelo debe poder recibir retroalimentación humana o ambiental.
  • Esa retroalimentación deben almacenarse como datos.
  • Los pasos anteriores deben reiterarse como un ciclo.

Hay varios modelos de Machine Learning (aprendizaje automático) que utiliza Inteligencia Artificial de memoria limitada:

Aprendizaje por refuerzo

El aprendizaje por refuerzo aprende a hacer mejores predicciones a través de ensayos y errores repetidos.

Redes neuronales recurrentes (RNN)

Las redes neuronales recurrentes utilizan datos secuenciales para tomar información de entradas anteriores para influir en la entrada y salida actual. Estas se usan comúnmente para problemas ordinales o temporales, como traducción de idiomas, procesamiento de lenguaje natural, reconocimiento de voz y subtítulos de imágenes.

Un subconjunto de redes neuronales recurrentes se conoce como memoria a corto plazo (LSTM) que utiliza datos anteriores para ayudar a predecir el siguiente elemento en una secuencia. Los LTSM ven la información más reciente como la más importante al hacer predicciones y descartan datos del pasado más lejano, mientras los siguen utilizando para sacar conclusiones.

Redes antagónicas generativas evolutivas (E-GAN)

Las redes antagónicas generativas evolutivas son aquellas que evolucionan con el tiempo, creciendo para explorar caminos ligeramente modificados basados en experiencias previas con cada nueva decisión.

Este modelo, busca constantemente un camino mejor y utiliza simulaciones y estadísticas o el azar, para predecir los resultados a lo largo de su ciclo de mutación evolutiva.

Transformadores

Los transformadores, son redes de nodos que aprenden a realizar una determinada tarea entrenándose con los datos existentes. En lugar de tener que agrupar elementos, los transformadores pueden ejecutar procesos para que cada elemento en los datos de entrada preste atención a todos los demás elementos.

Los investigadores se refieren a esto como “autoatención”, lo que significa que tan pronto como comienza a entrenar, un transformador es capaz de ver y tener en cuenta todos los rastros de todo el conjunto de datos.

La teoría de la mente

La teoría de la mente es sólo eso: teórica. Aún no se han logrado las capacidades tecnológicas y científicas necesarias para alcanzar este nivel de Inteligencia Artificial.

El concepto de la teoría de la mente, se basa en la premisa psicológica de comprender que otros seres vivos tienen pensamientos y emociones que afectan el comportamiento de uno mismo.

En términos de máquinas de IA, eso significaría que la IA podría comprender cómo se sienten los humanos, los animales y otras máquinas y tomar decisiones a través de la autorreflexión y la determinación, para luego utilizar esa información para tomar sus propias decisiones.

Esencialmente, las máquinas tendrían que poder captar y procesar el “concepto de mente”, las fluctuaciones de las emociones en la toma de decisiones y una letanía de otros conceptos psicológicos en tiempo real; logrando crear una relación bidireccional entre las personas y la IA.

Conciencia de sí mismo

Una vez que se pueda establecer la teoría de la mente, en algún momento del futuro de la Inteligencia Artificial, el paso final será que la IA se vuelva consciente de sí misma.

Este tipo de IA, tendría conciencia a nivel humano y sería capaz de comprender su propia existencia en el mundo; así como la presencia y el estado emocional de los demás. Sería capaz de comprender lo que otros pueden necesitar en función, no solamente de lo que se les comunica, sino también de cómo lo comunican.

La autoconciencia en la Inteligencia Artificial, se basa en que los investigadores humanos comprendan la premisa de la conciencia y luego, sean capaces de aprender a replicarla para que pueda integrarse en las máquinas.

Otras clasificaciones de IA

Hay tres formas de clasificar la inteligencia artificial, según sus capacidades. En lugar de tipos de inteligencia artificial, estas son etapas a través de las cuales la IA puede evolucionar, y solo una de ellas es posible en este momento.

  • IA Estrecha: A veces denominada “IA débil”, este tipo de IA opera dentro de un contexto limitado y es una simulación de la inteligencia humana. La IA estrecha a menudo se enfoca en realizar una sola tarea extremadamente bien y si bien, estas máquinas pueden parecer inteligentes, operan bajo muchas más restricciones y limitaciones que incluso la inteligencia humana más básica.
  • Inteligencia artificial general (AGI): AGI, a veces denominada “IA fuerte”, es el tipo de IA que vemos en las películas, como los robots de Westworld o el personaje Data de Star Trek: The Next Generation. AGI es una máquina con inteligencia general y al igual que un ser humano, puede aplicar esa inteligencia para resolver cualquier problema.
  • Superinteligencia: Este será probablemente el pináculo de la evolución de la IA. La IA superinteligente no solo podrá replicar la compleja emoción e inteligencia de los seres humanos, sino superarla en todos los sentidos. Esto podría significar emitir juicios y decisiones por sí mismo o incluso formar su propia ideología.

Ejemplos de IA estrecha

La IA estrecha, o como suele llamarse IA débil, está a nuestro alrededor y es fácilmente la realización de IA más exitosa hasta la fecha; tiene funciones limitadas que pueden ayudar a automatizar tareas específicas.

Debido a este enfoque, la IA estrecha ha experimentado numerosos avances en la última década que han tenido “beneficios sociales significativos y han contribuido a la vitalidad económica de la nación” según un informe de 2016 publicado por la administración de Obama.

Ejemplos de Inteligencia Artificial Estrecha

  • Siri, Alexa y otros asistentes inteligentes
  • Autos sin conductor
  • Búsqueda de Google
  • Robots conversacionales
  • Filtros de spam de correo electrónico
  • Recomendaciones de netflix

Aprendizaje automático y aprendizaje profundo

Gran parte de la IA estrecha está impulsada por avances en aprendizjae automático y aprendizaje profundo. Comprender la diferencia entre IA, ML y DL puede ser confuso. El capitalista de riesgo Frank Chen proporciona una buena descripción general de cómo distinguir entre ellos, y señala:

“La inteligencia artificial es un conjunto de algoritmos e inteligencia para tratar de imitar la inteligencia humana. El aprendizaje automático es uno de ellos y el aprendizaje profundo es una de esas técnicas de aprendizaje automático.”

En pocas palabras, un algoritmo de ML recibe datos de una computadora y utiliza técnicas estadísticas para ayudarlo a “aprender” cómo mejorar progresivamente en una tarea, sin necesariamente haber sido programado específicamente para esa tarea.

En cambio, los algoritmos de ML usan datos históricos como entrada para predecir nuevos valores de salida. Con ese fin, ML consiste en aprendizaje supervisado (donde el resultado esperado para la entrada se conoce gracias a conjuntos de datos etiquetados) y aprendizaje no supervisado (donde los resultados esperados son desconocidos debido al uso de conjuntos de datos no etiquetados).

El aprendizaje automático está presente en la vida cotidiana. Google Maps utiliza los datos de ubicación de los teléfonos inteligentes, así como los datos informados por los usuarios sobre cosas como la construcción y los accidentes automovilísticos, para lograr monitorear el flujo y reflujo del tráfico y evaluar cuál será la ruta más rápida.

Los asistentes personales como Siri, Alexa y Cortana pueden configurar recordatorios, buscar información en línea y controlar las luces en los hogares de las personas, todo con la ayuda de algoritmos ML que recopilan información, aprenden las preferencias de un usuario y mejoran su experiencia en función de interacciones anteriores con los usuarios.

Incluso los filtros de Snapchat usan algoritmos ML para rastrear la actividad facial de los usuarios.

Mientras tanto, el aprendizaje profundo es un tipo de ML que ejecuta entradas a través de una arquitectura de red neuronal inspirada en la biología. Las redes neuronales contienen una serie de capas ocultas a través de las cuales se procesan los datos, lo que permite que la máquina profundice en su aprendizaje, haciendo conexiones y ponderando las entradas para obtener los mejores resultados.

Los automóviles autónomos son un ejemplo reconocible de aprendizaje profundo, ya que utilizan redes neuronales profundas para detectar objetos a su alrededor, determinar su distancia de otros automóviles, identificar señales de tráfico y mucho más.

Los sensores y dispositivos portátiles utilizados en la industria de la salud también aplican el aprendizaje profundo para evaluar el estado de salud del paciente, incluidos sus niveles de azúcar en sangre, presión arterial y frecuencia cardíaca.

También pueden derivar patrones de los datos médicos previos de un paciente y usarlos para anticipar cualquier condición de salud futura.

Inteligencia artificial general

La creación de una máquina con inteligencia a nivel humano que se pueda aplicar a cualquier tarea es el Santo Grial para muchos investigadores de IA, pero la búsqueda de la inteligencia artificial general ha estado plagada de dificultades.

La búsqueda de un “algoritmo universal para aprender y actuar en cualquier entorno”, como lo expresaron Russel y Norvig, no es nueva.

A diferencia de la IA débil, la IA fuerte representa una máquina con un conjunto completo de habilidades cognitivas, pero el tiempo no ha aliviado la dificultad de lograr tal hazaña.

AGI ha sido durante mucho tiempo la musa de la ciencia ficción distópica, en la que robots superinteligentes invaden a la humanidad, pero los expertos están de acuerdo en que no es algo de lo que debamos preocuparnos en el corto plazo.

Aunque, por ahora, AGI sigue siendo una fantasía; existen algunos sistemas notablemente sofisticados que se están acercando al punto de referencia de AGI. Uno de ellos es GPT-3, un modelo de lenguaje autorregresivo diseñado por OpenAI que utiliza el aprendizaje profundo para producir texto similar al humano.

GPT-3 no es inteligente, pero se ha utilizado para crear cosas extraordinarias, incluido un chatbot que te permite hablar con personajes históricos y un motor de búsqueda basado en preguntas.

MuZero, un programa de computadora creado por DeepMind, es otro pionero prometedor en la búsqueda para lograr un verdadero AGI que ha logrado dominar juegos que ni siquiera le han enseñado a jugar, incluido el ajedrez y toda una serie de juegos de Atari; todo ello a través de la fuerza bruta, jugando millones de veces.

Superinteligencia

Además de la IA estrecha y AGI, algunos consideran que existe una tercera categoría conocida como superinteligencia. Por ahora, esta es una situación completamente hipotética en la que las máquinas son completamente conscientes de sí mismas, incluso superando a la inteligencia humana en prácticamente todos los campos, desde la ciencia hasta las habilidades sociales.

En teoría, esto podría lograrse a través de una sola computadora, una red de computadoras o algo completamente diferente; siempre que sea consciente y tenga experiencias subjetivas.

Nick Bostrom, profesor fundador y líder del Future of Humanity Institute de Oxford, parece haber acuñado el término en 1998 y predijo que habremos logrado una inteligencia artificial sobrehumana en el primer tercio del siglo XXI.

Continuó diciendo que la probabilidad de que esto suceda probablemente dependerá de la rapidez con la que la neurociencia pueda comprender mejor y replicar el cerebro humano.

La creación de superinteligencia imitando el cerebro humano, agregó, requerirá no solo un hardware lo suficientemente potente; sino también de una “arquitectura inicial adecuada” y un “flujo rico de información sensorial”.

Ejemplos de Inteligencia Artificial

¿Por qué es importante la inteligencia artificial?

La IA tiene muchos usos, desde impulsar el desarrollo de vacunas hasta automatizar la detección de posibles fraudes.

La actividad del mercado privado de IA registró un año récord en 2021, según CB Insights, con un aumento de la financiación global del 108% en comparación con 2020. Debido a su rápida adopción, la IA está causando sensación en una infinidad de industrias.

El informe de 2022 de Business Insider Intelligence sobre IA en la banca encontró que más de la mitad de las empresas de servicios financieros ya utilizan soluciones de IA para la gestión de riesgos y la generación de ingresos. La aplicación de la IA en la banca podría generar más de 400 mil millones de dólares en ahorros.

En cuanto a la medicina, un informe de la Organización Mundial de la Salud de 2021 señaló que, si bien la integración de la IA en el campo de la atención médica presenta amplios desafíos; la tecnología “es muy prometedora” ya que podría generar beneficios como una política de salud más informada y mejoras en la precisión del diagnóstico de los pacientes.

La IA también ha dejado su huella en el entretenimiento. Se estima que el mercado global de IA en medios y entretenimiento alcanzará los 99.480 millones de dólares para 2030, con un crecimiento desde un valor de 10.870 millones de dólares en 2021; según Grand View Research.

Esa expansión incluirá usos de la IA como reconocer el plagio o desarrollar gráficos únicos en alta definición.

Pros y contras de la inteligencia artificial

Si bien, la Inteligencia Artificial ciertamente se considera un activo importante y de rápida evolución, este campo emergente tiene sus desventajas.

El Pew Research Center encuestó a 10.260 estadounidenses en 2021 sobre sus actitudes hacia la IA y los resultados encontraron que el 45 por ciento de los encuestados están igualmente emocionados y preocupados; un 37 por ciento, estaría más preocupado que emocionado.

Además, más del 40 por ciento de los encuestados dijeron que consideraban que los autos sin conductor eran malos para la sociedad.

Sin embargo, la idea de usar IA para identificar la difusión de información falsa en las redes sociales está mucho mejor recibida, con cerca de un 40 por ciento de los encuestados calificándolo como una muy buena idea.

Sin lugar a dudas, la IA es una bendición para mejorar la productividad y la eficiencia y al mismo tiempo, pdoer reducir el potencial de error humano. Pero también existen algunas desventajas, como los costos de desarrollo y la posibilidad de que las máquinas automatizadas reemplacen a los trabajos humanos.

Sin embargo, vale la pena señalar que la industria de la inteligencia artificial también puede crear empleos; muchos de los cuales, seguramente ni tan siquiera se han inventado.

¿Cómo se usa la IA? Ejemplos de inteligencia artificial

Mientras se dirigía a una multitud en la Japan AI Experience en 2017, Jeremy Achin (CEO de DataRobot) comenzó su discurso ofreciendo la siguiente definición de cómo se usa la IA en la actualidad:

Cronología de la Inteligencia Artificial: Historia de la Inteligencia Artificial

Breve historia de la inteligencia artificial por fechas

Los robots inteligentes y los seres artificiales aparecieron por primera vez en los antiguos mitos griegos y el desarrollo del silogismo de Aristóteles y su uso del razonamiento deductivo fue un momento clave en la búsqueda de la humanidad por comprender su propia inteligencia.

Si bien, las raíces son largas y profundas. La historia de la Inteligencia Artificial tal y como la concebimos a día de hoy, abarca menos de un siglo. El siguiente es un vistazo rápido a algunos de los eventos más importantes de la IA.

1940

1950

  • (1942) Isaac Asimov publica las Tres leyes de la robótica, una idea que se encuentra comúnmente en los medios de ciencia ficción sobre cómo la inteligencia artificial no debería causar daño a los humanos.
  • (1950) Alan Turing publica el artículo “Computing Machinery and Intelligence” proponiendo lo que ahora se conoce como la Prueba de Turing, un método para determinar si una máquina es inteligente.
  • (1950) Los estudiantes de Harvard Marvin Minsky y Dean Edmonds construyen SNARC, la primera computadora de red neuronal.
  • (1950) Claude Shannon publica el artículo “Programación de una computadora para jugar al ajedrez”.
  • (1952) Arthur Samuel desarrolla un programa de autoaprendizaje para jugar a las damas.
  • (1954) El experimento de traducción automática de Georgetown-IBM traduce automáticamente 60 oraciones rusas cuidadosamente seleccionadas al inglés.
  • (1956) La frase “inteligencia artificial” se acuña en el Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial. Dirigida por John McCarthy, la conferencia es ampliamente considerada como el lugar de nacimiento de la IA.
  • (1956) Allen Newell y Herbert Simon demuestran Logic Theorist (LT), el primer programa de razonamiento.
  • (1958) John McCarthy desarrolla el lenguaje de programación de IA Lisp y publica “Programs with Common Sense” un artículo que propone el hipotético Advice Taker, un sistema completo de IA con la capacidad de aprender de la experiencia con la misma eficacia que los humanos.
  • (1959) Allen Newell, Herbert Simon y JC Shaw desarrollan el General Problem Solver (GPS), un programa diseñado para imitar la resolución de problemas humanos.
  • (1959) Herbert Gelernter desarrolla el programa Geometry Theorem Prover.
  • (1959) Arthur Samuel acuña el término “aprendizaje automático” mientras estaba en IBM.
  • (1959) John McCarthy y Marvin Minsky fundan el Proyecto de Inteligencia Artificial del MIT.

1960

  • (1963) John McCarthy inicia el Laboratorio de IA en Stanford.
  • (1966) El informe del Comité Asesor de Procesamiento Automático del Idioma (ALPAC) del gobierno de EE. UU. detalla la falta de progreso en la investigación de traducciones automáticas, una importante iniciativa de la Guerra Fría con la promesa de traducción automática e instantánea del ruso. El informe ALPAC conduce a la cancelación de todos los proyectos de MT financiados por el gobierno.
  • (1969) Los primeros sistemas expertos exitosos se desarrollan en DENDRAL, un programa XX y MYCIN, diseñados para diagnosticar infecciones sanguíneas, se crea en Stanford.

1970

  • (1972) Se crea el lenguaje de programación lógica PROLOG.
  • (1973) El informe Lighthill, que detalla las decepciones en la investigación de IA, es publicado por el gobierno británico y conduce a severos recortes en la financiación de proyectos de IA.
  • (1974-1980) La frustración con el progreso del desarrollo de la IA conduce a importantes recortes de DARPA en becas académicas. En combinación con el informe ALPAC anterior y el Informe Lighthill del año anterior, la financiación de la IA se agota y la investigación se estanca. Este período se conoce como el Primer invierno de la IA.

1980

  • (1980) Digital Equipment Corporations desarrolla R1 (también conocido como XCON), el primer sistema experto comercial exitoso Diseñado para configurar pedidos de nuevos sistemas informáticos, R1 inicia un auge de la inversión en sistemas expertos que durará gran parte de la década, poniendo fin de manera efectiva al primer Invierno de la AI.
  • (1982) El Ministerio de Industria y Comercio Internacional de Japón lanza el ambicioso proyecto de Sistemas Informáticos de Quinta Generación. El objetivo de FGCS es desarrollar un rendimiento similar al de una supercomputadora y una plataforma para el desarrollo de IA.
  • (1983) En respuesta al FGCS de Japón, el gobierno de los EE. UU. lanza la Iniciativa de Computación Estratégica para proporcionar investigación financiada por DARPA en computación avanzada e IA.
  • (1985) Las empresas están gastando más de mil millones de dólares al año en sistemas expertos y toda una industria conocida como el mercado de máquinas Lisp surge para apoyarlas. Empresas como Symbolics y Lisp Machines Inc. construyen computadoras especializadas para ejecutarse en el lenguaje de programación de inteligencia artificial Lisp.
  • (1987-1993) A medida que mejoraba la tecnología informática, surgieron alternativas más baratas y el mercado de máquinas Lisp colapsó en 1987, marcando el comienzo del “Segundo invierno de IA”. Durante este período, los sistemas expertos demostraron ser demasiado caros de mantener y actualizar y finalmente cayeron en desgracia.

1990

  • (1991) Las fuerzas estadounidenses despliegan DART, una herramienta de programación y planificación logística automatizada, durante la Guerra del Golfo.
  • (1992) Japón finaliza el proyecto FGCS en 1992, citando el fracaso en el cumplimiento de las ambiciosas metas delineadas una década antes.
  • (1993) DARPA termina la Iniciativa de Computación Estratégica en 1993 después de gastar casi mil millones de dólares y no cumplir con las expectativas.
  • (1997) Deep Blue de IBM vence al campeón mundial de ajedrez Gary Kasparov.

2000

  • (2005) STANLEY, un automóvil autónomo, gana el Gran Desafío DARPA.
  • (2005) El ejército de EE. UU. comienza a invertir en robots autónomos como “Big Dog” de Boston Dynamics y “PackBot” de iRobot.
  • (2008) Google logra avances en el reconocimiento de voz e introduce la función en su aplicación para iPhone.

2010s

  • (2011) Watson de IBM derrota fácilmente a la competencia en Jeopardy!.
  • (2011) Apple lanza Siri, un asistente virtual impulsado por IA a través de su sistema operativo iOS.
  • (2012) Andrew Ng, fundador del proyecto Google Brain Deep Learning, alimenta una red neuronal utilizando algoritmos de aprendizaje profundo con 10 millones de videos de YouTube como conjunto de entrenamiento. La red neuronal aprendió a reconocer a un gato sin que se le dijera qué es un gato, marcando el comienzo de la era revolucionaria para las redes neuronales y la financiación del aprendizaje profundo.
  • (2014) Google fabrica el primer automóvil autónomo que pasa un examen de manejo estatal.
  • (2014) Se lanza Alexa de Amazon, un dispositivo inteligente para el hogar virtual.
  • (2016) AlphaGo de Google DeepMind derrota al campeón mundial de Go Lee Sedol. La complejidad del antiguo juego chino se vio como un obstáculo importante para superar en la IA.
  • (2016) El primer “ciudadano robot” un robot humanoide llamado Sophia, es creado por Hanson Robotics y es capaz de reconocimiento facial, comunicación verbal y expresión facial.
  • (2018) Google lanza el motor de procesamiento de lenguaje natural BERT, lo que reduce las barreras en la traducción y la comprensión por parte de las aplicaciones de ML.
  • (2018) Waymo lanza su servicio Waymo One, que permite a los usuarios de todo el área metropolitana de Phoenix solicitar una recogida en uno de los vehículos autónomos de la empresa.

2020

  • (2020) Baidu lanza su algoritmo LinearFold AI a los equipos científicos y médicos que trabajan para desarrollar una vacuna durante las primeras etapas de la pandemia del SARS-CoV-2. El algoritmo es capaz de predecir la secuencia de ARN del virus en tan solo 27 segundos, 120 veces más rápido que otros métodos.
  • (2020) OpenAI lanza el modelo de procesamiento de lenguaje natural GPT-3 que puede producir texto modelado según la forma en que las personas hablan y escriben.
  • (2021) OpenAI se basa en GPT-3 para desarrollar DALL-E que puede crear imágenes a partir de indicaciones de texto.
  • (2022) El Instituto Nacional de Estándares y Tecnología publica el primer borrador de su Marco de Gestión de Riesgos de IA, una guía voluntaria de EE. UU. “para gestionar mejor los riesgos para las personas, las organizaciones y la sociedad asociados con la inteligencia artificial”.
  • (2022) DeepMind presenta CAT, un sistema de inteligencia artificial capacitado para realizar cientos de tareas, como jugar Atari, subtitular imágenes y usar un brazo robótico para apilar bloques.

Este artículo forma parte de una guía completa sobre inteligencia artificial.

Relacionado