Evolución de la inteligencia artificial y Alan Turing

El manifiesto de Turing de 1948 distinguió dos enfoques diferentes de la Inteligencia Artificial que pueden denominarse “de arriba hacia abajo” y “de abajo hacia arriba”.

El trabajo descrito hasta ahora en este artículo pertenece al enfoque de arriba hacia abajo.

En la IA de arriba hacia abajo, la cognición se trata como un fenómeno de alto nivel que es independiente de los detalles de bajo nivel del mecanismo de implementación: Un cerebro en el caso de un ser humano y uno u otro diseño de computadora digital electrónica en el caso artificial.

Este artículo es una recuperación de una versión perdida en 2021 y es totalmente legible a pesar de estar a expensas de una revisión más profunda que mejore su diseño y maquetación.
¡Perdón por las posibles molestias!

Los investigadores de IA de abajo hacia arriba o conexionismo, adoptan un enfoque opuesto y simulan redes de neuronas artificiales que son similares a las neuronas del cerebro humano. Luego investigan qué aspectos de la cognición se pueden recrear en estas redes artificiales.

La diferencia entre los dos enfoques puede ilustrarse considerando la tarea de construir un sistema para discriminar -por ejemplo- entre la W o cualquier otra letra y el resto de letras.

Un enfoque de abajo hacia arriba podría involucrar la presentación de letras, una por una, a una red neuronal configurada como una retina y reforzar las neuronas que responden más vigorosamente a la presencia de W que a la presencia de cualquier otra letra.

Un enfoque de arriba hacia abajo podría involucrar escribir un programa de computadora que verifique las entradas de letras contra una descripción de W que se expresa en términos de los ángulos y las longitudes relativas de los segmentos de línea que se cruzan.

En pocas palabras, la actualidad del enfoque de abajo hacia arriba es la actividad neuronal y las descripciones del enfoque de arriba hacia abajo de las características relevantes de la tarea.

Las descripciones empleadas en el enfoque de arriba hacia abajo se almacenan en la memoria de la computadora como estructuras de símbolos (por ejemplo, listas).

En el caso de un programa de ajedrez o de damas, por ejemplo, las descripciones involucradas son posiciones en el tablero, movimientos, etc. La dependencia de la IA de arriba hacia abajo en las descripciones codificadas simbólicamente le ha valido el nombre de IA simbólica.

En la década de 1970, Newell y Simon, enérgicos defensores de la IA simbólica; resumieron el enfoque en lo que llamaron la Hipótesis del Sistema de Símbolos Físicos que dice que el procesamiento de estructuras de símbolos por una computadora digital es suficiente para producir inteligencia artificial y que además, el procesamiento de estructuras de símbolos por parte del cerebro humano es la base de la inteligencia humana.

Si bien, sigue siendo una pregunta abierta si la hipótesis del sistema de símbolos físicos es verdadera o falsa.

Conexionismo

El conexionismo o computación similar a las neuronas, se desarrolló a partir de los intentos de comprender cómo funciona el cerebro a nivel neuronal y en particular, cómo aprende y recuerda una red neuronal.

En un famoso experimento conexionista (realizado en la Universidad de California en San Diego y publicado en 1986), David Rumelhart y James McClelland entrenaron una red de 920 neuronas artificiales para formar los tiempos pasados de los verbos en inglés.

La red constaba de dos capas de 460 neuronas: Cada una de las 460 neuronas de la capa de entrada está conectada a cada una de las 460 neuronas de la capa de salida.

Las formas raíz de los verbos, como “venir”, “mirar” y “dormir” se presentaron (en forma codificada) a una capa de neuronas, la capa de entrada. Un programa informático de supervisión observa la diferencia entre la respuesta real en la capa de neuronas de salida y la respuesta deseada –“llegó”, digamos– y luego ajusta mecánicamente las conexiones a lo largo de la red de tal manera que le daba a la red un ligera empuje en la dirección de la respuesta correcta (este procedimiento se explica con más detalle a continuación).

Alrededor de 400 verbos diferentes fueron presentados, uno por uno a la red y las conexiones fueron ajustadas después de cada presentación. Todo este procedimiento se repitió unas 200 veces usando los mismos verbos. En esta etapa, la red había aprendido su tarea satisfactoriamente y formaba correctamente el tiempo pasado de los verbos desconocidos, así como de los verbos originales.

La red neuronal simple que se muestra a continuación ilustra las ideas centrales del conexionismo:

Cuatro de las cinco neuronas de la red son de entrada y la quinta, a la que están conectadas las demás, es de salida. Cada una de las neuronas se dispara (1) o no se dispara (0). Esta red puede aprender a cuál de dos grupos, A y B, pertenecen varios patrones simples. Un agente externo puede “sujetar” las cuatro neuronas de entrada en un patrón deseado, por ejemplo 1100 (es decir, las dos neuronas de la izquierda están activas y las otras dos están inactivas). Cada patrón de este tipo ha sido preasignado a uno de los dos grupos, A y B. Cuando se presenta un patrón como entrada, la red entrenada lo clasificará correctamente como perteneciente al grupo A o al grupo B, produciendo 1 como salida si el patrón pertenece. a A y 0 si pertenece a B (es decir, la neurona de salida se dispara en el primer caso, no se dispara en el segundo).

Cada conexión que conduce a N, la neurona de salida, tiene un “peso”. Lo que se llama la “entrada ponderada total” en N se calcula sumando los pesos de todas las conexiones que conducen a N desde las neuronas que se activan. Por ejemplo, suponga que solo se activan dos de las neuronas de entrada, X e Y. Dado que el peso de la conexión de X a N es 1,5 y el peso de la conexión de Y a N es 2, se deduce que la entrada ponderada total a N es 3,5.

N tiene un “umbral de disparo” de 4. Es decir, si la entrada ponderada total de N excede o es igual al umbral de N, entonces N se dispara y si la entrada ponderada total es menor que el umbral, entonces N no se dispara. Entonces, por ejemplo, N no se activa si las únicas neuronas de entrada que se activan son X e Y, pero N se activa si X, Y y Z se activan todas.

El entrenamiento de la red implica dos pasos:

Primero, el agente externo ingresa un patrón y observa el comportamiento de N.

Segundo, el agente ajusta los pesos de conexión de acuerdo con las reglas:

  1. Si la salida real es 0 y la salida deseada es 1, aumente en una pequeña cantidad fija el peso de cada conexión que conduce a N desde las neuronas que se están disparando (haciendo así más probable que N se dispare la próxima vez que se active la red). dado el mismo patrón).
  2. Si la salida real es 1 y la salida deseada es 0, disminuya en esa misma pequeña cantidad el peso de cada conexión que lleva a la neurona de salida de las neuronas que están disparando (haciendo así que sea menos probable que la neurona de salida dispare la la próxima vez que la red reciba ese patrón como entrada).

El agente externo, en realidad un programa de computadora, pasa por este procedimiento de dos pasos con cada uno de los patrones en la muestra que la red está siendo entrenada para clasificar. Luego, el agente repite todo el proceso un número considerable de veces.

Durante estas muchas repeticiones, se forja un patrón de pesos de conexión que permite que la red responda correctamente a cada uno de los patrones.

Lo sorprendente es que el proceso de aprendizaje es completamente mecánico y no requiere intervención o ajuste humano. Los pesos de conexión aumentan o disminuyen mecánicamente en una cantidad constante y el procedimiento sigue siendo el mismo sin importar qué tarea esté aprendiendo la red.

Otro nombre para el conexionismo es “procesamiento distribuido en paralelo” o PDP. Esta terminología enfatiza dos características importantes de la computación similar a las neuronas. (1) Una gran cantidad de procesadores relativamente simples, las neuronas, operan en paralelo. (2) Las redes neuronales almacenan información de forma distribuida u holística y cada conexión individual participa en el almacenamiento de muchos elementos de información diferentes.

El conocimiento que permite que la red en tiempo pasado forme “lloró” de “llorar”, por ejemplo, no se almacena en una ubicación específica en la red, sino que se distribuye a través de todo el patrón de pesos de conexión que se forjó durante el entrenamiento.

El cerebro humano también parece almacenar información de manera distribuida y la investigación conexionista está contribuyendo a los intentos de comprender cómo lo hace el cerebro.

En algunos de los trabajos más recientes, de hace unos años, con redes neuronales incluía:

(1) El reconocimiento de rostros y otros objetos a partir de datos visuales. Una red neuronal diseñada por John Hummel e Irving Biederman en la Universidad de Minnesota puede identificar unos diez objetos a partir de dibujos lineales simples. La red puede reconocer los objetos, que incluyen una taza y una sartén, incluso cuando se dibujan desde varios ángulos diferentes.

Las redes investigadas por Tomaso Poggio del MIT pueden reconocer (a) formas de alambre doblado dibujadas desde diferentes ángulos (b) caras fotografiadas desde diferentes ángulos y que muestran diferentes expresiones (c) objetos de dibujos animados con sombreado en escala de grises que indica profundidad y orientación . (Un primer sistema de reconocimiento facial similar a una neurona disponible comercialmente fue WISARD, diseñado a principios de la década de 1980 por Igor Aleksander del Imperial College London. WISARD se usó para aplicaciones de seguridad).

(2) Procesamiento del lenguaje. Las redes neuronales pueden convertir material escrito a mano y mecanografiado en texto estandarizado. El Servicio de Impuestos Internos de EE. UU. ha encargado un sistema similar a una neurona que leerá automáticamente las declaraciones de impuestos y la correspondencia. Las redes neuronales también convierten la voz en texto impreso y el texto impreso en voz.

(3) Las redes neuronales se utilizan cada vez más para la evaluación del riesgo de préstamos, la valoración de bienes raíces, la predicción de quiebras, la predicción del precio de las acciones y otras aplicaciones comerciales.

(4) Las aplicaciones médicas incluyen la detección de nódulos pulmonares y arritmia cardíaca, y la predicción de las reacciones de los pacientes a los medicamentos.

(5) Las aplicaciones de telecomunicaciones de las redes neuronales incluyen el control de las redes de conmutación telefónica y la cancelación de eco en módems y enlaces satelitales.

Historia del conexionismo

En 1933, el psicólogo Edward Thorndike sugirió que el aprendizaje humano consiste en el fortalecimiento de alguna propiedad (entonces desconocida) de las neuronas, y en 1949 el psicólogo Donald Hebb sugirió que es específicamente el fortalecimiento de las conexiones entre las neuronas en el cerebro lo que explica el aprendizaje.

En 1943, el neurofisiólogo Warren McCulloch de la Universidad de Illinois y el matemático Walter Pitts de la Universidad de Chicago publicaron una influyente teoría según la cual cada neurona del cerebro es un simple procesador digital y el cerebro en su conjunto es una forma de computación. máquina. Como dijo McCulloch posteriormente: “Lo que pensábamos que estábamos haciendo (y creo que lo logramos bastante bien) era tratar al cerebro como una máquina de Turing “.

McCulloch y Pitts discutieron poco sobre el aprendizaje y aparentemente no contemplaron la fabricación de redes de elementos similares a neuronas artificiales. Este paso se dio por primera vez, en concepto, en 1947-48, cuando Turing teorizó que una red de neuronas artificiales inicialmente conectadas al azar, una red de Turing , podría “entrenarse” (su palabra) para realizar una tarea determinada por medio de un proceso que hace que ciertas vías neuronales sean efectivas y otras ineficaces.

Turing previó el procedimiento, ahora de uso común entre los conexionistas, de simular las neuronas y sus interconexiones dentro de una computadora digital ordinaria (al igual que los ingenieros crean modelos virtuales de alas de aviones y rascacielos).

Sin embargo, la propia investigación de Turing sobre redes neuronales se llevó a cabo poco antes de que estuvieran disponibles las primeras computadoras electrónicas con programas almacenados. No fue hasta 1954 (el año de la muerte de Turing) que Belmont Farley y Wesley Clark, que trabajaban en el MIT, lograron ejecutar las primeras simulaciones por computadora de pequeñas redes neuronales.

Farley y Clark pudieron entrenar redes que contenían como máximo 128 neuronas para reconocer patrones simples (usando esencialmente el procedimiento de entrenamiento descrito anteriormente).

Además, descubrieron que la destrucción aleatoria de hasta el 10 % de las neuronas en una red entrenada no afecta el desempeño de la red en su tarea, una característica que recuerda la capacidad del cerebro para tolerar el daño limitado infligido por la cirugía, un accidente, o enfermedad.

Durante la década de 1950, se estudió la computación similar a las neuronas en ambos lados del Atlántico. WK Taylor en el University College de Londres, JT Allanson en la Universidad de Birmingham, RL Beurle y AM Uttley en el Radar Research Establishment, Malvern, realizaron un trabajo importante en Inglaterra; y en Estados Unidos por Frank Rosenblatt, en el Laboratorio Aeronáutico de Cornell.

En 1957, Rosenblatt comenzó a investigar redes neuronales artificiales a las que llamó “perceptrones”. Aunque los perceptrones diferían solo en cuestiones de detalle de los tipos de redes neuronales investigados previamente por Farley y Clark en los EE. UU. y por Taylor, Uttley, Beurle y Allanson en Gran Bretaña, Rosenblatt hizo importantes contribuciones al campo, a través de sus investigaciones experimentales de las propiedades de los perceptrones (usando simulaciones por computadora) y a través de sus análisis matemáticos detallados. Rosenblatt era un comunicador carismático y pronto en los EE. UU. hubo muchos grupos de investigación que estudiaban los perceptrones.

Rosenblatt y sus seguidores llamaron a su enfoque conexionista para enfatizar la importancia en el aprendizaje de la creación y modificación de conexiones entre neuronas y los investigadores modernos en computación similar a neuronas han adoptado este término.

Rosenblatt distinguió entre perceptrones simples con dos capas de neuronas (las redes descritas anteriormente para formar tiempos pasados y clasificar patrones entran en esta categoría) y perceptrones de múltiples capas con tres o más capas.

Una de las contribuciones importantes de Rosenblatt fue generalizar el tipo de procedimiento de entrenamiento que habían utilizado Farley y Clark, que se aplicaba solo a redes de dos capas, para que el procedimiento se pueda aplicar a redes de múltiples capas.

Rosenblatt usó la frase “corrección de errores de retropropagación” para describir su método. El método y el término “propagación hacia atrás” ahora se usan todos los días en la computación similar a las neuronas (con mejoras y extensiones gracias a Bernard Widrow y ME Hoff, Paul Werbos, David Rumelhart, Geoffrey Hinton, Ronald Williams y otros) .

Durante las décadas de 1950 y 1960, florecieron los enfoques de arriba hacia abajo y de abajo hacia arriba de la IA, hasta que en 1969 Marvin Minsky y Seymour Papert del MIT, ambos comprometidos con la IA simbólica, publicaron una crítica del trabajo de Rosenblatt. Demostraron matemáticamente que hay una variedad de tareas que los perceptrones simples de dos capas no pueden realizar. Algunos ejemplos que dieron son:

(1) Ningún perceptrón de dos capas puede indicar correctamente en su neurona (o neuronas) de salida si hay un número par o impar de neuronas disparando en su capa de entrada.

(2) Ningún perceptrón de dos capas puede producir en su capa de salida la disyunción exclusiva de dos entradas binarias X e Y (el llamado “problema XOR”).

Es importante darse cuenta de que los resultados matemáticos obtenidos por Minsky y Papert sobre los perceptrones de dos capas, aunque interesantes y técnicamente sofisticados, no mostraron nada sobre las habilidades de los perceptrones en general, ya que los perceptrones de múltiples capas pueden realizar tareas que dos -capa perceptrón puede lograr.

De hecho, el “problema XOR” ilustra este hecho: un simple perceptrón de tres capas puede formar la disyunción exclusiva de X e Y (como sabían Minsky y Papert). Sin embargo, Minsky y Papert conjeturaron, sin ninguna evidencia real, que el enfoque de múltiples capas es “estéril” (su palabra). De alguna manera, su análisis de las limitaciones de los perceptrones de dos capas convenció a la comunidad de IA, y a los organismos que la financian, de la inutilidad de seguir trabajando con redes neuronales.

Esta pausa en la investigación de la computación similar a las neuronas persistió durante más de una década antes de que ocurriera un renacimiento. Las causas del renacimiento incluyeron (1) una percepción generalizada de que la IA simbólica se estaba estancando (2) la posibilidad de simular redes neuronales más grandes y complejas, debido a las mejoras que se habían producido en la velocidad y la memoria de las computadoras digitales,y (3) resultados publicados a principios y mediados de la década de 1980 por McClelland, Rumelhart y su grupo de investigación (por ejemplo, el experimento de los tiempos pasados) que fueron ampliamente vistos como una poderosa demostración del potencial de las redes neuronales.

Siguió una explosión de interés en la computación similar a las neuronas, y la IA simbólica pasó al asiento trasero.

Nueva inteligencia artificial

El enfoque de la IA ahora conocido como “nouvelle AI” fue iniciado en el Laboratorio de IA del MIT por el australiano Rodney Brooks, durante la segunda mitad de la década de 1980. Nouvelle AI se distancia de las caracterizaciones tradicionales de la IA, que enfatizan el desempeño a nivel humano. Uno de los objetivos de nouvelle AI es el relativamente modesto de producir sistemas que muestren aproximadamente el mismo nivel de inteligencia que los insectos.

Los practicantes de nouvelle AI rechazan la IA del micromundo, enfatizando que la verdadera inteligencia implica la capacidad de funcionar en un entorno del mundo real. Una idea central de nouvelle AI es que los componentes básicos de la inteligencia son comportamientos muy simples, como evitar un objeto y avanzar. Comportamientos más complejos “emergen” de la interacción de estos comportamientos simples. Por ejemplo, un micro-robot cuyos comportamientos simples son (1) evitar colisiones y (2) moverse hacia un objeto en movimiento parecerá perseguir al objeto en movimiento mientras se aleja un poco de él.

Brooks se centró en su trabajo inicial en la construcción de robots que se comporten como insectos simplificados (y al hacerlo, se alejó deliberadamente de las caracterizaciones tradicionales de la IA, como la que se proporciona al principio de este artículo).

Ejemplos de sus robots móviles parecidos a insectos son Allen (después de Allen Newell) y Herbert (después de Herbert Simon). Allen tiene un anillo de doce sonares ultrasónicos como sensores primarios y tres módulos independientes de producción de comportamiento. El módulo de nivel más bajo hace que el robot evite tanto objetos estacionarios como en movimiento. Con solo este módulo activado, Allen se sienta en medio de una habitación hasta que se le acerca y luego se aleja, evitando los obstáculos a medida que avanza.

El segundo módulo hace que el robot deambule al azar cuando no evita objetos, y el tercero empuja al robot a buscar lugares distantes con sus sensores y avanzar hacia ellos. (Los módulos segundo y tercero están en tensión, del mismo modo que nuestro comportamiento general a veces puede ser el producto de impulsos en conflicto, como el impulso de buscar seguridad y el impulso de evitar el aburrimiento).

Herbert tiene treinta sensores infrarrojos para evitar obstáculos locales, un sistema láser que recopila datos de profundidad tridimensionales a una distancia de unos doce pies frente al robot y una mano equipada con una serie de sensores simples. El entorno del mundo real de Herbert consiste en las oficinas ocupadas y los espacios de trabajo del laboratorio de IA. El robot busca en los escritorios y mesas del laboratorio latas de refresco vacías, las recoge y se las lleva. El comportamiento aparentemente coordinado y dirigido a un objetivo de Herbert surge de las interacciones de unos quince comportamientos simples. Cada comportamiento simple es producido por un módulo separado, y cada uno de estos módulos funciona sin referencia a los demás. (Desafortunadamente, el tiempo medio de Herbert desde el encendido hasta la falla del hardware no es más de quince minutos, debido principalmente a los efectos de la vibración).

Otros robots producidos por Brooks y su grupo incluyen a Genghis, un robot de seis patas que camina sobre terreno accidentado y sigue obedientemente a un humano, y Squirt, que espera en rincones oscuros hasta que un ruido lo invita a salir, momento en el que comenzará a seguir al fuente del ruido, moviéndose con lo que parece ser circunspección de punto oscuro en punto oscuro. Otros experimentos involucran pequeños robots “mosquitos”. Hablando de aplicaciones potenciales, Brooks describe posibles colonias de robots de mosquitos diseñados para habitar la superficie de las pantallas de TV y computadoras y mantenerlas limpias.

Brooks admite que incluso sus insectos artificiales más complicados no se acercan a la complejidad de los insectos reales. Una pregunta que deben enfrentar quienes trabajan en IA situada es si el comportamiento a nivel de insecto es un objetivo inicial razonable. John von Neumann, el pionero de la informática y fundador, junto con Turing, del área de investigación ahora conocida como “vida artificial”, pensaba de otra manera. En una carta al cibernético Norbert Wiener en 1946, von Neumann argumentó que los teóricos de los autómatas que seleccionan el sistema nervioso humano como su modelo están eligiendo de manera poco realista “el objeto más complicado bajo el sol”, y que hay poca ventaja en seleccionar en su lugar la hormiga. , ya que cualquier sistema nervioso exhibe una “complejidad excepcional”. Von Neumann creía que “la ruptura decisiva” es ”

El problema del marco

Los productos de la nueva IA son bastante diferentes de los de la IA simbólica, por ejemplo, Shakey y Freddy. Estos contenían un modelo interno (o “representación”) de sus micro-mundos, consistente en descripciones simbólicas. Esta estructura de símbolos tenía que actualizarse continuamente a medida que el robot se movía o el mundo cambiaba. Los programas de planificación de los robots harían malabarismos con esta enorme estructura de símbolos hasta que se derivaran descripciones de acciones que transformarían la situación actual en la situación deseada.

Todo este cálculo requirió una gran cantidad de tiempo de procesamiento. Esta es la razón por la que Shakey realizó sus tareas con extrema lentitud, aunque el diseño cuidadoso del entorno del robot minimizó la complejidad del modelo interno. En contraste, los robots de Brooks no contienen un modelo interno del mundo. Herbert, por ejemplo, descarta continuamente la información que recibe de sus sensores,

Los investigadores de IA llaman al problema de actualizar, buscar y manipular una gran estructura de símbolos en períodos de tiempo realistas el problema del marco . El problema del marco es endémico de la IA simbólica. Algunos críticos de la IA simbólica creen que el problema del marco es en gran medida insoluble y, por lo tanto, sostienen que el enfoque simbólico no “aumentará la escala” para producir sistemas genuinamente inteligentes. Es posible que CYC, por ejemplo, sucumba al problema del marco mucho antes de que el sistema alcance los niveles humanos de conocimiento.

Nouvelle AI evita el problema del marco. Los sistemas Nouvelle no contienen un modelo simbólico complicado de su entorno. La información se deja “afuera en el mundo” hasta que el sistema la necesite. Un nouvelle system se refiere continuamente a sus sensores más que a un modelo interno del mundo: “lee” del mundo externo cualquier información que necesita, precisamente en el momento en que la necesita. Como dice Brooks, el mundo es su propio mejor modelo, siempre exactamente actualizado y completo en cada detalle.

IA situada

En general, la IA tradicional ha intentado construir inteligencias incorpóreas cuya única forma de interactuar con el mundo ha sido a través del teclado y la pantalla o la impresora. Nouvelle AI intenta construir inteligencias incorporadas situadas en el mundo real. Brooks cita con aprobación los breves esbozos que Turing dio en 1948 y 1950 del enfoque “situado”.

Turing escribió sobre equipar una máquina “con los mejores órganos de los sentidos que el dinero puede comprar” y enseñarle “a entender y hablar inglés” mediante un proceso que “seguiría la enseñanza normal de un niño”. Turing contrastó esto con el enfoque de la IA que se centra en actividades abstractas, como jugar al ajedrez. Abogó por que se siguieran ambos enfoques, pero hasta ahora se ha prestado relativamente poca atención al enfoque situado.

El enfoque situado se anticipa en los escritos del filósofo Bert Dreyfus, de la Universidad de California en Berkeley. Dreyfus es probablemente el crítico más conocido de la IA simbólica. Ha estado argumentando en contra de la Hipótesis del Sistema de Símbolos Físicos desde principios de la década de 1960, insistiendo en la inadecuación de la visión de que todo lo relevante para el comportamiento inteligente puede ser capturado por medio de estructuras (por ejemplo, listas) de descripciones simbólicas.

Al mismo tiempo, ha defendido una visión alternativa de la inteligencia, que subraya la necesidad de que un agente inteligente esté situado en el mundo, y ha subrayado el papel del cuerpo en el comportamiento inteligente y la importancia de actividades tan básicas como moverse de un lado a otro. en el mundo y hacer frente a los obstáculos. Una vez vilipendiado por los admiradores de la IA, Dreyfus ahora es considerado un profeta del enfoque situado.

Planta

El trabajo reciente de Brooks ha tomado la dirección opuesta a la propuesta por von Neumann en las citas anteriores. Brooks persigue el objetivo tradicional de inteligencia artificial de nivel humano y, con Lynn Andrea Stein, ha construido un robot humanoide conocido como Cog. Cog tiene cuatro sensores de sonido tipo micrófono y cámaras montadas en su “cabeza” le proporcionan una visión foveada sacádica. El torso de Cog (sin piernas) es capaz de inclinarse y torcerse. Los medidores de tensión en la columna le brindan información a Cog sobre la postura. Los sensores de calor y corriente en los motores del robot brindan información sobre el esfuerzo. El brazo y la mano de manipulación están equipados con galgas extensométricas y sensores de calor y corriente. Las membranas de goma conductoras de electricidad en la mano y el brazo proporcionan información táctil.

Brooks cree que Cog aprenderá a correlacionar ruidos con eventos visuales ya extraer voces humanas del ruido de fondo; y que, a largo plazo, Cog, a través de sus interacciones con su entorno y con los seres humanos, aprenderá por sí mismo parte de la riqueza del conocimiento de sentido común que Lenat y su equipo están codificando pacientemente a mano en CYC.

Los críticos de la nouvelle AI enfatizan que hasta ahora el enfoque no ha logrado producir un sistema que muestre algo parecido a la complejidad del comportamiento que se encuentra en los insectos reales. Las sugerencias de algunos defensores de la nouvelle AI de que es solo un pequeño paso hacia los sistemas que son conscientes y que poseen lenguaje parecen completamente prematuras.

IA y ajedrez

Algunos de los éxitos más conspicuos de AI han sido en el ajedrez, su área de investigación más antigua.

En 1945, Turing predijo que las computadoras algún día jugarían ” muy bien al ajedrez “, una opinión compartida en 1949 por Claude Shannon de Bell Telephone Laboratories, otro de los primeros teóricos del ajedrez por computadora.

En 1958, Simon y Newell predijeron que dentro de diez años el campeón mundial de ajedrez sería una computadora, a menos que las reglas lo prohibieran. Poco menos de 40 años después, el 11 de mayo de 1997, en el centro de Manhattan, Deep Blue de IBM venció al actual campeón mundial, Gary Kasparov, en un partido de seis juegos.

Los críticos cuestionan el valor de la investigación sobre el ajedrez informático. El lingüista del MIT Noam Chomsky ha dicho que el hecho de que un programa de computadora le gane a un gran maestro de ajedrez es tan interesante como que una excavadora “gane” una competencia olímpica de levantamiento de pesas. De hecho, Deep Blue es una especie de excavadora: sus 256 procesadores paralelos le permiten examinar 200 millones de movimientos posibles por segundo y anticipar hasta catorce turnos de juego.

La gran mejora en el ajedrez automático desde la época de Turing se debe mucho más a los avances en la ingeniería de hardware que a los avances en la IA. Los aumentos masivos en la velocidad de la CPU y la memoria han significado que cada generación de máquinas de ajedrez ha podido examinar cada vez más movimientos posibles. La expectativa de Turing era que la programación de ajedrez contribuiría al estudio de cómo piensan los seres humanos. De hecho, se ha aprendido poco o nada sobre los procesos de pensamiento humano de la serie de proyectos que culminaron en Deep Blue.

¿Es posible una IA fuerte?

El éxito continuo de la Inteligencia Artificial aplicada y de la simulación cognitiva parece asegurado. Sin embargo, la IA fuerte, cuyo objetivo es duplicar las capacidades intelectuales humanas, sigue siendo controvertida. La reputación de esta área de investigación se ha visto dañada a lo largo de los años por afirmaciones exageradas de éxito que han aparecido tanto en los medios populares como en las revistas profesionales. En la actualidad, incluso un sistema incorporado que muestre la inteligencia general de una cucaracha está resultando difícil de alcanzar, y mucho menos un sistema que rivalice con un ser humano.

No se puede exagerar la dificultad de “ampliar” los logros relativamente modestos de la IA hasta ahora. Cinco décadas de investigación en IA simbólica no han logrado producir ninguna evidencia firme de que un sistema de símbolos pueda manifestar niveles humanos de inteligencia general.

Los críticos de la nouvelle AI consideran mística la opinión de que los comportamientos de alto nivel relacionados con la comprensión del lenguaje, la planificación y el razonamiento “surgirán” de alguna manera de la interacción de comportamientos básicos como evitar obstáculos, controlar la mirada y manipular objetos.

Los conexionistas no han podido construir modelos funcionales de los sistemas nerviosos ni siquiera de los seres vivos más simples. Caenorhabditis elegans, un gusano muy estudiado, tiene aproximadamente 300 neuronas, cuyo patrón de interconexiones se conoce perfectamente. Sin embargo, los modelos conexionistas no han logrado imitar el sistema nervioso simple del gusano. Las “neuronas” de la teoría conexionista son simplificaciones excesivas de la realidad.

Sin embargo, esta falta de progreso sustancial puede ser simplemente un testimonio de la dificultad de una IA fuerte, no de su imposibilidad.

Permítanme pasar a la idea mismade fuerte inteligencia artificial. ¿Es posible que una computadora sea inteligente, piense y comprenda? Noam Chomsky sugiere que debatir esta cuestión no tiene sentido, ya que se trata de una decisión, no de un hecho: la decisión de adoptar una cierta extensión del uso común. No existe, afirma Chomsky, ninguna duda real sobre si tal decisión es correcta o incorrecta, al igual que no hay duda sobre si nuestra decisión de decir que los aviones vuelan es correcta, o nuestra decisión de no decir que los barcos nadan es correcta. equivocado. Sin embargo, Chomsky está simplificando demasiado las cosas. Por supuesto, si lo deseáramos, podríamos simplemente decidir describir las excavadoras, por ejemplo, como cosas que vuelan. Pero, obviamente, sería engañoso hacerlo, ya que las excavadoras no son apropiadamente similares a las otras cosas que describimos como voladoras. Las preguntas importantes son:¿Cuáles son las condiciones que debe cumplir una computadora para que se la describa así?

Algunos autores ofrecen la prueba de Turing como una definición de inteligencia: una computadora es inteligente si y solo si la prueba no logra distinguirla de un ser humano. Sin embargo, el propio Turing, de hecho, señaló que su prueba no puede proporcionar una definición de inteligencia.

Es posible, dijo, que una computadora que debería describirse como inteligente falle la prueba porque no es capaz de imitar con éxito a un ser humano. Por ejemplo, ¿por qué un robot inteligente diseñado para supervisar la minería en la luna necesariamente debería poder hacerse pasar por un ser humano en una conversación? Si una entidad inteligente puede fallar en la prueba, entonces la prueba no puede funcionar como una definición de inteligencia.

Incluso es cuestionable si una computadora que pasa la prueba mostraría que la computadora es inteligente. En 1956, Claude Shannon y John McCarthy plantearon la objeción a la prueba de que, en principio, es posible diseñar un programa que contenga un conjunto completo de respuestas “enlatadas” a todas las preguntas que un interrogador podría formular durante el lapso de tiempo fijo del interrogatorio. prueba.

Al igual que Parry, esta máquina produciría respuestas a las preguntas del entrevistador al buscar las respuestas apropiadas en una tabla gigante. Esta objeción, que en los últimos años ha sido revivida por Ned Block, Stephen White y yo mismo, parece mostrar que, en principio, un sistema sin inteligencia en absoluto podría pasar la prueba de Turing.

De hecho, la IA no tiene una definición real de inteligencia que ofrecer, ni siquiera en el caso de los subhumanos. Las ratas son inteligentes, pero ¿qué debe lograr exactamente un equipo de investigación para que el equipo haya creado un artefacto tan inteligente como una rata?

En ausencia de un criterio razonablemente preciso para saber cuándo un sistema artificial cuenta como inteligente, no hay forma de saber si un programa de investigación que pretende producir artefactos inteligentes ha tenido éxito o ha fracasado. Un resultado del fracaso de AI para producir un criterio satisfactorio de cuándo un sistema cuenta como inteligente es que cada vez que AI logra uno de sus objetivos, por ejemplo, un programa que puede resumir artículos de periódicos o vencer al campeón mundial de ajedrez, los críticos pueden decir ” ¡Eso no es inteligencia!” (Incluso los críticos que han sostenido previamente que ninguna computadora podría hacer lo en cuestión).

La respuesta de Marvin Minsky al problema de definir la inteligencia es mantener que “inteligencia” es simplemente nuestro nombre para cualquier proceso mental de resolución de problemas que aún no entendamos. Él compara la inteligencia con el concepto de “regiones inexploradas de África”: desaparece tan pronto como la descubrimos. Anteriormente, Turing hizo un comentario similar, diciendo: “Uno podría verse tentado a definir el pensamiento como aquellos procesos mentales que no comprendemos”. Sin embargo, sigue existiendo el problema importante de dar un criterio claro de lo que contaría como éxito en una sólida investigación en inteligencia artificial.

La objeción de la habitación china

Una objeción influyente a la IA fuerte, la objeción de la habitación china, se origina con el filósofo John Searle. Searle afirma ser capaz de probar que ningún programa de computadora, ni siquiera un programa de computadora del futuro lejano, podría pensar o comprender.

La supuesta prueba de Searle se basa en el hecho de que cada operación que una computadora es capaz de realizar puede igualmente ser realizada por un ser humano que trabaje con papel y lápiz. Como señaló Turing, la función misma de una computadora electrónica es llevar a cabo cualquier proceso que pueda ser llevado a cabo por un ser humano que trabaja con papel y lápiz de una “manera disciplinada pero poco inteligente”. Por ejemplo, una de las operaciones básicas de una computadora es comparar los números binarios en dos ubicaciones de almacenamiento y escribir 1 en alguna otra ubicación de almacenamiento si los números son iguales. Un ser humano puede hacer esto perfectamente, usando pedazos de papel como lugares de almacenamiento. Creer que es posible una IA fuerte es creer que la inteligencia puede “surgir” de largas cadenas de operaciones básicas, cada una de las cuales es tan simple como esta.

Dada una lista de las instrucciones que componen un programa de computadora, un ser humano puede, en principio, obedecer cada instrucción utilizando papel y lápiz. Esto se conoce como “trabajar a mano” un programa. La objeción de la habitación china de Searle es la siguiente. Imagine que, en algún momento en el futuro, los investigadores de IA en, digamos, China anuncien un programa que realmente piensa y comprende, o eso afirman.

Imagine además que en una prueba de Turing (realizada en chino) el programa no se puede distinguir de los seres humanos. Searle sostiene que, sin importar qué tan bueno sea el desempeño del programa, y sin importar qué algoritmos y estructuras de datos se empleen en el programa, de hecho no puede pensar ni comprender. Esto se puede probar, dice, considerando un ser humano imaginario, que no habla chino, trabajando a mano el programa en una habitación cerrada. (Searle extiende el argumento a la IA conexionista al considerar no una habitación que contiene una sola persona sino un gimnasio que contiene un gran grupo de personas, cada una de las cuales simula una sola neurona artificial).

Las preguntas del interrogador, expresadas en forma de ideogramas chinos, entrar en la habitación a través de una ranura de entrada. El ser humano en la habitación, digamos, el empleado, sigue las instrucciones del programa y lleva a cabo exactamente la misma serie de cálculos que llevaría a cabo una computadora electrónica ejecutando el programa. Estos cálculos finalmente producen cadenas de símbolos binarios que el programa le indica a Clerk que correlacione, a través de una tabla, con patrones de garabatos y garabatos (en realidad, ideogramas chinos). Clerk finalmente empuja copias de los ideogramas a través de una ranura de salida. En lo que respecta al interrogador que espera, los ideogramas forman una respuesta inteligente a la pregunta planteada. Pero en lo que respecta a Clerk, el resultado es solo garabatos y garabatos, ganado con esfuerzo, pero completamente sin sentido. Clerk ni siquiera sabe que las entradas y salidas son expresiones lingüísticas. Sin embargo, Clerk ha hecho todo lo que haría una computadora que ejecuta el programa. Seguramente se deduce, dice Searle, que dado que Clerk no entiende la entrada y la salida después de trabajar con el programa, tampoco lo hace una computadora electrónica.

Pocos aceptan la objeción de Searle, pero hay poco acuerdo en cuanto a qué es exactamente lo que está mal. Mi propia respuesta a Searle, conocida como la respuesta lógica a la objeción de la habitación china, es la siguiente. El hecho de que Clerk diga “No” cuando se le pregunta si entiende la entrada y salida en chino de ninguna manera muestra que el sistema más amplio del que Clerk forma parte no entienda chino.

El sistema más amplio consta de Clerk, el programa, cantidades de datos (como la tabla que correlaciona el código binario con los ideogramas), las ranuras de entrada y salida, el almacén de memoria en papel, etc. Clerk es solo un engranaje en una máquina más amplia.

La afirmación de Searle es que la afirmación “El sistema como un todo no comprende” se deriva lógicamente de la afirmación “El empleado no comprende”. la respuesta logicasostiene que esta afirmación es falaz, por la misma razón por la que sería falaz afirmar que la afirmación “La organización de la que Clerk forma parte no tiene activos imponibles en Japón” se deriva lógicamente de la afirmación “El empleado no tiene activos imponibles en Japón”. Japón”. Si la respuesta lógica es correcta, la objeción de Searle a una IA fuerte no prueba nada.

Relacionado

❌ React Native, crear aplicación como Netflix con Mario Díez

[no_toc] [expand title="Índice del Vídeotutorial"] 1. FlatList Horizontal 2. Componente Swiper 3. Menú Animado y Header 4. FlatList Grid 5. Más Flexbox, Tabs y Linear gradiantes 6. Reproductor de Vídeo 7. Share API 8. Animatable Header y NativeEvents 9. React Navigation 10. Header Múltiple con Animated 11. Modal con React Navigation 12. React Navigation con Redux 13. Servidor NodeJS con MongoDB para React Native 14. Conectando ¡SEGUIR LEYENDO!

❌ React Native con Mario Díez

[no_toc] [expand title="Índice del Vídeotutorial"] 1. Instalación 2. Introducción 3. Props y State 4. Fetch Data 5. ListView 6. Fech Data 2 7. Navigator IOS 8. Navigator 9. Flexbox 10. PropTypes 11. TabBarIOS 12. Formularios 13. AsyncStorage 14. Recorriendo Arrays con Map 15. Notificaciones Push 16. Notificaciones Push desde NodeJS 17. Barra de Búsqueda en ListView 18. Utilización de CameraRoll 19. Children o Props 20. Diferenciar ¡SEGUIR LEYENDO!

❌ React Native con Iván B. Trujillo

[no_toc] [expand title="Índice del Vídeotutorial"] 1. Primeros Pasos 2. Componentes, Botones y Alertas 3. Pantalla de Login, Navegador y Vistas 4. Navegación por Pestañas 5. Peticiones a API y ListView 6. Vista Detalles y Paso de Propiedades a Componente Hijo [/expand] [yotuwp type="playlist" id="PLuzQ5Ac_9_cI-ukaElfIFKXyhLsADBiJe" ] [expand title="Creador"] Editor del blog de Medium: Canarias JS [/expand]

❌ Javascript con Píldoras Informáticas

[no_toc] [expand title="Índice del Vídeotutorial"] 1. Presentación. Vídeo 1 2. Introducción. Vídeo 2 3. Sintaxis Básica I. Ubicación del código. Vídeo 3 4. Sintaxis Básica II. Estructuras Básicas. Vídeo 4 5. Sintaxis Básica III. Operadores Básicos. Vídeo 5 6. Sintaxis Básica IV. Operadores y prompt. Vídeo 6 7. Sintaxis Básica V Arrays, Matrices, Arreglos. Vídeo 7 8. Sintaxis Básica V. Arrays, Matrices, Arreglos II. Vídeo 8 ¡SEGUIR LEYENDO!

❌ Javascript con Falcon Masters

[no_toc] [expand title="Índice del Vídeotutorial"] 1. Introducción 2. Variables 3. Tipos de Dato 4. Arreglos 5. Metodos y propiedades para los Arreglos 6. Condicionales 7. Ciclo Fo 8. Ciclo While 9. Funciones 10. Ejercicio con Funciones y Formularios 11. Scope de Javascript (ámbito de las variables) 12. Metodos y propiedades para Cadenas de Texto 13. Introducción al DOM (Document Object Model) 14. Creando Nodos del DOM ¡SEGUIR LEYENDO!

Salir de la versión móvil