¿Qué es la prueba de Turing y por qué es importante para la IA?

Si has estado alrededor de la Inteligencia Artificial (IA) sin duda has oído hablar de la prueba de Turing.

Esta prueba fue propuesta por primera vez por Alan Turing en 1950 y se diseño para ser el último experimento sobre si una IA es capaz de alcanzar o no, a la inteligencia del ser humano.

Conceptualmente, si la IA puede pasar la prueba, ha logrado una inteligencia equivalente o indistinguible a la de un ser humano.

Guía de Inteligencia Artificial

A continuación, vamos a explorar quién es Alan Turing, qué es la prueba de Turing, por qué es importante para la IA y por qué la definición de la prueba puede necesitar evolucionar.

¿Quién es Alan Turing?

Turing es un excéntrico matemático británico reconocido por sus innovadoras ideas futuristas.

En un resumen rápido, Turing a la edad de 22 años trabajo sobre la teoría de la probabilidad, lo que le sirvió para recibir una importante beca. Sus ideas matemáticas abstractas, le sirvieron para impulsarse en una dirección completamente diferente dentro de un campo que aún no había sido inventado.

¿Quién es Alan Turing?

En 1936, Turing publicó un artículo que ahora se reconoce como la base de la informática, en el que se incluía el concepto de la Máquina Universal capaz de poder decodificar y realizar cualquier conjunto de instrucciones.

Alan Turing: Historia completa, estudios y pensamientos filosóficos

En 1939, Turing fue reclutado por el departamento de descifrado de códigos del gobierno británico. Turing desarrolló rápidamente una nueva máquina denominada “bomba” que era capaz de descifrar los mensajes de Enigma a escala industrial. Este desarrollo se ha considerado fundamental para ayudar a hacer retroceder las agresiones de la Alemania naz

Alan Turing: El descifrador de códigos y pionero informático

En 1946, Turing volvió a trabajar en su idea revolucionaria para desarrollar una computadora electrónica capaz de ejecutar varios tipos de cálculos, y logró diseñar lo que se llamó Automatic Computing Engine (ACE).

En 1950, Turing publicó su obra “¿Puede la Máquina pensar? y este documento transformó por completo tanto la informática como la IA.

Evolución de la inteligencia artificial y Alan Turing

En 1952, después de ser denunciado a la policía por un joven, Turing fue condenado por indecencia grave debido a sus actividades homosexuales y eso, destruyó su carrera. Fue castrado químicamente.

Con su vida destrozada, su limpiador lo descubrió más tarde en su casa el 8 de junio de 1954. El veredicto del forense fue el de suicidio. Afortunadamente, su legado sigue vivo.

¿Qué es la prueba de Turing?

En 1950, Alan Turing publicó el artículo titulado “Maquinaria informática e inteligencia” en la revista Mind. En ese artículo se destacaba la proponía la pregunta de “¿Pueden pensar las máquinas?”.

El documento sugería abandonar la búsqueda de definir si una máquina puede pensar, para probar la máquina con el “juego de imitación”. Este sencillo juego se juega con tres personas:

  • un hombre (A)
  • una mujer (B),
  • y un interrogador (C) que puede ser de cualquier sexo.

El concepto del juego es que el interrogador permanece en una habitación separada tanto del hombre (A) como de la mujer (B), el objetivo es que el interrogador identifique quién es el hombre y quién es la mujer. En este caso, el objetivo del hombre (A) es engañar al interrogador, mientras que la mujer (B) puede intentar ayudar al interrogador (C).

Para que esto sea justo, no se pueden usar señales verbales, sino que solo se envían preguntas y respuestas escritas a máquina. La pregunta entonces es: ¿Cómo sabe el interrogador en quién confiar?

El interrogador solo los conoce por las etiquetas X e Y y al final del juego simplemente dice ‘X es A e Y es B’ o ‘X es B e Y es A’.

Entonces, la pregunta es, si eliminamos al hombre (A) o a la mujer (B) y reemplazamos a esa persona con una máquina inteligente, ¿Puede la máquina usar su sistema de inteligencia artificial para engañar al interrogador (C) haciéndole creer que es un hombre o una mujer?

Esta es, en esencia, la naturaleza de la prueba de Turing.

En otras palabras, si te comunicas con un sistema de Inteligencia Artificial sin saberlo y asumieras que la “entidad” en el otro extremo es un ser humano, ¿Podría la Inteligencia Artificial engañarte indefinidamente?

¿Por qué es importante la prueba de Turing?

En el artículo de Alan Turing, aludió al hecho de que creía que la Prueba de Turing eventualmente podría superarse. Afirmando: “..que para el año 2000, alrededor de unos cincuenta años sería posible programar computadoras con una capacidad de un muy alto almacenamiento para que jueguen al juego de la imitación, tan bien, que un interrogador promedio no tendría más del 70 por ciento de probabilidad de hacer la identificación correcta después de cinco minutos de interrogatorio.

Al mirar la prueba de Turing a través de una lente moderna, parece muy posible que un sistema de inteligencia artificial pueda engañar a un humano durante cinco minutos, ¿Con qué frecuencia los humanos han interactuado con chatbots de soporte sin saber si el chatbot es un humano o un bot?

Ha habido muchos informes sobre la aprobación de la prueba de Turing. En 2014, se dice que un programa de chatbot llamado Eugene Goostman, simulando a un niño ucraniano de 13 años, fue capaz de pasar la prueba de Turing en un evento organizado por la Universidad de Reading.

El chatbot aparentemente convenció al 33% de los jueces de la Royal Society de Londres de que era humano. No obstante, los críticos se apresuraron a señalar las insuficiencias de la prueba, el hecho de que tantos jueces no estuvieran convencidos, la duración de la prueba (de solo 5 minutos), así como la falta de evidencias de ese logro.

En 2018, un sistema de reservas de Google Duplex con la ayuda del Asistente de Google hizo una llamada telefónica a una peluquería para programar una cita para un corte de cabello.

En este caso, el sistema de IA no se presentó como IA y durante la llamada telefónica fingió ser humano mientras hablaba con la recepcionista del salón. Después de un breve intercambio, logró programar con éxito un corte de pelo y ambas partes colgaron.

No obstante, es una era del procesamiento del lenguaje natural (NLP), con sus subcampos de comprensión del lenguaje natural (NLU) e interpretación del lenguaje natural (NLI); la pregunta que debería hacerse, sería si una máquina está haciendo y respondiendo preguntas entendiendo completamente el contexto detrás de lo que dice.

O dicho de otra manera mucho más sencilla, ¿La máquina llega a ser realmente inteligente?

Después de todo, si revisas la tecnología que existe detrás de Watson, el sistema informático capaz de responder preguntas planteadas en lenguaje natural y desarrollado por IBM para derrotar a los campeones de Jeopardy.

Ese evidente que Watson pudo vencer a los campeones mundiales descargando una gran parte del conocimiento del mundo a través de Internet, sin comprender realmente el contexto detrás del lenguaje. Tenía a su disposición 200 millones de páginas de información, de una variedad de fuentes, incluida Wikipedia.

A pesar de que existía una restricción, que era que Watson no podía acceder a Internet mientras jugaba, pero esa era realmente una restricción menor para una IA que simplemente podía acceder a todo el conocimiento humano desde antes de haber comenzado el juego.

Si una IA puede lograr este nivel de comprensión, entonces deberíamos considerar, el que según la tecnología avanzada de hoy en día; el reto de engañar a un humano durante 5 o 10 minutos simplemente no es poner el listón lo suficientemente alto.

¿Debería evolucionar la prueba de Turing?

La prueba de Turing ha hecho un trabajo notable al resistir con el paso del tiempo. No obstante, la IA ha evolucionado dramáticamente desde 1950.

Cada vez que la IA logra una hazaña de la que afirmamos que solo los humanos son capaces de hacer, se poneel listón más alto. Solo es cuestión de tiempo hasta que la IA pueda pasar consistentemente la prueba de Turing tal como la entendemos.

Al revisar la historia de la IA, el último barómetro de si la IA puede o no alcanzar el nivel de inteligencia humano casi siempre se basa en si puede derrotar a los humanos en varios juegos.

En 1949, Claude Shannon publicó sus pensamientos sobre el tema de cómo se podría hacer una computadora para jugar al ajedrez, ya que se consideraba la cumbre máxima de la inteligencia humana.

No fue hasta el 10 de febrero de 1996, después de una partida agotadora de tres horas, que el campeón mundial de ajedrez Garry Kasparov perdió el primer juego de una partida de seis juegos contra la computadora Deep Blue.

La computadora de IBM era capaz de evaluar 200 millones de movimientos por segundo. No pasó mucho tiempo hasta que el ajedrez dejó de ser considerado el pináculo de la inteligencia humana.

Luego, el ajedrez fue reemplazado por el juego de Go, un juego que se originó en China hace más de 3000 años y la barra para que la IA alcanzase la inteligencia de nivel humano; se volvío a aumentar.

Hasta Octubre de 2015, AlphaGo jugó su primer partido contra el tres veces campeón de Europa, el Sr. Fan Hui. AlphaGo ganó el primer juego contra un profesional de Go con una puntuación de 5-0. De repente, la barra se volvío a mover hacia arriba de nuevo.

Finalmente, el argumento fue que una IA tenía que ser capaz de derrotar a equipos de jugadores en MMORPG (juegos de rol multijugador masivos en línea). OpenAI aceptó rápidamente el desafío mediante el uso del aprendizaje de refuerzo profundo.

Es debido a este movimiento constante de la barra proverbial que debemos reconsiderar una nueva definición moderna de la prueba de Turing. La prueba actual puede basarse demasiado en el engaño y la tecnología que se encuentra en un chatbot.

Potencialmente, con la evolución de la robótica, es posible que necesitemos que para que una IA realmente alcance la inteligencia de nivel humano, la IA deberá interactuar y vivir en nuestro mundo real, en lugar de un entorno de juego o un entorno simulado con sus reglas definidas.

Si en lugar de engañarnos, un robot puede interactuar con nosotros como cualquier otro ser humano, manteniendo conversaciones, proponiendo ideas y soluciones, quizás solo así se supere el Test de Turing.

La última versión de la prueba de Turing puede ser cuando una IA se acerca a un humano e intente convencernos de que es consciente de sí misma.

En este punto, también habremos logrado la Inteligencia General Artificial (AGI) y entonces sería inevitable que la IA robótica nos supere rápidamente en inteligencia.

Este es un concepto técnico dentro del tema más amplio del procesamiento del lenguaje natural. NLU es el proceso responsable de traducir palabras humanas naturales a un formato que una computadora pueda interpretar.

Esencialmente, antes de que una computadora pueda procesar datos de lenguaje, debe comprender los datos. Las técnicas para NLU incluyen el uso de sintaxis común y reglas gramaticales para permitir que una computadora comprenda el significado y el contexto del lenguaje humano natural.

El objetivo final de estas técnicas, es que una computadora llegue a tener una comprensión “intuitiva” del lenguaje, capaz de escribir y comprender el lenguaje de la misma manera que lo hace un humano, sin tener que consultar constantemente las definiciones de las palabras.

Definición de NLU (comprensión del lenguaje natural)

Existen numerosas técnicas que los científicos informáticos y los expertos en PNL utilizan para permitir que las computadoras entiendan el lenguaje humano. La mayoría de las técnicas entran en la categoría del análisis sintáctico.

Las técnicas analíticas sintácticas incluyen:

  • lematización
  • derivación
  • segmentación de palabras
  • analizando
  • segmentación morfológica
  • ruptura de oraciones
  • etiquetado de parte del discurso

Estas técnicas analíticas sintácticas aplican reglas gramaticales a grupos de palabras e intentan usar estas reglas para obtener significado. En contraste, NLU opera utilizando técnicas de “análisis semántico”.

El análisis semántico aplica algoritmos informáticos al texto, intentando comprender el significado de las palabras en su contexto natural, en lugar de confiar en enfoques basados en reglas. La corrección/incorrección gramatical de una frase no se correlaciona necesariamente con la validez de una frase.

Puede haber frases que sean gramaticalmente correctas pero sin significado y frases que sean gramaticalmente incorrectas pero que tengan significado. Para distinguir los aspectos más significativos de las palabras, NLU aplica una variedad de técnicas destinadas a captar el significado de un grupo de palabras con menos dependencia de la estructura y las reglas gramaticales.

NLU es un campo en evolución y cambio y se considera uno de los problemas más difíciles de la IA en la actualidad.

Se están desarrollando varias técnicas y herramientas para que las máquinas comprendan el lenguaje humano, pero la mayoría de los sistemas NLU tienen ciertos componentes centrales en común:

Se requiere un léxico para el idioma, así como algún tipo de analizador de texto y reglas gramaticales para guiar la creación de representaciones de texto.

El sistema también requiere una teoría de la semántica que permita la comprensión de las representaciones. Existen varias teorías semánticas utilizadas para interpretar el lenguaje, como el análisis semántico estocástico o la semántica ingenua.

Entre las técnicas más comunes de NLU se incluyen:

El reconocimiento de entidades nombradas es el proceso de reconocimiento de “entidades nombradas” que son personas y lugares/cosas importantes. El Reconocimiento de Entidades Nombradas opera distinguiendo conceptos y referencias fundamentales en un cuerpo de texto, identificando entidades nombradas y colocándolas en categorías como ubicaciones, fechas, organizaciones, personas, obras, etc.

La desambiguación del sentido de las palabras es el proceso de determinar el significado o el sentido de una palabra en función del contexto en el que aparece. La desambiguación del sentido de las palabras a menudo utiliza etiquetadores de parte del discurso para contextualizar la palabra objetivo.

Los métodos supervisados de desambiguación del sentido de las palabras incluyen el uso de máquinas de vectores de soporte y el aprendizaje basado en la memoria.

Sin embargo, la mayoría de los modelos de desambiguación del sentido de las palabras son modelos semisupervisados que emplean datos etiquetados y no etiquetados.

Ejemplos de NLU (comprensión del lenguaje natural)

Los ejemplos comunes de NLU incluyen el razonamiento automatizado, el enrutamiento automático de tickets, la traducción automática y la respuesta a preguntas.

Razonamiento automatizado

El razonamiento automatizado es una disciplina que tiene como objetivo dotar a las máquinas de un tipo de lógica o razonamiento.

Es una rama de la ciencia cognitiva que se esfuerza por hacer deducciones basadas en diagnósticos médicos o resolver teoremas matemáticos mediante programación/automática. NLU se utiliza para ayudar a recopilar y analizar información y generar conclusiones basadas en la información.

Enrutamiento automático de boletos

NLU se usa a menudo para automatizar las tareas de servicio al cliente.

Cuando se genera un ticket de servicio al cliente, los chatbots y otras máquinas pueden interpretar la naturaleza básica de la necesidad del cliente y enrutarlos al departamento correcto.

Las empresas reciben miles de solicitudes de soporte todos los días, por lo que los algoritmos de NLU son útiles para priorizar los tickets y permitir que los agentes de soporte los manejen de manera más eficiente.

Máquina traductora

Es difícil traducir con precisión el habla o el texto de un idioma a otro. De hecho, la traducción automática es uno de los problemas más difíciles en NLP y NLU.

Investigadores universitarios quieren expandir el reconocimiento automático por voz a 2000 idiomas

Muchos sistemas de traducción automática se basan en reglas lingüísticas para traducir entre idiomas, pero los investigadores buscan formas más sofisticadas de traducir entre idiomas.

La traducción automática de NLU intenta permitir una traducción más precisa al preservar el contexto y la información semántica asociada con el texto de destino.

Los sistemas de traducción automática más precisos combinan reglas lingüísticas con algoritmos que extraen significado semántico.

Respuesta a preguntas

El reconocimiento de voz utiliza técnicas NLU para permitir que las computadoras entiendan las preguntas planteadas con lenguaje natural.

NLU se utiliza para dar a los usuarios del dispositivo una respuesta en su lenguaje natural, en lugar de proporcionarles una lista de posibles respuestas.

Cuando se hace una pregunta a un asistente digital, NLU se usa para ayudar a las máquinas a comprender las preguntas, seleccionando las respuestas más apropiadas en función de características como entidades reconocidas y el contexto de declaraciones anteriores.

Relacionados
Salir de la versión móvil