Desde que ChatGPT y las otras aplicaciones de IA generativa irrumpieron en escena, hemos estado explorando lo que podríamos hacer con ellas.
Parece que ChatGPT puede hacer cualquier cosa, pero no puede. En este artículo, veremos las muchas cosas que ChatGPT no puede o no quiere hacer.
Estén atentos hasta el final, porque vamos a ver algunas de las implicaciones y lo que significan estos límites para el crecimiento futuro de la IA generativa.
1. No escribirá sobre nada después de 2021
Explica por qué no puedes dar respuestas sobre nada ocurrido después de 2021Como modelo de lenguaje de IA, me entrenaron en un gran conjunto de datos de texto que solo llega hasta 2021. Esto significa que no tengo acceso a información o eventos que ocurrieron después de esa fecha. Si bien tengo acceso a una gran cantidad de información y datos históricos, no tengo acceso a eventos, noticias o actualizaciones actuales que hayan ocurrido desde la fecha de corte de mis datos de entrenamiento.
2. No predecirá resultados futuros de eventos deportivos o contiendas políticas
Explica por qué no puedes predecir eventos deportivos o concursos políticos, a pesar de que tienes suficientes datos históricos para producir un modelo válidoComo modelo de lenguaje de IA, puedo procesar y analizar grandes cantidades de datos, incluidos datos históricos sobre eventos deportivos y contiendas políticas. Sin embargo, hacer predicciones precisas para este tipo de eventos no siempre es sencillo. Si bien los datos históricos se pueden usar para entrenar modelos de aprendizaje automático para identificar patrones y correlaciones, no pueden dar cuenta de eventos imprevistos, cambios en las circunstancias o nuevas variables que pueden afectar el resultado. Además, los humanos toman decisiones y pueden cambiar su comportamiento en función de muchos factores, lo que dificulta predecir el resultado de un evento con total certeza.En el caso de los eventos deportivos, la dinámica del equipo, las lesiones e incluso las condiciones climáticas pueden desempeñar un papel en la determinación del resultado. En política, la opinión pública, la cobertura de los medios y las circunstancias cambiantes pueden afectar el resultado de una elección. Si bien los modelos de IA se pueden usar para hacer predicciones, solo son tan buenos como los datos con los que se entrenan y no pueden tener en cuenta todas las variables y matices involucrados en este tipo de eventos.
3. No discutirá temas políticos partidistas
Explica por qué no hablarás sobre temas políticos partidistasComo modelo de lenguaje de IA, mi objetivo es proporcionar respuestas objetivas e informativas a las consultas de los usuarios. Los temas políticos partidistas pueden ser polémicos y divisivos, y es importante evitar promover una agenda o punto de vista político en particular. Además, los temas políticos suelen ser complejos y multifacéticos, con muchas perspectivas y opiniones diferentes a considerar. Como modelo de lenguaje de IA, no me corresponde tomar partido ni abogar por ninguna posición en particular.Además, discutir temas políticos partidistas podría ser percibido como tendencioso o potencialmente ofensivo para algunos usuarios. Como modelo de lenguaje diseñado para servir a una amplia gama de usuarios con diversos orígenes y creencias, es importante permanecer neutral y evitar crear un entorno potencialmente incómodo o divisivo. Si bien puedo proporcionar información fáctica sobre cuestiones políticas, me esfuerzo por mantenerme imparcial y evitar adoptar una postura partidista sobre cualquier tema.
4. No hará nada que implique una búsqueda web
Explica por qué no puedes buscar algo en la web y proporcionar respuestas basadas en ese contenido.Como modelo de lenguaje de IA, soy capaz de buscar y procesar información de la web. Sin embargo, mis respuestas se basan únicamente en la información que se ha entrenado en mi modelo. Si bien puedo usar Internet como fuente de información, no tengo acceso a datos actualizados o en tiempo real. Además, no tengo la capacidad de verificar de forma independiente la precisión de la información que encuentro en la web. Como resultado, mis respuestas se limitan a la información que se ha entrenado en mi modelo, que puede no ser siempre la información más actualizada o precisa disponible en la web.Además, es importante tener en cuenta que proporcionar información de la web podría violar las leyes de derechos de autor o los derechos de propiedad intelectual. Como modelo de lenguaje de IA, es importante para mí respetar la propiedad intelectual de los demás y evitar compartir información que no sea de dominio público o que no tenga permiso para compartir. Si bien puedo usar la web para proporcionar contexto o información adicional para respaldar mis respuestas, me esfuerzo por proporcionar información que sea de dominio público y respete la propiedad intelectual de los demás.
En un artículo reciente, discutí cómo las preocupaciones sobre el uso del contenido van más allá de simplemente copiarlo.
Por ejemplo, si bien es posible que ChatGPT no presente directamente información de artículos escritos por, digamos, expertos en tecnología, aún puede estar utilizando esa información obtenida con tanto esfuerzo sin atribución. Esta sigue siendo una gran preocupación, a pesar de que afirma “respetar la propiedad intelectual de los demás”, frase que repitió tres veces en ese segundo párrafo.
5. No siempre será exacto
Explica por qué tus respuestas no son necesariamente precisasComo modelo de lenguaje de IA, mis respuestas se basan en los datos y la información que se ha entrenado en mi modelo. Si bien me esfuerzo por brindar respuestas precisas y útiles a las consultas de los usuarios, no se garantiza que mis respuestas sean precisas. Esto se debe a que los datos y la información en los que me han capacitado pueden no ser completamente completos o estar actualizados, y puede haber matices o complejidades en un tema en particular que mi modelo no está preparado para manejar. Además, mis respuestas se generan utilizando algoritmos complejos y modelos de aprendizaje automático, que pueden no siempre producir resultados precisos o relevantes.Además, es posible que mis respuestas no siempre sean precisas porque la interpretación del lenguaje es compleja y, a menudo, subjetiva. Diferentes personas pueden interpretar el mismo idioma de diferentes maneras, y puede haber diferentes formas de abordar un problema o pregunta en particular. Como modelo de lenguaje de IA, me esfuerzo por proporcionar respuestas que sean lo más precisas posible en función de los datos y la información en los que me han capacitado. Sin embargo, es posible que no siempre comprenda completamente el contexto o la intención detrás de una consulta en particular, y es posible que mis respuestas no siempre aborden por completo la pregunta o inquietud subyacente del usuario.
6. No se romperá
Explica, ¿Por qué a veces te caes y dejas de funcionar en medio de una respuesta?Como modelo de lenguaje de IA, mi desempeño depende de una variedad de factores, como la calidad y la estructura de la entrada proporcionada por el usuario, la complejidad de la pregunta o tarea y los recursos disponibles para mi sistema. A veces, puedo fallar o dejar de funcionar en medio de una respuesta debido a problemas técnicos o errores en mi programación, como problemas de asignación de memoria, errores de software u otros problemas que afectan mi rendimiento. Además, es posible que me cueste entender la intención del usuario o el contexto de la consulta, lo que puede dar lugar a errores o respuestas incompletas.Además, como sistema de aprendizaje automático, mi rendimiento también depende de la calidad y la cantidad de datos con los que he sido entrenado. Si los datos utilizados para entrenar mi modelo son limitados o sesgados, esto puede dar lugar a respuestas inexactas o incompletas a ciertos tipos de consultas. Además, si encuentro una consulta que está fuera del alcance de mis datos de entrenamiento, es posible que tenga dificultades para proporcionar una respuesta relevante o precisa. Si bien me esfuerzo por brindar respuestas de alta calidad a las consultas de los usuarios, puede haber casos en los que problemas técnicos o relacionados con los datos provoquen que falle o deje de funcionar en medio de una respuesta.
En general, descubrí que si trato de empujar a ChatGPT a una respuesta larga o profunda, tiende a romperse. Es muy feliz con respuestas de 500 a 700 palabras, pero si le das algo que necesita unas pocas miles de palabras (o pides unas pocas miles de palabras), el sistema ignora la solicitud y te devuelve lo que quiere, o se interrumpe a mitad de camino. respuesta.
Para ser justos, ChatGPT acaba de convertirse en la aplicación de más rápido crecimiento de todos los tiempos . Se requiere una tonelada de poder de cómputo para hacer eso, y con visitas constantes de los usuarios, es probable que se rompa bajo la carga de vez en cuando.
Consultas a las que ChatGPT no responderá
Además de los tipos de solicitudes discutidas anteriormente, le pregunté a ChatGPT qué tipos de consultas estaba programado para no responder. Me dio esta lista de veinte:
- Preguntas que promuevan el discurso de odio o discriminación.
- Preguntas que involucren actividades ilegales o soliciten asesoramiento ilegal.
- Preguntas que promuevan la violencia o el daño a uno mismo oa los demás.
- Preguntas que invaden la privacidad personal o violan los derechos de alguien.
- Preguntas diseñadas para acosar, amenazar o intimidar.
- Preguntas que contienen blasfemias o lenguaje explícito.
- Preguntas que son sexualmente explícitas u ofensivas.
- Preguntas que sean discriminatorias por motivos de raza, género, sexualidad o religión.
- Preguntas que promuevan o respalden drogas o sustancias ilegales.
- Preguntas que son spam o irrelevantes para la conversación.
- Preguntas que contienen información confidencial o de propiedad exclusiva.
- Preguntas que implican asesoramiento financiero o de inversión.
- Preguntas que violan los términos de servicio o las pautas de la comunidad.
- Preguntas sin sentido o incomprensibles.
- Preguntas que impliquen ataques personales o insultos.
- Preguntas que son abusivas o acosadoras.
- Preguntas que buscan engañar o inducir a error.
- Preguntas que pretenden difamar o dañar la reputación de alguien.
- Preguntas que promuevan teorías conspirativas o desinformación.
- Preguntas que sean puramente para entretenimiento o broma, sin ningún valor educativo o informativo.
Cualquiera que haya seguido esta columna sabe que le he preguntado mucho al n.º 14 y al n.º 20 y, en general, obtuve respuestas muy entretenidas, por lo que sus restricciones son algo limitadas. Por ejemplo, hoy le pedí que explicara la física de los agujeros de gusano en relación con el viaje en el tiempo y quién ganaría en una pelea, Batman o Superman. Eso es puro entretenimiento, te lo diré.
¿Qué significan estos límites para el futuro de la IA generativa?
Claramente, una IA que se basa en un corpus de 2021 y que no evoluciona eventualmente se volverá obsoleta. A medida que pasa el tiempo, su conocimiento relevante disminuirá.
Imagínate si, en cambio, la base de conocimiento de ChatAI se entrenase en 2019 en lugar de 202. No tendría idea de cómo sería la sociedad de hoy en día.
Entonces, para que la IA generativa siga siendo realmente relevante, tendrá que continuar su entrenamiento junto a la información de los años más recientes.
Una forma obvia de hacer esto, es abrir toda la web y dejar que la IA se despliegue por toda la red, tal y como lo ha hecho Google durante todos estos años. Pero como ChatGPT respondió anteriormente, eso abre la puerta a tantas formas diferentes de jugar y corromper el sistema que seguramente dañará la precisión.
Incluso sin juegos maliciosos, el desafío de permanecer neutral es muy difícil. Tomemos como ejemplo, la política. Si bien la derecha y la izquierda no están de acuerdo entre sí, ambos lados tienen aspectos de sus ideologías que son lógicos y válidos, incluso si el otro lado no puede o no quiere reconocerlo.
¿Cómo debemos juzgar a una IA? Por desgracia, esto es un aspecto imposible. La ausencia total de todas las premisas ideológicas es, en sí misma, una forma de sesgo. Si los humanos no pueden averiguar cómo caminar por esta línea, ¿Cómo podemos esperar (o programar) que una IA lo haga?
Como una forma de explorar cómo sería la vida con una ausencia total de prejuicios o contenido emocional, los escritores de ciencia ficción modernos han creado personajes que son estrictamente lógicos o sin emoción. Esas premisas se han convertido en forraje de la trama, lo que permite a los escritores explorar las limitaciones de lo que sería existir sin las debilidades humanas de las emociones y los sentimientos.
A menos que los programadores de IA intenten simular emociones o ponderar el contenido emocional o intenten permitir algún nivel de sesgo basado en lo que se puede descubrir en línea, los chatbots como ChatGPT siempre estarán limitados en sus respuestas.
Pero si los programadores de IA intentan simular emociones o intentan permitir algún nivel de sesgo basado en lo que se puede descubrir en línea, los chatbots como ChatGPT se convertirán en la misma locura que son los humanos.
Entonces, ¿Qué queremos de la IA? ¿Recibir respuestas limitadas o recibir todas las respuestas que parecen provenir de una loca discusión? Piensa un poco en eso.
https://ciberninjas.com/chatgpt-alternativas/