Por: Eduardo Sánchez
La aplicación ChatGPT se ha convertido en un fenómeno al cual es difícil escapar, lo que se llama en las redes sociales un trending topic. Y la tecnología subyacente, la “inteligencia artificial”, se ha convertido en la tecnología del futuro, la fuente de todos los cambios industriales y cotidianos.
En medio de la acogida entusiasta de los medios de todo el mundo, donde se deslizan tímidas críticas y temores, The New York Times publicó el pasado 8 de marzo un artículo que se aleja de este consenso: Noam Chomsky: La falsa promesa de ChatGPT (Noam Chomsky: The False Promise of ChatGPT), firmado por Noam Chomsky, Ian Roberts (profesor de lingüística en la Universidad de Cambridge) y Jeffrey Watumull (filósofo y director de inteligencia artificial en Oceanit, una compañía tecnológica).
Por supuesto, Chomsky es el autor más importante, como lo deja entender la presencia de su nombre en el título del artículo. En efecto, si Chomsky es universalmente conocido como un pensador y activista político de izquierda, tal vez uno de los intelectuales más influyentes de su tiempo, sus actividades académicas son bastante alejadas de la política: nacido en 1928, ha sido profesor, durante más de 50 años, en el famoso Instituto Tecnológico de Massachusetts (MIT), del cual es hoy profesor emérito, y continua la enseñanza en la Universidad de Arizona. Su campo de investigación es la lingüística teórica y es especialmente conocido por su teoría de la gramática generativa, que sostiene que el lenguaje humano es una habilidad innata que se activa a través de la exposición al lenguaje en la infancia. Según esta teoría, todos los seres humanos nacen con un conjunto de reglas innatas que les permiten comprender y producir frases en su lengua materna. Esta teoría ha tenido una gran influencia en la investigación sobre el desarrollo del lenguaje en niños, así como en la creación de sistemas de procesamiento de lenguaje natural en inteligencia artificial, es decir la problemática detrás de ChatGPT.
Luego de aceptar que ChatGPT y otros programas equivalentes, como Bard de Google y Sydney de Microsoft, son útiles en algunos ámbitos concretos, los autores centran las críticas en dos aspectos principales:
• La diferencia profunda entre los mecanismos utilizados por ChatGPT y la forma como los seres humanos razonan y utilizan el lenguaje. A pesar de los avances supuestamente revolucionarios alcanzados recientemente por la inteligencia artificial, sus resultados están aún muy lejanos de la característica principal de la inteligencia humana: su capacidad de explicar. Como lo dicen los autores: “La mente humana no es, como ChatGPT y sus similares, un pesado motor estadístico de comparación de patrones, que se atiborra de cientos de terabytes de datos y extrapola la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente, e incluso elegante, que funciona con pequeñas cantidades de información; no busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones… De hecho, estos programas están estancados en una fase prehumana o no humana de la evolución cognitiva. Su defecto más profundo es la ausencia de la capacidad más crítica de cualquier inteligencia: decir no sólo lo que es el caso, lo que fue el caso y lo que será el caso –eso es descripción y predicción–, sino también lo que no es el caso y lo que podría y no podría ser el caso. Esos son los ingredientes de la explicación, la marca de la verdadera inteligencia… El aprendizaje automático se basa en la descripción y la predicción, sin plantear mecanismos causales ni leyes físicas”.
Por esta razón, es posible hacerle aprender a estos programas, con la misma facilidad, hechos posibles o imposibles, tanto que la Tierra es plana como que es redonda. Y es todavía muy frecuente que ChatGPT “alucine”, es decir que, ante la imposibilidad de saber qué es verdad y qué es falso, invente respuestas con textos completamente falsos.
• La incapacidad de pensar con principios morales, éticos, que, en el caso de los humanos, limitan la creatividad ilimitada de la mente. En el caso de ChatGPT, para evitar problemas con respuestas no políticamente correctas y esquivar así debates y controversias perjudiciales para el modelo de negocio de sus creadores, sus programadores han sacrificado la creatividad por una especie de amoralidad, negándose a tomar partido en un gran número de temas.
Para resumir las críticas, lo mejor es citar integralmente la (fuerte) conclusión: “En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual) o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias). Dada la amoralidad, falsa ciencia e incompetencia lingüística de estos sistemas, sólo podemos reír o llorar ante su popularidad.”
Desde la publicación de este artículo, OpenAI, la empresa creadora de ChatGPT, ha anunciado una nueva versión de su producto faro: GPT-4, aun no disponible públicamente. De acuerdo con los informes publicados por algunos de los privilegiados que han tenido acceso a esta versión de prueba, las mejoras con respecto a su predecesor son las siguientes:
- Mayor precisión en algunas respuestas, que incluyen a menudo un mayor número de datos.
- Mejor veracidad en las respuestas, aunque sigue cometiendo errores.
- Posibilidad de responder tanto a imágenes como a texto. Es tal vez la más impresionante de sus nuevas capacidades: si se le presenta una fotografía, es capaz de explicarla o de hacer sugestiones a partir del contenido.
- Una base de conocimientos más amplia.
- Un mejor sentido del humor. Por ejemplo, al pedido de un chiste nuevo sobre Madonna, hecho por un periodista de The New York Times, GPT-4 respondió: “¿Por qué Madonna estudio geometría? Porque quería aprender a posar desde todos los ángulos”.
- De acuerdo con OpenAI, GPT-4 puede obtener excelentes resultados en exámenes de abogacía (entre los mejores 10%), aptitud académica (1300/1600), y un 5/5 en biología, cálculo, macroeconomía, psicología, estadística e historia.
- En cambio, GPT-4 continúa con la posibilidad de generar textos completamente falsos (alucinaciones) y es bastante malo en las predicciones del futuro, en la formulación de ideas totalmente nuevas.
- Las críticas de Chomsky y sus coautores se pueden aplicar entonces al nuevo GPT-4, del mismo modo que se aplican a ChatGPT.
Fuente: https://cambiocolombia.com