ChatGPT: aplicaciones y peligros de la IA conversacional

Después de ser lanzado el 30 de noviembre de 2022, ChatGPT —la última creación de OpenAI— solo requirió de pocos días para convertirse en un fenómeno viral. A lo largo de todas las redes sociales, usuarios han compartido sus interacciones con la IA.

Estas van desde lo mundano y chistoso hasta lo impresionante e inquietante. Incluso hay internautas que han comunicado sus miedos sobre ser sustituidos por una IA. ¿Acaso estamos cerca del futuro distópico predicho por la franquicia Terminator?

Si bien la hipérbole suele acompañar la llegada de cualquier innovación tecnológica, ChatGPT goza de varios méritos. También múltiples peligros que deben regularse si esta tecnología va a obrar en beneficio de la humanidad.

¿Qué es ChatGPT?  ¿Cómo surgió?

ChatGPT es lo que se conoce como una IA conversacional. Cabe señalar que esta tecnología no es nueva. Ha estado en desarrollo desde antes de que OpenAI fuera fundada en 2015.

De hecho, la gran mayoría ha interactuado con alguna de estas IA en la forma de un asistente de voz o chatbot. Para dar perspectiva, ELIZA es considerado el primer bot conversacional. Fue creado por Joseph Weizenbaum, un profesor del MIT, en 1966.

Con el fin de que la IA entienda, procese y hable el lenguaje humano, debe ser educada. Algunas utilizan grandes volúmenes de datos y algoritmos de aprendizaje (Machine Learning). Otras se basan en procesar y entender el lenguaje por medio de la lingüística.

Open AI es conocido por dos programas: DALL- E y GPT-3. Una versión actualizada de este último sirve como la base de ChatGPT. De esta forma, la IA cuenta con más de 175000 millones de parámetros. El hecho de que sea gratuito ha facilitado que más de un millón de usuarios continúen nutriendo el algoritmo con aún más datos.

 ¿Cuáles podrían ser sus aplicaciones? 

Según un estudio realizado por la Escuela de Ingeniería Biomédica, Ciencias y Sistemas de Salud de la Universidad de Drexel, los algoritmos de ChatGPT pueden identificar rasgos del habla para predecir las primeras fases del Alzheimer con una precisión del 80%. La muestra utilizada es pequeña y todavía hay varios sesgos, además de problemas éticos. Sin embargo, los primeros resultados son prometedores.

La medicina no es la única aplicación para ChatGPT. Tal como señala Gartner, la IA conversacional puede utilizarse para automatizar tareas muy específicas dentro de las organizaciones. Estas pueden ir desde servicio al cliente hasta asistencia técnica.

No obstante, varios usuarios creen que deberíamos ceder un rol aún más grande a la IA.

 ¿Cuáles son los peligros de ChatGPT? 

Lian Jye Su, directora de investigación de la firma ABI Research, hace parte del grupo de expertos que consideran que el impacto de ChatGPT ha sido exagerado. “Es muy fácil para el modelo dar respuestas plausibles, pero incorrectas o sin sentido”, dijo a CNN.

Esta es la razón por la que Stack Overflow, plataforma de preguntas y respuestas para programadores, ha prohibido la publicación de respuestas creadas por la IA.

Algunos expertos consideran que ChatGPT no resuelve los problemas básicos que conllevaría el alcanzar AGI. Sufre de alucinaciones: inventa información y no avisa cuando lo hace. Agrupa palabras y frases que ha visto, pero no entiende el significado.

Una  preocupación mayúscula es la forma en la que podría acelerar la creación de propaganda y fake news. Medios como The Guardian han registrado cómo ChatGPT ha producido ensayos elaborados que han tenido el visto bueno de profesionales.

Por supuesto, también hay escépticos de que esta IA pueda ser utilizada para la generación de contenido. Bloomberg compara ChatGPT con el fenómeno de las granjas de contenido: software que genera de forma masiva artículos que cumplen unos parámetros mínimos para salir en la primera página de los buscadores.

Incluso Yann LeCun —jefe de IA en Meta y defensor de la tecnología Deep Learning— concuerda en que ChatGPT solo es una solución a corto plazo para conseguir AGI. El mundo no puede entenderse exclusivamente por medio del lenguaje. La IA aún no puede entender un todo en función de sus partes.

¿Qué precauciones han de tomarse? 

Ante el problema que plantea para la creación de contenidos académicos, OpenAI está tomando medidas. El investigador Scott Aaronson dio a conocer que la empresa está desarrollando un prototipo de “marca de agua” para avisar a instituciones que el texto viene de la IA conversacional. Sin embargo, no es la única cuestión por resolver.

Todavía no hay claridad en lo que respecta a quién pertenece la autoría de los contenidos creados por ChatGPT. Un artículo de Forbes señala que, si bien no copia literalmente contenidos, lo que produce es derivado de las creaciones de otros. Su incapacidad para justificar sus respuestas citando fuentes tan solo suma al problema.

No menos importante, una IA técnicamente no tiene que ceñirse a las leyes de derecho de autor. Si se llega a un punto en el que las IA puedan razonar y producir contenido original, se requerirá una nueva legislación. ¿Cuándo ocurrirá eso? Nadie lo sabe.

Por ahora, lo que las compañías deben hacer es experimentar integrando tecnologías como ChatGPT en el flujo de trabajo para automatizar ciertas tareas. Aun así, la transparencia y la gobernabilidad del contenido creado por estas IA deben garantizarse. Como señala Forrester, funcionan como cualquier otra aplicación empresarial.

En el caso de ChatGPT, las compañías pueden entrenarlo para responder preguntas de temas muy específicos. Aun así, solo debería utilizarse en escenarios en los que sus errores puedan corregirse o perdonarse. Hasta que no se garantice la transparencia del contenido producido por ChatGPT, tendrá que haber un ojo vigilante sobre la IA.