Desde la aparición de ChatGPT, Google Bard y Bing, millones de personas alrededor del mundo han utilizado el poder de estas herramientas para realizar tareas sencillas y afinar los resultados de sus búsquedas en internet.
Sin embargo, hay una tendencia preocupante. Muchas personas piensan que estas herramientas de inteligencia artificial pueden tener la respuesta a cualquier pregunta: incluyendo aquellas relacionadas con la salud humana, o secretos personales.
Una reciente publicación del Washington Post presenta una serie de consideraciones que debemos tener en cuenta a la hora de interactuar con los chat de IA.
ChatGPT, Bard y Bing guardan TODAS nuestras interacciones. Bard de Google, que está probando con usuarios limitados, está incluyendo una configuración para que la empresa deje de guardar sus consultas y asociarlas con su cuenta de Google.
¿Para qué utilizan estas empresas mis chats?
Según aseguran estas compañías, las interacciones se usan para entrenar los modelos de IA de manera que puedan brindar mejores respuestas. Pero hay más. Google y Microsoft (que lanzó una versión de IA de su motor de búsqueda Bing en febrero), dejan espacio en sus políticas de privacidad para usar los registros del chat para publicidad. Si preguntamos sobre algún tema o producto, pronto estaremos recibiendo información comercial sobre ello.
Consultas sobre salud: un gran riesgo
Algunas personas que han realizado consultas relacionadas con su salud, terminan haciendo parte de bases de datos de empresas privadas. Si alguien hace un par de consultas sobre la depresión, por ejemplo, sus datos se podrían compartir con farmacéuticas que ofrecen anti-depresivos, como ya ha sucedido en Estados Unidos.
La cantidad de información de salud que compartamos con Google o Microsoft debería depender de cuánto confiamos en la empresa para proteger nuestros datos y evitar la publicidad agresiva.
Servicios como Therapybot pueden generar grandes riesgos de salud, pues pueden ofrecer información incompleta o inadeacuada para los pacientes. No todos tenemos las mismas necesidades nutricionales o médicas.
Confiar la toma de decisiones relacionadas con nuestra salud a estos modelos de IA, sería el equivalente a la automedicación. Hasta el momento ninguna herramienta tecnológica ha demostrado la confiabilidad suficiente como para reemplazar la labor de un médico.
OpenAI, la empresa detrás de ChatGPT, dice que solo guarda las conversaciones para entrenar y mejorar sus modelos. No utiliza las interacciones para crear perfiles de usuarios o publicidad, dijo una portavoz de OpenAI, aunque no respondió cuando se le preguntó si la empresa lo haría en el futuro.
¿Algún humano mira mis chats?
En algunos casos, los humanos intervienen para auditar las respuestas del chatbot. Eso significa que también verán nuestras preguntas. Google por ejemplo, guarda algunas conversaciones para revisarlas y anotarlas, almacenándolas hasta por cuatro años.
¿Cuánto tiempo se almacenan mis chats?
Las empresas que recopilan nuestros datos y los almacenan durante largos períodos crean riesgos de privacidad y seguridad: las empresas podrían ser pirateadas o compartir los datos con socios comerciales no confiables.
La política de privacidad de OpenAI dice que la empresa retiene esta información “solo el tiempo que sea necesario para brindarle nuestro servicio o para otros fines comerciales legítimos”. ¿Cuánto es el tiempo necesario? ¿Quién lo define? ¿Un siglo podría ser el tiempo necesario?
La precaución debe ser fundamental a la hora de interactuar con estos modelos conversacionales. Sus múltiples usos están en exploración y el futuro huele mucho a IA. Los temas de privacidad siempre han estado en los debates relacionados con la tecnología y las aplicaciones.
En muchas plataformas guardas fotos, videos, documentos o música. Solo almacenas cosas. Con los modelos de IA conversas directamente. Esa es una gran diferencia.