El 66% de nosotros utilizamos la IA a diario, ¿pero sabemos realmente cómo funciona?

¿Prefieres un resumen de este blog? ¡Da click en el botón de abajo y deja que ChatGPT te lo cuente! (también puedes probar con Perplexity)
Hay un nuevo tipo de pensamiento en el mundo. No viene con recuerdos, emociones o dudas. No vacila. No reflexiona.
Sin embargo, parece que está pensando.
Hágale una pregunta y le responderá con una gramática perfecta. Pida ayuda y le dará opciones. Casi se podría creer que lo entiende.
Casi.
Esto es lo que ocurre cuando se capacita a las máquinas para que hablen como nosotros, pero sin necesidad de entendernos. Estos sistemas, conocidos como modelos de lenguaje grande (LLM), no son inteligentes como nosotros. No obstante, están hechos para sonar como tal.
Eso lo cambia todo.
¿Qué es un LLM?
Un LLM es un sistema de inteligencia artificial desarrollado para leer, interpretar y crear texto de forma que imite la comunicación humana. Aprende analizando enormes cantidades de contenido escrito: libros, páginas web, artículos y mucho más.
Los LLM no piensan ni entienden como los humanos. No saben lo que significa una palabra. En su lugar, predicen qué palabra debe venir a continuación basándose en patrones que han visto antes. Es como autocompletar, pero mucho más potente y complejo.
Un LLM puede escribir poemas, responder preguntas, resumir contenidos. Aun así, en el fondo solo son buenos adivinadores. No son pensadores.
¿Cómo aprende el LLM?
Los LLM no leen como los humanos. En su lugar, convierten el texto en tokens: partes más pequeñas de una frase, como palabras o trozos de palabras.
Ejemplo: "¿Cuál es el edificio más alto?" se convierte en ["¿", "Cuál", "es", "el", "edificio", "más", "alto", "?"].
Esa es una parte clave. El modelo no puede entender las palabras directamente. Por eso convierte cada token en vectores mediante un proceso llamado incrustación.
Piénselo como si dotara a cada palabra de su propia huella digital hecha de números.
Ejemplo: "Manzana" se convierte en algo como [0,12; -0,98; 1,07…]. Esto ayuda al modelo a "intuir" el significado basándose en cómo se utilizan las palabras en diferentes contextos.
El modelo funciona mediante una red neuronal, concretamente un modelo transformador, que procesa la información capa por capa. Sin embargo, en lugar de pensar como un humano, aprende manejando números que representan palabras.
Cuando el modelo ve "El sol sale por la ___", intenta adivinar la palabra siguiente (como "mañana"). Si adivina mal, ajusta ligeramente sus parámetros —diminutos valores internos, miles de millones de ellos— para mejorar para la próxima vez. Esta etapa se denomina preentrenamiento. En esta, el modelo lee miles de millones de ejemplos para aprender cómo funciona normalmente el lenguaje.
Tras el preentrenamiento, se puede afinar el mismo modelo para redactar respuestas de servicio de atención al cliente. Por ejemplo, si lo entrena con cientos de respuestas educadas como "Siento oír eso. Déjeme ayudarle con ese asunto", el modelo aprenderá a sonar útil y profesional en un rol de asistencia.
En resumen:
∙ Pertinencia = Aprender el lenguaje general adivinando las palabras siguientes
∙ Perfeccionamiento = Enseñar al modelo a comportarse de una determinada manera para tareas específicas
Aunque suene inteligente, en realidad no son más que matemáticas y patrones a gran escala.
¿Cómo genera texto el LLM?
Si escribe "El edificio más alto del mundo es ___", el modelo no "conoce" la respuesta como lo haría una persona. Observa la frase e intenta adivinar el siguiente token. Basándose en los patrones que observó durante el entrenamiento, podría continuar con "el Burj Khalifa".
Luego comprueba qué token debe venir después: "Se encuentra en…". Y así sucesivamente, una ficha cada vez, hasta que la frase parezca completa.
Todo este proceso se basa en la probabilidad. El modelo calcula:
De todos los tokens que podría utilizar a continuación, ¿cuál encaja mejor aquí?
¿Podemos controlar cómo responde?
Sí. Al generar texto, puede utilizar opciones como:
∙ Temperatura:
Controla lo predecible o creativa que es la salida.
Una temperatura baja —por ejemplo, 0,2— proporciona respuestas seguras y esperadas.
Una temperatura alta —por ejemplo, 0,8— permite que el modelo sea más imprevisible.
∙ Muestreo Top-p (también llamado muestreo de núcleos):
Esto limita el modelo a elegir solo entre los próximos tokens más probables (por ejemplo, el 90% superior). Lo anterior ayuda a equilibrar la creatividad y la relevancia.
Por qué es importante entender el LLM
Los LLM ya no están encerrados en laboratorios de investigación. Están escribiendo sus correos electrónicos, sugiriendo sus respuestas y dando forma a lo que lee en Internet. Precisamente por eso debe entender cómo funcionan.
Pueden alucinar hechos: inventarse cosas que parecen reales, pero no lo son. Podrían reflejar sesgos de sus datos de entrenamiento. Además, no entienden el contexto del mundo real. Lo anterior significa que a veces dan respuestas engañosas o perjudiciales.
¿La clave? No los trate como expertos. Utilícelos como ayudantes, pero compruebe siempre su trabajo.
Si no puede distinguir entre una suposición segura y una respuesta verdadera, usted no tiene el control. El modelo lo tiene. Aprender cómo funcionan los LLM le da el poder de hacer mejores preguntas, detectar las respuestas débiles y utilizar la IA como una herramienta, no como una muleta.
En un mundo en el que las máquinas pueden parecer humanos, ser humano significa mantenerse informado.