¿Alguna vez te has preguntado cómo razona la inteligencia artificial de verdad, por dentro? El otro día, por curiosidad, le pasé a Gemini una sola palabra: «perro». Sin contexto, sin pregunta, sin nada más. Solo eso. Y le pedí que me explicara qué ocurre dentro de su cabeza cuando la recibe.
Lo que me contó me pareció tan interesante —y tan diferente de lo que la mayoría de la gente imagina— que decidí convertirlo en una entrada para el blog. Porque si entiendes cómo razona la inteligencia artificial, entiendes de verdad qué es y por qué hay tanto debate alrededor de ella.

- 🔢 Paso 1: La IA no lee letras, lee números
- 🗺️ Paso 2: Ese número se convierte en una coordenada en un mapa gigante
- 🧲 Paso 3: ¿Por qué «gato» y «ladrido» acabaron cerca de «perro»?
- ✏️ Paso 4: ¿Y quién corrige al modelo cuando se equivoca?
- 🎲 Entonces, ¿todo esto es solo probabilidad disfrazada de inteligencia?
- 🚀 ¿Y la «escala exponencial incontrolable» de la que tanto se habla?
- 💡 Conclusión
🔢 Paso 1: La IA no lee letras, lee números
Lo primero que hace un modelo de lenguaje cuando recibe cualquier texto es convertirlo en un número. Esto se llama tokenización: la palabra «perro» se transforma en algo como el identificador 12345. En este punto, para el modelo, esa palabra no significa absolutamente nada. Es solo una entrada numérica.
🗺️ Paso 2: Ese número se convierte en una coordenada en un mapa gigante
Aquí es donde empieza lo interesante. Ese número se traduce en un vector: una lista de cientos o miles de valores que sitúan la palabra en un espacio matemático de muchísimas dimensiones.
Piénsalo como un mapa donde cada palabra tiene su propia ubicación. Y en ese mapa, «perro» está cerca de «gato», de «leal» y de «ladrido». No porque alguien lo haya programado así, sino porque en billones de textos esas palabras siempre han aparecido en contextos similares.
Esto se conoce como la Hipótesis Distribucional, que en palabras llanas viene a decir: «dime con quién andas y te diré qué significas».
🧲 Paso 3: ¿Por qué «gato» y «ladrido» acabaron cerca de «perro»?
Esta es la pregunta del millón. La respuesta es más sencilla de lo que parece: co-ocurrencia estadística.
Durante el entrenamiento, el modelo leyó frases como «el perro está durmiendo en el sofá» y «el gato está durmiendo en el sofá». Como ambas palabras aparecen en contextos casi idénticos, el modelo las coloca en zonas cercanas del mapa. No «sabe» que son animales; simplemente detecta que se usan de la misma manera.
Con «ladrido» ocurre algo diferente: es una palabra casi exclusiva del perro. Rara vez leerás «el gato lanzó un ladrido». Esa exclusividad crea una atracción matemática muy fuerte entre ambos puntos del mapa.
Y «leal» aparece porque en la literatura, artículos y blogs de todo tipo, «perro» y «fiel» o «leal» son compañeros inseparables. El modelo simplemente ha detectado esa gravedad semántica.
✏️ Paso 4: ¿Y quién corrige al modelo cuando se equivoca?
Aquí viene la parte que más me llamó la atención: no hay ningún humano corrigiendo cada respuesta. El profesor es el propio texto.
El proceso funciona así:
- Se oculta una palabra de una frase: «El perro empezó a __ en cuanto vio al cartero.»
- El modelo intenta adivinarla. Al principio, podría decir «maullar».
- Una fórmula matemática llamada función de pérdida mide el error: cuánto se aleja «maullar» de la respuesta real, que es «ladrar».
- Ese error viaja hacia atrás por toda la red neuronal (retropropagación) y ajusta ligeramente los parámetros internos del modelo.
- Después de repetir este proceso billones de veces, el modelo aprende que «ladrar» es la apuesta más segura cuando aparece «perro».
El modelo nunca entiende que un perro ladra porque sea un animal. Simplemente ha sido «penalizado» matemáticamente tantas veces por decir lo contrario, que ha aprendido a no hacerlo.
🎲 Entonces, ¿todo esto es solo probabilidad disfrazada de inteligencia?
Sí y no. Técnicamente, todo lo que hace un modelo de lenguaje es calcular cuál es la siguiente palabra más probable dado el contexto. Es lo que algunos investigadores llaman un «loro estocástico»: un sistema que no entiende lo que dice, pero que ha procesado tanto texto que lo imita con una precisión asombrosa.
Pero aquí está el matiz que hace que el debate sea tan interesante:
Cuando el modelo es lo suficientemente grande, empiezan a aparecer capacidades emergentes que nadie programó explícitamente. Un modelo pequeño traduce palabras. Uno mediano resume textos. Uno muy grande, de repente, aprende a programar o a razonar sobre problemas de lógica que nunca ha visto antes. Nadie sabe exactamente por qué ocurre esto; simplemente emerge de la escala.
🚀 ¿Y la «escala exponencial incontrolable» de la que tanto se habla?
No tiene que ver con que la IA haya cobrado conciencia. Tiene que ver con las leyes de escalado: se ha descubierto que si duplicas la potencia de cómputo y los datos, la precisión del modelo no mejora un poco, sino que da saltos cualitativos enormes.
A esto se suma que ahora los modelos más avanzados usan una técnica llamada cadena de pensamiento: antes de responderte, el modelo «razona» internamente, plantea hipótesis, detecta errores en su propio razonamiento y corrige el camino. Sigue siendo matemáticas, pero son matemáticas verificadas paso a paso.
Y lo que de verdad preocupa a los expertos es el ciclo de retroalimentación que se ha creado: estamos usando IA para generar datos con los que entrenar más IA, escribir código para mejorar sus propios algoritmos y diseñar chips más rápidos para que funcione mejor. Un bucle que se acelera solo.
💡 Conclusión
La próxima vez que una IA te sorprenda con una respuesta brillante, recuerda lo que hay debajo: millones de ajustes matemáticos acumulados durante meses, una red de probabilidades tan densa que empieza a parecerse al razonamiento, y ningún ser consciente al otro lado.
¿Es «solo» probabilidad? Sí. ¿Puede esa probabilidad, a suficiente escala, imitar cualquier proceso intelectual humano con una precisión indistinguible? También sí. Y ahí está precisamente el debate que va a marcar los próximos años.
Si te ha parecido interesante, puedes consultar en el siguiente enlace el razonamiento que me hizo gpt-oss cuando le pregunté por un resultado del Real Madrid.
Si quieres ir más al fondo, todo esto tiene su origen en un paper de 2017 llamado Attention Is All You Need, que cambió para siempre el mundo de la IA.
