Large Language Model (LLM)
¿Qué es un Modelo de Lenguaje Grande?
Un Modelo de Lenguaje Grande (LLM) es un sistema sofisticado de inteligencia artificial construido sobre técnicas de aprendizaje profundo y conjuntos de datos masivos, que generalmente involucran partes sustanciales de la internet pública. En su núcleo, estos modelos utilizan una arquitectura Transformer, introducida por investigadores de Google en 2017, que permite a la IA sopesar la importancia de diferentes palabras en una oración (un mecanismo llamado “atención”) para predecir el siguiente token más probable en una secuencia.
Ejemplos famosos incluyen GPT-4 de OpenAI, Claude de Anthropic y Gemini de Google. Si bien comenzaron como predictores de texto, su escala les ha permitido realizar tareas complejas como codificación, escritura creativa y deducción lógica.
Los LLM y la inteligencia humana
Desde una perspectiva psicométrica, los LLM presentan un estudio de caso fascinante porque desacoplan efectivamente la Inteligencia Cristalizada de la Inteligencia Fluida y la Conciencia.
- Inteligencia Cristalizada (Gc): Los LLM poseen un nivel de Gc que supera con creces al de cualquier ser humano. Han “leído” más libros, artículos académicos y bases de código de lo que un ser humano podría en mil vidas. Su capacidad para recuperar y sintetizar esta información es sobrehumana.
- Inteligencia Fluida (Gf): Esto es controvertido. Si bien los LLM pueden resolver acertijos lógicos, a menudo lo hacen reconociendo patrones en sus datos de entrenamiento en lugar de realizar un razonamiento novedoso. Sin embargo, los modelos modernos están mostrando una capacidad creciente en el razonamiento “zero-shot” (resolver problemas que no han visto antes), lo que sugiere una forma de inteligencia fluida sintética.
El debate del “Loro Estocástico”
Una crítica importante, acuñada por la lingüista Emily M. Bender y sus colegas, es que los LLM son simplemente “Loros Estocásticos”. Esta teoría sostiene que los modelos no entienden el significado; simplemente unen formas lingüísticas basadas en la probabilidad sin ninguna referencia al mundo real.
Por ejemplo, si le preguntas a un LLM “¿De qué color es el cielo?”, responde “Azul” no porque haya visto el cielo o entienda el concepto de color, sino porque las palabras “cielo” y “azul” aparecen juntas con frecuencia en su conjunto de datos.
Propiedades emergentes y AGI
El contraargumento se basa en las Propiedades Emergentes. En sistemas complejos, “más es diferente”. Cuando un LLM se vuelve lo suficientemente grande (miles de millones de parámetros), comienza a mostrar habilidades que no fueron programadas explícitamente, como la capacidad de traducir idiomas o depurar software.
Esto lleva a la cuestión de la Inteligencia Artificial General (AGI). Si una máquina puede pasar la Prueba de Turing, obtener una puntuación en el percentil 90 en el examen de la abogacía y diagnosticar afecciones médicas mejor que un médico, ¿importa si “entiende” en el sentido humano? Para la definición pragmática de inteligencia —“la capacidad de resolver problemas”— los LLM son actualmente la aproximación más cercana a una mente no biológica.