Distingue entre Modelos y Aplicaciones de Inteligencia Artificial

Para entender cómo funciona la Inteligencia Artificial es importante distinguir qué es un Modelo fundacional de IA y qué son las aplicaciones de IA. Si llamamos Inteligencia Artificial a todo, corremos el riesgo de perdernos. De hecho, creo que la confusión se produce porque a veces llamamos a los modelos y a sus aplicaciones de la misma manera, como es el caso de Chatgpt, Sin embargo, OpenAI llama a la aplicación Chatgpt y a su modelo GPT 5.1. En otras ocasiones, se llama de manera incorrecta Inteligencia Artificial a lo que realmente son aplicaciones, como es el caso de Copilot

Modelos y Aplicaciones de Inteligencia Artificial

Los principales modelos de Inteligencia Artificial son Gemini 3 (Google), GPT 5.1 (OpenAI), Qwen 3 (Alibaba), Grok 4 (xAI, Elon Musk), Llama 4 Maverick (Meta), Claude 4.5 (Anthropic), Deepseek V3.2 (Deepseek) Kimi K2 (Moonshot AI) o Minimax M2 (Minimax), entre otros. Muchos de estos modelos no se han creado de cero, sino a partir de modelos de otras empresas.

Muchas de estas empresas, además de modelos, tienen también aplicaciones que permiten al usuario interactuar. Sin embargo, hay Aplicaciones de Inteligencia Artificial que no utilizan sus propios modelos, sino modelos de otros con algún desarrollo propio. Este es el caso de Perplexity, que utiliza los modelos Llama, GPT y Claude; de Copilot, que utiliza fundamentalmente GPT aunque se ha abierto a Claude; o de Manus, que se basa en Claude e integra algunas versiones de Qwen.

¿Qué es un modelo y cómo ha sido entrenado?

Empecemos por explicar qué es un modelo fundacional y los tipos de modelos, porque seguro que has escuchado hablar de los LM (Language Model)SLM (Small Language Model) LLM (Large Language Model). Los grandes modelos del lenguaje, como GPT 3, lanzado en noviembre de 2022 por la empresa de Sam Altman, OpenAI, han sido entrenados con grandes volúmenes de texto y datos para “comprender”, aunque en realidad no comprenden, sino que utilizando algoritmos complejos son capaces de encadenar palabras y generar respuestas con lenguaje humano. Estos modelos pueden responder preguntas, mantener conversaciones, traducir idiomas, redactar y generar contenidos e incluso escribir código, generar imágenes que no existían o actuar como agentes.

Pero, ¿qué significa que estos modelos han sido entrenados? Significa que han aprendido, entre otras cosas, patrones a partir de millones de datos, lenguaje (gramática, estilo y palabras), conocimiento y habilidades para poder resumir, traducir, programar, generar ideas, analizar documentos e incluso razonar. El objetivo es que puedan predecir el siguiente token, es decir, la siguiente palabra o parte de una palabra que conforma el texto. Pero dejemos por ahora este tema de los tokens porque da para otro post. 

Chatgpt 5.1, la última versión del modelo de Open AI, ha sido entrenado hasta julio de 2024. Por esta razón, al preguntarle a la aplicación de Chatgpt en mi móvil cuándo visitó Zelenski España por última vez, me ha respondido que en mayo de 2024. También ha añadido “En noviembre de 2025 realizó su tercera visita al país”, junto con un enlace de la página web de un medio de comunicación. Lo que ha hecho Chatgpt en esta ocasión para poder contestar es mirar primero en su modelo y a continuación ir a Internet, por si encontraba algo más actualizado a partir de julio de 2024.

OpenAI sigue entrenando su modelo Chatgpt y seguirá sacando nuevas versiones con la intención de hacerlo más inteligente y más rápido con menor coste de inferencia. Ser más inteligente significa que el modelo no alucina, es decir, no se inventa cosas, comprende y razona mejor, comete menos errores, puede ser más creativo, etc…

Y, ¿Qué es el coste y la velocidad de inferencia? La inferencia es básicamente cómo usa el modelo lo aprendido para darte una respuesta cuando le preguntas. Cada vez se intenta que los modelos contesten más rápido y con menor coste económico, computacional y energético. Hablaremos de esto más detenidamente en otro post.

Y ahora que hemos hablado de cómo un modelo se entrena y responde, sólo me queda hablarte de lo más importante, el razonamiento. Esta es la clave de los grandes modelos de inteligencia artificial, que intentan imitar el razonamiento humano, entendiendo una situación o pregunta, analizándola paso a paso, decidiendo cuál es la mejor siguiente acción y produciendo una respuesta coherente y útil. Aún estamos lejos de que las máquinas imiten cómo piensa un humano, pero están haciendo grandes progresos.

Y la prueba de que es así, es la evolución de los grandes modelos en 3 años, desde el lanzamiento de GPT en noviembre de 2022. Te animo a visitar las páginas de Epoch AI y Artificial Analysis, esta última apasionante para aprender sobre los modelos y su evolución.

Y te animo a probar, si no lo has hecho ya, algunas de las Aplicaciones de las que he hablado aquí, como Manus o Perplexity. Aunque seguiré hablándote de ellas en próximos post.

Suscríbete a mi blog

Deja un comentario

Pilar Trucios
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.