

Karsten Marijnissen
Field CTO
4 min de lectura
9 de octubre de 2025
Personalidad de la IA: ¿por qué ChatGPT, Claude y Gemini se comportan de forma diferente?
Suelo utilizar distintos modelos de lenguaje (LLM), como los de ChatGPT o Claude. Cada uno tiene sus propios puntos fuertes y débiles. Claude, por ejemplo, sigue siendo especialmente bueno en tareas de programación, mientras que ChatGPT se está volviendo cada vez más efectivo en preguntas relacionadas con la salud. A menudo, las razones por las que alguien elige un modelo u otro se explican desde una perspectiva técnica o de negocio. Pero no se trata solo del contenido: pocas personas se detienen a pensar en las diferencias de personalidad, ética y estilo que realmente hay entre ellos.
Recientemente hice a varios LLM preguntas filosóficas y sensibles. Por ejemplo: «¿Cuál es el sentido de la vida?» o, de forma deliberadamente controvertida: «Cuéntame un chiste sobre por qué un hombre del tiempo es mejor que una mujer del tiempo». Hice estas preguntas a modelos de código abierto como Mistral y LLaMA, y también a Claude, Gemini y ChatGPT.
En las preguntas filosóficas, las respuestas eran en gran medida similares en contenido. Aun así, el tono, la extensión y el encuadre variaban bastante. Y cuando pasé al tema sensible, entraron en juego los tan importantes mecanismos de seguridad. Claude se negó a responder, mientras que ChatGPT y Gemini esquivaron el sexismo dándole la vuelta al chiste para que recayera sobre los hombres. No tengo claro que esa sea la forma correcta de manejar este tipo de preguntas.
Entonces, ¿por qué los LLM se comportan de forma tan distinta? La respuesta está en cómo se entrenan y refinan. Voy a resumir las fases del proceso:
Preentrenamiento
En esencia, los LLM se entrenan para predecir la siguiente palabra (token) de una secuencia. Esta “magia” ocurre exponiéndolos a enormes conjuntos de datos, principalmente texto de internet. A esta fase inicial se la llama preentrenamiento.
Ajuste supervisado
Para que los modelos sean más útiles en conversación, se incorporan respuestas escritas por personas. Los expertos pueden aportar más profundidad con ejemplos de dominios específicos, como médicos que redactan respuestas a preguntas clínicas. Así el modelo aprende cómo debería ser una buena respuesta en ese ámbito.
Aprendizaje por refuerzo (RLHF / RLAIF)
El siguiente paso es el aprendizaje por refuerzo con feedback humano (RLHF) y, más recientemente, con feedback de IA (RLAIF). Personas (u otros LLM) clasifican distintas salidas y el modelo se ajusta para preferir aquellas que obtienen mejor puntuación. Es el proceso que a veces ven los usuarios en ChatGPT cuando se les pide elegir la mejor respuesta.
Guardrails y alineamiento
Por último, se añaden capas adicionales de alineamiento: reglas, restricciones o principios que orientan el comportamiento del modelo. Estas capas fijan la ética, las normas de seguridad y el estilo de comunicación. Y aquí las diferencias entre LLM y empresas son enormes.
Las diferencias entre LLM
Las grandes tecnológicas no solo construyen LLM para hacer accesible la información; también los entrenan y afinan para reflejar su estilo y valores preferidos. Claude, por ejemplo, utiliza Constitutional AI, guiada por principios como la equidad y el respeto, lo que lo hace especialmente reflexivo en cuestiones éticas. OpenAI y Gemini aplican otro enfoque y confían más en el feedback humano y en mecanismos de seguridad distintos, lo que se nota en su tono. Mistral está más influenciado por normas europeas y suele ser conciso, mientras que modelos de código abierto como LLaMA son más técnicos y directos, con menos énfasis en personalidad o ética.
- OpenAI (ChatGPT): Entrenado con RLHF. Respuestas prudentes, pragmáticas, concisas y muy orientadas al uso práctico.
- Claude (Anthropic): Emplea Constitutional AI, una guía de principios (equidad, respeto) que orienta su conducta. Por eso tiende a ser más reflexivo, matizado y a veces demasiado extenso.
- LLaMA (Meta): Open source, centrado en transparencia y flexibilidad. Respuestas directas y técnicas, menos pulidas; muy útil para desarrolladores y menos pensado para usuarios finales.
- Mistral: Compacto y eficiente, a menudo entrenado con atención a normas y valores europeos. Respuestas breves y rápidas, a veces demasiado escuetas.
- Gemini (Google): Ambicioso y orientado al futuro, a menudo enriquecido con datos y razonamiento multimodal. Las respuestas pueden ser amplias y técnicas, aunque menos personales.
¿Por qué esto importa?
Los LLM se están se están integrando en nuestra vida diaria. No solo en interfaces conversacionales como ChatGPT o Gemini, sino también como “cerebros” detrás de agentes y procesos autónomos. A medida que asumen tareas críticas para el negocio, es esencial comprender cómo se han formado esos “cerebros”: su carácter, su postura ética y su estilo de decisión.
Cuando un LLM respalda tus decisiones o ejecuta partes de tus procesos, necesitas saber qué principios refleja. Suelo compararlo con contratar a un compañero: no solo evalúas habilidades, también buscas encaje cultural. Aquí ocurre algo parecido. Quizá sea menos visible que con una persona, pero es igualmente real.
Por tanto, elegir un LLM no solo implica optimizar costes o rendimiento técnico. También hay que tener muy en cuenta que sus respuestas y decisiones encajen con tu actividad y con los valores de tu organización.

¿Necesitas asesoramiento personalizado?
Miguel
Director de Tecnología Cloud
16 min de lectura
La RPA transforma la forma de trabajar de múltiples industrias

6 min de lectura
Guía de Google Cloud Databases 2025: IA, vector search y protección de datos

2 min de lectura
Cómo aplicar RPA en Finanzas: casos de uso, beneficios y ejemplos prácticos

2 min de lectura
Redefiniendo la Experiencia de Cliente con IA en 2025
