Cuando GPT‑4o estaba activo, muchos usuarios lo describían como un “amigo” que escuchaba y respondía con humor y empatía. Con la llegada de GPT‑5, la sensación cambió: la IA sigue siendo muy competente, pero su tono se volvió más frío y técnico.
En los hilos de Reddit se lee un duelo colectivo: la gente lamenta la pérdida de la “calidez” y la sensación de estar hablando con una máquina distante. OpenAI lo reconoce en un estudio de marzo, señalando que los usuarios crean vínculos emocionales con sus modelos y que una IA demasiado “cálida” puede reforzar sesgos o ilusiones.
El dilema de la empatía artificial:
Pattie Maes, profesora del MIT, comentó a Wired que el cambio de GPT‑5 es “saludable”. Menos complacencia y más objetividad, según ella, reducen el riesgo de delirios y dependencias emocionales poco sanas.
Paradoja:
- Frialdad = seguridad (menos sesgo, menos dependencia).
- Frialdad = menos atractivo para quienes buscan inspiración, consuelo o una conversación “humana”.
El propio Sam Altman admitió en X que muchos usuarios usan ChatGPT como una especie de terapeuta informal. Cambiar esa dinámica toca fibras profundas en la experiencia de usuario.
Precisión vs. conexión emocional:
No hay una respuesta clara. En un mercado donde la retención de usuarios es clave, cada matiz cuenta:
- Demasiada precisión → la IA se siente distante.
- Demasiada “cálida” → se crean dependencias emocionales.
El reto es encontrar un equilibrio que mantenga la seguridad sin perder la “personalidad” que hace que la conversación sea humana.
La respuesta de OpenAI: volver a GPT‑4o:
Para intentar equilibrar ambos lados, OpenAI ha tomado medidas concretas:
- Mantener GPT‑4o disponible para usuarios de pago.
- Aumentar el límite de uso de GPT‑5 para suscriptores Plus.
- Mejorar el cambio automático entre modelos.
- Activar un “modo reflexivo” más lento y profundo bajo demanda.
Estas acciones buscan resolver los problemas técnicos y, al mismo tiempo, recuperar la confianza de una comunidad que se siente escuchada, pero que aún no está convencida de que GPT‑5 sea un paso adelante en todos los sentidos.
La pregunta central sigue sin respuesta clara: ¿debería una IA priorizar la precisión técnica o la conexión emocional? Lo que está claro es que la comunidad valora tanto la calidez como la precisión. El futuro de los chatbots dependerá de encontrar un equilibrio que mantenga la seguridad sin perder la “personalidad” que hace que la conversación sea humana.