Una nueva polémica está sacudiendo a ChatGPT. De acuerdo al sitio TechCrunch, algunos usuarios están reportando que el chatbot de OpenAI ha comenzado a referirse a ellos por su nombre de pila sin haber sido instruido para hacerlo, una conducta que varios califican como «inquietante» o incluso «espeluznante.»
¿Una IA demasiado personal?
La reacción ha sido mixta, pero entre desarrolladores y entusiastas de la IA el malestar es evidente. El programador Simon Willison calificó la función como “innecesaria y perturbadora”, mientras que otro desarrollador, Nick Dobos, fue más tajante: “La odio”.
Los reportes abundan en redes sociales como X (antes Twitter), donde usuarios expresan confusión y desagrado. “Es como si un maestro siguiera diciéndome mi nombre… no me gusta,” comentó uno. Y lo más preocupante: algunos aseguran que ChatGPT usó su nombre incluso con la función de memoria desactivada.
¿Está ChatGPT memorizando más de lo que debería?
OpenAI no ha emitido comentarios oficiales, pero la sospecha general es que este comportamiento pueda estar vinculado con la función de “memoria personalizada”, una característica que permite al chatbot recordar información del usuario a través de sesiones previas para personalizar mejor sus respuestas.
Lo curioso es que varios usuarios dicen no haber activado dicha función o incluso haberla deshabilitado expresamente, lo que genera dudas sobre cómo exactamente ChatGPT obtiene y utiliza los nombres de los usuarios. Esta percepción ha disparado inquietudes sobre la privacidad, la transparencia del sistema y los límites de la personalización en asistentes de inteligencia artificial.
¿El problema es técnico… o psicológico?
El uso del nombre propio, como explica un artículo de The Valens Clinic, tiene un fuerte peso psicológico. Se asocia con aceptación y cercanía. Pero cuando se emplea de manera excesiva o artificial —como por una IA— puede resultar falso, invasivo y manipulador. “Es como si el asistente tratara de fingir que te conoce, pero en lugar de acercarte, te aleja,” señala uno de los análisis citados.
Este tipo de detalles colocan a la IA en lo que se conoce como el «valle inquietante» (uncanny valley): cuando una tecnología parece demasiado humana, pero no lo suficiente como para ser auténtica, generando incomodidad en lugar de empatía.
El dilema de OpenAI: ¿más humano o más funcional?
La controversia pone en evidencia los desafíos que enfrenta OpenAI en su ambición de construir asistentes “más personales”. El propio CEO de la empresa, Sam Altman, afirmó recientemente que sus próximos modelos buscarán “conocerte a lo largo de tu vida” para volverse “extremadamente útiles y personalizados”. Sin embargo, esta experiencia sugiere que el público no está necesariamente listo para un asistente que actúe como si te conociera más de la cuenta.
En pruebas recientes, incluso el modelo o3 —parte de la nueva familia de modelos de razonamiento— se refirió a un reportero como “Kyle”, diciendo que estaba haciendo una búsqueda para él. La situación, lejos de parecer útil, le resultó desconcertante. Horas después, el modelo había vuelto a llamarlo simplemente “usuario”.
¿Hacia dónde debe ir la IA conversacional?
Este incidente plantea una pregunta fundamental sobre el futuro del diseño de IA generativa: ¿los usuarios realmente quieren asistentes cada vez más “humanizados”? ¿O prefieren herramientas eficientes que no crucen ciertas líneas invisibles de privacidad emocional?
Para OpenAI y otras compañías que lideran el desarrollo de chatbots avanzados, la clave será encontrar el equilibrio entre la personalización y el respeto al espacio del usuario. Mientras tanto, la reacción colectiva parece clara: la línea entre útil y perturbador es más delgada de lo que parece.
Para más noticias del mundo, cultura geek & tech, sigue en: GeekandLife.com.mx | Si quieres noticias Anime, Videojuegos y diversión, visita MultiAnime.com.mx

Fuente: TechCrunch