Sam Altman, CEO de OpenAI: “Creo que no sabemos todavía la forma en la que la IA va a tener efectos negativos en la salud mental, pero creo que los va a tener, y espero que aprendamos a mitigarlos ráp

16 de enero de 2026

Quienes lideran el desarrollo de la inteligencia artificial reconocen abiertamente los riesgos que esta tecnología podría acarrear



Sam Altman, CEO de OpenAI: “ChatGPT ya es más potente que cualquier ser humano que haya existido jamás, estamos construyendo un cerebro para el mundo”

Durante su reciente participación en el pódcast This Past Weekend, conducido por Theo Von, Sam Altman, CEO de OpenAI, dejó entrever un lado poco habitual en el discurso de los grandes líderes tecnológicos: el miedo.


Un temor inquietante que nace desde dentro


En una conversación distendida Altman reconoció que la IA, en particular GPT-5, le provoca tanto asombro como preocupación. Lo dijo sin rodeos: Hay mucha gente que habla todo el día con ChatGPT como si fuera una pareja. Por lo que le da miedo lo que eso puede hacerle a la salud mental de algunos usuarios.


Cuando esta inquietud la expresa principal impulsor de uno de los modelos de IA más avanzados del mundo es para tomárselo en serio. Según Altman, todavía no comprendemos del todo cómo la inteligencia artificial podría afectar negativamente a nuestro equilibrio emocional, pero cree firmemente que esos efectos llegarán. Y que, cuando lo hagan, deberán afrontarse con rapidez y responsabilidad. A medida que los usuarios establecen vínculos cada vez más personales con asistentes virtuales, se abre un terreno incierto entre la utilidad y la dependencia emocional. Un punto que, según el CEO, requiere más atención de legisladores y expertos en salud mental.


Altman también alertó sobre otro punto crítico: la privacidad. Hoy en día, miles de usuarios comparten con ChatGPT sus preocupaciones más personales, desde problemas de pareja hasta decisiones médicas. Sin embargo, a diferencia de una consulta con un terapeuta o un abogado, estas conversaciones no están protegidas por leyes de confidencialidad. “Podríamos estar obligados a entregar esos datos en caso de juicio. Y eso me parece muy mal”, admitió. Este vacío legal pone en valor una urgencia: establecer un marco normativo que regule cómo se gestionan las interacciones entre humanos y modelos de lenguaje.