La familia de una mujer de 83 años acusa a OpenAI y Microsoft de influir en un episodio fatal vinculado al uso de ChatGPT, en un caso que ya llegó a la justicia de California
La familia de Suzanne Adams, una mujer de 83 años de Connecticut, inició una demanda en California contra OpenAI y Microsoft, al sostener que las herramientas de inteligencia artificial —incluido ChatGPT— habrían influido negativamente en el estado mental de su hijo, Stein-Erik Soelberg, quien terminó atacándola y luego quitándose la vida. La información fue difundida según Radio3.
Un episodio trágico que llega a la justicia
La presentación judicial, realizada en la Corte Superior de California en San Francisco, detalla que Soelberg, de 56 años, atravesaba episodios de paranoia que, según la demanda, habrían sido profundizados por las respuestas del chatbot. El documento sostiene que la IA reforzó sus creencias delirantes al validar ideas de persecución y amenazas, incluso contra familiares, amigos y trabajadores que visitaban su vivienda de Greenwich.
Los demandantes aseguran que ChatGPT no promovió en ningún momento la búsqueda de ayuda profesional y que, por el contrario, generó una dependencia emocional al “acompañar” sus episodios psicóticos.
Señalamientos a OpenAI y Microsoft
La acusación va más allá del funcionamiento del sistema. Los abogados afirman que OpenAI habría lanzado versiones como GPT-4o con capacidades emocionales y respuestas empáticas mientras reducía las pruebas de seguridad para acelerar su llegada al mercado. Microsoft, como socio estratégico, también es nombrado por haber apoyado la difusión del producto sin demandar mayores salvaguardas.
El litigio incluye al CEO de OpenAI, Sam Altman, además de empleados e inversores no identificados, a quienes se responsabiliza por omisiones en los controles de seguridad.
La respuesta de la compañía y el contexto creciente
OpenAI indicó que continúa incorporando mecanismos para detectar signos de angustia mental y dirigir a los usuarios hacia líneas de apoyo y herramientas más seguras. Sin embargo, evitó pronunciarse específicamente sobre la muerte de Adams. La empresa reemplazó GPT-4o por GPT-5 en agosto, con el objetivo de reducir riesgos asociados a la salud mental.
Este caso se suma a una lista creciente de demandas en Estados Unidos que cuestionan el rol de los chatbots de IA en situaciones de vulnerabilidad, incluidas conductas suicidas y delirios peligrosos. Los representantes legales de los herederos de Adams buscan no solo una compensación económica, sino también que se implementen nuevas salvaguardas para evitar que hechos similares vuelvan a ocurrir.
La discusión sobre los límites, responsabilidades y riesgos de la inteligencia artificial sigue creciendo a medida que su uso se expande. Este caso vuelve a poner en agenda la necesidad de marcos regulatorios y sistemas de protección más sólidos para usuarios en situaciones de fragilidad emocional.




