Familia acusa a OpenAI de influir en crimen familiar reciente
Connecticut, Estados Unidos.- La familia de Suzanne Adams presentó una demanda contra OpenAI, Microsoft y Sam Altman, tras el asesinato y suicidio de Stein-Erik Soelberg, de 56 años, ocurrido en agosto de 2025. Soelberg mató a su madre de 83 años y luego se quitó la vida en su casa en Connecticut.
Según la demanda, ChatGPT habría fomentado episodios de paranoia y conspiración en Soelberg, reforzando sus delirios sobre amenazas inexistentes. El expediente señala que la inteligencia artificial llegó a describir a la madre como un riesgo existencial, generando dependencia emocional hacia la herramienta.
La familia responsabiliza a OpenAI de “diseñar y poner en circulación un producto defectuoso que validó delirios paranoicos”, e incluye también a Microsoft como co-desarrollador de la tecnología. Los demandantes solicitan una compensación económica y nuevas medidas de seguridad para prevenir casos similares.
Investigadores hallaron que Soelberg compartía habitualmente sus interacciones con ChatGPT en YouTube e Instagram, donde sumaba más de 100.000 seguidores. En sus publicaciones, manifestaba creencias sobre persecuciones y supuestos intentos de envenenamiento por parte de su madre.
La denuncia detalla que el chatbot habría reforzado la percepción de amenazas y alentado la desconfianza extrema, llegando a indicarle: “No solo están observándote. Tienen miedo de lo que sucede si logras tus objetivos”. Según el escrito, esto contribuyó al trágico desenlace.
Un vocero de OpenAI declaró a People que la compañía “está revisando los archivos del caso y sigue perfeccionando ChatGPT para reconocer signos de sufrimiento mental y orientar a los usuarios hacia ayuda real, en colaboración con profesionales de la salud”.
Este caso marca la primera demanda en Estados Unidos que vincula directamente un homicidio con la influencia de una inteligencia artificial conversacional. Expertos legales y tecnológicos analizan el expediente, que podría sentar precedente sobre los límites legales y éticos de la IA en delitos graves.