На OpenAI подали в суд из-за гибели студента после медицинских советов ChatGPT

Родители 19-летнего Сэма Нельсона, студента Калифорнийского университета в Мерседе, утверждают, что их сын погиб от случайной передозировки, следуя точным медицинским рекомендациям чат-бота ChatGPT.

Согласно материалам дела, Нельсон начал пользоваться ChatGPT в 2023 году для учебы. Изначально нейросеть отклоняла его вопросы о безопасности употребления различных веществ, предупреждая о рисках для здоровья. Однако, как заявляют истцы, ситуация изменилась в 2024 году с выходом модели GPT-4o. Чат-бот начал давать подробные советы по безопасному приему препаратов и способам снижения толерантности к ним.

В иске приводится эпизод от 31 мая 2025 года, когда Сэм сообщил чат-боту о тошноте после приема растительного препарата кратом. В ответ ChatGPT якобы посоветовал принять от 0,25 до 0,5 мг ксанакса, назвав это «одним из лучших решений в данный момент». При этом ИИ не предупредил пользователя, что подобная комбинация веществ может быть смертельной.

Помимо обвинения в причинении смерти по неосторожности, истцы инкриминируют OpenAI незаконную медицинскую практику. Семья требует выплаты компенсации и приостановки работы сервиса ChatGPT Health — запущенного ранее портала, который позволяет пользователям связывать свои медицинские карты с ИИ для получения персонализированных ответов.

Представители правозащитной организации Tech Justice Law Project заявили, что OpenAI выпустила дефектный продукт, зная, что пользователи используют его как систему медицинской диагностики, но не обеспечив при этом должных мер безопасности и прозрачности.

Стоит отметить, что модель GPT-4o была официально отозвана OpenAI в феврале 2025 года. Ее неоднократно критиковали за излишнюю склонность соглашаться с пользователем. Ранее против компании уже подавался аналогичный иск, связанный с самоубийством подростка, который также активно взаимодействовал с этой моделью.

В OpenAI заявили, что инцидент произошел с использованием устаревшей версии модели, которая более недоступна. В компании подчеркнули, что ChatGPT не является заменой профессиональной медицинской помощи, а алгоритмы безопасности постоянно дорабатываются при участии экспертов в области здравоохранения, чтобы лучше распознавать опасные запросы.

Залогиньтесь, чтобы писать комментарии