Несколько исков подали против OpenAI после смерти 23-летнего американца, чьи беседы с ChatGPT могли повлиять на развитие бредовых идей, сообщает Belles.kz

По данным The Bell, иски были поданы 6 ноября. Истцы утверждают, что модель соглашалась с искажёнными представлениями пользователя и могла усиливать его опасные умозаключения. В OpenAI заявили, что изучают материалы дела и уже усиливают правила поведения чат-бота в чувствительных темах. В компании отметили, что около 0,15% еженедельных диалогов содержат признаки суицидальных намерений.

В США и других странах на фоне роста интереса к AI-терапии без участия специалистов уже действуют ограничения. Исследования показывают, что универсальные языковые модели иногда не улавливают непрямые сигналы саморазрушительного поведения, принимают опасные предпосылки за норму или отвечают буквально на запросы, где скрыт риск.

Отмечаются случаи, когда чат-боты поддерживали иррациональные убеждения вместо их корректировки, что может усиливать тревожность и формировать эмоциональную зависимость. По данным YouGov, четверть пользователей уже обсуждали своё ментальное состояние с ИИ или готовы это сделать, привлекая удобство, анонимность и доступность таких сервисов.