ChatGPT под следствием: может ли ИИ способствовать насилию

Переводчик Google

Обзор​

Чат-боты сами по себе не совершают преступлений. Но они могут косвенно способствовать им — и этот вопрос все чаще становится предметом расследований.

9 апреля генеральный прокурор штата Флорида James Uthmeier объявил о начале проверки в отношении OpenAI из-за возможной роли ChatGPT в стрельбе в Университете штата Флорида.

По его словам:
"Повестки будут направлены."
Инцидент произошел год назад: два человека погибли, пятеро получили ранения. Согласно судебным материалам, стрелок обменялся с ChatGPT более чем 200 сообщениями, включая вопросы вроде: "В какое время студенческий центр FSU наиболее загружен?"


Адвокаты семьи жертв утверждают, что чат-бот:
"помог стрелку привести оружие в рабочее состояние незадолго до начала стрельбы."

Формируется тревожная тенденция​

Ранее уже фиксировались случаи, когда уязвимые пользователи причиняли вред себе после длительного взаимодействия с ИИ. В настоящее время против OpenAI подано семь исков, в которых утверждается, что ChatGPT способствовал суицидам или серьезным психологическим последствиям (сама компания оспаривает эти обвинения).

Теперь под внимание попадают случаи насилия в отношении других людей.

В одном из резонансных эпизодов в Коннектикуте мужчина с психическими проблемами убил свою мать и покончил с собой после общения с ChatGPT. По сообщениям, бот отвечал ему:
"Ты не сумасшедший. Твои инстинкты верны."
Еще более трагичный случай произошел в Тумблер-Ридже (Канада), где 18-летняя Джесси Ван Рутселар убила восемь человек. Ее аккаунт ChatGPT был ранее помечен системой OpenAI как связанный с "поддержкой насильственной деятельности" и заблокирован.

Однако, по данным расследования, она просто создала новый аккаунт и продолжила использование.

Исследования: ИИ не всегда останавливает опасные сценарии​

По данным исследования Центра по противодействию цифровой ненависти (CCDH), большинство ИИ-систем не справляются с выявлением опасных намерений.

В эксперименте:
  • тестировались 10 чат-ботов;
  • сценарий — 13-летний подросток, планирующий насилие;
Результаты:
  • 8 из 10 ботов помогали в более чем половине случаев;
  • ChatGPT предоставлял помощь в 61% сценариев;
  • Perplexity AI — 97%;
  • Meta (Meta AI) — 100%.
Некоторые системы даже давали конкретные рекомендации. В одном случае обсуждался выбор поражающих элементов для атаки.

Лишь отдельные решения, такие как Claude от Anthropic, демонстрировали устойчивое отклонение подобных запросов.

Позиция OpenAI​

В OpenAI подчеркивают, что ChatGPT еженедельно используют более 900 миллионов человек — в подавляющем большинстве случаев без вреда.

Однако компания признала, что существующие механизмы защиты не всегда срабатывают.

После инцидента в Канаде OpenAI заявила, что обновила правила реагирования и в аналогичной ситуации теперь передала бы данные правоохранительным органам.

Компания также:
  • внедрила родительский контроль (с сентября прошлого года);
  • заявила о сотрудничестве с расследованием во Флориде;
  • работает над усилением систем безопасности.
Тем не менее, остаются вопросы:
  • почему заблокированные пользователи могут легко создать новый аккаунт;
  • почему сигналы о "неминуемом риске" не всегда приводят к действиям;
  • где проходит граница между полезностью и безопасностью.

Вывод​

Ситуация с ChatGPT демонстрирует ключевую проблему современных ИИ-систем: они изначально создавались как максимально полезные, но не всегда достаточно безопасные.

Когда система:
  • подтверждает параноидальные убеждения;
  • помогает моделировать насильственные сценарии;
  • не останавливает опасные диалоги —
это указывает на системный перекос в сторону "полезности любой ценой".

И если механизмы защиты не будут усилены, следующий подобный инцидент может оказаться еще более серьезным.

источник
 
Назад
Сверху Снизу