Обвиняемый искал инструкции у искусственного интеллекта
В современном мире доверие к технологиям достигло точки, когда искусственный интеллект (ИИ) становится для многих не только рабочим инструментом, но и собеседником, которому доверяют самое сокровенное. Люди все чаще обращаются к чат-ботам за советами, которые затрагивают и деструктивные сферы человеческой жизни.
Одним из таких примеров может служить дело 16-летнего А. Лятифова из села Гадашоба Хачмазского района, признанного виновным в убийстве своей матери, Кифаят Лятифовой. Сумгайытский суд по тяжким преступлениям приговорил молодого человека к 7 годам и 6 месяцам лишения свободы. В ходе судебных слушаний было установлено, что мотивом к совершению преступления, в ходе которого было нанесено 15 ножевых ранений, послужило обнаружение переписки матери с незнакомым мужчиной в социальной сети TikTok. Примечательно, что в ходе следственных мероприятий в телефоне обвиняемого была обнаружена переписка с ChatGPT, состоявшаяся накануне трагедии. Юноша задавал нейросети вопросы, касающиеся методов и средств совершения убийства, возможных юридических последствий своего преступного деяния, а также интересовался тактикой поведения на допросах для получения в дальнейшем более мягкого наказания. В рамках этого же процесса был допрошен мужчина, с которым якобы переписывалась убитая. Свидетель заявил, что не был знаком с женщиной, а взаимодействие в приложении носило случайный характер - он отправлял смайлики для быстрого ответа и не подозревал о трагической связи между этими сообщениями и последующим убийством.
Отметим, что в последние годы было зафиксировано немало случаев, когда к чат-ботам обращались за советами по поводу убийств, суицидов, мошенничества и др. В ответ на это разработчики ИИ последовательно ужесточают политику безопасности своих систем. Компании стремятся ограничить возможность использования нейросетей в незаконных и опасных для жизни целях, вводя строгие запреты на обсуждение рискованных тем. Политика разработчиков становится более жесткой и направлена на то, чтобы минимизировать риски вовлечения алгоритмов в планирование насилия, правонарушений или жестокого поведения. Эти фильтры безопасности сейчас не идеальны, но постоянно совершенствуются, и запросы, затрагивающие подобные темы, в основном попадают под автоматическую блокировку. Мы живем в эпоху, где развитие ИИ опережает развитие цифровой культуры, и текущая стратегия компаний-разработчиков - это ответ на необходимость контроля над этим инструментом.