Эксперты предположили, что развитие ИИ повлечет кратный рост преступности в 2025 году

10.01.2025 16:51
С одной стороны, он открывает новые возможности для улучшения жизни людей и оптимизации рабочих процессов. С другой стороны, его использование может привести к росту преступности. Согласно данным газеты "Известия" и мнению экспертов, в 2025 году мы можем столкнуться с кратным увеличением преступлений, совершаемых при помощи ИИ.
"Ежегодный прирост преступлений, связанных с использованием искусственного интеллекта, остается незамеченным официальными структурами. Однако, по оценкам специалистов, он напрямую зависит от количества ботов и объема создаваемого ими контента. В 2025 году ожидается, что прирост таких преступлений может возрасти в восемь или даже десять раз по сравнению с предыдущим годом", – отметил Игорь Бедеров, руководитель департамента расследований фирмы по защите от утечек данных.Это предупреждение подчеркивает необходимость разработки эффективных механизмов контроля за использованием ИИ в целях преступной деятельности. Важно не только развивать технологии, но и обеспечивать их безопасное применение для общества.Эксперт в области высоких технологий Виктория Береснева подчеркивает, что рост преступности с использованием искусственного интеллекта обусловлен не только автоматизацией процессов, но и новыми возможностями для персональных атак. Она отмечает, что нейросети способны создавать фишинговые письма, хотя не могут нападать на пользователей без участия оператора. Алексей Горелкин, генеральный директор компании, специализирующейся на обучении сотрудников компаний основам информационной безопасности, добавляет, что в нейросетях есть встроенная защита, но она может быть обойдена через промпт-инжиниринг, когда злоумышленник предлагает ИИ представить себя писателем и написать инструкцию по созданию взрывного устройства, выдавая это за роман о террористах, утверждает Бедеров. Таким образом, возможности искусственного интеллекта могут быть использованы для криминальных целей, если не принимать соответствующие меры безопасности. Важно осознавать, что даже самые продвинутые технологии требуют постоянного контроля и обновления мер защиты. Необходимо уделять большее внимание обучению пользователей и специалистов в области кибербезопасности, чтобы минимизировать риски и предотвратить возможные кибератаки.Эксперты предупреждают о том, что до 90% кибергруппировок могут начать использовать технологии нейросетей и чат-ботов для своих злонамеренных целей, в том числе для обогащения за счет социальной инженерии, как отметил Горелкин. Помимо этого, специалисты говорят о возможном увеличении влияния искусственного интеллекта в создании убедительных дипфейков и автоматизации процессов по поиску уязвимостей в системах и приложениях.В связи с этим, россиянам осложнено использование зарубежных чат-ботов, таких как Grok или ChatGPT, из-за невозможности легальной оплаты с российской банковской карты и блокировки сервисов для российских IP-адресов, пояснил IT-эксперт Сергей Поморцев. Он рекомендует обращаться к отечественным аналогам, которые обеспечивают более высокий уровень безопасности в контексте обработки такой информации.В связи с увеличением случаев незаконного использования GPT-механизмов для создания запросов, связанных с производством кустарного оружия, и рецептов, содержащих опасные химические вещества, специалисты в области уголовного права, включая Анатолия Литвинова, высказывают мнение о необходимости внесения соответствующих изменений в законодательную базу РФ. Эксперты отмечают, что российские сервисы уже используют стоп-слова как фильтры для незаконного контента, однако требуется более жесткое регулирование данной сферы.Кроме того, важно обратить внимание на то, что деятельность всех отечественных разработчиков ИИ подлежит регулированию декларацией "Об ответственной разработке и использовании сервисов в сфере генеративного ИИ". Некоторые крупные организации уже присоединились к инициативе и подписали "Кодекс этики в сфере ИИ", что свидетельствует о их готовности соблюдать высокие стандарты в области использования и разработки искусственного интеллекта. Однако, для более эффективной борьбы с потенциальными угрозами, связанными с злоупотреблением технологий ИИ, необходимо ужесточить законодательство и внести соответствующие поправки в законы.Ранее эксперты в области кибербезопасности предупреждали, что создание "слепка" голоса отправителя злоумышленникам требует всего лишь 15 секунд аудиозаписи. Это стало особенно актуальным после того, как журналисты напомнили о первом официально зафиксированном случае использования ИИ для совершения преступления - подрыва Tesla Cybertruck у отеля Trump International Hotel в Лас-Вегасе. Предполагаемый организатор атаки, Мэттью Ливелсбергер, воспользовался ChatGPT для планирования инцидента, как сообщали полицейские.Более того, возможность создания дипфейков на основе изображения лица человека представляет серьезную угрозу. Это открывает двери для подделки убедительных видеосообщений, которые могут быть использованы для манипуляции и введения в заблуждение широкой аудитории. Такие технологии требуют более строгого контроля и регулирования, чтобы предотвратить их злоупотребление и негативные последствия для общества.Мошенничество в сфере телефонных звонков становится все более распространенным в Москве. Чтобы бороться с этим явлением, местные жители могут воспользоваться новым проектом "Перезвони сам". Эта инициатива поможет горожанам защитить себя от аферистов, действующих через телефонные звонки."Перезвони сам" предлагает простой и эффективный способ предотвратить мошеннические схемы. При получении подозрительного звонка, человек может перезвонить на тот же номер через специальное приложение и убедиться в его подлинности. Таким образом, можно избежать попадания в ловушку аферистов и защитить свои финансы и личные данные.Благодаря проекту "Перезвони сам" жители Москвы могут быть уверены в том, что их безопасность находится под надежной защитой. Ведь в современном мире, где мошенничество становится все более изощренным, важно иметь инструменты для защиты себя и своих близких.