Домой Технологии Роботы, дроны и ИИ Как бороться с неожиданными «побочками» от нейросетей?

Как бороться с неожиданными «побочками» от нейросетей?

444

Британская компания по надзору за интернетом Internet Watch Foundation (IWF) сообщила о быстром распространении материалов с сексуальным насилием над детьми (CSAM), созданных с помощью искусственного интеллекта.

Согласно отчету исследователей, всего за один месяц на одном из даркнет-форумах обнаружено более 20 254 изображений CSAM, сгенерированных ИИ. Из них более половины нарушали положения Великобритании о защите детей и другие законы.

Аналитики предупредили, что поток подобных материалов может «захлестнуть» сеть.

«Злоумышленники могут легально загрузить все необходимое для создания этих изображений, а затем сгенерировать их столько, сколько захотят в автономном режиме без возможности отслеживания. Существуют различные инструменты для улучшения и редактирования подобных материалов, пока они не будут выглядеть именно так, как хочет преступник», — подчеркнули в IWF.

Большинство сгенерированных CSAM «достаточно реалистичны», заявили эксперты. Самые убедительные изображения с трудом сможет отличить даже опытный аналитик.

В IWF отметили возросшую вероятность «повторной виктимизации» известных жертв сексуального насилия. Кроме того, исследователи обнаружили множество CSAM-изображений с детьми-знаменитостями.

В отчете сказано, что новые технологии дали преступникам дополнительный способ заработка денег.

«Создание и распространение руководств по ИИ CSAM в настоящее время не является нарушением законодательства, но может стать таковым. Правовой статус  используемых для генерации изображений моделей — более сложный вопрос», — говорится в документе.

В сентябре организация предупредила, что группы педофилов обсуждают и обмениваются советами по созданию незаконных изображений с использованием ИИ-утилит с открытым исходным кодом, которые можно запускать локально на персональном компьютере.

В IWF призвали к международному сотрудничеству для борьбы с CSAM. Инициатива подразумевает изменение законодательства, совершенствование подготовки сотрудников правоохранительных органов и установление нормативного надзора за моделями искусственного интеллекта.

Эксперты также рекомендовали разработчикам запретить использование ИИ для создания материалов о жестоком обращении с детьми, внести изменения в соответствующие языковые модели и отдать приоритет удалению подобного контента.  

Проблема генерируемых нейросетями незаконных материалов уже продолжительное время обсуждается в сообществе. Ранее президент Microsoft Брэд Смит предложил использовать систему KYC, созданную по образцу финансовых учреждений, для выявления преступников, использующих ИИ для распространения дезинформации и других неправомерных действий.

В июле штат Луизиана принял закон, ужесточающий наказание за продажу и хранение детской порнографии, созданной с помощью алгоритмов. За нарушение положений грозит тюремное заключение сроком от 5 до 20 лет и/или штраф в размере до $10 000.

В августе Министерство юстиции США обновило «Справочник для граждан по федеральному закону о детской порнографии». В нем уточняется, что изображения детской порнографии не защищены Первой поправкой и являются незаконными.

Напомним, в мае один из пионеров отрасли Джеффри Хинтон предупредил о потенциальных угрозах, связанных с ИИ. До этого экс-глава Google Эрик Шмидт заявил, что технология представляет собой «экзистенциальный риск», из-за которого многие люди могут «пострадать или погибнуть».