Домой Технологии Интернет и сеть Интеллект искусственный, опасность – политическая!

Интеллект искусственный, опасность – политическая!

406

 Что самое опасное в распространении ИИ в социуме? Прежде всего, это сбор и распространение персональных данных, в том числе биометрических — фото и голоса – считают эксперты. Гипотетически, посредством нейросетей может распространяться и вредоносный контент как в виде вирусов, так и в виде каких-либо политических материалов.

 От данного вида угроз возможно защититься законодательно — все операторы должны получить лицензию и так или иначе контролировать контент и нести за него ответственность, И готовиться нужно уже сейчас — в перспективе нескольких месяцев эксперты ожидают  массового появления данного вида угроз в Казахстане.

Напомним, что в ряде стран уже существуют законы, обязывающие компании, создающие нейросети и чат-боты, уведомлять пользователей о том, как они используют их данные, а также давать людям возможность удалять свои данные из системы.

Подобного общения с казахстанским социумом пока нет. Нет его и у нашего ближайшего соседа – Россйиской Федерации. Там тоже опасаются последствий «работы» ИИ в политике.

На взгляд председателя Совета по развитию цифровой экономики при Совете Федерации, чтобы принимать законы по ограничениям, нужно установить путь создания цифрового кодекса, зафиксировать терминологию в цифровом праве, также необходимо категоризировать виды ИИ на предмет рисков для безопасности, которые они могут нести. Например, выделить системы, которые несут высокий, средний или минимальный риск. Также нужны единые виды тестирования на безопасность, которые должны проводить компании-разработчики ИИ и определение видов доступа к данным для проведения аудитов и оценок.

Нужны ли в Казахстане подобные  законы на перспективу взаимодействия с ИИ? Безусловно! Но будут ли они приняты в ближайшем будущем?