Fоtо: Shutterstock

США, Великобритания, Германия и еще 15 государств подписали соглашение о защите потребителей от неправомерного использования искусственного интеллекта (ИИ). В 20-страничном документе, обнародованном в понедельник, 27 ноября, представлены рекомендации для компаний-разработчиков ИИ с целью защитить системы с искусственным интеллектом от злоумышленников.

В частности, компаниям, разрабатывающим и внедряющим ИИ, рекомендуется сделать эти системы "безопасными по структуре", чтобы их не могли использовать в своих интересах киберпреступники, а конфиденциальные данные пользователей не попадали к третьим лицам. При этом потенциальные риски должны учитываться на всех стадиях работы с ИИ, говорится в соглашении: на стадии разработки, внедрения, эксплуатации и обслуживания.

"Системы искусственного интеллекта подвержены новым уязвимостям, которые необходимо учитывать наряду со стандартными угрозами кибербезопасности. Когда темпы развития высоки — как в случае с искусственным интеллектом — безопасность часто может отходить на второй план. Однако безопасность должна быть основным требованием не только на этапе разработки, но и на протяжении всего жизненного цикла системы", — отмечается в документе.

Инструкции не имеют обязательной силы, тем не менее эксперты считают соглашение с участием 18 государств важным шагом. По словам директора американского Управления кибербезопасности и Агентства по безопасности инфраструктуры Джен Истерли, этот документ подчеркивает, что технологии ИИ представляют собой "не просто крутые функции, которые можно быстро вывести на рынок", — самым важным аспектом при их разработке является безопасность.

Ранее Евросоюз, Германия, Франция, США и некоторые другие страны, а также представители крупных IT-концернов, включая менеджеров компании-создателя ChatGPT Open AI и основателя компаний Tesla и SpaceX Илона Маска, подписали "Декларацию Блечли", призывающую к безопасной разработке и внедрению технологий искусственного интеллекта.

Читайте нас там, где удобно: Facebook Telegram Instagram !