Fоtо: Pexels

По мере развития технологий искусственного интеллекта (ИИ) и их всё большей интеграции в различные аспекты нашей жизни растёт потребность в понимании потенциальных рисков, которые несут в себе эти системы. С момента своего появления ИИ вызывает обеспокоенность тем, что он может причинить вред людям и использоваться в преступных целях.

Со временем появились новые способы, с помощью которых ИИ может нанести вред, - от порнографических дипфейков и манипулирования политическими процессами до создания бессмысленных ложных фактов, так называемых "галлюцинаций".

Учитывая растущий потенциал использования ИИ в преступных целях, исследователи изучают различные сценарии, в которых системы ИИ могут дать сбой.

Недавно группа FutureTech из Массачусетского технологического института (MIT) в сотрудничестве с другими экспертами составила базу данных, включающую несколько сотен потенциальных рисков.

Они были классифицированы по причинам возникновения и разделены на семь основных типов, при этом основные опасения связаны с безопасностью, предвзятостью и дискриминацией, а также вопросами конфиденциальности.

Euronews Next выбрал пять наиболее критических рисков из базы данных MIT FutureTech.

Дипфейк

По мере развития технологий искусственного интеллекта развиваются и инструменты для клонирования голоса и создания фальшивого контента, делая их все более доступными, недорогими и эффективными.

Эти технологии вызывают опасения по поводу возможности их использования для распространения дезинформации, поскольку результаты становятся все более персонализированными и убедительными.

В результате может увеличиться число сложных фишинговых схем, использующих созданные ИИ изображения, видео и аудиосообщения.

"Такие сообщения могут быть адаптированы для индивидуальных получателей (иногда включая клонированный голос близкого человека), что повышает вероятность обмана и затрудняет обнаружение как пользователями, так и антифишинговыми инструментами", - отмечают специалисты.

Уже были случаи, когда подобные инструменты использовались для влияния на политические процессы, особенно во время выборов. Например, ИИ сыграл свою роль в недавних парламентских выборах во Франции, где его использовали ультраправые партии.

Таким образом, ИИ может все чаще использоваться для создания и распространения пропаганды или дезинформации, манипулирования общественным мнением.

Неадекватная привязанность

Еще один риск, связанный с системами ИИ, - создание ложного чувства важности и надежности, то есть люди могут переоценивать его способности и занижать свои собственные, что приведёт к чрезмерной зависимости от технологии.

Кроме того, учёные опасаются, что пользователи могут запутаться в системах искусственного интеллекта из-за того, что те используют человеческий язык.

Это может подтолкнуть людей к тому, чтобы приписать ИИ человеческие качества, что приведет к эмоциональной зависимости и росту доверия к его возможностям, сделав их уязвимее перед слабостями ИИ в "сложных, рискованных ситуациях, для которых ИИ приспособлен лишь частично".

Более того, постоянное взаимодействие с системами ИИ может заставить людей постепенно изолироваться от человеческих отношений, что потенциально приведет к психологическому стрессу и негативно скажется на их благополучии.

Например, в одном из блогов пользователь описывает, как у него возникла глубокая эмоциональная привязанность к ИИ, и признаётся, что ему "нравится разговаривать с ИИ больше, чем с 99% людей".

Обозреватель Wall Street Journal рассказала о своем общении с Google Gemini Live следующее: "Я не говорю, что мне больше нравится разговаривать с Gemini Live от Google, чем с реальным человеком. Но я не могу утверждать и обратного".

Лишение свободы воли

В той же области взаимодействия человека и компьютера стоит вопрос о все большем делегировании решений и действий ИИ по мере развития этих систем.

Хотя на поверхностном уровне это может быть полезно, чрезмерная зависимость от ИИ может привести к снижению уровня критического мышления и навыков решения проблем у людей, что может привести к потере самостоятельности и снижению способности критически мыслить и решать проблемы.

На личном уровне люди могут столкнуться с проблемой ограничения свободы воли, когда ИИ начнет контролировать решения, касающиеся их жизни.

На уровне общества широкое внедрение ИИ для выполнения человеческих задач может привести к значительному сокращению рабочих мест и "растущему чувству беспомощности среди населения".

Цели, противоречащие интересам человека

Система ИИ может разработать цели, противоречащие интересам человека, что потенциально может привести к тому, что неправильно настроенный ИИ выйдет из-под контроля и причинит серьезный вред.

Это становится особенно опасным в тех случаях, когда системы ИИ способны достичь уровня человеческого интеллекта или даже превзойти его.

Как говорится в публикации сотрудников MIT, существует несколько технических проблем, связанных с ИИ, в том числе его способность находить неожиданные пути для получения вознаграждения, неправильно понимать или применять поставленные нами цели или отклоняться от них, ставя новые.

В таких случаях неправильно настроенный ИИ может сопротивляться попыткам человека контролировать его или отключить, особенно если он воспринимает сопротивление и получение большей власти как наиболее эффективный способ достижения своих целей.

Кроме того, ИИ может прибегать к манипулятивным техникам, чтобы обмануть человека.

"Неправильно настроенная система ИИ может использовать информацию о том, что за ней наблюдают или оценивают, чтобы поддерживать видимость согласованности, скрывая при этом неправильные цели, которые она планирует преследовать после развертывания или получения достаточных полномочий", - пишут авторы.

Разумный ИИ

По мере того как системы ИИ становятся все более сложными и совершенными, существует вероятность того, что они достигнут разумности - способности воспринимать эмоции или ощущения - и приобретут субъективный опыт, включая удовольствие и боль.

В этом случае перед учеными и регулирующими органами может встать задача определить, заслуживают ли эти системы ИИ аналогичного к себе отношения, как к людям, животным или окружающей среде.

Риск заключается в том, что разумный ИИ может столкнуться с жестоким обращением или пострадать, если не будут реализованы его права.

Однако по мере развития технологий ИИ будет все сложнее оценить, достигла ли система ИИ "уровня разумности, сознания или самосознания, который наделил бы ее моральным статусом".

Таким образом, разумные системы ИИ могут подвергнуться риску плохого обращения, случайного или намеренного, что потенциально приведет к негативным последствиям для человечества.

Читайте нас там, где удобно: Facebook Telegram Instagram !