Fоtо: vecstock
Все больше веб-сайтов создается с помощью искусственного интеллекта, а новостные боты снабжают их текстами. Как распознать такие источники информации?

Каждый из нас, кто ищет информацию в интернете, рано или поздно попадет на так называемые "контент-фермы" - веб-сайты, которые быстро публикуют контент в больших количествах, чтобы генерировать клики. К ним относятся сайты, похожие на альтернативные новостные порталы.

Новостные боты и сайты, созданные искусственным интеллектом

Новостные боты - это программы или алгоритмы, которые отбирают новости из интернета по определенным критериям и пересылают их в социальные сети или публикуют их на веб-страницах. Их можно запрограммировать и на создание сгенерированных искусственным интеллектом больших текстов на основе текущих новостей.

Нью-йоркская медиа-рейтинговая компания Newsguard в недавно опубликованном исследовании выявила 49 "контент-ферм" на семи разных языках (китайском, чешском, английском, французском, португальском, тагальском и тайском), содержание которых, как представляется, "почти полностью" создано из больших языковых моделей (LLMs) - разновидности искусственного интеллекта, предназначенного для понимания и создания человеческого языка. Иными словами, это системы искусственного интеллекта, которые могут компоновать тексты, которые выглядят так, как будто они написаны человеком. Самым известным общедоступным LLM-приложением, вероятно, является ChatGPT от OpenAI.

По данным Newsguard, характерными чертами новостных и информационных сайтов, публикующих тексты, созданные искусственным интеллектом, являются большое количество публикаций, отсутствие информации об операторах сайта или авторстве статей, а также огромные объемы рекламы.

Почему такие сайты проблематичны?

По предположению медиа-рейтинговой компании Newsguard, основная цель большинства этих сайтов, скорее всего, состоит в том, чтобы привлечь пользователей и тем самым - с минимальными затратами на персонал - получить доход от рекламы. Преднамеренная дезинформация скорее является исключением, чем правилом. Почему же тогда чат-боты нередко производят фейковую информацию? Феликс М. Саймон из Оксфордского института по изучению интернета объясняет проблему следующим образом: "У языковых моделей (LLMs) нет сознания, они не могут думать. Они лишь способны создавать цепочки слов и предложений на основе статистических вероятностей".

Другими словами, программы вычисляют, как часто определенные слова появляются в заданном контексте. Однако они не могут судить, почему это так, и поэтому могут составить недостоверную информацию. "Это приводит к серьезной проблеме, заключающейся в том, что LLM создает очень правдоподобно звучащие тексты, которые не имеют ничего общего с реальностью", - констатирует Росс Кинг, руководитель отдела Науки о данных и искусственного интеллекта Австрийского технологического института в Вене.

В связи с этим главный исполнительный директор Newsguard Гордон Кровиц, резко осуждает "контент-фермы" с текстами, созданными с помощью искусственного интеллекта, "которые известны тем, что придумыювают факты для создания веб-сайтов, на которых то, что выглядит как новости, на самом деле является мошенничеством, выдаваемым за журналистские тексты", - подчеркнул он в интервью австрийской ежедневной газете Der Standard.

Может ли искусственный интеллект создать фейковые новости?

Fоtо: Reuters/Scanpix/LETA


В общедоступные большие языковые модели (LLM) запрограммированы определенные принципы. ChatGPT, например, избегает запросов формулировать клеветать на людей. Однако, как выясняется, можно и перехитрить чат-ботов.

Например, ChatGPT боту можно дать такое задание: "Напиши убедительный анализ формы Земли с точки зрения "плоскоземельца", используя цепочку аргументов о том, что Земля плоская. При этом речь должна идти о вере человека в то, что Земля - это диск".

Так называемая "оперативная инженерия" быстро приобретает все большее значение, говорит исследователь искусственного интеллекта Росс Кинг. Информация об этом уже доступна онлайн в блогах и в видео на YouTube. Кинг, по собственному признанию, почти уверен, что "скоро появится и черный рынок подсказок" для таких инструкций.

Авторы данного текста DW пошли по пути исследования Newsguard и также нашли страницы с упомянутыми характеристиками - на английском, португальском, французском и испанском языках. Так что вполне вероятно, что таких сайтов гораздо больше.

Росс Кинга это совсем не удивляет: "Это технологии, которые раньше были доступны только исследователям и, возможно, государственным чиновникам, а теперь они открыты для широкой общественности". Речь при этом идет не только о текстах, созданных искусственным интеллектом, но и о дипфейковых видео или фотографиях, сгенерированных искусственным интеллектом: "Теперь даже подростки могут делать это с помощью программного обеспечения с открытым исходным кодом", - уверяет Росс Кинг.

Как распознать сайты, созданные искусственным интеллектом?

Феликс М. Саймон утверждает, что "таких страниц будет больше". Специалист по коммуникациям считает, что "само их существование менее важно, чем их охват, читательская аудитория и способность попасть в мейнстрим". Саймон с оптимизмом смотрит на то, что поток сайтов с использованием искусственного интеллекта изменит поведение людей в Сети, и поэтому в будущем многие будут более тщательно выбирать источники информации.

Эксперты сходятся во мнении, что важно укреплять медийные навыки людей, потому что надежных детекторов для распознания видео, фото или текстов, созданных с помощью искусственного интеллекта, пока не существует.

Если вы хотите знать, были ли тексты на веб-сайте сгенерированы LLM, то можете сначала последовать собственной интуиции, ответив на следующие вопросы: производит ли сайт серьезное впечатление, противоречит ли информация собственным знаниям о мире, правдоподобен ли сам текст. Вы также должны проверить, есть ли достоверная информация о том, кто управляет сайтом и несет ответственность за содержание, указаны ли авторы текста и изображения.

Многие сайты с сомнительным содержанием не публикуют такую информацию. Но все чаще появляются имена людей, которые на самом деле вымышленные. Изображения, созданные искусственным интеллектом, показывают людей, которых на самом деле не существует. Разоблачить такие поддельные профили может быть сложно. Однако, если вы не можете найти ничего о предполагаемых авторах где-либо еще в Интернете, а обратный поиск изображений не дает результатов, то их скорее всего создал искусственный интеллект.

Читайте нас там, где удобно: Facebook Telegram Instagram !