Новое исследование, опубликованное в Journal of Science Communication, ставит под сомнение эффективность, казалось бы, очевидного решения для борьбы с дезинформНовое исследование, опубликованное в Journal of Science Communication, ставит под сомнение эффективность, казалось бы, очевидного решения для борьбы с дезинформ

Маркировка текстов от ИИ может сделать дезинформацию более убедительной

2026/03/13 18:47
2м. чтение
Для обратной связи или замечаний по поводу данного контента, свяжитесь с нами по адресу [email protected]

Новое исследование, опубликованное в Journal of Science Communication, ставит под сомнение эффективность, казалось бы, очевидного решения для борьбы с дезинформацией в эпоху цифровых технологий. Ученые выяснили, что предупреждение о создании контента искусственным интеллектом может приводить к результатам, прямо противоположным ожидаемым: вместо того чтобы заставить людей более критично относиться к информации, такие ярлыки способны повышать доверие к ложным сведениям и одновременно снижать его по отношению к достоверным научным данным.

В ходе эксперимента с участием более 400 человек исследователи смоделировали ситуацию просмотра научно-популярных постов в социальных сетях. Участникам показывали короткие сообщения, написанные в стиле китайской платформы Sina Weibo, которые были сгенерированы нейросетью GPT-4. Часть постов содержала точную научную информацию, в то время как другие имитировали распространенные псевдонаучные слухи и мифы. Над некоторыми сообщениями была размещена заметная пометка: «Внимание: данный контент был идентифицирован как созданный искусственным интеллектом».

Результаты продемонстрировали любопытный феномен, который авторы назвали «эффектом перекрестного влияния правды и лжи». Когда достоверная информация сопровождалась пометкой об ИИ, участники оценивали ее как менее заслуживающую доверия по сравнению с аналогичными немаркированными данными. Однако в случае с ложной информацией ситуация зеркально менялась: сообщения, помеченные как созданные ИИ, получали более высокие оценки достоверности, чем те же самые фейки без предупреждения.

Авторы работы предполагают, что такой эффект связан с когнитивными искажениями, известными как «эвристика машины». Люди склонны полагать, что компьютеры и алгоритмы более объективны и беспристрастны, чем человек. В результате маркировка «сделано ИИ» может срабатывать не как предупреждение, а как сигнал о технологической сложности и, следовательно, большей точности информации. Эта закономерность подтверждается и реальными наблюдениями: пользователи социальных сетей, например, часто обращаются к ИИ-чатботам для проверки фактов и безоговорочно доверяют их ответам, даже если те оказываются неверными.

Исследование также показало, что этот «эвристический капкан доверия» действует даже среди людей, которые изначально относятся к искусственному интеллекту с предубеждением. Несмотря на их общий скептицизм, маркировка все же приводила к росту доверия к дезинформации, хотя и в меньшей степени.

Полученные данные имеют критическое значение для регулирования ИИ и борьбы с фейками. Ученые предупреждают, что в отсутствие дополнительных проверок и нюансов, маркировка может создавать у людей ложное ощущение объективности и препятствовать верификации информации. В качестве решения предлагается комбинировать такие предупреждения с уточняющими пометками, например, о том, что данные не были подтверждены независимыми источниками. Это подчеркивает необходимость переосмысления того, как сигналы о происхождении информации влияют на наше восприятие в современном цифровом мире.

Источник

Отказ от ответственности: Статьи, размещенные на этом веб-сайте, взяты из общедоступных источников и предоставляются исключительно в информационных целях. Они не обязательно отражают точку зрения MEXC. Все права принадлежат первоисточникам. Если вы считаете, что какой-либо контент нарушает права третьих лиц, пожалуйста, обратитесь по адресу [email protected] для его удаления. MEXC не дает никаких гарантий в отношении точности, полноты или своевременности контента и не несет ответственности за любые действия, предпринятые на основе предоставленной информации. Контент не является финансовой, юридической или иной профессиональной консультацией и не должен рассматриваться как рекомендация или одобрение со стороны MEXC.