ЛоготипФинЛавка

Нейросети стали вдвое чаще выдавать фейки на новостные запросы в 2025 году

03 просмотров

По данным аналитической компании Newsguard, чат-боты с искусственным интеллектом стали вдвое чаще распространять недостоверные сведения по сравнению с прошлым годом. В 2024 году уровень ошибок составлял 18%, а к августу 2025-го достиг уже 35% при обработке новостных тем, пишет «RuNews24».

 Нейросети стали вдвое чаще выдавать фейки на новостные запросы в 2025 году

Главной причиной ухудшения ситуации аналитики называют доступ нейросетей к веб-поиску в реальном времени, что сделало их уязвимыми к намеренно искаженным источникам. Исследователи пояснили, что на раннем этапе ИИ придерживался принципа «не навреди» и нередко отказывался отвечать на вопросы, чтобы минимизировать риск распространения дезинформации. Однако возможность искать данные в интернете, по их словам, открыла доступ к «зараженной» информационной среде.

Худшие показатели продемонстрировали нейросети Inflection, где доля фейковых ответов составила 56,67%, и Perplexity — 46,67%. У моделей ChatGPT и Meta* ложная информация фиксировалась в 40% случаев, у Copilot и Mistral — в 36,67%. Самыми надежными оказались Claude с результатом 10% и Gemini — 16,67%.

Изначально веб-поиск встраивался в нейросети для обновления устаревших данных в их ответах, однако на практике это обернулось новыми трудностями. Алгоритмы начали смешивать материалы авторитетных СМИ с публикациями на фейковых ресурсах, что вызвало заметный рост числа недостоверных сведений.

Категории

Искусственный интеллект

Теги

инвестициифинансысталивдвоечащегодунейросетивыдаватьфейкиновостныезапросыданныманалитическойкомпании