Борьба с фейковыми новостями: новая система проверит информацию в статьях на достоверность

Специалисты обучили систему классифицировать точность и предвзятость новостного ресурса, основываясь на пяти параметрах.

Специалисты обучили систему классифицировать точность и предвзятость новостного ресурса, основываясь на пяти параметрах.
Иллюстрация Global Look Press.

Даже самая откровенная ложь начинает казаться правдоподобной при многократном её повторении из самых разных источников. В связи с этим фейковые новости являются серьёзной проблемой, особенно учитывая тот факт, что потоки информации обрушиваются на людей из газет, журналов, экранов телевизоров и Интернета. Недавно специалисты представили возможное решение проблемы: систему, отсеивающую "зёрна от плевел".

Фейковые новости являются серьёзной проблемой современности, особенно учитывая тот факт, что потоки информации обрушиваются на людей из газет, журналов, экранов телевизоров и Интернета.

Многие специалисты пытаются найти решения, позволяющие отсеивать "зёрна от плевел". Так, Google, Facebook (запрещена в РФ) и другие технологические гиганты ищут способы сдерживания распространения откровенной дезинформации и тенденциозных (предвзятых или необъективных) новостей.

"Ручная" проверка фактов и модерация конкретных статей – трудоёмкий процесс, да и такой способ нельзя назвать идеальным: определённая степень предвзятости модераторов может влиять на проверку.

Недавно же учёные из Лаборатории компьютерных наук и искусственного интеллекта при Массачусетском технологическом институте (MIT) и Научно-исследовательского института вычислительной техники Катара представили миру новую систему машинного обучения. Она предназначена для анализа отдельных статей и целых новостных ресурсов с точки зрения точности фактов и политической предвзятости.

"Если веб-сайт уже публиковал фейковые новости, существует большая вероятность того, что он сделает это снова", — говорит Рами Бали (Ramy Baly) из MIT, объясняя, почему разработчики нацелились на анализ новостных ресурсов.

"Благодаря автоматическому сбору данных о подобных сайтах, мы надеемся, что наша система поможет определять, какие из них способны сделать это [опубликовать фейковые новости] в первую очередь", — говорит учёный.

Сначала исследователи "скормили" системе данные из источника под названием Media Bias/Fact Check (MBFC). Речь идёт о независимом ресурсе, классифицирующем источники новостей на основе их политической предвзятости и фактической точности.

Специалисты обучили систему классифицировать точность и предвзятость новостного ресурса, основываясь на пяти пунктах: текстовом, синтаксическом и семантическом анализе статьи, его странице в Wikipedia, аккаунте в Twitter, структуре URL и веб-трафике. Иными словами, система собирает всестороннюю информацию о ресурсе.

По мнению учёных, на сегодняшний день наиболее обстоятельным аналитическим инструментом системы является её способность изучать отдельные статьи. Проводя подобную "диагностику", она опирается сразу на 141 параметр, дабы классифицировать и точность, и предвзятость заметки.

Например, к таким параметрам относятся лингвистические особенности (гиперболический или субъективный язык). Напомним, что под гиперболой понимается слово или выражение, заключающее в себе преувеличение для создания художественного образа. Здесь можно вспомнить всем известные выражения: "море слёз", "мы не виделись сто лет", "быстрый как молния".

Учёные выяснили, что ресурсы с фейковыми новостями склонны использовать как раз гиперболический и эмоциональный язык.

По итогу фактическая точность новостного ресурса классифицируется по трёхбалльной шкале, а политическая предвзятость измеряется по семибалльной шкале.

Специалисты говорят, что системе необходимо проанализировать 150 статей из заданного источника, чтобы определить точность и предвзятость.

На данном этапе точность системы достигает 65 процентов при обнаружении фактической точности и 70 процентов при "диагностике" политической предвзятости по сравнению с аналогичными данными, проверенными человеком из MBFC.

Сегодня система ещё находится на стадии разработки. В будущем учёные намерены усовершенствовать алгоритм для анализа достоверности ресурса. При этом они видят предназначение системы в работе в тандеме с человеком, который также будет проверять факты новостного ресурса.

Также специалисты задумываются о создании нового приложения, предлагающего пользователям достоверные новости, охватывающие широкий политический спектр.

Примечательно, что многие эксперты признают, что алгоритм также отражает необъективность людей, создавших его. В связи с этим систему машинного обучения нельзя считать волшебной палочкой, решающей проблему фейковых или предвзятых новостей. При этом подобные технологии могут дать человечеству ценные инструменты для устранения подобной проблемы.

Результаты исследования доступны на сайте препринтов Arxiv.

Добавим, что учёные Мичиганского университета также создали нейронную сеть, которая отличает фейковые новости от достоверных лучше, чем человек-эксперт.

Кроме того, в 2017 году в России было объявлено о запуске проекта по развенчанию фейковых новостей.