Социальные медиа-платформы усиливают личные интерпретации и полуправду, часто заслоняя факты вирусными нарративами. На этом фоне группа студентов португальского университета из Высшего технического института(IST) разработала систему искусственного интеллекта, призванную ускорить проверку фактов и помочь восстановить доверие к информации.

Новая система полностью повторяет процесс проверки фактов, обычно проводимый профессиональными журналистами, сокращая часы работы в гораздо более короткие сроки. Пользователям нужно только предоставить заявление, которое необходимо проверить, а система автоматически собирает соответствующие доказательства, выявляет подтверждающую и противоречащую информацию и выдает вердикт, сопровождаемый пояснительным текстом. Таким образом, она предлагает жизненно важный инструмент для решения масштабной проблемы дезинформации, когда ложные сведения распространяются быстрее, чем успевают публиковаться исправления.

Дезинформация процветает благодаря скорости. Вирусные посты могут охватывать миллионы людей в течение нескольких часов, в то время как традиционная проверка фактов может занимать несколько дней. К тому моменту, когда исправления публикуются, ложная информация часто превращается в воспринимаемую истину. Автоматизированная проверка призвана устранить этот пробел, предоставив журналистам возможность быстро и решительно реагировать, пока дезинформация не укоренилась. Проект уже прошел экспертизу с участием сотен журналистов, что гарантирует практичность и актуальность его результатов для реальной медиасреды.

В основе этой инициативы лежат большие языковые модели, которые генерируют наборы данных для задач по проверке фактов и имитируют рассуждения, лежащие в основе проверки. Этот подход не отменяет роль человеческого суждения, а наоборот, поддерживает ее. Журналисты по-прежнему важны для интерпретации результатов, применения критического мышления и обеспечения сохранения достоверности. Система снижает временные затраты, позволяя специалистам действовать с той скоростью, которую требует цифровая экосистема.

Проект является частью более широких усилий по изучению новых форм объяснения и персонализации в предоставлении проверенной информации. Исследования показывают, что молодые поколения особенно уязвимы перед ложными нарративами, поскольку в поисках новостей они в значительной степени полагаются на такие платформы, как Instagram и TikTok. Традиционные методы проверки фактов часто не привлекают их внимания. Для этой аудитории очень важна адаптация языка, формата и подачи информации. Персонализация проверок фактов может оказаться ключом к тому, чтобы достучаться до них до того, как дезинформация превратится в убеждение.

В то же время эта инициатива подчеркивает хрупкий баланс между технологиями и образованием. Хотя искусственный интеллект может упростить проверку фактов, растет обеспокоенность по поводу его влияния на человеческое познание. Чрезмерная зависимость от автоматизированных инструментов может подорвать навыки критического мышления, что приведет к тому, что исследователи называют когнитивным долгом. По этой причине ИИ следует рассматривать как вспомогательный механизм, а не как замену, в то время как медиаграмотность и критическое образование остаются жизненно важными столпами в борьбе с ложью.

В конечном итоге эта инновация подчеркивает, насколько актуальной стала проблема дезинформации. В мире, где за внимание борются личные истины, зачастую оторванные от реальности, способность быстро и прозрачно проверять факты больше не является роскошью, это демократическая необходимость. Работа португальских студентов демонстрирует, что технология, если она разработана и применяется ответственно, может расширить возможности журналистов, защитить граждан и сделать общество еще на один шаг ближе к общей основе правды.