banner banner banner

Как Facebook, Twitter и Youtube борются со злокачественным контентом

Как Facebook, Twitter и Youtube борются со злокачественным контентом
kyiveuromarathon

The Wall Street Journal

Американская деловая газета

Оригинал на сайте The Wall Street Journal

Кто же знал, что ситуация может стать настолько тяжелой? За последние две недели Facebook обнаружил новые фейковые страницы, которыми могут пользоваться агенты России. Президент США обвинил Twitter в умышленном сокращении видимости консервативных политиков. Apple, Facebook, Youtube и Pinterest почти одновременно удалили учетные записи правого радикала Алекса Джонса и его медиаимперии Infowars. Это вызвало дискуссии на тему того, могут ли технологические гиганты устанавливать границы свободы слова.

Новости по теме

Так или иначе, все эти события касаются решений, сделанных людьми, но выполненных алгоритмами. Сегодня существует много инструментов на основе искусственного интеллекта, с помощью которых можно выявить дезинформацию, ботов, фальшивые учетные записи, злокачественные кампании влияния, цель которых исказить то, что мы слышим и видим. Проблема лишь в том, что до сих пор нет консенсуса относительно того, как их использовать.

Технологические гиганты уже говорят о том, как некоторые из этих инструментов стоит применять. Facebook использует искусственный интеллект для выявления злокачественного контента: от языка ненависти до риторики, которая может свидетельствовать о риске совершения самоубийства.

Twitter применяет эту технологию для выявления тех, кто склонен к домогательствам. А Youtube с помощью искусственного интеллекта борется с распространением видео террористов на своей платформе. Несмотря на все эти усилия, исследователи и политики думают над тем, как повысить ответственность людей, которые руководят этими компаниями. В лучшем случае технологические гиганты пойдут на сотрудничество в разработке прозрачных инструментов.

Новости по теме

Проблемы распространения языка ненависти, призывов к насилию, государственной пропаганды и дезинформации на самом деле связаны между собой. Поэтому для их решения можно использовать одни и те же инструменты. Взять для примера связь между страницами террористов и кампаниями по распространению дезинформации. И одно, и другое можно выявить одними и теми же методами, уверяет эксперт Государственного университета Аризоны Хамирдреза Алвари.

Обычно попытки обнаружить страницы зловещих авторов в социальных сетях опираются на лексические фильтры. Но террористы и пропагандисты научились их обманывать. Алвари разработал алгоритм, который ищет определенные страницы, контент которых распространяется на платформе нетипично быстро. Поскольку это и является целью как пропагандистов, так и террористов, его метод может помочь очистить соцсети от контента и одних, и других. Но людям все равно нужно принимать окончательное решение, чтобы избежать ошибок.

Перевод ИноСМИ

Редакция может не соглашаться с мнением автора. Если вы хотите написать в рубрику "Мнение", ознакомьтесь с правилами публикаций и пишите на blog@112.ua.

видео по теме

Новости партнеров

Loading...

Виджет партнеров

d="M296.296,512H200.36V256h-64v-88.225l64-0.029l-0.104-51.976C200.256,43.794,219.773,0,304.556,0h70.588v88.242h-44.115 c-33.016,0-34.604,12.328-34.604,35.342l-0.131,44.162h79.346l-9.354,88.225L296.36,256L296.296,512z"/>