Фейсбук в прямом эфире резня, и не поймать его. Зачем?


И это несмотря на то, что за последние два года Facebook неоднократно заявлял о своем найме тысяч модераторов контента и своих инвестициях в искусственный интеллект для модерации контента.

Если системы искусственного интеллекта, созданные одной из самых богатых компаний в мире, не могут определить и принять меры по видео, содержащему оружие, многократные выстрелы и убийства, что они могут идентифицировать?

Ну, брокколи, с одной стороны.

Майк Шропфер, технический директор Facebook, хвастался в недавнем интервью журналу Fortune насколько хороши искусственные системы Facebook в выявлении различий между изображениями брокколи и изображениями марихуаны.

В одном примере Шропфер показал, как системы могут определять с точностью до 90%, какое изображение показало, что оно содержит брокколи, а какое — марихуану.

Это была иллюстрация того, как Facebook, возможно, может расправиться с попытками продажи наркотиков на платформе.

Но в масштабе Facebook, с миллиардами постов, ошибаться в 10% случаев недостаточно, — сказал в пятницу CNN Business Хани Фарид, профессор Дартмута и эксперт по цифровой криминалистике и анализу изображений.

«20% работы состоит в том, чтобы добиться точности до 90%», — сказал он, добавив, что 80% работы достигается с точностью до 99,9%.

«Мы даже не близки, — сказал он об искусственном интеллекте, — нам еще далеко до того, чтобы мы могли делать сложные, нюансы, которые люди делают очень хорошо».

Машины, сказал Фарид, «могут даже не рассказывают о разнице между брокколи и марихуаной, не говоря уже о том, есть ли видео о фильме, видеоигре, или документировании военных преступлений, или сумасшедший, убивающий людей в мечети ".

В ноябре в Facebook опубликовал отчет о том, как он контролировал свою платформу. Пытаясь показать, что он активно занимался поиском постов, которые нарушали его условия обслуживания, он сказал, что в период с июля по сентябрь прошлого года он обнаружил 99,5% «террористической пропаганды», прежде чем пользователи сообщили об этих постах компании и 96,8% «насилия и графического контента».

Охрана платформы с миллиардами людей, которые свободно и открыто делятся своими мыслями, видео и фотографиями, — нелегкая задача. Но это платформа, созданная Facebook.

Facebook ясно дал понять, что намерен вкладывать средства как в людей-модераторов, так и в искусственный интеллект, и в своих последних отчетах о своих результатах он предположил, что добивается прогресса. Но это разрушительное видео о массовых убийствах все-таки удалось проскользнуть сквозь трещины.

В пятницу CNN Business спросила Facebook, может ли он дать некоторое представление о своих системах искусственного интеллекта, которые должны были или могли бы обнаружить такое видео. Компания не сразу ответила.

«Полиция Новой Зеландии предупредила нас о видео на Facebook вскоре после того, как началась прямая трансляция, и мы быстро удалили аккаунты стрелка в Facebook и Instagram, а также видео», — заявила Миа Гарлик из Facebook New Zealand.

CNN Business также спросила Facebook, проходило ли видео какую-либо часть процесса модерации контента, прежде чем полиция оповестила Facebook об этом видео. Facebook не сразу отреагировал.

После того, как Марк Цукерберг запустил потоковое видео в реальном времени на своей платформе, он сказал BuzzFeed News в 2016 году: «Мы создали эту большую технологическую платформу, чтобы мы могли поддерживать и поддерживать любые самые личные и эмоциональные, грубые и интуитивные способы, которыми люди хотят общаться, со временем. "

.

Жми «Нравится» и получай только лучшие посты в Facebook ↓

Фейсбук в прямом эфире резня, и не поймать его. Зачем?