Только осознав огромное влияние социальных сетей, мы сможем перестать быть «водилами» фейковых новостей и слепо следовать потребительским тенденциям.
Будучи профессором науки о данных в Массачусетском технологическом институте (MIT, США), автор Синан Арал посвятил много лет исследованию влияния ведущих социальных сетей, таких как Facebook, Twitter, TikTok, Instagram... Причину выбора названия «Машина манипуляции» для книги Синан Арал объяснил тем, что социальные сети подобны «информационному процессору, задача которого — регулировать и направлять поток информации в обществе, от одного человека к другому, между предприятиями, правительствами и международными организациями».
По его словам, «манипуляционная машина» — это не единое целое, а совокупность трех технологических инноваций: социальных сетей, машинного интеллекта и смартфонов.

В книге показано, как технологии ежедневно влияют на наш выбор и мысли.
ФОТО: НД
В частности, социальные сети выступают в качестве платформ, формирующих поток информации; машинный интеллект — это алгоритмы, которые анализируют данные и решают, кого рекомендовать в друзья и какую информацию предоставлять нам в ленте новостей; а смартфоны создают «постоянно доступную» среду, благодаря которой управляющая машина может непрерывно обновлять данные пользователей в режиме реального времени.
Привлекательность фейковых новостей
Мы живём в эпоху дезинформации, подпитываемой манипуляторами. Фейковые новости — прибыльная индустрия. Только в 2019 году сайты с фейковыми новостями в США заработали 200 миллионов долларов на рекламе — и это шесть лет назад.
Почему люди так легко поддаются фейковым новостям? В ходе исследования Синан Арал и его коллеги обнаружили, что: Ложная информация содержит больше элементов «новизны», чем настоящие новости. Именно новизна побуждает многих людей «делиться» фейковыми новостями, поскольку таким образом они чувствуют себя «инсайдерами», людьми, имеющими самый ранний доступ к «инсайдерской информации».
В мире распространение фейковых новостей превратилось в очень сложную систему, включающую систематические кампании с использованием серии «ботов» — фейковых аккаунтов для распространения фейковых новостей. Эти «боты» имеют фотографии профиля, статусы сообщений, которые выглядят как настоящие люди, и подделываются под наших друзей. Когда фейковых новостей становится достаточно много благодаря ботам-усилителям, наступает наша очередь ими поделиться, поскольку люди склонны поддаваться дезинформации, если постоянно сталкиваться с ней.
В книге также отмечается, что манипулятивная машина делает людей «гиперсоциализированными» и постепенно лишает их личной автономии в своем выборе.
Мы поддаёмся влиянию окружающих как никогда раньше. Например, мы можем игнорировать ресторан, который часто рекламируется в социальных сетях, но когда видим, как много друзей «заходят» туда пообедать, мы, скорее всего, захотим тоже туда сходить. Аналогично, когда мы видим, как друзья занимаются спортом , занимаются благотворительностью, что-то покупают…, мы также будем стремиться делать то же самое, чтобы «не отставать от друзей».
Автор называет это «эффектом сверстников»: люди склонны поддаваться влиянию поведения окружающих в социальных сетях. Компании используют этот эффект для продажи товаров, косвенно изменяя образ мышления и поведения потребителей.
Манипуляционная машина открыла новые возможности для цифрового маркетинга, позволив нам персонализированно манипулировать массами. Если раньше телевизионная реклама могла транслировать лишь одно сообщение миллионам людей одновременно, то теперь интернет и социальные сети позволяют компаниям взаимодействовать с потребителями на персонализированном уровне в широких масштабах. Каждое отправляемое нам сообщение персонализируется с учётом нашего ежедневного поведения в интернете и предпочтений.
Цифровой маркетинг — основа «экономики внимания», где побеждает тот, кто привлечёт наибольшее внимание. Просмотры, репосты и подписчики можно конвертировать в деньги. Именно так работает «маркетинг влияния».
Побег из «матрицы»
Как не попасть в «матричную» ловушку манипуляторной машины? Синан Арал считает, что технологические инновации всё ещё приносят человечеству определённую пользу, но сложность заключается в том, чтобы предотвратить их потенциальный вред.
Он предложил компаниям расширить возможности маркировки фейковых новостей, а правительству — разработать базовые правила контроля социальных сетей. Что касается пользователей, то необходимы программы обучения людей всех возрастов пониманию преимуществ и вреда социальных сетей, что позволит им лучше различать и выявлять ложную информацию.
Однако это всего лишь теория. Автор признаёт, что контролировать влияние социальных сетей не так просто, как мы думаем. Некоторые европейские страны приняли законы, ограничивающие доступ к данным, чтобы социальные сети не могли использовать данные пользователей для размещения рекламы, но эффективность рекламы резко снизилась, а компании стали продавать товары и услуги хуже, чем раньше. Поэтому снижение влияния манипулятивной машины остаётся нерешённой проблемой.
На протяжении всей книги каждый аргумент Синана Арала подкрепляется ссылками на конкретные данные и результаты исследований, что является одновременно и достоинством, и недостатком его стиля изложения. Появление пояснений к данным и таблицам для каждого аргумента непреднамеренно делает книгу неоправданно длинной.
Иногда автор тратит слишком много времени на доказательство того, что сейчас считается само собой разумеющимся. Например, тот факт, что объёмы рекламы и продаж резко возросли с появлением социальных сетей, — общеизвестный факт, не требующий подкрепления сложными статистическими графиками.
Тем не менее, информация, которую Синан Арал предоставляет в своей книге, по-прежнему очень полезна и помогает читателям получить общее представление о машине манипуляции, а также о том, как работает индустрия цифрового маркетинга и система распространения фейковых новостей, благодаря чему каждый человек может наметить подходящую стратегию адаптации в мире, который становится все более цифровым.

Источник: https://thanhnien.vn/sach-hay-mang-xa-hoi-da-am-tham-thao-tung-chung-ta-ra-sao-185251107212650963.htm






Комментарий (0)