Манипулирование общественным сознанием с помощью искусственного интеллекта.

26 липня 2019, 11:25
Власник сторінки
0
Манипулирование общественным сознанием с помощью искусственного интеллекта.

Искусственный интеллект и алгоритмы обучения сделают практически невозможным отличить роботов от людей, а реальные новости от фальшивок.

Человечество продвигало область пропаганды с началы политических войн и борьбы за власть. Но сегодня пропаганда претерпевает значительные изменения, основанные на последних достижениях в области BigData и искусственного интеллекта.

За прошедшее десятилетие миллиарды долларов были вложены в технологии, которые все более точно настраивают рекламу, основываясь на предпочтениях людей. Теперь это делает прыжок в мир политики и манипулирования идеями.

Некоторые недавние военные эксперименты в вычислительной пропаганде указывают, куда это нас может привести. В 2008 году Государственный департамент США через свое агентство по иностранной помощи USAID создал поддельную социальную сеть на Кубе. Предполагается, что его сотрудники, занимающиеся вопросами общественного здравоохранения и гражданского общества, активно борются с вероятными диссидентами. Сайт был дополнен хэштегами, фиктивной рекламой и базой данных «политических тенденций» пользователей. Приблизительно за 1,6 млн. Долл. США (1 млн. Фунтов стерлингов) USAID в период между 2009 и 2012 годами смог контролировать основную информационную платформу на Кубе, способную влиять на распространение идей среди 40 000 уникальных профилей. Основываясь на этом проекте в 2011 году, USCENTCOM (Центральное командование США) - вооруженные силы США, ответственные за операции в более широком регионе Ближнего Востока, - заключили контракт с калифорнийской фирмой на создание «онлайн-службы управления персоной», в комплекте с поддельными онлайн-профилями, которые имеют убедительный опыт и истории. Программное обеспечение позволит американскому обслуживающему персоналу использовать до десяти отдельных ложных идентификаторов, базирующихся по всему миру, со своих рабочих станций, «не боясь быть обнаруженными искушенными противниками». Эти люди позволяют вооруженным силам привлекать, шпионить и манипулировать поведением и идеями людей.  Такие проекты представляют собой первую волну компьютерной пропаганды, но они ограничены по своим масштабам (и, в конечном счете, своей эффективности) простым фактом, что каждый профиль должен управляться реальным человеком с другой стороны. В 2015 году мы увидим появление более автоматизированной вычислительной пропаганды - роботов, использующих сложные структуры искусственного интеллекта, устраняя необходимость в том, чтобы люди управляли профилями. Алгоритмы будут не только читать новости, но и писать их.


Эти истории будут почти неотличимы от тех, что написаны людьми. Они будут алгоритмически адаптированы к каждому человеку и использованы для изменения своих политических убеждений или манипулирования своими действиями. Мексиканские наркокартели уже использовали пропагандистских ботов для нацеливания сообщений на отдельных представителей общественности, чтобы убедить их в том, что смерть журналиста в Лас-Чоапас не имеет ничего общего с наемными убийцами, нанятыми бандами. Этот тип пропаганды может быть произведен в почти безграничных масштабах с использованием примерно десяти миллионов ботов в социальных сетях. Такие боты в настоящее время доступны для аренды на онлайн-хакерских форумах по цене от 5 до 200 долларов за тысячу, в зависимости от того, насколько «человеческими» - и, следовательно, насколько эффективными - они выглядят.

Российская служба внешней разведки объявила о заключении контракта на 30 миллионов рублей (500 000 фунтов стерлингов) на «разработку специального программного обеспечения для автоматического распространения информации в крупных социальных сетях». В 2015 году мы также увидим первые результаты начальных полевых испытаний проекта IARPA США (Intelligent Advanced Research Projects Activity) по развертыванию пропагандистских ботов в Южной Америке в попытке повлиять на местное политическое мнение.

Пока еще рано - многие из ботов, развернутых в 2015 году, будут запрограммированы на использование относительно простых эвристических методов для имитации интеллекта. Но, благодаря быстрому прогрессу в области искусственного интеллекта, пропагандистские роботы скоро будут использовать генетические алгоритмы, которые позволяют развиваться их идеям и обмену сообщениями, основываясь на резонансе и эффективности предыдущих сообщений. Мы, вероятно, увидим версии этих ботов, развернутые в американской аудитории в рамках президентских избирательных кампаний 2016 года, а не только традиционно более технически подкованных демократов.

Эта технология использует тот простой факт, что мы гораздо более впечатлительны, чем мы думаем. Недавние эксперименты Facebook по изменению настроений пользователей показывают нам, что язык, на котором мы общаемся, подвержен манипуляциям на основе историй, которые алгоритм Facebook выбрал, чтобы показать нам. Кроме того, исследователи из Массачусетского технологического института показали, что заблуждение на раннем этапе может улучшить реакцию общественности на историю на 25 процентов; Один ранний провал может заставить воспринимать хорошую историю как некачественную журналистику. В 2020 году пропагандистские боты начнут использовать эти знания для влияния на новостные ленты - автоматизированные «друзья» будут любить, ретвитить и комментировать истории, которые соответствуют их пропагандистским целям.

Мы также можем использовать ботов, чтобы помочь нам определить, предпринимаются ли попытки пропаганды. Реакции на сбой рейса MH17 Malaysian Airlines над Украиной показывают, что российские и американские СМИ хотят, чтобы мировая аудитория смотрела на вещи по-разному. Мы можем использовать алгоритмы для мониторинга основных средств массовой информации за пределами России, сравнивать это с тем, что мы видим в американских изданиях, и отмечать существенные различия в языке. Мы также можем использовать ботов, чтобы отслеживать все миллионы правок, которые происходят ежедневно на таких сайтах, как Википедия, и выявлять попытки сменить язык с «террористов» на «украинских солдат», хотя он не скажет нам, какая версия верна. Для этого нам все еще нужны люди, чтобы взвесить доказательства.

 


Рубрика "Блоги читачів" є майданчиком вільної журналістики та не модерується редакцією. Користувачі самостійно завантажують свої матеріали на сайт. Редакція не поділяє позицію блогерів та не відповідає за достовірність викладених ними фактів.
РОЗДІЛ: Новости политики
ТЕГИ: Facebook,соцсети,боты
Якщо ви помітили помилку, виділіть необхідний текст і натисніть Ctrl + Enter, щоб повідомити про це редакцію.