<<
>>

Информационное противоборство.

Предположим, что часть агентов — назовем их активными — имеет возможность осуще- ствлять манипулирование, выбирая из заданного множества на каждом (или в более общем случае — заранее оговоренном) шаге значения сообщаемых другим агентам своих мнений, естественно, учитывая не только влияния этих сообщений на итоговые мнения, но и принимая во внимание влияние этих сообщений на репута- цию.
Предпочтения активных агентов определены на множестве последовательностей итоговых мнений социальной сети по рассма- триваемым вопросам. Требуется найти решение игры активных агентов — множества их равновесных (в том или ином смысле) действий. Используемая концепция равновесия определяется как содержательными соображениями, так и последовательностью и объемом получаемой агентами информации — можно рассматри- вать повторяющиеся, в развернутой форме, кооперативные и дру- гие игры на социальных сетях. В рамках предложенной модели социальной сети задача инфор- мационного противоборства, фактически, сводится к задаче се- тевой динамической активной экспертизы с репутацией, что представляется перспективным обобщением классической задачи теории коллективного выбора. В рамках динамической активной экспертизы с репутацией возникает ключевой для теории коллек- тивного выбора вопрос о манипулируемости (strategy-proofness) результатов экспертизы — в каких случаях (при каких процедурах принятия решений, т. е. при каких процессах информационного влияния агентов друг на друга) агентам невыгодно манипулирова- ние информацией, а выгодно сообщение достоверной информации о своих мнениях? Этот вопрос ждет своего ответа. Пример 3.23. Рассмотрим пример взаимодействия трех аген- тов (п = 3) в течение двух периодов (Т = 2). Начальные мнения агентов: х\ = 1, х\ = 2, х\ = 3, х\ = 4, х\ =5, х\ = 6, х\mm = 0,5, г = 1,2,3, т = 1,2, начальные репутации агентов одинаковы и равны единице (г{ = 1, r\ = 1, r\ = 1), репутация меняется в соответствии с законом (9), в котором у = 1/2, /3 = 1. Сначала найдем результирующие мнения и репутации в отсут- ствии манипулирования (когда все агенты сообщают достоверную информацию). Суммарная репутация в первом периоде В} = 3. В соответствии с выражением (3) вычисляем X1 = 2. В соот- ветствии с выражение (9) находим репутации агентов во втором периоде: г“1 = 2/3, г| = 2, г| = 2/3. Опять же в соответствии с выражением (3) вычисляем итоговое мнение агентов в конце вто- рого периода: X2 = 5. Предположим теперь, что первый агент осуществляет манипу- лирование с целью максимально приблизить результирующее мне- ние во втором периоде к своему мнению, т. е. **2 = х\ (содержа- тельная интерпретация такой целевой функции такая же, как и в моделях активной экспертизы [76]). Для этого он должен выбрать два числа: ^ ж™ш = 0,5, минимизирующие (см. выражение (11)), следующую целевую функцию: Решение этой задачи: й} = 2,5, = 2,5 (репутации агентов во втором периоде равны: г\ = 2, = 1, г| = 1). При этом целевая функция (14) принимает значение 0, т.е. цель управления полно- стью достижима при заданных ограничениях (X2 = 4 = 4 = X/).
Отметим, что в рассмотренном примере эвристический алгоритм дает оптимальное решение. Предположим теперь, что первый агент осуществляет мани- пулирование с целью максимально приблизить результирующее мнение в первом периоде к своему мнению, Т.е. X* = х\, а вто- рой агент осуществляет манипулирование с целью максимально приблизить результирующее мнение к своему мнению во втором при заданных ограничениях на мнения. Очевидно, что незави- симо от действий второго игрока минимум достигается при = = 0,5. Второй игрок в первом периоде выбирает для максимиза- ции своей репутации. Для этого ему необходимо минимизировать свою целевую функцию (при заданных ограничениях на мнения): при заданных ограничениях на мнения. Откуда = 5 при полном достижении цели вторым агентом. • Аналогично можно рассматривать и другие игры с фиксиро- ванной последовательностью ходов. Рефлексия агентов. Выше мы предполагали, что такие параме- тры социальной сети, как начальные мнения каждого из агентов по каждому из вопросов, репутации агентов, законы формирова- ния результирующего мнения и динамики репутации являются общим знанием среди агентов. Однако на практике это не все- гда так, например, в больших социальных сетях агенты могут не знать всего множества членов сети, представления агентов о мне- ниях и/или репутации друг друга могут быть неполными и/или различающимися. Для адекватного отражения подобных ситу- аций целесообразно рассматривать неопределенность (неполную информированность) и/или нетривиальную взаимную информи- рованность агентов. Неопределенность в задачах информацион- ного управления в социальных сетях может вводиться по анало- гии с тем, как это делается в других моделях принятия решений и теоретико-игровых моделях (см., например, [80]). Поэтому рас- смотрим кратко аспекты рефлексии агентов. Наряду с информационной рефлексией, основанной на асимме- тричной информированности агентов, интерес представляет более традиционная для теоретико-игровых моделей стратегическая рефлексия — процесс и результат размышления агентов о том, какое действие выберут оппоненты. Однако здесь необходимо сде- лать важное замечание: в рамках данной модели агенты не явля- ются активными участниками ситуации, поскольку не выбирают свое действие и не имеют собственных предпочтений. Они лишь пассивно (или «доверчиво») формируют свое мнение на основе мне- ний других. Исключение представляет манипулирующий агент — он как раз является игроком, т. е. стремится достичь определенной цели и выбирает наиболее оптимальное действие для ее достиже- ния. Иными словами, «обычные» агенты и игрок-«манипулятор» — это два принципиально разных объекта моделирования. Их раз- личие незаметно в простых случаях (см. предыдущий пример), но в более сложных (например, когда несколько манипулирую- щих агентов осуществляют информационное противоборство) оно весьма существенно. Повторим: это различие между агентом, ме- няющим свое мнение в зависимости от мнений других, и игро- ком, который формирует мнение других (не меняя при этом сво- его), преследуя определенные цели. То есть узлы сети рассматри- ваются как агенты, которые управляются «более интеллектуаль- ными» игроками (в частном случае игрок может являться агентом или их группой). Как нам представляется, возможны два подхода к моделирова- нию игроков. Первый состоит в том, что игроки сами не являются элементами социальной сети (агентами), а лишь воздействуют на нее тем или иным способом (см. реализацию данного подхода в §3.3 и 3.6). Второй подход состоит в рассмотрении игроков как агентов (элементов социальной сети), для которых репутация дру- гих агентов не имеет значения и которые не меняют своего мне- ния. Проработка данных подходов, однако, выходит за рамки дан- ной работы. В качестве иллюстративного примера рассмотрим следующую модель принятия произвольным агентом из множества N реше- ний (случай стратегической рефлексии [80]) о сообщаемом другим агентам своем мнении[25]: пусть он заинтересован в том, чтобы результирующее мнение совпадало с сообщенным им мнением[26]. Содержательно, при этом его «вес» (репутация) в глазах оппонентов будет высок — все сообщество «соглашается с ним». Если рефлексия отсутствует, то из (3) следует, что г-й агент сообщит мнение (см. также выражение (12)): (15) где Х-г = (х\, Х2, ■ ■., Х{-1, Жг+1,..хп), г Е IV. Содержательно вы- ражение (15) означает, что при рассматриваемом принципе приня- тия решений агент не обращает внимания на свое мнение и сооб- щает «среднее» (взвешенное с учетом репутаций) мнение осталь- ных агентов. Вектор (15) можно условно назвать «рефлексивным равновесием» (первого ранга; см. ниже). Возникает вопрос: какие предположения о принципах приня- тия решений оппонентами использует агент? Если предположить, что каждый агент использует принцип принятия решений типа (15), то единственным «равновесием» будет сообщение всеми аген- тами одного и того же мнения, причем, например, в случае одина- ковых репутаций агентов равновесием Нэша это «равновесие» бу- дет только при условии, что и истинные мнения всех агентов оди- наковы. Поэтому добавим фактор стратегической рефлексии, т. е. будем считать, что, выбирая свое сообщение в соответствии с выраже- нием (15), г-й агент полагает, что все остальные агенты честно сообщат свои истинные мнения (это предположение в рамках при- веденного выше обсуждения различий между «агентами» и «игро- ками» означает, что в рассматриваемом случае все агенты явля- ются «не очень интеллектуальными» [27] игроками). Если все аген- ты ведут себя так же, то сложится следующее итоговое мнение: (16) В случае двух агентов выражение (16) примет вид т. е. осуществляя стратегическую рефлексию, агенты «обменива- ются» своими репутациями и сообщают не свое мнение, а мнение оппонента.

Условием стабильности [102] рефлексивного равновесия (15) можно считать условие совпадения результирующих мнений, опре- деляемых выражениями (3) и (16): Перейдем теперь к краткому качественному обсуждению слу- чая информационной рефлексии, которая в соответствии с [80] предшествует стратегической. Введем обозначения: У — мно- жество всевозможных конечных последовательностей индексов из IV, Гго- — представления г-го агента о репутации ст-агента [80], г € IV, а Е У. Например, — представления г-го агента о ре- путации ^-го, Гцк — представления г-го агента о представлениях j-тo агента о репутации к-то агента и т. д. (в случае общего зна- ния гц = rj, г, у € IV). К такой конструкции применйм аппарат теории рефлексивных игр [80], с помощью которого можно искать информационные равновесия, исследовать их стабильность и т. д., что представляется актуальной задачей будущих исследований. В заключение настоящего параграфа отметим, что информаци- онные воздействия, направленные на формирование той или иной структуры информированности агентов в социальной сети о ре- путациях друг друга, также являются разновидностью информа- ционного управления. Исследование этого вида информационного управления, наряду с изучением такого его вида как манипулиро- вание агентами информацией (см. выше), также представляется перспективным направлением будущих исследований. Пример 3.24. Рассмотрим пример стратегической рефлексии при взаимодействии трех агентов (п = 3). Начальные мнения агентов: х\ = 1, = 2, ж® = 3, репутации агентов одинаковы и равны единице. Если бы все агенты честно сообщали свои мнения, то сложилось бы результирующее мнение X = 2. В соответствии с выражением (15) находим: При таких сообщениях результирующее мнение X = 2, т. е. условие (17) выполнено. Примером невыполнения условия (17) является ситуация, ко- гда мнение третьего агента жз = 4. Тогда Рассмотрим пример информационной рефлексии при взаимо- действии двух агентов (п = 2). Начальные мнения агентов: х\ = = 1, х\ = 2, репутации агентов: п =2, Г2 = 1. Если бы все агенты честно сообщали свои мнения, то сложилось бы результи- рующее мнение X = 4/3. При стратегической рефлексии резуль- тат будет 5/3. Предположим, что имеет место следующая структура информи- рованности: 1 —> 2 О 21, т. е. второй агент имеет свои представле- ния г21 = 3 о репутации первого агента и считает, что это является общим знанием. Первый агент об этом полностью информирован. Найдем информационное равновесие: второй агент в соответствии С выражением (15) выберет й|(г21, Г2, Ж]1) = ЖI (отметим, что в слу- чае двух агентов этот выбор не зависит от представлений второго агента о репутации первого), рассчитывая на такое же сообщение первого агента; первый же агент выберет свой наилучший ответ ,8*Г1 + х\г2 * * о тт а. ■ю из условия --------------- = йТ, т.е. зТ = ж У. Информационное П + г2 равновесие (х^х®) стабильно, но является ложным равновесием, так как приводит к итоговому мнению 2/3, отличающемуся от ито- гового мнения X = 4/3 в условиях полного знания. • Перспективным направлением дальнейших исследований представляется, во-первых, рассмотрение обобщений описанных выше моделей за счет ослабления вводимых предположений, в первую очередь — допущение неполной и асимметричной инфор- мированности агентов. Во-вторых, представляется целесообраз- ной разработка теоретико-игровых моделей информационного уп- равления и информационного противоборства, учитывающих не- определенность, рефлексию агентов и возможность образования их коалиций. 3.5.

<< | >>
Источник: Д.А. Губанов, Д.А. Новиков, А.Г. Чхартишвили. СОЦИАЛЬНЫЕ СЕТИ: МОДЕЛИ ИНФОРМАЦИОННОГО ВЛИЯНИЯ, УПРАВЛЕНИЯ И ПРОТИВОБОРСТВА. 2010

Еще по теме Информационное противоборство.:

  1. Д.А. Губанов, Д.А. Новиков, А.Г. Чхартишвили. СОЦИАЛЬНЫЕ СЕТИ: МОДЕЛИ ИНФОРМАЦИОННОГО ВЛИЯНИЯ, УПРАВЛЕНИЯ И ПРОТИВОБОРСТВА, 2010
  2. 4.3.1. Информационные правоотношения, возникающие при осуществлении поиска, получения и потребления информации, информационных ресурсов, информационных продуктов, информационных услуг
  3. 4.3.2. Информационные правоотношения, возникающие при производстве, передаче и распространении информации, информационных ресурсов, информационных продуктов, информационных услуг
  4. 11.2.2. Области создания и распространения исходных документов, формирования информационных ресурсов и предоставления информационных продуктов и информационных услуг в Интернет
  5. 2.2.3. Область формирования информационных ресурсов, подготовки информационных продуктов, предоставления информационных услуг
  6. Психологическая борьба в противоборстве.
  7. Журналистика в политической борьбе противоборствующих сторон
  8. 3.8.4. Информационное право как система норм, регулирующих отношения в информационной сфере
  9. ГЛАВА 4 ИНФОРМАЦИОННО-ПРАВОВЫЕ НОРМЫ И ИНФОРМАЦИОННЫЕ ПРАВООТНОШЕНИЯ
  10. 10.1. Правовая основа защиты объектов информационных правоотношений от угроз в информационной сфере
  11. 9.3. Государственная политика в области создания информационных систем, информационных технологий и средств их обеспечения
  12. 9.1. Правовой режим информационных систем, информационных технологий и средств их обеспечения
  13. 4.3.4. Информационные правоотношения, возникающие при создании и применении средств и механизмов информационной безопасности