Байесовская сеть: различия между версиями

Материал из WikiGrapp
Перейти к навигации Перейти к поиску
Нет описания правки
 
(не показана 1 промежуточная версия этого же участника)
Строка 29: Строка 29:
# <math>p</math> содержит ''инвертированное разветвление (коллайдер)'' <math>i</math> → <math>m</math> ← <math>j</math>, такое, что <math>m</math> не принадлежит <math>Z</math> и у вершины <math>m</math> нет потомков, которые принадлежат <math>Z</math>.
# <math>p</math> содержит ''инвертированное разветвление (коллайдер)'' <math>i</math> → <math>m</math> ← <math>j</math>, такое, что <math>m</math> не принадлежит <math>Z</math> и у вершины <math>m</math> нет потомков, которые принадлежат <math>Z</math>.
Пусть <math>X, Y, Z</math> — не пересекающиеся подмножества вершин в ацикличном ориентированном графе <math>G</math>. Говорят, что множество вершин <math>Z</math> d-разделяет <math>X</math> и <math>Y</math> тогда и только тогда, когда <math>Z</math> блокирует все пути из любой вершины, принадлежащей <math>X</math> в любую вершину, принадлежащую <math>Y</math>, и обозначают <math>(<X \perp\!\!\!\perp Y|Z>)_G</math>. Под путём понимается последовательность следующих друг за другом рёбер (любого направления) в графе.
Пусть <math>X, Y, Z</math> — не пересекающиеся подмножества вершин в ацикличном ориентированном графе <math>G</math>. Говорят, что множество вершин <math>Z</math> d-разделяет <math>X</math> и <math>Y</math> тогда и только тогда, когда <math>Z</math> блокирует все пути из любой вершины, принадлежащей <math>X</math> в любую вершину, принадлежащую <math>Y</math>, и обозначают <math>(<X \perp\!\!\!\perp Y|Z>)_G</math>. Под путём понимается последовательность следующих друг за другом рёбер (любого направления) в графе.
=== Теорема о d-разделённости ===
Для любых трёх не пересекающихся подмножеств вершин <math>(X, Y, Z)</math> в ацикличном ориентированном графе <math>G</math> и для всех вероятностных распределений <math>P</math> справедливо:
# если <math>(<X \perp\!\!\!\perp Y|Z>)_G</math>, то <math>(<X \perp\!\!\!\perp Y|Z>)_P</math>, если <math>G</math> и <math>P</math> марковски совместимы, и
# если отношение условной независимости <math>(<X \perp\!\!\!\perp Y|Z>)_P</math> выполняется для всех вероятностных распределений, Марковски-совместимых с <math>G</math>, то из этого следует <math>(<X \perp\!\!\!\perp Y|Z>)_G</math>.
Другими словами, если вершины d-разделены, то они условно независимы; и если вершины условно-независимы во всех вероятностных распределениях, совместимых с графом ''G'', то они d-разделены.
(<math>(<X \perp\!\!\!\perp Y|Z>)_P</math> означает, что множества переменных <math>X</math> и <math>Y</math> условно-независимы при заданном множестве <math>Z</math>.)
=== Вероятностные запросы ===
Байесовская сеть позволяет получить ответы на следующие типы вероятностных запросов
* нахождение вероятности свидетельства,
* определение априорных маргинальных вероятностей,
* определение апостериорных маргинальных вероятностей, включая:
: ''прогнозирование'', или ''прямой вывод'', — определение вероятности события при наблюдаемых причинах,
: ''диагностирование'', или ''обратный вывод'' (''абдукция''), — определение вероятности причины при наблюдаемых следствиях,
: ''межпричинный (смешанный) вывод'' или ''трансдукция'', — определение вероятности одной из причин наступившего события при условии наступления одной или нескольких других причин этого события.
* вычисление наиболее вероятного объяснения наблюдаемого события,
* вычисление апостериорного максимума.
==Литература==
* Jensen Finn V. Bayesian Networks and Decision Graphs. — Springer, 2001.
* Judea Pearl, Stuart Russell. Bayesian Networks. UCLA Cognitive Systems Laboratory, Technical Report (R-277), November 2000.
* Judea Pearl, Stuart Russell. Bayesian Networks, in M. A. Arbib (Ed.), Handbook of Brain Theory and Neural Networks, pp. 157—160, Cambridge, MA: MIT Press, 2003, ISBN 0-262-01197-2.
* Neil M, Fenton N, Tailor M, «Using Bayesian Networks to model Expected and Unexpected Operational Losses», Risk Analysis: An International Journal, Vol 25(4), 963—972, 2005. http://www.dcs.qmul.ac.uk/~norman/papers/oprisk.pdf
* Enrique Castillo, José Manuel Gutiérrez, and Ali S. Hadi. Expert Systems and Probabilistic Network Models. New York: Springer-Verlag, 1997. ISBN 0-387-94858-9
* Fenton NE and Neil M, «Combining evidence in risk analysis using Bayesian Networks». https://www.dcs.qmul.ac.uk/~norman/papers/Combining%20evidence%20in%20risk%20analysis%20using%20BNs.pdf
* Judea Pearl. Fusion, propagation, and structuring in belief networks. Artificial Intelligence 29(3):241—288, 1986.
* Pearl Judea. Probabilistic Reasoning in Intelligent Systems. — Morgan Kaufmann, 1988. — ISBN 0-934613-73-7.Judea Pearl. Causality. 2000.
* J.W. Comley and D.L. Dowe, «Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages», chapter 11 (pp265—294) in P. Grunwald, M.A. Pitt and I.J. Myung (eds)., Advances in Minimum Description Length: Theory and Applications, Cambridge, MA: MIT Press, April 2005, ISBN 0-262-07262-9. (This paper puts decision trees in internal nodes of Bayes networks using Minimum Message Length (MML). An earlier version is Comley and Dowe (2003), .pdf.)
* Christian Borgelt and Rudolf Kruse. Graphical Models — Methods for Data Analysis and Mining, Chichester, UK: Wiley, 2002, ISBN 0-470-84337-3
* Korb Kevin B. Bayesian Artificial Intelligence. — CRC Press, 2004. — ISBN 1-58488-387-1.
* Nevin Lianwen Zhang and David Poole, A simple approach to Bayesian network computations, Proceedings of the Tenth Biennial Canadian Artificial Intelligence Conference (AI-94), Banff, May 1994, 171—178. This paper presents variable elimination for belief networks.
* David Heckerman, A Tutorial on Learning with Bayesian Networks. In Learning in Graphical Models, M. Jordan, ed. MIT Press, Cambridge, MA, 1999. Also appears as Technical Report MSR-TR-95-06, Microsoft Research, March, 1995. An earlier version appears as Bayesian Networks for Data Mining, Data Mining and Knowledge Discovery, 1:79-119, 1997. The paper is about both parameter and structure learning in Bayesian networks.

Текущая версия от 01:03, 30 августа 2016

Байесовская сеть (или сеть Байеса, байесова сеть, байесовская сеть доверия, англ. Bayesian network, belief network) — графическая вероятностная модель, представляющая множество переменных и их вероятностных зависимостей посредством ациклического орграфа. Например, байесовская сеть может быть использована для вычисления вероятности того, чем болен пациент по наличию или отсутствию ряда симптомов, основываясь на данных о зависимости между симптомами и болезнями. Математический аппарат сетей Байеса создан американским учёным Джудой Перлом, лауреатом Премии Тьюринга (2011).

Формально, байесовская сеть — это ациклический орграф, каждой вершине которого соответствует случайная переменная, а дуги графа кодируют отношения условной независимости между этими переменными. Вершины могут представлять переменные любых типов, быть взвешенными параметрами, скрытыми переменными или гипотезами. Существуют эффективные методы, которые используются для вычислений и обучения байесовских сетей.

Если переменные байесовской сети являются дискретными случайными величинами, то такая сеть называется дискретной байесовской сетью. Байесовские сети, которые моделируют последовательности переменных, называют динамическими байесовскими сетями. Байесовские сети, в которых могут присутствовать как дискретные переменные, так и непрерывные, называются гибридными байесовскими сетями. Байесовская сеть, в которой дуги помимо отношений условной независимости кодируют также отношения причинности, называют причинно-следственными байесовскими сетями (англ. causal bayesian networks).


Определения

Если из вершины A выходит дуга в вершину B, то A называют родителем B, а B называют потомком A. Если из вершины A существует ориентированный путь в вершину B, то A называется предком B, а B называется потомком A. Множество вершин-родителей вершины Vi обозначим как parents(Vi) = PAi.

Направленный ациклический граф G называется байесовской сетью для вероятностного распределения P(v), заданного над множеством случайных переменных V, если каждой вершине графа поставлена в соответствие случайная переменная из V, а дуги в графе удовлетворяют условию (марковское условие): любая переменная Vi из V должна быть условно независима от всех вершин, не являющихся её потомками, если заданы (получили означивание, обусловлены) все её прямые родители PAi в графе G, то есть

ViV справедливо: P(vipai,s) = P(vipai),

где vi — значение Vi; s — конфигурация S; S — множество всех вершин, не являющихся потомками Vi; pai — конфигурация PAi.

Тогда полное совместное распределение значений в вершинах можно удобно записать в виде декомпозиции (произведения) локальных распределений:

[math]\displaystyle{ \mathrm P(V_1, \ldots, V_n) = \prod_{i=1}^n \mathrm P(V_i \mid \operatorname{parents}(V_i)). }[/math]

Если у вершины Vi нет предков, то её локальное распределение вероятностей называют безусловным, иначе условным. Если вершина — случайная переменная получила означивание (например, в результате наблюдения), то такое означивание называют свидетельством. Если значение переменной было установлено извне (а не наблюдалось), то такое означивание называется вмешательством или интервенцией.

Условная независимость в байесовской сети представлена графическим свойством d-разделённости.

d-разделённость

Путь [math]\displaystyle{ p }[/math] называют d-разделённым, или блокированным множеством вершин [math]\displaystyle{ Z }[/math] тогда и только тогда, когда

  1. [math]\displaystyle{ p }[/math] содержит цепь [math]\displaystyle{ i }[/math][math]\displaystyle{ m }[/math][math]\displaystyle{ j }[/math] или разветвление [math]\displaystyle{ i }[/math][math]\displaystyle{ m }[/math][math]\displaystyle{ j }[/math] такие, что [math]\displaystyle{ m }[/math] принадлежит [math]\displaystyle{ Z }[/math], или
  2. [math]\displaystyle{ p }[/math] содержит инвертированное разветвление (коллайдер) [math]\displaystyle{ i }[/math][math]\displaystyle{ m }[/math][math]\displaystyle{ j }[/math], такое, что [math]\displaystyle{ m }[/math] не принадлежит [math]\displaystyle{ Z }[/math] и у вершины [math]\displaystyle{ m }[/math] нет потомков, которые принадлежат [math]\displaystyle{ Z }[/math].

Пусть [math]\displaystyle{ X, Y, Z }[/math] — не пересекающиеся подмножества вершин в ацикличном ориентированном графе [math]\displaystyle{ G }[/math]. Говорят, что множество вершин [math]\displaystyle{ Z }[/math] d-разделяет [math]\displaystyle{ X }[/math] и [math]\displaystyle{ Y }[/math] тогда и только тогда, когда [math]\displaystyle{ Z }[/math] блокирует все пути из любой вершины, принадлежащей [math]\displaystyle{ X }[/math] в любую вершину, принадлежащую [math]\displaystyle{ Y }[/math], и обозначают [math]\displaystyle{ (\lt X \perp\!\!\!\perp Y|Z\gt )_G }[/math]. Под путём понимается последовательность следующих друг за другом рёбер (любого направления) в графе.

Теорема о d-разделённости

Для любых трёх не пересекающихся подмножеств вершин [math]\displaystyle{ (X, Y, Z) }[/math] в ацикличном ориентированном графе [math]\displaystyle{ G }[/math] и для всех вероятностных распределений [math]\displaystyle{ P }[/math] справедливо:

  1. если [math]\displaystyle{ (\lt X \perp\!\!\!\perp Y|Z\gt )_G }[/math], то [math]\displaystyle{ (\lt X \perp\!\!\!\perp Y|Z\gt )_P }[/math], если [math]\displaystyle{ G }[/math] и [math]\displaystyle{ P }[/math] марковски совместимы, и
  2. если отношение условной независимости [math]\displaystyle{ (\lt X \perp\!\!\!\perp Y|Z\gt )_P }[/math] выполняется для всех вероятностных распределений, Марковски-совместимых с [math]\displaystyle{ G }[/math], то из этого следует [math]\displaystyle{ (\lt X \perp\!\!\!\perp Y|Z\gt )_G }[/math].

Другими словами, если вершины d-разделены, то они условно независимы; и если вершины условно-независимы во всех вероятностных распределениях, совместимых с графом G, то они d-разделены.

([math]\displaystyle{ (\lt X \perp\!\!\!\perp Y|Z\gt )_P }[/math] означает, что множества переменных [math]\displaystyle{ X }[/math] и [math]\displaystyle{ Y }[/math] условно-независимы при заданном множестве [math]\displaystyle{ Z }[/math].)

Вероятностные запросы

Байесовская сеть позволяет получить ответы на следующие типы вероятностных запросов

  • нахождение вероятности свидетельства,
  • определение априорных маргинальных вероятностей,
  • определение апостериорных маргинальных вероятностей, включая:
прогнозирование, или прямой вывод, — определение вероятности события при наблюдаемых причинах,
диагностирование, или обратный вывод (абдукция), — определение вероятности причины при наблюдаемых следствиях,
межпричинный (смешанный) вывод или трансдукция, — определение вероятности одной из причин наступившего события при условии наступления одной или нескольких других причин этого события.
  • вычисление наиболее вероятного объяснения наблюдаемого события,
  • вычисление апостериорного максимума.

Литература

  • Jensen Finn V. Bayesian Networks and Decision Graphs. — Springer, 2001.
  • Judea Pearl, Stuart Russell. Bayesian Networks. UCLA Cognitive Systems Laboratory, Technical Report (R-277), November 2000.
  • Judea Pearl, Stuart Russell. Bayesian Networks, in M. A. Arbib (Ed.), Handbook of Brain Theory and Neural Networks, pp. 157—160, Cambridge, MA: MIT Press, 2003, ISBN 0-262-01197-2.
  • Neil M, Fenton N, Tailor M, «Using Bayesian Networks to model Expected and Unexpected Operational Losses», Risk Analysis: An International Journal, Vol 25(4), 963—972, 2005. http://www.dcs.qmul.ac.uk/~norman/papers/oprisk.pdf
  • Enrique Castillo, José Manuel Gutiérrez, and Ali S. Hadi. Expert Systems and Probabilistic Network Models. New York: Springer-Verlag, 1997. ISBN 0-387-94858-9
  • Fenton NE and Neil M, «Combining evidence in risk analysis using Bayesian Networks». https://www.dcs.qmul.ac.uk/~norman/papers/Combining%20evidence%20in%20risk%20analysis%20using%20BNs.pdf
  • Judea Pearl. Fusion, propagation, and structuring in belief networks. Artificial Intelligence 29(3):241—288, 1986.
  • Pearl Judea. Probabilistic Reasoning in Intelligent Systems. — Morgan Kaufmann, 1988. — ISBN 0-934613-73-7.Judea Pearl. Causality. 2000.
  • J.W. Comley and D.L. Dowe, «Minimum Message Length, MDL and Generalised Bayesian Networks with Asymmetric Languages», chapter 11 (pp265—294) in P. Grunwald, M.A. Pitt and I.J. Myung (eds)., Advances in Minimum Description Length: Theory and Applications, Cambridge, MA: MIT Press, April 2005, ISBN 0-262-07262-9. (This paper puts decision trees in internal nodes of Bayes networks using Minimum Message Length (MML). An earlier version is Comley and Dowe (2003), .pdf.)
  • Christian Borgelt and Rudolf Kruse. Graphical Models — Methods for Data Analysis and Mining, Chichester, UK: Wiley, 2002, ISBN 0-470-84337-3
  • Korb Kevin B. Bayesian Artificial Intelligence. — CRC Press, 2004. — ISBN 1-58488-387-1.
  • Nevin Lianwen Zhang and David Poole, A simple approach to Bayesian network computations, Proceedings of the Tenth Biennial Canadian Artificial Intelligence Conference (AI-94), Banff, May 1994, 171—178. This paper presents variable elimination for belief networks.
  • David Heckerman, A Tutorial on Learning with Bayesian Networks. In Learning in Graphical Models, M. Jordan, ed. MIT Press, Cambridge, MA, 1999. Also appears as Technical Report MSR-TR-95-06, Microsoft Research, March, 1995. An earlier version appears as Bayesian Networks for Data Mining, Data Mining and Knowledge Discovery, 1:79-119, 1997. The paper is about both parameter and structure learning in Bayesian networks.