Proste wyjaśnienie twierdzenia Bayesa. Wzór na całkowite prawdopodobieństwo

Wyprowadzając wzór na prawdopodobieństwo całkowite założono, że zdarzenie A, którego prawdopodobieństwo należało określić, mogło przydarzyć się jednemu ze zdarzeń N 1 , N 2 , ... , N n, tworząc pełną grupę zdarzeń niezgodnych parami. Co więcej, prawdopodobieństwa tych zdarzeń (hipotezy) były znane z góry. Załóżmy, że został przeprowadzony eksperyment, w wyniku którego doszło do zdarzenia A dotarło. Te dodatkowe informacje pozwalają nam na ponowną ocenę prawdopodobieństwa hipotez. N ja, obliczywszy P(H i/A).

lub, korzystając ze wzoru na prawdopodobieństwo całkowite, otrzymujemy

Wzór ten nazywany jest wzorem Bayesa lub twierdzeniem o hipotezie. Wzór Bayesa pozwala „zrewidować” prawdopodobieństwa hipotez po poznaniu wyniku eksperymentu, w wyniku którego doszło do zdarzenia A.

Prawdopodobieństwa Р(Н i)− są to prawdopodobieństwa aprioryczne hipotez (obliczane przed eksperymentem). Prawdopodobieństwa P(H i /A)− są to prawdopodobieństwa późniejsze hipotez (obliczane po eksperymencie). Wzór Bayesa pozwala obliczyć prawdopodobieństwa późniejsze na podstawie prawdopodobieństw wcześniejszych oraz prawdopodobieństw warunkowych zdarzenia A.

Przykład. Wiadomo, że 5% wszystkich mężczyzn i 0,25% wszystkich kobiet cierpi na daltonizm. Losowo wybrana osoba na podstawie numeru karty medycznej cierpi na ślepotę barw. Jakie jest prawdopodobieństwo, że to mężczyzna?

Rozwiązanie. Wydarzenie A– dana osoba cierpi na ślepotę barw. Przestrzeń zdarzeń elementarnych do eksperymentu – osoba wybierana jest po numerze karty medycznej – Ω = ( N 1 , N 2 ) składa się z 2 zdarzeń:

N 1 - wybrany jest mężczyzna,

N 2 – wybrana jest kobieta.

Zdarzenia te można wybrać jako hipotezy.

Zgodnie z warunkami zadania (wybór losowy) prawdopodobieństwa tych zdarzeń są takie same i równe P(rzecz 1 ) = 0.5; P(rzecz 2 ) = 0.5.

W tym przypadku warunkowe prawdopodobieństwo, że dana osoba cierpi na ślepotę barw, jest odpowiednio równe:

BIEGŁ 1 ) = 0.05 = 1/20; BIEGŁ 2 ) = 0.0025 = 1/400.

Ponieważ wiadomo, że wybrana osoba jest daltonistką, czyli zdarzenie miało miejsce, stosujemy wzór Bayesa do ponownej oceny pierwszej hipotezy:

Przykład. Istnieją trzy identycznie wyglądające pudełka. Pierwsze pudełko zawiera 20 białych kul, drugie pudełko zawiera 10 białych i 10 czarnych kul, a trzecie pudełko zawiera 20 czarnych kul. Z losowo wybranego pudełka losujemy kulę białą. Oblicz prawdopodobieństwo, że kula zostanie wylosowana z pierwszego pudełka.

Rozwiązanie. Oznaczmy przez A wydarzenie - pojawienie się białej kuli. Można przyjąć trzy założenia (hipotezy) dotyczące wyboru pudełka: N 1 ,N 2 , N 3 – wybór odpowiednio pierwszego, drugiego i trzeciego pola.

Ponieważ wybór któregokolwiek z pudełek jest równie możliwy, prawdopodobieństwa hipotez są takie same:

P(rzecz 1 )=P(R 2 )=P(R 3 )= 1/3.

Zgodnie z zadaniem prawdopodobieństwo wylosowania kuli białej z pierwszego pudełka wynosi

Prawdopodobieństwo wylosowania białej kuli z drugiego pudełka



Prawdopodobieństwo wylosowania białej kuli z trzeciego pudełka

Pożądane prawdopodobieństwo znajdujemy za pomocą wzoru Bayesa:

Powtórzenie testów. Wzór Bernoulliego.

Przeprowadza się N prób, w każdej z nich zdarzenie A może wystąpić lub nie, a prawdopodobieństwo zdarzenia A w każdej indywidualnej próbie jest stałe, tj. nie zmienia się z doświadczenia na doświadczenie. Wiemy już, jak znaleźć prawdopodobieństwo zdarzenia A w jednym eksperymencie.

Szczególnie interesujące jest prawdopodobieństwo wystąpienia określonej liczby razy (m razy) zdarzenia A w n eksperymentach. Takie problemy można łatwo rozwiązać, jeśli testy są niezależne.

def. Nazywa się kilka testów niezależny względem zdarzenia A , jeśli prawdopodobieństwo zdarzenia A w każdym z nich nie zależy od wyników innych eksperymentów.

Prawdopodobieństwo P n (m) wystąpienia zdarzenia A dokładnie m razy (niewystąpienie n-m razy, zdarzenie ) w tych n próbach. Zdarzenie A pojawia się m razy w bardzo różnych sekwencjach).

- Wzór Bernoulliego.

Następujące formuły są oczywiste:

Р n (m mniej k razy w n próbach.

P n (m>k) = P n (k+1) + P n (k+2) +…+ P n (n) - prawdopodobieństwo wystąpienia zdarzenia A więcej k razy w n próbach.

Zacznijmy od przykładu. W urnie przed tobą, równie prawdopodobne mogą być (1) dwie kule białe, (2) jedna biała i jedna czarna, (3) dwie czarne. Przeciągasz piłkę i okazuje się, że jest biała. Jak byś to teraz ocenił? prawdopodobieństwo te trzy opcje (hipotezy)? Oczywiście prawdopodobieństwo hipotezy (3) przy dwóch czarnych kulach = 0. Ale jak obliczyć prawdopodobieństwa dwóch pozostałych hipotez!? Można to zrobić za pomocą wzoru Bayesa, który w naszym przypadku ma postać (numer wzoru odpowiada numerowi testowanej hipotezy):

Pobierz notatkę w formacie lub

X– zmienna losowa (hipoteza) przyjmująca następujące wartości: x 1- dwa białe, x 2– jeden biały, jeden czarny; x 3– dwa czarne; Na– zmienna losowa (zdarzenie) przyjmująca wartości: o 1– wyciąga się białą kulę i o 2– wyciągana jest czarna kula; P(x 1)– prawdopodobieństwo pierwszej hipotezy przed wylosowaniem kuli ( apriorycznie prawdopodobieństwo lub prawdopodobieństwo zanim doświadczenie) = 1/3; P(x 2)– prawdopodobieństwo drugiej hipotezy przed wylosowaniem kuli = 1/3; P(x 3)– prawdopodobieństwo trzeciej hipotezy przed wylosowaniem kuli = 1/3; P(y 1|x1)– prawdopodobieństwo warunkowe wylosowania kuli białej, jeśli pierwsza hipoteza jest prawdziwa (kule są białe) = 1; P(y 1|x2) prawdopodobieństwo wylosowania kuli białej, jeśli druga hipoteza jest prawdziwa (jedna kula jest biała, druga czarna) = ½; P(y 1|x 3) prawdopodobieństwo wylosowania białej kuli, jeśli trzecia hipoteza jest prawdziwa (obie czarne) = 0; P(y 1)– prawdopodobieństwo wylosowania kuli białej = ½; R(y2)– prawdopodobieństwo wylosowania czarnej kuli = ½; i wreszcie to, czego szukamy - P(x 1|tak 1) prawdopodobieństwo, że pierwsza hipoteza jest prawdziwa (obie kule są białe), przy założeniu, że wylosowaliśmy kulę białą ( a posteriori prawdopodobieństwo lub prawdopodobieństwo Po doświadczenie); P(x 2|tak 1) prawdopodobieństwo, że druga hipoteza jest prawdziwa (jedna kula jest biała, druga czarna), pod warunkiem, że wylosowaliśmy kulę białą.

Prawdopodobieństwo, że pierwsza hipoteza (dwie białe) jest prawdziwa, przy założeniu, że wylosowaliśmy białą kulę:

Prawdopodobieństwo, że druga hipoteza jest prawdziwa (jedna jest biała, druga czarna), pod warunkiem, że wylosowaliśmy kulę białą:

Prawdopodobieństwo, że trzecia hipoteza jest prawdziwa (dwie czarne), przy założeniu, że wylosowaliśmy białą kulę:

Do czego służy wzór Bayesa? Umożliwia to, w oparciu o aprioryczne prawdopodobieństwa hipotez, - P(x 1), P(x 2), P(x 3)– i prawdopodobieństwa wystąpienia zdarzeń – P(y 1), R(y2)– obliczyć prawdopodobieństwa późniejsze hipotez, np. prawdopodobieństwo pierwszej hipotezy, pod warunkiem wylosowania kuli białej – P(x 1|tak 1).

Wróćmy jeszcze raz do wzoru (1). Początkowe prawdopodobieństwo pierwszej hipotezy wynosiło P(x 1) = 1/3. Z prawdopodobieństwem P(y1) = 1/2 moglibyśmy wylosować białą kulę i to z prawdopodobieństwem P(y2) = 1/2- czarny. Wyciągnęliśmy biały. Prawdopodobieństwo wylosowania bieli pod warunkiem, że pierwsza hipoteza jest prawdziwa P(y 1|x 1) = 1. Wzór Bayesa mówi, że odkąd wylosowano biel, prawdopodobieństwo pierwszej hipotezy wzrosło do 2/3, prawdopodobieństwo drugiej hipotezy nadal wynosi 1/3, a prawdopodobieństwo trzeciej hipotezy osiągnęło zero.

Łatwo sprawdzić, że jeśli wyciągniemy czarną kulę, prawdopodobieństwa późniejsze zmienią się symetrycznie: P(x 1|y 2) = 0, P(x 2|y 2) = 1/3, P(x 3|y2) = 2/3.

Oto co Pierre Simon Laplace napisał o formule Bayesa w pracy opublikowanej w 1814 roku:

Jest to podstawowa zasada tej gałęzi analizy kontyngencji, która zajmuje się przejściami od zdarzeń do przyczyn.

Dlaczego wzór Bayesa jest tak trudny do zrozumienia!? Moim zdaniem, ponieważ naszym zwykłym podejściem jest wnioskowanie od przyczyn do skutków. Na przykład, jeśli w urnie znajduje się 36 kul, z których 6 jest czarnych, a pozostałe są białe. Jakie jest prawdopodobieństwo, że wylosujemy kulę białą? Formuła Bayesa pozwala przejść od zdarzeń do przyczyn (hipotez). Gdybyśmy mieli trzy hipotezy i nastąpiło zdarzenie, w jaki sposób to zdarzenie (a nie alternatywa) wpłynęło na początkowe prawdopodobieństwa hipotez? Jak zmieniły się te prawdopodobieństwa?

Wierzę, że wzór Bayesa nie dotyczy tylko prawdopodobieństw. Zmienia paradygmat percepcji. Jaki jest proces myślowy podczas stosowania paradygmatu deterministycznego? Jeśli doszło do zdarzenia, jaka była jego przyczyna? Jeśli zdarzył się wypadek, awaria, konflikt zbrojny. Kto lub co było ich winą? Co myśli obserwator Bayesowski? Do czego doprowadziła struktura rzeczywistości dany przypadek takiego a takiego przejawu... Bayesowski to rozumie W przeciwnym razie W tym wypadku wynik mógł być inny...

Ułóżmy symbole we wzorach (1) i (2) nieco inaczej:

Porozmawiajmy jeszcze raz o tym, co widzimy. Przy równym początkowym (apriorycznym) prawdopodobieństwie jedna z trzech hipotez może być prawdziwa. Z równym prawdopodobieństwem mogliśmy wylosować kulę białą lub czarną. Wyciągnęliśmy biały. W świetle tych nowych dodatkowych informacji należy ponownie rozważyć naszą ocenę hipotez. Wzór Bayesa pozwala nam to zrobić numerycznie. Prawdopodobieństwo a priori pierwszej hipotezy (wzór 7) wynosiło P(x 1), wylosowano białą kulę, okazało się późniejsze prawdopodobieństwo pierwszej hipotezy P(x 1|w 1). Prawdopodobieństwa te różnią się pewnym czynnikiem.

Wydarzenie o 1 Dowód, który w mniejszym lub większym stopniu potwierdza lub odrzuca hipotezę x 1. Współczynnik ten nazywany jest czasami siłą dowodową. Im mocniejszy dowód (im bardziej współczynnik różni się od jedności), tym większy fakt obserwacji o 1 zmienia prawdopodobieństwo wcześniejsze, tym bardziej prawdopodobieństwo późniejsze różni się od poprzedniego. Jeśli dowody są słabe (współczynnik ~1), prawdopodobieństwo późniejsze jest prawie równe prawdopodobieństwu wcześniejszemu.

Certyfikat o 1 V = 2 czasy zmieniły wcześniejsze prawdopodobieństwo hipotezy x 1(wzór 4). Jednocześnie dowód o 1 nie zmienia prawdopodobieństwa hipotezy x 2, od jego mocy = 1 (wzór 5).

Ogólnie wzór Bayesa ma następującą postać:

X– zmienna losowa (zbiór wzajemnie wykluczających się hipotez) przyjmująca następujące wartości: x 1, x 2, … , XN. Na– zmienna losowa (zbiór wzajemnie wykluczających się zdarzeń) przyjmująca następujące wartości: o 1, o 2, … , NaN. Wzór Bayesa pozwala znaleźć późniejsze prawdopodobieństwo hipotezy XI po zaistnieniu zdarzenia y j. Licznik jest iloczynem wcześniejszego prawdopodobieństwa hipotezy XIP(xI) od prawdopodobieństwa wystąpienia zdarzenia y j, jeśli hipoteza jest prawdziwa XIR(y j|xI). Mianownik jest sumą iloczynów tego samego co w liczniku, ale dla wszystkich hipotez. Jeśli obliczymy mianownik, otrzymamy całkowite prawdopodobieństwo wystąpienia zdarzenia NaJ(jeśli którakolwiek z hipotez jest prawdziwa) – R(y j) (jak we wzorach 1–3).

Jeszcze raz o zeznaniach. Wydarzenie y j dostarcza dodatkowych informacji, które pozwalają zrewidować prawdopodobieństwo a priori hipotezy XI. Moc dowodu – – zawiera w liczniku prawdopodobieństwo wystąpienia zdarzenia y j, jeśli hipoteza jest prawdziwa XI. Mianownik to całkowite prawdopodobieństwo wystąpienia zdarzenia. NaJ(lub prawdopodobieństwo wystąpienia zdarzenia NaJ uśredniona dla wszystkich hipotez). NaJ powyżej dla hipotezy XI, niż średnia dla wszystkich hipotez, wówczas dowody grają na korzyść hipotezy XI, zwiększając jego późniejsze prawdopodobieństwo R(y j|xI). Jeśli prawdopodobieństwo wystąpienia zdarzenia NaJ poniżej hipoteza XI niż średnia dla wszystkich hipotez, wówczas dowody obniżają prawdopodobieństwo późniejsze R(y j|xI) Dla hipotezy XI. Jeśli prawdopodobieństwo wystąpienia zdarzenia NaJ dla hipotezy XI jest taka sama jak średnia dla wszystkich hipotez, wówczas dowód nie zmienia prawdopodobieństwa późniejszego R(y j|xI) Dla hipotezy XI.

Oto kilka przykładów, które, mam nadzieję, wzmocnią Twoje zrozumienie wzoru Bayesa.

Zadanie 2. Dwóch strzelców niezależnie strzela do tego samego celu, każdy oddając po jednym strzale. Prawdopodobieństwo trafienia w cel dla pierwszego strzelca wynosi 0,8, dla drugiego - 0,4. Po oddaniu strzału w tarczy odkryto jedną dziurę. Znajdź prawdopodobieństwo, że ten dołek należy do pierwszego strzelca. .

Zadanie 3. Monitorowany obiekt może znajdować się w jednym z dwóch stanów: H 1 = (działa) i H 2 = (nie działa). Prawdopodobieństwa aprioryczne tych stanów wynoszą P(H 1) = 0,7, P(H 2) = 0,3. Istnieją dwa źródła informacji, które dostarczają sprzecznych informacji na temat stanu obiektu; pierwsze źródło podaje, że obiekt nie funkcjonuje, drugie, że funkcjonuje. Wiadomo, że pierwsze źródło podaje informację poprawną z prawdopodobieństwem 0,9, a z prawdopodobieństwem 0,1 - informację błędną. Drugie źródło jest mniej wiarygodne: podaje informację prawidłową z prawdopodobieństwem 0,7, a błędną z prawdopodobieństwem 0,3. Znajdź prawdopodobieństwa późniejsze hipotez. .

Zadania 1–3 pochodzą z podręcznika E.S. Ventzela, L.A. Ovcharova. Teoria prawdopodobieństwa i jej zastosowania inżynieryjne, rozdział 2.6 Twierdzenie o hipotezie (wzór Bayesa).

Zadanie 4 zaczerpnięte z książki, rozdział 4.3 Twierdzenie Bayesa.

TECHNOLOGIE INFORMATYCZNE, INFORMATYKA I ZARZĄDZANIE

O stosowalności wzoru Bayesa

DOI 10.12737/16076

A. I. Dołgow **

1Spółka Akcyjna „Biuro Projektowe Radiowego Monitoringu Systemów Sterowania, Nawigacji i Łączności”, Rostów nad Donem, Federacja Rosyjska

O stosowalności formuły Bayesa*** A. I. Dolgov1**

1 „Biuro projektowe ds. monitorowania systemów sterowania, nawigacji i komunikacji” JSC, Rostów nad Donem, Federacja Rosyjska

Przedmiotem pracy jest wzór Bayesa. Celem tej pracy jest analiza i rozszerzenie zakresu stosowania formuły. Podstawowym zadaniem jest przestudiowanie publikacji poświęconych temu zagadnieniu, co pozwoliło zidentyfikować niedociągnięcia w stosowaniu wzoru Bayesa, prowadzące do błędnych wyników. Kolejnym zadaniem jest skonstruowanie modyfikacji wzoru Bayesa uwzględniających różne pojedyncze dowody i uzyskanie poprawnych wyników. Na koniec, na przykładzie konkretnych danych źródłowych, porównuje się błędne wyniki uzyskane za pomocą wzoru Bayesa z wynikami poprawnymi obliczonymi przy zastosowaniu zaproponowanych modyfikacji. Do przeprowadzenia badania wykorzystano dwie metody. W pierwszej kolejności przeprowadzono analizę zasad konstruowania znanych wyrażeń stosowanych do zapisu wzoru Bayesa i jego modyfikacji. W drugiej kolejności dokonano oceny porównawczej wyników (w tym ilościowej). Proponowane modyfikacje zapewniają szersze zastosowanie wzoru Bayesa w teorii i praktyce, w tym przy rozwiązywaniu stosowanych problemów.

Słowa kluczowe: prawdopodobieństwa warunkowe, hipotezy niespójne, dowody zgodne i niezgodne, normalizacja.

Przedmiotem badań jest formuła Bayesa. Celem pracy jest analiza zastosowania formuły i poszerzenie zakresu jej stosowalności. Problemem priorytetowym jest identyfikacja wad formuły Bayesa na podstawie przestudiowania odpowiednich publikacji prowadzących do błędnych wyniki. Kolejnym zadaniem jest skonstruowanie modyfikacji wzoru Bayesa, pozwalających na rozliczenie różnych pojedynczych wskazań w celu uzyskania prawidłowych wyników. Na koniec, nieprawidłowe wyniki otrzymane przy zastosowaniu wzoru Bayesa porównuje się z wynikami poprawnymi obliczonymi za pomocą proponowane modyfikacje formuły na przykładzie konkretnych danych wyjściowych. W badaniach stosowane są dwie metody. W pierwszej kolejności przeprowadzono analizę zasad konstruowania znanych wyrażeń służących do zapisu wzoru Bayesowskiego i jego modyfikacji. Po drugie, dokonuje się oceny porównawczej wyników (w tym ilościowej). Proponowane modyfikacje zapewniają szersze zastosowanie formuły Bayesa zarówno w teorii, jak i praktyce, włączając w to rozwiązywanie stosowanych problemów.

Słowa kluczowe: prawdopodobieństwa warunkowe, hipotezy niespójne, wskazania zgodne i niezgodne, normalizacja.

Wstęp. Wzór Bayesa jest coraz częściej stosowany w teorii i praktyce, w tym przy rozwiązywaniu problemów stosowanych z wykorzystaniem technologii komputerowej. Zastosowanie wzajemnie niezależnych procedur obliczeniowych umożliwia szczególnie efektywne wykorzystanie tej formuły przy rozwiązywaniu problemów w wieloprocesorowych systemach obliczeniowych, ponieważ w tym przypadku implementacja równoległa odbywa się na poziomie obwodu ogólnego oraz podczas dodawania kolejnego algorytmu lub klasy problemów nie ma potrzeby ponownej pracy nad równoległością.

Przedmiotem pracy jest możliwość zastosowania wzoru Bayesa do porównawczej oceny prawdopodobieństw warunkowych późniejszych niespójnych hipotez w oparciu o różne pojedyncze dowody. Jak pokazuje analiza, w takich przypadkach znormalizowane prawdopodobieństwa niezgodnych połączonych zdarzeń należą do

SX<и ч и

JEST eö I JEST X X<и H

„Prace wykonano w ramach inicjatywnego projektu badawczego.

**E-mail: [e-mail chroniony]

„Badania realizowane są w ramach niezależnego działu badawczo-rozwojowego.

odpowiadające różnym pełnym grupom zdarzeń. Jednocześnie porównywane wyniki okazują się nieadekwatne do rzeczywistych danych statystycznych. Wynika to z następujących czynników:

Zastosowano nieprawidłową normalizację;

Obecność lub brak przecięć branych pod uwagę dowodów nie jest brana pod uwagę.

W celu wyeliminowania zidentyfikowanych niedociągnięć identyfikuje się przypadki stosowalności formuły Bayesa. Jeżeli podany wzór nie ma zastosowania, rozwiązuje się problem skonstruowania jego modyfikacji, zapewniając uwzględnienie różnych pojedynczych dowodów i uzyskanie poprawnych wyników. Na przykładzie konkretnych danych początkowych dokonano oceny porównawczej wyników:

Błędnie – obliczono za pomocą wzoru Bayesa;

Prawidłowe – obliczone przy zastosowaniu proponowanej modyfikacji.

Postanowienia wstępne. Poniższe stwierdzenia będą opierać się na zasadzie zachowania współczynników prawdopodobieństwa: „Poprawne przetwarzanie prawdopodobieństw zdarzeń jest możliwe tylko przy normalizacji przy użyciu jednego wspólnego dzielnika normalizującego, co zapewnia, że ​​stosunki prawdopodobieństw znormalizowanych są równe stosunkom odpowiednich prawdopodobieństw znormalizowanych .” Zasada ta stanowi subiektywną podstawę teorii prawdopodobieństwa, ale nie jest właściwie odzwierciedlona we współczesnej literaturze edukacyjnej i naukowo-technicznej.

Naruszenie tej zasady powoduje zniekształcenie informacji o stopniu prawdopodobieństwa rozpatrywanych zdarzeń. Wyniki i decyzje podjęte na podstawie zniekształconych informacji okazują się nieadekwatne do rzeczywistych danych statystycznych.

W tym artykule będą stosowane następujące pojęcia:

Zdarzenie elementarne to zdarzenie, którego nie można podzielić na elementy;

Zdarzenie kombinowane - zdarzenie reprezentujące tę lub inną kombinację zdarzeń elementarnych;

Zdarzenia kompatybilne to zdarzenia, które w niektórych przypadkach porównawczej oceny ich prawdopodobieństwa mogą być niezgodne, a w innych przypadkach zgodne;

Zdarzenia niezgodne to zdarzenia, które są niezgodne we wszystkich przypadkach.

Zgodnie z twierdzeniem o mnożeniu prawdopodobieństwa prawdopodobieństwo P (I ^E) iloczynu zdarzeń elementarnych I ^ i

E oblicza się jako iloczyn prawdopodobieństw P(Ik E) = P(E)P(I^E) . Pod tym względem często stosuje się wzór Bayesa

zapisuje się w postaci P(Ik\E) =--- , opisującej definicję późniejszych prawdopodobieństw warunkowych

Hipotezy P(I^E) Ik (k = 1,...n) oparte na normalizacji prawdopodobieństw apriorycznych P(I^E) uwzględnionych połączonych niekompatybilnych zdarzeń I do E. Każde z takich zdarzeń reprezentuje a produkt, którego czynniki stanowią jedną z rozważanych hipotez i jeden z rozważanych dowodów. Jednocześnie bierzemy pod uwagę wszystko

możliwe zdarzenia IKE (k = 1,...n) tworzą kompletną grupę IKE niekompatybilnych połączonych zdarzeń, ze względu na

z którym należy znormalizować ich prawdopodobieństwa P(Ik E) biorąc pod uwagę wzór na prawdopodobieństwo całkowite, zgodnie z którym

rój P(E) = 2 P(Ik)P(E\Ik). Dlatego też wzór Bayesa najczęściej zapisuje się w najczęściej stosowanej formie:

R(Ik) R(EIk)

P(Ik\E) = -. (1)

^ kation wzoru Bayesa.

Analiza cech konstrukcji formuły Bayesa mająca na celu rozwiązanie zastosowanych problemów, wraz z przykładami

„i jego praktyczne zastosowanie pozwalają na wyciągnięcie ważnego wniosku dotyczącego wyboru pełnej grupy połączonych zdarzeń porównywanych według stopnia możliwości (z których każde jest iloczynem dwóch zdarzeń elementarnych – jednej z hipotez i uwzględnionych dowodów) konto). Wyboru tego dokonuje subiektywnie decydent, w oparciu o obiektywne dane wejściowe właściwe typowym warunkom sytuacyjnym: rodzaje i liczbę ocenianych hipotez oraz specjalnie brane pod uwagę dowody.

Nieporównywalne prawdopodobieństwa hipotez na podstawie pojedynczych, niespójnych dowodów. Wzór Bayesa jest tradycyjnie stosowany w przypadku wyznaczania a posteriori prawdopodobieństw warunkowych, które nie są porównywalne pod względem stopnia możliwości.

prawdopodobieństwa hipotez H^ przy danych pojedynczych, niezgodnych dowodach, z których każdy może „pojawić się”.

tylko w połączeniu z którąkolwiek z tych hipotez.” W tym przypadku wybierane są kompletne grupy i HkE, łączone

skąpane wydarzenia w postaci produktów, których czynniki są jednym z dowodów c. (1=1,...,t) i jeden

z n rozważanych hipotez.

Wzór Bayesa służy do porównawczej oceny prawdopodobieństw połączonych zdarzeń każdej takiej kompletnej grupy, która różni się od innych pełnych grup nie tylko branym pod uwagę materiałem dowodowym, ale także w ogólnym przypadku rodzajem hipotez H ^ i (lub) ich liczba n (patrz na przykład)

RNkY = P(Hk) P(eH)

% Р(Нк) Р(Эг\Нк) к = 1

W szczególnym przypadku, gdy n = 2

RNk\E,~ P(Hk) P(EN)

% Р(Нк) Р(Э,\Н к) к = 1

a otrzymane wyniki są prawidłowe, ze względu na zasadę zachowania współczynników prawdopodobieństwa:

P(H1E,) _ P(H 1)P(E,\H1) / P(H2) P(E,\H2) = P(H 1) P(E,\H1)

Р(Н 2= % РШ1!) РЭ,\Н0 % ^) РЭ,\Н) "Р(Н 2> 2>"

Subiektywność wyboru pełnej grupy połączonych wydarzeń w porównaniu ze stopniem możliwości (z

jedno lub drugie modyfikowane przez zdarzenia elementarne) pozwala wybrać pełną grupę zdarzeń i Hk E ■ z

negacja zdarzenia elementarnego E ■ () i zapisz wzór Bayesa (1 = 1,...,t) następująco:

P(Hk\E) -=-RNSh±.

% P(Hk)P(E,Hk)

Wzór ten ma również zastosowanie i umożliwia uzyskanie poprawnych wyników, jeśli zostanie obliczony

znormalizowane prawdopodobieństwa porównuje się w oparciu o różne rozważane hipotezy, ale nie w oparciu o różne dowody.

sprawy. ¡^

Porównywalne prawdopodobieństwa hipotez w ramach jednego, niespójnego dowodu. Sądząc po znanej publice- ^

służy do porównawczej oceny późniejszych prawdopodobieństw warunkowych hipotez dla różnych pojedynczych dowodów.

sprawy. Jednocześnie nie zwraca się uwagi na następujący fakt. W takich przypadkach porównuje się znormalizowane prawdopodobieństwa ^ niezgodnych (niekompatybilnych) połączonych zdarzeń należących do różnych pełnych grup n zdarzeń. Jednak w tym przypadku wzór Bayesa nie ma zastosowania, ponieważ porównywane są połączone zdarzenia, które nie są zawarte w jednej pełnej grupie, których normalizacja prawdopodobieństw odbywa się przy użyciu różnych n dzielników normalizujących. Znormalizowane prawdopodobieństwa niezgodnych (niekompatybilnych) połączonych zdarzeń można porównywać tylko wtedy, gdy należą one do tej samej pełnej grupy zdarzeń i są znormalizowane ¡3 przy użyciu wspólnego dzielnika równego sumie prawdopodobieństw wszystkich znormalizowanych zdarzeń zawartych w pełnym §

Ogólnie rzecz biorąc, za niezgodne dowody można uznać:

Dwa dowody (na przykład dowód i jego zaprzeczenie); ^

Trzy dowody (na przykład w sytuacji gry jest wygrana, przegrana i remis); ^

Cztery certyfikaty (w szczególności w sporcie, wygrana, przegrana, remis i powtórka) itp. ^

Rozważmy dość prosty przykład (odpowiadający przykładowi podanemu w) wykorzystania wzoru Bayesa ^ do określenia późniejszych prawdopodobieństw warunkowych hipotezy H ^ dla dwóch niezgodnych zdarzeń w

w formie dowodu L]- i jego zaprzeczenie L]

P(H,k) - ^ . ^ P(A^k", (2)

] E R(Hk> R(A]\vk> k - 1

■ _ P(HkA ]) P(Hk> P(A ]\nc>

P(H,\A,) ----k-]-. (3)

V k\L]> P(A> n

] E R(Hk) R(A]\Hk) do -1

W przypadkach (2) i (3) subiektywnie wybrane grupy pełne porównano pod względem stopnia możliwości

zdarzenia podzielone są odpowiednio zbiorami i H do A oraz i H do A. Dzieje się tak w przypadku formuły

k-1 k ] k-1 k ]

Bayesa nie ma zastosowania, ponieważ naruszona jest zasada zachowania stosunków prawdopodobieństwa - nie obserwuje się równości stosunków znormalizowanych prawdopodobieństw do stosunków odpowiednich znormalizowanych prawdopodobieństw:

P(N do A]] P(Nk) P(A]\Nk) / P(Nk) P(A]\Nk) P(Nk) P(A] Nk)

P(Nk E P(Nk) P(A]\Nk)/ E P(Nk) P(A]\Nk) P(Nk) P(A] Nk)

k - 1 /k - 1 Zgodnie z zasadą zachowania stosunków prawdopodobieństwa, poprawne przetwarzanie prawdopodobieństw zdarzeń możliwe jest tylko przy normalizowaniu przy użyciu jednego wspólnego dzielnika normalizującego równego sumie wszystkich porównywanych wyrażeń znormalizowanych. Dlatego

E R(Hk)R(A]\Hk) + E R(Hk)R(A]\Hk) - E R(Hk)[P(A]\Hk) + P(Hk) P(A]\Hk )] - EP(Hk) - 1. do -1 do -1 do -1 do -1

W ten sposób ujawnia się fakt, że istnieją odmiany wzoru Bayesa, które się od siebie różnią

znany z braku dzielnika normalizującego:

А,) - Р(Н) Р(А]\Нк), Р(Нк А,) - Р(Н) Р(А, Нк). (4)

J do I ■> do

W tym przypadku obserwuje się równość stosunków znormalizowanych prawdopodobieństw do stosunków odpowiednich znormalizowanych prawdopodobieństw:

t^A^ P(Hk) P(A]\Hk)

A,) R(N k) R(A,Hk)

W oparciu o subiektywny wybór niekonwencjonalnie zarejestrowanych pełnych grup niekompatybilnych połączonych zdarzeń, można zwiększyć liczbę modyfikacji wzoru Bayesa, w tym dowodów, a także pewną liczbę ich zaprzeczeń. Na przykład najbardziej kompletna grupa połączonych wydarzeń

i i Hk /./ ^ i i Hk Yo\ odpowiada (biorąc pod uwagę brak dzielnika normalizującego) modyfikacji wzoru; =1 A"=1 ; = 1 kłamstwo Bayesa

Р(Нк\~) - Р(Н к) ПЁ^^^

gdzie zdarzenie elementarne w postaci dowodu E\ e II II / „/ jest jednym z elementów określonej wielości

o W przypadku braku odmowy dowodów, tj. gdy Ё\ = // e i /"./,

^ P(H\E) P(Hk) P(E,\Hk)

E R(Hk) R(E\Hk) k - 1

Zatem modyfikacja wzoru Bayesa, mająca na celu określenie prawdopodobieństw warunkowych hipotez porównywalnych pod względem stopnia możliwości w przypadku pojedynczego niezgodnego dowodu, wygląda następująco. Licznik zawiera znormalizowane prawdopodobieństwo jednego z połączonych niezgodnych zdarzeń tworzących pełną grupę, wyrażone jako iloczyn prawdopodobieństw apriorycznych, a mianownik zawiera sumę wszystkich

znormalizowane prawdopodobieństwa. W tym przypadku zachowana jest zasada zachowania relacji prawdopodobieństwa i uzyskany wynik jest prawidłowy.

Prawdopodobieństwa hipotez na podstawie jednego spójnego dowodu. Wzory Bayesa są tradycyjnie używane do wyznaczania porównywalnych prawdopodobieństw warunkowych późniejszych hipotez Hk (k = 1,...,n) przy założeniu jednego z kilku uznawanych za zgodne dowodów EL (1 = 1,...,m). W szczególności (por

na przykład i ), wyznaczając późniejsze prawdopodobieństwa warunkowe P(H 1E^) i P(H 1 E2) dla każdego z dwóch zgodnych dowodów E1 i E2, stosuje się wzory postaci:

P(H 1) PE\H1) P(Hj) P(E2Hj) P(H J E1) = --1- i P(H J E 2) =--1-. (5)

I P(Hk) PE\Hk) I P(Hk) P(E2 Hk)

k = 1 k = 1 Należy pamiętać, że jest to kolejny przypadek, w którym wzór Bayesa nie ma zastosowania. Ponadto w tym przypadku należy wyeliminować dwa niedociągnięcia:

Zilustrowana normalizacja prawdopodobieństw połączonych zdarzeń jest błędna, ponieważ rozpatrywane zdarzenia należą do różnych pełnych grup;

Symboliczne zapisy połączonych zdarzeń HkEx i HkE2 nie odzwierciedlają faktu, że materiał dowodowy uwzględniony w Ex i E 2 jest zgodny.

Aby wyeliminować tę ostatnią wadę, można zastosować bardziej szczegółowy zapis połączonych zdarzeń, biorąc pod uwagę fakt, że zgodne dowody E1 i E2 w niektórych przypadkach mogą być niekompatybilne, a w innych zgodne:

HkE1 = HkE1 E2 i HkE2 = HkE 1E2+HkE1 E2, gdzie E1 i E2 są dowodem sprzecznym z E1 i E2.

Oczywiście w takich przypadkach iloczyn zdarzeń Hk E1E2 jest brany pod uwagę dwukrotnie. Ponadto można to ponownie uwzględnić osobno, ale tak się nie dzieje. Faktem jest, że w rozpatrywanej sytuacji na ocenianą sytuację wpływają trzy prawdopodobne, niezgodne ze sobą zdarzenia łączne: HkE1E2, HkE 1E2 i

Hk E1E2. Jednocześnie decydenta interesuje jedynie ocena stopnia możliwości

dwa niezgodne połączone zdarzenia: HkE1 E2 i HkE 1E2, co odpowiada uwzględnieniu tylko g

pojedyncze certyfikaty. ¡Ts

Zatem konstruując modyfikację wzoru Bayesa w celu wyznaczenia wartości warunkowych a posteriori,

Prawdopodobieństwa hipotez z pojedynczym zgodnym dowodem muszą opierać się na następujących kwestiach. Osoba, która przyjęła- ^

podejmując decyzję, interesuje się, z jakiego rodzaju elementarnego zdarzenia reprezentowany jest ten lub inny dowód

rozważane liczby rzeczywiście miały miejsce w określonych warunkach. Jeżeli w K

w formie jednolitego certyfikatu, wymagana jest rewizja decyzji w oparciu o wyniki oceny porównawczej

późniejsze prawdopodobieństwa warunkowe hipotez z niezbędnym uwzględnieniem innych warunków mających wpływ na sumę rzeczywistą

instalacja 3

Wprowadźmy następującą notację: HkE- dla jednego (i tylko jednego) niezgodnego połączonego współ-^

istnienie, polegające na tym, że z m > 1 rozpatrywanych zdarzeń elementarnych Ei (i = 1,...,m) wraz z hipotezą „

Hk wystąpiło jedno zdarzenie elementarne Ex i nie wystąpiły żadne inne zdarzenia elementarne. se”

W najprostszym przypadku rozważane są dwa pojedyncze, niezgodne ze sobą dowody. Jeśli zostanie to potwierdzone

oczekuje się jednego z nich, prawdopodobieństwo warunkowe dowodu w postaci ogólnej wyraża się wzorem l

P(Hk E-) = P(Ei\Hk) -P(EjE^Hk) = P(Ei\Hk) -P(M^Hk)P(M^Hk) , i = 1, -2 (6) G

Wyraźnie widać słuszność formuły (ryc. 1).

Ryż. 1. Interpretacja geometryczna obliczenia P(Hk E-) dla / = 1,...,2 Z warunkowo niezależnymi dowodami

P(K1K2\Hk) = p(E\Hk)P(E2\Hk),

dlatego biorąc pod uwagę (6)

P(Hk E-) = PE Nk) - P(E1 Nk) P(E21Hk) , = 1,.,2. (7)

Podobnie prawdopodobieństwo P(HkE-) jednego z trzech (/ = 1,...,3) zdarzeń niezgodnych HkE^ wyraża się wzorem

Na przykład, gdy i = 1:

p(HkEl) = P(Ei\Hk)-[ S P(Ei\Hk)P(Ej\Hk) ] + P(EiE2E3Hk)

p(HkE-) = P(E7|Hk)- P(E]E^Hk)- P(E7EjHk) + P(E]E2E3\Hk)

Trafność tej formuły jednoznacznie potwierdza interpretacja geometryczna przedstawiona w

Ryż. 2. Interpretacja geometryczna obliczeń P(Hk E-) dla / = 1,...,3

Metodą indukcji matematycznej można udowodnić wzór ogólny na prawdopodobieństwo P(Hk E-) dla dowolnej ilości dowodów e, 0 = 1,...,m:

P(HkE-) = P(E,Hk)- t RE\Hk) P(E]\Hk) + 1 P(E\Hk) P(E]\Hk) P(E^Hk) +■■■ + (-1)

] = 1(] * 0 ],1 * 1

Korzystając z twierdzenia o mnożeniu prawdopodobieństwa, prawdopodobieństwo warunkowe P(HkE~-) zapisujemy w dwóch postaciach:

^ z czego to wynika

P(Hk E -) = P(H k) P(E-|Hk) = P(E-) P(Hk

E-)= P(HkE-) "" P(E-)

Korzystając ze wzoru na prawdopodobieństwo całkowite P(Ei) = S P(H£) P(Ei Hk) okazuje się, że

E-) = P(HkET)

2P(HkE-)k = 1

Podstawiając wyrażenia dla P(HkE-) w postaci prawej strony (8) do powstałego wzoru, otrzymujemy ostateczną postać wzoru na wyznaczanie prawdopodobieństw warunkowych późniejszych hipotez H^ (k = 1,... ,n) dla jednego z kilku uznawanych za niezgodne pojedyncze dowody: (E^\Hk)

P(Nk)[P(E,\Nk) - 2 P(E,\Nk) P(Er k) +...+ (-1)t-1 P(P P(Erk)] P(N, E ~) =-] = 1(] * ■----(9)

do 1 pkt t t t

2 P(N k) 2 [P(E,\N k) - 2 P(EgHk) P(E^Hk) + ...+ (-1)m-1 P(P P (Ep k)]

k=1 , = 1 ) = 1() *,) ■! =1

Oceny porównawcze. Rozważono dość proste, ale ilustrujące przykłady, ograniczone do analizy obliczonych późniejszych prawdopodobieństw warunkowych jednej z dwóch hipotez na podstawie dwóch pojedynczych dowodów. 1. Prawdopodobieństwa hipotez przy niespójnych pojedynczych dowodach. Porównajmy wyniki otrzymane za pomocą wzorów Bayesa (2) i (3), na przykładzie dwóch dowodów L. = L i L. = L z danymi wyjściowymi:

Р(Н1 = 0,7; Р(Н2) = 0,3; Р(Л| Н^ = 0,1; Р(Л\н 1) = 0,9; Р(Л\Н2) = 0,6; P(L\H2) = 0,4. W rozważanych przykładach z hipotezą H1 tradycyjne wzory (2) i (3) prowadzą do następujących wyników:

R(N.) R(A\Nr 0 07

P(N, L) =-- 11 = - = 0,28,

2 Р(Н к) Р(А\Нк) к = 1

R(N L R(A\N 1) 0 63

P(N, L) =-- 11 = - = 0,84,

2 Р(Нк) Р(А\Нк) к = 1

tworząc dzielenie P(H 1 A) = P(H^ P(L\Hp = 0,07; P(H^ A) = P(H1) P(l|H^ = 0,63. 1) zaproponowanych wzorów dotyczących:

R<Н)Р(АНА-Р(А|Н1) _ 0,07

oraz z zaproponowanymi wzorami (4), które nie mają dzielników normalizujących: „i

Zatem w przypadku zastosowania proponowanych wzorów stosunek prawdopodobieństw znormalizowanych jest równy stosunkowi prawdopodobieństw znormalizowanych: K

gt f P(N 1) P(A\N 1) A11 |

Przy stosowaniu znanych wzorów o tym samym stosunku -;-=-= 0,11 znormalizowany weron

Р(Н 1) Р(А\Н 1) «§

prawdopodobieństwa wskazane w licznikach, stosunek otrzymanych prawdopodobieństw znormalizowanych: 2

Р(Н 1) Р(А\Н 1) Р(А\Н 1) 0,63

P(N1L) = 0,28 P(N1L) = 0,84

Oznacza to, że zasada zachowania współczynników prawdopodobieństwa nie jest przestrzegana i uzyskuje się nieprawidłowe wyniki. Jednocześnie £

w przypadku stosowania znanych wzorów wartość względnego odchylenia stosunku (11) późniejszych prawdopodobieństw warunkowych hipotez od poprawnych wyników (10) okazuje się bardzo znacząca, gdyż wynosi

°.33 - °.P x 100 = 242%.. I

2. Prawdopodobieństwa hipotez na podstawie zgodnych pojedynczych dowodów. Porównajmy wyniki otrzymane za pomocą wzorów Bayesa (5) i skonstruowanej poprawnej modyfikacji (9), korzystając z następujących danych wyjściowych: ^

P(H1 = 0,7; P(H2) = 0,3; P(E1H1) = 0,4; P(E2H1) = 0,8; P(E1\H2) = 0,7; P(E^ H2) = 0,2.

W rozważanych przykładach z hipotezą H 2 w przypadku zastosowania tradycyjnych wzorów (5):

P(H 2) P(E1 H 2) Q, 21

P(H2E1) = -2-!-2- = - = Q,429,

I p(Hk) p(El Hk) k = 1

P(H 2) P(E 2 H 2) Q,Q6

P(H2E2) = -2-- = - = 0,097.

I P(Hk) P(E 2 Hk) k = 1

W przypadku zastosowania zaproponowanego wzoru (9) uwzględniającego (7) P(H

P(H2) 0,168

E.) ----- 0,291,

Z P(Hk) Z "

P(H2) 0,018

E0) ----- 0,031.

Z P(Hk) Z k - 1 i - 1

Przy zastosowaniu zaproponowanych poprawnych wzorów, ze względu na te same mianowniki, stosunek P(H2) -

Znormalizowane prawdopodobieństwa wskazane w licznikach są równe stosunkowi

P(H2)

znormalizowane prawdopodobieństwa:

Oznacza to, że przestrzegana jest zasada zachowania współczynników prawdopodobieństwa.

Natomiast w przypadku stosowania znanych wzorów ze stosunkiem znormalizowanych prawdopodobieństw wskazanym w licznikach

P(H 2) P(E1\H 2) _ 0,21 _3 5 P(H 2)P(E 2 H 2) 0,06,

stosunek znormalizowanych prawdopodobieństw:

P(H2 = 0,429 = 4,423. (13)

P(H2\e2) 0,097

Oznacza to, że zasada utrzymywania współczynników prawdopodobieństwa, jak poprzednio, nie jest przestrzegana. Co więcej, w przypadku stosowania znanych wzorów, bardzo istotna okazuje się także wartość względnego odchylenia stosunku (13) późniejszych prawdopodobieństw warunkowych hipotez od poprawnych wyników (12):

9,387 4,423 x 100 = 52,9%.

Wniosek. Analiza konstrukcji konkretnych relacji formuł realizujących formułę Bayesa i jej modyfikacji proponowanych w celu rozwiązania problemów praktycznych pozwala na stwierdzenie, co następuje. Pełna grupa porównywalnych połączonych zdarzeń może zostać wybrana subiektywnie przez decydenta. Wybór ten opiera się na uwzględnionych obiektywnych danych wyjściowych charakterystycznych dla typowego otoczenia (konkretne rodzaje i liczba zdarzeń elementarnych – oceniane hipotezy i dowody). Praktyczne znaczenie ma subiektywny wybór innych opcji dla całej grupy porównany pod względem stopnia możliwości.

spójność zdarzeń łączonych – zapewniając w ten sposób znaczną różnorodność zależności formuł przy konstruowaniu nietradycyjnych wariantów modyfikacji wzoru Bayesa. To z kolei może stanowić podstawę do udoskonalenia matematycznego wsparcia implementacji oprogramowania, a także poszerzenia zakresu stosowania nowych formuł relacji do rozwiązywania stosowanych problemów.

Bibliografia

1. Gnedenko, B. V. Elementarne wprowadzenie do teorii prawdopodobieństwa / B. V. Gnedenko, A. Ya. Chinchin. - 114 Nowy Jork: Dover Publications, 1962. - 144 r.

2. Ventzel, E. S. Teoria prawdopodobieństwa / E. S. Ventzel. - wyd. 10, usunięte. - Moskwa: Szkoła wyższa, 2006. - 575 s.

3. Andronow. A. M., Teoria prawdopodobieństwa i statystyka matematyczna / A. M. Andronov, E. A. Kopytov, L. Ya. - Petersburg: Piotr, 2004. - 481 s.

4. Zmitrovich, A. I. Inteligentne systemy informacyjne / A. I. Zmitrovich. - Mińsk: TetraSystems, 1997. - 496 s.

5. Chernorutsky, I. G. Metody podejmowania decyzji / I. G. Chernorutsky. - St. Petersburg: BHV-Petersburg, 2005. - 416 s.

6. Naylor, C.-M. Zbuduj swój własny system ekspertowy / C.-M. Naylor. - Chichester: John Wiley & Sons, 1987. - 289 s.

7. Romanow, wiceprezes Inteligentne systemy informacyjne w ekonomii / wiceprezes Romanow. - wyd. 2, skreślone.

Moskwa: Egzamin, 2007. - 496 s.

8. Efektywność ekonomiczna i konkurencyjność / D. Yu Muromtsev [i in.]. - Tambow: Wydawnictwo Tamb. państwo technologia Uniwersytet, 2007. - 96 s.

9. Dolgov, A. I. Poprawne modyfikacje wzoru Bayesa dla programowania równoległego / A. I. Dolgov // Technologie superkomputerowe: materiały 3. Wszechrosyjskiego. naukowo-techniczne konf. - Rostów nad Donem. - 2014.- T. 1 - s. 122-126.

10. Dolgov, A. I. O poprawności modyfikacji wzoru Bayesa / A. I. Dolgov // Vestnik Don. państwo technologia nie-ta.

2014. - T. 14, nr 3 (78). - s. 13-20.

1. Gnedenko, B.V., Khinchin, A.Ya. Elementarne wprowadzenie do teorii prawdopodobieństwa. Nowy Jork: Dover Publications, 1962, 144 r.

2. Ventsel, E.S. Teoriya veroyatnostey. wyd. 10, reimpr. Moskwa: Wyszaja Szkola, 2006, 575 s. (po rosyjsku).

3. Andronov, A.M., Kopytov, E.A., Gringlaz, L.Y. Teoriya veroyatnostey i matematicheskaya statystyka. Petersburg: Piter, 2004, 481 s. (po rosyjsku).

4. Żmitrowicz, A.1. Intelektualne systemy informacyjne. Mińsk: TetraSistems, 1997, 496 s. (w języku rosyjskim).

5. Chernorutskiy, I.G. Decyzja Metody prinyatiya. Petersburg: BKhV-Petersburg, 2005, 416 s. (po rosyjsku).

6. Naylor, C.-M. Zbuduj swój własny system ekspercki. Chichester: John Wiley & Sons, 1987, 289 s.

7. Romanow, wicep. Intelektualne"nye informatsionnye sistemy v ekonomike. 2nd ed., reimpr. Moskwa: Ekzamen, 2007, 496 s. (po rosyjsku).

8. Muromtsev, D.Y. i in. Efekt ekonomiczny" i konkurentosposobnost". Tambow: Izd-vo Tamb. idź S. technika un-ta, 2007, 96 s. (po rosyjsku). I.B.

9. Dołgow, A1. Korrektnye modifikatsii formuly Bayesa dlya równoległy „nogo programmirovaniya. Superkomp”yuternye tekhnologii: mat-ly 3-y vseros. nauch-techn. konf. Rostów nad Donem, 2014, tom. 1, s. 122-126 (w języku rosyjskim). ^

10. Dołgow, A1. O korrektnosti modifikatsiy formully Bayesa. ^ Vestnik z DSTU, 2014, tom. 14, nie. 3 (78), s. 13-20 (w języku rosyjskim). *

Kim jest Bayes? i co to ma wspólnego z zarządzaniem? – może nastąpić całkowicie słuszne pytanie. Na razie wierzcie mi na słowo: to bardzo ważne!.. i interesujące (przynajmniej dla mnie).

Jaki jest paradygmat, według którego działa większość menedżerów: jeśli coś zaobserwuję, jakie wnioski mogę z tego wyciągnąć? Czego uczy Bayes: co naprawdę musi istnieć, abym mógł to coś zaobserwować? Tak właśnie rozwijają się wszystkie nauki i on o tym pisze (cytuję z pamięci): osoba, która nie ma w głowie teorii, będzie się cofać od jednego pomysłu do drugiego pod wpływem różnych zdarzeń (obserwacji). Nie bez powodu mówią: nie ma nic bardziej praktycznego niż dobra teoria.

Przykład z praktyki. Mój podwładny popełnia błąd, a kolega (szef innego działu) twierdzi, że na niedbałego pracownika należałoby wywrzeć wpływ kierowniczy (czyli ukarać/zbesztać). I wiem, że ten pracownik wykonuje miesięcznie 4–5 tysięcy tego typu operacji i popełnia w tym czasie nie więcej niż 10 błędów. Czy czujesz różnicę w paradygmacie? Kolega reaguje na obserwację, a ja mam a priori wiedzę, że pracownik popełnia pewną liczbę błędów, więc kolejny nie miał wpływu na tę wiedzę... Teraz, jeśli pod koniec miesiąca okaże się, że są, np. 15 takich błędów!.. To już będzie powód do zbadania przyczyn niezgodności z normami.

Czy jesteś przekonany o znaczeniu podejścia bayesowskiego? Zaintrygowany? Mam nadzieję". A teraz mucha w maści. Niestety, pomysły bayesowskie rzadko są podawane od razu. Szczerze mówiąc, miałem pecha, ponieważ zapoznałem się z tymi ideami poprzez popularną literaturę, po przeczytaniu której pozostało wiele pytań. Planując napisać notatkę, zebrałem wszystko, co wcześniej robiłem notatki na temat Bayesa, a także przestudiowałem to, co napisano w Internecie. Przedstawiam Państwu moje najlepsze przypuszczenie na ten temat. Wprowadzenie do prawdopodobieństwa bayesowskiego.

Wyprowadzenie twierdzenia Bayesa

Rozważmy następujący eksperyment: wywołujemy dowolną liczbę leżącą na odcinku i rejestrujemy, kiedy liczba ta mieści się np. w przedziale od 0,1 do 0,4 (ryc. 1a). Prawdopodobieństwo tego zdarzenia jest równe stosunkowi długości odcinka do całkowitej długości odcinka, pod warunkiem, że pojawienie się liczb na odcinku równie prawdopodobne. Matematycznie można to zapisać P(0,1 <= X <= 0,4) = 0,3, или кратко R(X) = 0,3, gdzie R- prawdopodobieństwo, X– zmienna losowa z zakresu , X– zmienna losowa z zakresu . Oznacza to, że prawdopodobieństwo trafienia w segment wynosi 30%.

Ryż. 1. Graficzna interpretacja prawdopodobieństw

Rozważmy teraz kwadrat x (ryc. 1b). Powiedzmy, że musimy nazwać pary liczb ( X, y), z których każdy jest większy od zera i mniejszy od jeden. Prawdopodobieństwo, że X(pierwsza liczba) będzie znajdować się w segmencie (niebieski obszar 1), równym stosunkowi pola niebieskiego obszaru do pola całego kwadratu, czyli (0,4 – 0,1) * (1 – 0 ) / (1 * 1) = 0, 3, czyli te same 30%. Prawdopodobieństwo, że y znajdujący się wewnątrz segmentu (obszar zielony 2) jest równy stosunkowi powierzchni obszaru zielonego do powierzchni całego placu P(0,5 <= y <= 0,7) = 0,2, или кратко R(Y) = 0,2.

Czego możesz się przy okazji dowiedzieć o wartościach? X I y. Na przykład, jakie jest prawdopodobieństwo, że w tym samym czasie X I y znajdują się w odpowiednich podanych segmentach? Aby to zrobić, musisz obliczyć stosunek powierzchni obszaru 3 (przecięcie zielonych i niebieskich pasków) do powierzchni całego kwadratu: P(X, Y) = (0,4 – 0,1) * (0,7 – 0,5) / (1 * 1) = 0,06.

Powiedzmy teraz, że chcemy wiedzieć, jakie jest to prawdopodobieństwo y jest w przedziale jeśli X jest już w zasięgu. Oznacza to, że w rzeczywistości mamy filtr i kiedy wywołujemy pary ( X, y), to natychmiast odrzucamy te pary, które nie spełniają warunku znalezienia X w danym przedziale, a następnie z przefiltrowanych par liczymy te, dla których y spełnia nasz warunek i uważa prawdopodobieństwo za stosunek liczby par, dla których y leży w powyższym segmencie całkowitej liczby przefiltrowanych par (czyli dla których X leży w segmencie). Prawdopodobieństwo to możemy zapisać jako P(Y|X Na X uderz w strzelnicę.” Oczywiście prawdopodobieństwo to jest równe stosunkowi pola obszaru 3 do pola obszaru niebieskiego 1. Pole obszaru 3 wynosi (0,4 – 0,1) * (0,7 – 0,5) = 0,06, a obszar niebieskiego obszaru 1 ( 0,4 – 0,1) * (1 – 0) = 0,3, wówczas ich stosunek wynosi 0,06 / 0,3 = 0,2. Innymi słowy, prawdopodobieństwo znalezienia y w segmencie pod warunkiem, że X należy do segmentu P(Y|X) = 0,2.

W poprzednim akapicie faktycznie sformułowaliśmy tożsamość: P(Y|X) = P(X, Y) / P( X). Brzmi ono: „Prawdopodobieństwo trafienia Na w zakresie , pod warunkiem, że X trafił w zasięg równy stosunkowi prawdopodobieństwa jednoczesnego trafienia X w zakres i Na do zasięgu, do prawdopodobieństwa trafienia X w zasięgu.”

Przez analogię rozważ prawdopodobieństwo P(X|Y). Dzwonimy do par ( X, y) i filtruj te, dla których y leży pomiędzy 0,5 a 0,7, to prawdopodobieństwo, że X znajduje się w przedziale pod warunkiem, że y należący do odcinka jest równy stosunkowi pola obszaru 3 do pola obszaru zielonego 2: P(X|Y) = P(X, Y) / P(Y).

Należy pamiętać, że prawdopodobieństwa P(X, Y) I P(Y, X) są równe i oba są równe stosunkowi pola strefy 3 do pola całego kwadratu, ale prawdopodobieństwa P(Y|X) I P(X|Y) nie równe; podczas gdy prawdopodobieństwo P(Y|X) jest równy stosunkowi obszaru regionu 3 do obszaru 1, oraz P(X|Y) – region 3 do regionu 2. Zwróć też na to uwagę P(X, Y) jest często oznaczane jako P(X&Y).

Wprowadziliśmy więc dwie definicje: P(Y|X) = P(X, Y) / P( X) I P(X|Y) = P(X, Y) / P(Y)

Zapiszmy te równości w postaci: P(X, Y) = P(Y|X) * P( X) I P(X, Y) = P(X|Y) * P(Y)

Ponieważ lewe strony są równe, prawe strony są równe: P(Y|X) * P( X) = P(X|Y) * P(Y)

Lub możemy przepisać ostatnią równość jako:

To jest twierdzenie Bayesa!

Czy takie proste (prawie tautologiczne) przekształcenia naprawdę prowadzą do wielkiego twierdzenia!? Nie spiesz się z wnioskami. Porozmawiajmy jeszcze raz o tym, co otrzymaliśmy. Istniało pewne początkowe (aprioryczne) prawdopodobieństwo R(X), że zmienna losowa X równomiernie rozłożone na segmencie mieści się w tym zakresie X. Wystąpiło wydarzenie Y, w wyniku czego otrzymaliśmy prawdopodobieństwo późniejsze tej samej zmiennej losowej X: R(X|Y), a prawdopodobieństwo to różni się od R(X) według współczynnika. Wydarzenie Y zwane dowodem, mniej lub bardziej potwierdzającym lub obalającym X. Współczynnik ten jest czasami nazywany moc dowodu. Im mocniejsze dowody, tym bardziej fakt obserwacji Y zmienia prawdopodobieństwo wcześniejsze, tym bardziej prawdopodobieństwo późniejsze różni się od poprzedniego. Jeśli dowody są słabe, prawdopodobieństwo późniejsze jest prawie równe prawdopodobieństwu wcześniejszemu.

Wzór Bayesa na dyskretne zmienne losowe

W poprzedniej sekcji wyprowadziliśmy wzór Bayesa na ciągłe zmienne losowe x i y określone na przedziale. Rozważmy przykład z dyskretnymi zmiennymi losowymi, z których każda przyjmuje dwie możliwe wartości. Podczas rutynowych badań lekarskich stwierdzono, że w wieku czterdziestu lat 1% kobiet choruje na raka piersi. 80% kobiet chorych na nowotwór uzyskuje pozytywne wyniki mammografii. 9,6% zdrowych kobiet otrzymuje także pozytywne wyniki mammografii. W trakcie badania kobieta w tej grupie wiekowej uzyskała pozytywny wynik mammografii. Jakie jest ryzyko, że rzeczywiście ma raka piersi?

Sposób rozumowania/obliczeń jest następujący. Spośród 1% pacjentów chorych na raka mammografia da 80% wyników pozytywnych = 1% * 80% = 0,8%. U 99% zdrowych kobiet mammografia da 9,6% wyników pozytywnych = 99% * 9,6% = 9,504%. Ogółem 10,304% (9,504% + 0,8%) z pozytywnymi wynikami mammografii, tylko 0,8% jest chorych, a pozostałe 9,504% jest zdrowych. Zatem prawdopodobieństwo, że kobieta z dodatnim wynikiem mammografii ma raka, wynosi 0,8% / 10,304% = 7,764%. Myślałeś, że na 80%?

W naszym przykładzie formuła Bayesa ma następującą postać:

Porozmawiajmy jeszcze raz o „fizycznym” znaczeniu tej formuły. X– zmienna losowa (diagnoza), przyjmująca wartości: X 1- chory i X2- zdrowy; Y– zmienna losowa (wynik pomiaru – mammografia), przyjmująca wartości: T 1- wynik pozytywny i Y2- wynik negatywny; p(X 1)– prawdopodobieństwo choroby przed mammografią (prawdopodobieństwo aprioryczne) równe 1%; R(Y 1 |X 1 ) – prawdopodobieństwo wyniku pozytywnego, jeżeli pacjent jest chory (prawdopodobieństwo warunkowe, gdyż musi być określone w warunkach zadania), równe 80%; R(Y 1 |X 2 ) – prawdopodobieństwo wyniku pozytywnego, jeśli pacjent jest zdrowy (również prawdopodobieństwo warunkowe), wynosi 9,6%; p(X 2)– prawdopodobieństwo, że pacjentka jest zdrowa przed mammografią (prawdopodobieństwo aprioryczne) wynosi 99%; p(X 1|Y 1 ) – prawdopodobieństwo, że pacjent jest chory, biorąc pod uwagę pozytywny wynik mammografii (prawdopodobieństwo późniejsze).

Można zauważyć, że prawdopodobieństwo późniejsze (tego, czego szukamy) jest proporcjonalne do prawdopodobieństwa wcześniejszego (początkowego) z nieco bardziej złożonym współczynnikiem . Jeszcze raz podkreślę. Moim zdaniem jest to zasadniczy aspekt podejścia bayesowskiego. Pomiar ( Y) dodało do pierwotnie dostępnych (apriorycznie) pewną ilość informacji, które uściśliły naszą wiedzę o obiekcie.

Przykłady

Aby utrwalić przerobiony materiał, spróbuj rozwiązać kilka problemów.

Przykład 1. Istnieją 3 urny; w pierwszej są 3 kule białe i 1 czarna; w drugiej - 2 białe kule i 3 czarne; w trzeciej są 3 białe kule. Ktoś podchodzi losowo do jednej z urn i wyjmuje z niej 1 kulę. Ta kula okazała się biała. Znajdź późniejsze prawdopodobieństwo, że kula zostanie wylosowana z 1., 2., 3. urny.

Rozwiązanie. Mamy trzy hipotezy: H 1 = (wybierana jest pierwsza urna), H 2 = (wybierana jest druga urna), H 3 = (wybierana jest trzecia urna). Ponieważ urna jest wybierana losowo, prawdopodobieństwa aprioryczne hipotez są równe: P(H 1) = P(H 2) = P(H 3) = 1/3.

W wyniku eksperymentu pojawiło się zdarzenie A = (z wybranej urny została wylosowana kula biała). Prawdopodobieństwa warunkowe zdarzenia A przy hipotezach H 1, H 2, H 3: P(A|H 1) = 3/4, P(A|H 2) = 2/5, P(A|H 3) = 1. Na przykład pierwsza równość brzmi następująco: „prawdopodobieństwo wylosowania białej kuli, jeśli zostanie wybrana pierwsza urna, wynosi 3/4 (ponieważ w pierwszej urnie znajdują się 4 kule, a 3 z nich są białe).”

Korzystając ze wzoru Bayesa, znajdujemy późniejsze prawdopodobieństwa hipotez:

Tym samym w świetle informacji o zaistnieniu zdarzenia A zmieniły się prawdopodobieństwa hipotez: najbardziej prawdopodobna stała się hipoteza H3, najmniej prawdopodobna stała się hipoteza H2.

Przykład 2. Dwóch strzelców niezależnie strzela do tego samego celu, każdy oddając jeden strzał. Prawdopodobieństwo trafienia w cel dla pierwszego strzelca wynosi 0,8, dla drugiego - 0,4. Po oddaniu strzału w tarczy odkryto jedną dziurę. Znajdź prawdopodobieństwo, że ten dołek należy do strzelca pierwszego. (Wynik (oba dołki pokrywają się) odrzuca się jako mało prawdopodobny).

Rozwiązanie. Przed eksperymentem możliwe są hipotezy: H 1 = (nie trafi ani pierwsza, ani druga strzała), H 2 = (trafią obie strzały), H 3 - (pierwszy strzelec trafi, ale drugiej nie. ), H 4 = (pierwszy strzelec nie trafi, a drugi trafi). Prawdopodobieństwa wcześniejsze hipotez:

P(H1) = 0,2*0,6 = 0,12; P(H2) = 0,8*0,4 = 0,32; P (H 3) = 0,8 * 0,6 = 0,48; P(H4) = 0,2*0,4 = 0,08.

Prawdopodobieństwa warunkowe zaobserwowanego zdarzenia A = (w tarczy jest jedna dziura) przy tych hipotezach są równe: P(A|H 1) = P(A|H 2) = 0; P(A|H 3) = P(A|H 4) = 1

Po eksperymencie hipotezy H 1 i H 2 staną się niemożliwe, a późniejsze prawdopodobieństwa hipotez H 3 i H 4 zgodnie ze wzorem Bayesa będą wynosić:

Bayesa przed spamem

Formuła Bayesa znalazła szerokie zastosowanie w rozwoju filtrów antyspamowych. Załóżmy, że chcesz przeszkolić komputer w określaniu, które e-maile są spamem. Będziemy korzystać ze słownika i wyrażeń, korzystając z szacunków Bayesa. Stwórzmy najpierw przestrzeń hipotez. Postawmy 2 hipotezy dotyczące dowolnego listu: H A to spam, H B to nie spam, ale zwykły, niezbędny list.

Najpierw „przeszkolmy” nasz przyszły system antyspamowy. Weźmy wszystkie litery, które mamy i podzielmy je na dwa „stosy” po 10 liter każdy. W jednym miejscu umieśćmy wiadomości spamowe i nazwijmy je stertą H A, w drugim umieścimy niezbędną korespondencję i nazwijmy to stertą H B. Zobaczmy teraz: jakie słowa i frazy znajdują się w spamie i niezbędnych listach i z jaką częstotliwością? Nazwiemy te słowa i wyrażenia dowodem i oznaczymy je E 1 , E 2 ... Okazuje się, że powszechnie używane słowa (na przykład słowa „lubię”, „twój”) na kopcach H A i H B występują w przybliżeniu z ta sama częstotliwość. Zatem obecność tych słów w liście nie mówi nam nic o tym, do którego stosu go przypisać (słabe dowody). Przypiszmy tym słowom neutralny wskaźnik prawdopodobieństwa „spamu”, powiedzmy 0,5.

Niech fraza „mówiony angielski” pojawi się tylko w 10 literach, a częściej w listach spamowych (na przykład w 7 listach spamowych na 10) niż w niezbędnych (w 3 na 10). Nadajmy tej frazie wyższą ocenę w przypadku spamu: 7/10 i niższą w przypadku zwykłych e-maili: 3/10. I odwrotnie, okazało się, że słowo „kumpel” częściej pojawiało się zwykłymi literami (6 na 10). I wtedy otrzymaliśmy krótki list: "Mój przyjaciel! Jak radzisz sobie z mówieniem po angielsku?”. Spróbujmy ocenić jego „spamyczność”. Podamy ogólne szacunki P(H A), P(H B) przynależności litery do każdego kopca, korzystając z nieco uproszczonego wzoru Bayesa i naszych przybliżonych szacunków:

P(H.A) = A/(A+B), Gdzie A = p a1 *p a2 *…*p an , B = p b1 *p b2 **p b n = (1 – p a1)*(1 – p a2)*… *(1 – p an).

Tabela 1. Uproszczone (i niepełne) oszacowanie zapisu Bayesa.

W ten sposób nasz hipotetyczny list otrzymał ocenę prawdopodobieństwa przynależności z naciskiem na „spam”. Czy możemy zdecydować się na wrzucenie listu na jeden ze stosów? Ustalmy progi decyzyjne:

  • Zakładamy, że litera należy do sterty H i jeśli P(H i) ≥ T.
  • Litera nie należy do sterty, jeśli P(H i) ≤ L.
  • Jeżeli L ≤ P(H i) ≤ T, to nie można podjąć żadnej decyzji.

Możesz przyjąć T = 0,95 i L = 0,05. Ponieważ dla danej litery i 0,05< P(H A) < 0,95, и 0,05 < P(H В) < 0,95, то мы не сможем принять решение, куда отнести данное письмо: к спаму (H A) или к нужным письмам (H B). Можно ли улучшить оценку, используя больше информации?

Tak. Obliczmy wynik dla każdego dowodu w inny sposób, tak jak faktycznie zaproponował Bayes. Zostawiać:

F a to całkowita liczba wiadomości spamowych;

Fa ai to liczba liter z certyfikatem I w stosie spamu;

F b to całkowita liczba potrzebnych liter;

F bi to liczba liter z certyfikatem I w kilku niezbędnych (istotnych) listach.

Wtedy: p ai = Fa ai /F a, p bi = F bi /F b. P(H A) = A/(A+B), P(H B) = B/(A+B), Gdzie A = p a1 *p a2 **p an , B = p b1 *p b2 **p b n

Należy pamiętać, że oceny dowodów słów pa ai i p bi stały się obiektywne i można je obliczyć bez interwencji człowieka.

Tabela 2. Dokładniejsze (ale niekompletne) oszacowanie Bayesa na podstawie dostępnych funkcji z listu

Otrzymaliśmy bardzo jednoznaczny wynik – z dużą przewagą literę tę można uznać za literę właściwą, gdyż P(H B) = 0,997 > T = 0,95. Dlaczego wynik się zmienił? Ponieważ wykorzystaliśmy więcej informacji - uwzględniliśmy liczbę liter w każdym ze stosów i przy okazji znacznie poprawniej określiliśmy szacunki p ai i p bi. Wyznaczono je tak, jak zrobił to sam Bayes, obliczając prawdopodobieństwa warunkowe. Innymi słowy, p a3 to prawdopodobieństwo pojawienia się słowa „kumpel” w liście, pod warunkiem, że ten list należy już do sterty spamu H A . Na wynik nie trzeba było długo czekać – wydaje się, że możemy podjąć decyzję z większą pewnością.

Bayesa przeciwko oszustwom korporacyjnym

Ciekawe zastosowanie podejścia bayesowskiego opisał MAGNUS8.

Mój obecny projekt (IS do wykrywania oszustw w przedsiębiorstwie produkcyjnym) wykorzystuje formułę Bayesa do określenia prawdopodobieństwa oszustwa (nadużycia) w obecności/nieobecności kilku faktów, które pośrednio świadczą na korzyść hipotezy o możliwości popełnienia oszustwa. Algorytm jest samouczący się (ze sprzężeniem zwrotnym), tj. przelicza swoje współczynniki (prawdopodobieństwa warunkowe) po faktycznym potwierdzeniu lub niepotwierdzeniu oszustwa podczas weryfikacji przez służbę bezpieczeństwa gospodarczego.

Chyba warto powiedzieć, że takie metody przy projektowaniu algorytmów wymagają dość wysokiej kultury matematycznej programisty, bo najmniejszy błąd w wyprowadzeniu i/lub wdrożeniu wzorów obliczeniowych unieważni i zdyskredytuje całą metodę. Metody probabilistyczne są na to szczególnie podatne, ponieważ ludzkie myślenie nie jest przystosowane do pracy z kategoriami probabilistycznymi, a zatem nie ma „widoczności” i zrozumienia „fizycznego znaczenia” pośrednich i końcowych parametrów probabilistycznych. To zrozumienie istnieje tylko dla podstawowych pojęć teorii prawdopodobieństwa, a wtedy wystarczy bardzo ostrożnie połączyć i wyprowadzić złożone rzeczy zgodnie z prawami teorii prawdopodobieństwa - zdrowy rozsądek już nie pomoże w przypadku obiektów złożonych. Wiąże się to w szczególności z dość poważnymi zmaganiami metodologicznymi toczącymi się na kartach współczesnych książek z filozofii prawdopodobieństwa, a także dużą liczbą sofizmatów, paradoksów i ciekawych zagadek na ten temat.

Kolejnym niuansem, z którym musiałem się zmierzyć, było to, że niestety prawie wszystko, nawet mniej lub bardziej PRZYDATNE W PRAKTYCE, na ten temat, jest napisane po angielsku. W źródłach rosyjskojęzycznych dostępna jest głównie tylko dobrze znana teoria z przykładami demonstracyjnymi tylko dla najbardziej prymitywnych przypadków.

Całkowicie zgadzam się z ostatnią uwagą. Na przykład Google, próbując znaleźć coś w rodzaju „książki Prawdopodobieństwo Bayesa”, nie znalazł niczego zrozumiałego. To prawda, że ​​poinformował, że książka ze statystykami bayesowskimi została zakazana w Chinach. (Profesor statystyki Andrew Gelman poinformował na blogu Uniwersytetu Columbia, że ​​publikacja jego książki Data Analysis with Regression and Multilevel/Hierarchical Models została zakazana w Chinach. Wydawca poinformował, że „książka nie została zatwierdzona przez władze ze względu na różne drażliwe politycznie materiał w tekście.”) Zastanawiam się, czy podobny powód doprowadził do braku książek na temat prawdopodobieństwa Bayesa w Rosji?

Konserwatyzm w przetwarzaniu informacji przez człowieka

Prawdopodobieństwa określają stopień niepewności. Prawdopodobieństwo, zarówno według Bayesa, jak i naszej intuicji, to po prostu liczba od zera do liczby, która reprezentuje stopień, w jakim nieco wyidealizowana osoba wierzy, że dane stwierdzenie jest prawdziwe. Powodem, dla którego dana osoba jest w pewnym stopniu idealizowana, jest to, że suma jej prawdopodobieństw dwóch wzajemnie wykluczających się zdarzeń musi być równa prawdopodobieństwu wystąpienia któregokolwiek ze zdarzeń. Właściwość addytywności ma takie konsekwencje, że niewielu prawdziwych ludzi jest w stanie spełnić je wszystkie.

Twierdzenie Bayesa jest trywialną konsekwencją właściwości addytywności, bezsporną i uzgodnioną przez wszystkich probabilistów, Bayesa i nie tylko. Można to zapisać w następujący sposób. Jeżeli P(H A |D) jest kolejnym prawdopodobieństwem, że hipoteza A powstała po zaobserwowaniu danej wartości D, P(HA) jest jej prawdopodobieństwem wcześniejszym przed zaobserwowaniem danej wartości D, P(D|H A ) jest prawdopodobieństwem, że dana wartość D zostanie zaobserwowana, jeśli HA jest prawdą, a P(D) jest bezwarunkowym prawdopodobieństwem danej wartości D, wówczas

(1) P(H A |D) = P(D|H A) * P(H A) / P(D)

P(D) najlepiej traktować jako stałą normalizującą, powodującą, że późniejsze prawdopodobieństwa sumują się do jedności w ramach wyczerpującego zestawu wzajemnie wykluczających się hipotez, które są rozważane. Jeśli trzeba to obliczyć, mogłoby to wyglądać tak:

Częściej jednak P(D) jest eliminowane niż obliczane. Wygodnym sposobem na wyeliminowanie tego jest przekształcenie twierdzenia Bayesa w postać ilorazu prawdopodobieństwa i szans.

Rozważ inną hipotezę, H B , która wyklucza się wzajemnie z HA , i zmień zdanie na ten temat w oparciu o tę samą daną wielkość, która zmieniła twoje zdanie na temat HA

(2) P(H B |D) = P(D|H B) * P(H B) / P(D)

Teraz podzielmy Równanie 1 przez Równanie 2; wynik będzie taki:

gdzie Ω 1 to szansa późniejsza na korzyść HA do H B , Ω 0 to szansa wcześniejsza, a L to wielkość znana statystykom jako iloraz prawdopodobieństwa. Równanie 3 jest tą samą odpowiednią wersją twierdzenia Bayesa, co Równanie 1 i często jest znacznie bardziej przydatne, szczególnie w eksperymentach obejmujących hipotezy. Bayesowie argumentują, że twierdzenie Bayesa jest formalnie optymalną regułą dotyczącą rewizji opinii w świetle nowych dowodów.

Interesuje nas porównanie idealnego zachowania określonego twierdzeniem Bayesa z rzeczywistym zachowaniem ludzi. Aby dać ci pojęcie, co to oznacza, spróbujmy przeprowadzić eksperyment z tobą jako obiektem testowym. Ta torba zawiera 1000 żetonów do pokera. Mam dwie takie torby, jedna zawierająca 700 czerwonych i 300 niebieskich żetonów, a druga zawierająca 300 czerwonych i 700 niebieskich. Rzuciłem monetą, żeby zdecydować, której użyć. Jeśli więc nasze opinie są takie same, Twoje obecne prawdopodobieństwo, że otrzymasz torbę zawierającą więcej czerwonych żetonów, wynosi 0,5. Teraz tworzysz losową próbkę ze zwrotem po każdym żetonie. W 12 żetonach otrzymasz 8 czerwonych i 4 niebieskie. Teraz, w oparciu o wszystko, co wiesz, jakie jest prawdopodobieństwo, że wyląduje worek z największą liczbą czerwonych? Wiadomo, że jest ona wyższa niż 0,5. Nie kontynuuj czytania, dopóki nie zapiszesz swojego wyniku.

Jeśli jesteś typowym zdającym, Twój wynik mieści się w przedziale od 0,7 do 0,8. Gdybyśmy jednak dokonali odpowiednich obliczeń, wynikiem byłoby 0,97. Rzeczywiście bardzo rzadko zdarza się, aby osoba, której wcześniej nie wykazano wpływu konserwatyzmu, osiągnęła tak wysokie szacunki, nawet jeśli była zaznajomiona z twierdzeniem Bayesa.

Jeśli proporcja czerwonych żetonów w worku jest R, to prawdopodobieństwo otrzymania R czerwone żetony i ( N -R) w kolorze niebieskim N próbki ze zwrotem – p r (1–P)N-R. Tak więc w typowym eksperymencie z torbą i żetonami do pokera, jeśli NA oznacza, że ​​proporcja czerwonych żetonów wynosi p A I NB– oznacza, że ​​udział jest RB, to iloraz prawdopodobieństwa:

Stosując wzór Bayesa, należy wziąć pod uwagę jedynie prawdopodobieństwo faktycznej obserwacji, a nie prawdopodobieństwa innych obserwacji, które mógł on poczynić, ale tego nie zrobił. Zasada ta ma szerokie implikacje dla wszystkich statystycznych i niestatystycznych zastosowań twierdzenia Bayesa; jest to najważniejsze narzędzie techniczne służące rozumowaniu bayesowskiemu.

Rewolucja Bayesowska

Twoi przyjaciele i współpracownicy mówią o czymś, co nazywa się „twierdzeniem Bayesa” lub „regułą Bayesa” lub czymś, co nazywa się rozumowaniem bayesowskim. Naprawdę ich to interesuje, więc wchodzisz do Internetu i znajdujesz stronę o twierdzeniu Bayesa i... To jest równanie. I to wszystko... Dlaczego koncepcja matematyczna wywołuje w umysłach taki entuzjazm? Jaki rodzaj „rewolucji bayesowskiej” ma miejsce wśród naukowców i twierdzi się, że nawet samo podejście eksperymentalne można określić jako jego przypadek szczególny? Jaki sekret znają Bayesowie? Jakie światło widzą?

Bayesowska rewolucja w nauce nie nastąpiła, ponieważ coraz więcej kognitywistów nagle zaczęło zauważać, że zjawiska psychiczne mają strukturę bayesowską; nie dlatego, że naukowcy ze wszystkich dziedzin zaczęli stosować metodę Bayesa; ale dlatego, że nauka sama w sobie jest szczególnym przypadkiem twierdzenia Bayesa; dowód eksperymentalny jest dowodem bayesowskim. Rewolucjoniści bayesowscy argumentują, że kiedy przeprowadzasz eksperyment i uzyskujesz dowody, które „potwierdzają” lub „obalają” twoją teorię, potwierdzenie lub obalenie następuje zgodnie z regułami Bayesa. Na przykład musisz wziąć pod uwagę nie tylko to, że twoja teoria może wyjaśnić zjawisko, ale także to, że istnieją inne możliwe wyjaśnienia, które również mogą przewidzieć to zjawisko.

Wcześniej najpopularniejszą filozofią nauki była filozofia stara, którą wyparła rewolucja bayesowska. Pomysł Karla Poppera, że ​​teorie można całkowicie sfałszować, ale nigdy w pełni nie zweryfikować, to kolejny szczególny przypadek reguł Bayesa; jeśli p(X|A) ≈ 1 – jeśli teoria trafnie przewiduje, to obserwacja ~X bardzo mocno falsyfikuje A. Natomiast jeśli p(X|A) ≈ 1 i obserwujemy X, to nie potwierdza to silnie teoria; być może możliwy jest jakiś inny warunek B, taki jak p(X|B) ≈ 1 i zgodnie z którym obserwacja X nie świadczy na korzyść A, ale świadczy na korzyść B. Aby obserwacja X zdecydowanie potwierdziła A, musielibyśmy nie wiedzieć, że p(X|A) ≈ 1 i że p(X|~A) ≈ 0, czego nie możemy wiedzieć, ponieważ nie możemy rozważyć wszystkich możliwych alternatywnych wyjaśnień. Na przykład, kiedy ogólna teoria względności Einsteina przewyższyła dobrze uzasadnioną teorię grawitacji Newtona, uczyniło to wszystkie przewidywania teorii Newtona szczególnym przypadkiem przewidywań Einsteina.

W podobny sposób twierdzenie Poppera, że ​​idea musi być falsyfikowalna, można interpretować jako przejaw Bayesowskiej reguły zachowania prawdopodobieństwa; jeśli wynik X jest pozytywnym dowodem na rzecz teorii, to wynik ~X musi w pewnym stopniu obalić teorię. Jeśli spróbujesz zinterpretować zarówno X, jak i ~X jako „potwierdzające” teorię, reguły Bayesa mówią, że jest to niemożliwe! Aby zwiększyć prawdopodobieństwo teorii, należy poddać ją testom, które mogą potencjalnie zmniejszyć jej prawdopodobieństwo; Nie jest to tylko reguła identyfikująca szarlatanów w nauce, ale konsekwencja twierdzenia Bayesa o prawdopodobieństwie. Z drugiej strony pogląd Poppera, że ​​potrzebne jest jedynie fałszowanie i nie potrzeba potwierdzenia, jest błędny. Twierdzenie Bayesa pokazuje, że fałszowanie jest bardzo mocnym dowodem w porównaniu z potwierdzeniem, ale fałszowanie ma nadal charakter probabilistyczny; nie rządzi się ona zasadniczo odmiennymi regułami i niczym nie różni się od potwierdzenia, jak twierdzi Popper.

Zatem odkrywamy, że wiele zjawisk w naukach kognitywnych, a także metody statystyczne stosowane przez naukowców, a także sama metoda naukowa, to szczególne przypadki twierdzenia Bayesa. To jest rewolucja bayesowska.

Witamy w spisku Bayesa!

Literatura na temat prawdopodobieństwa bayesowskiego

2. Laureat Nagrody Nobla w dziedzinie ekonomii Kahneman (i jego towarzysze) opisuje wiele różnych zastosowań Bayesa w swojej wspaniałej książce. Tylko w moim krótkim podsumowaniu tej bardzo obszernej książki naliczyłem 27 wzmianek o nazwisku prezbiteriańskiego duchownego. Minimalne formuły. (.. bardzo mi się podobało. Co prawda jest trochę skomplikowane, jest dużo matematyki (a gdzie byśmy bez niej byli), ale poszczególne rozdziały (np. rozdział 4. Informacje) są jasno na temat. Polecam do wszystkich Nawet jeśli matematyka jest dla Ciebie trudna, czytaj co drugi wiersz, pomijając matematykę i łowiąc przydatne ziarna...

14. (dodatek z dnia 15 stycznia 2017 r), rozdział z książki Tony’ego Crilly’ego. 50 pomysłów, o których musisz wiedzieć. Matematyka.

Fizyk, laureat Nagrody Nobla Richard Feynman, mówiąc o pewnym filozofie charakteryzującym się szczególnie dużą samooceną, powiedział kiedyś: „To, co mnie irytuje, to nie filozofia jako nauka, ale pompatyczność, jaka się wokół niej tworzy. Gdyby tylko filozofowie potrafili śmiać się z samych siebie! Gdyby tylko mogli powiedzieć: „Ja mówię, że jest tak, ale Von Leipzig myślał, że było inaczej i on też coś o tym wie”. Gdyby tylko pamiętali i wyjaśnili, że to tylko ich sprawa .

Formularz wydarzeń pełna grupa, jeśli przynajmniej jeden z nich na pewno wystąpi w wyniku eksperymentu i są parami niezgodne.

Załóżmy, że zdarzenie A może wystąpić tylko razem z jednym z kilku niekompatybilnych parami zdarzeń, które tworzą kompletną grupę. Będziemy wywoływać zdarzenia ( I= 1, 2,…, N) hipotezy dodatkowe doświadczenie (a priori). Prawdopodobieństwo wystąpienia zdarzenia A określa wzór pełne prawdopodobieństwo :

Przykład 16. Są trzy urny. W pierwszej urnie znajduje się 5 kul białych i 3 czarne, w drugiej 4 kule białe i 4 czarne, a w trzeciej 8 kul białych. Jedna z urn jest wybierana losowo (może to oznaczać np., że wyboru dokonuje się z urny pomocniczej, w której znajdują się trzy kule o numerach 1, 2 i 3). Z tej urny losujemy kulę. Jakie jest prawdopodobieństwo, że będzie czarny?

Rozwiązanie. Wydarzenie A– czarna kula zostaje usunięta. Gdyby było wiadomo, z której urny została wylosowana kula, wówczas pożądane prawdopodobieństwo można by obliczyć, korzystając z klasycznej definicji prawdopodobieństwa. Przedstawmy założenia (hipotezy) dotyczące tego, która urna zostanie wybrana do odzyskania piłki.

Kulę można wylosować albo z pierwszej urny (przypuszczenie), albo z drugiej (przypuszczenie), albo z trzeciej (przypuszczenie). Ponieważ szanse na wybranie którejkolwiek z urn są równe .

Wynika, że

Przykład 17. Lampy elektryczne produkowane są w trzech fabrykach. Pierwsza fabryka produkuje 30% całkowitej liczby lamp elektrycznych, druga - 25%,
i trzeci - reszta. Produkty pierwszego zakładu zawierają 1% wadliwych lamp elektrycznych, drugiego - 1,5%, trzeciego - 2%. Do sklepu trafiają produkty ze wszystkich trzech fabryk. Jakie jest prawdopodobieństwo, że lampa zakupiona w sklepie okaże się wadliwa?

Rozwiązanie. Należy przyjąć założenia dotyczące tego, w jakim zakładzie została wyprodukowana żarówka. Wiedząc o tym, możemy określić prawdopodobieństwo, że jest on uszkodzony. Wprowadźmy notację zdarzeń: A– zakupiona lampa elektryczna okazała się wadliwa, – lampa została wyprodukowana w pierwszym zakładzie, – lampa została wyprodukowana w drugim zakładzie,
– lampę wyprodukował trzeci zakład.

Pożądane prawdopodobieństwo znajdujemy za pomocą wzoru na prawdopodobieństwo całkowite:

Wzór Bayesa. Pozwolić będzie kompletną grupą zdarzeń niezgodnych parami (hipotez). A– zdarzenie losowe. Następnie,

Ostatni wzór, pozwalający na ponowne oszacowanie prawdopodobieństw hipotez po poznaniu wyniku testu, w wyniku którego pojawiło się zdarzenie A, nazywa się Formuła Bayesa .

Przykład 18.Średnio 50% pacjentów z tą chorobą trafia do specjalistycznego szpitala DO, 30% – z chorobą L, 20 % –
z chorobą M. Prawdopodobieństwo całkowitego wyleczenia choroby K równy 0,7 dla chorób L I M prawdopodobieństwa te wynoszą odpowiednio 0,8 i 0,9. Pacjent przyjęty do szpitala został wypisany jako zdrowy. Znajdź prawdopodobieństwo, że ten pacjent cierpiał na tę chorobę K.


Rozwiązanie. Wprowadźmy hipotezy: – pacjent cierpiał na chorobę DO L, – pacjent cierpiał na chorobę M.

Następnie, zgodnie z warunkami problemu, mamy . Przedstawmy wydarzenie A– pacjent przyjęty do szpitala został wypisany zdrowy. Według warunku

Korzystając ze wzoru na prawdopodobieństwo całkowite otrzymujemy:

Według wzoru Bayesa.

Przykład 19. Niech w urnie będzie pięć kul, a wszystkie domysły dotyczące liczby kul białych będą równie możliwe. Z urny wylosowano kulę, która okazała się biała. Jakie założenie dotyczące początkowego składu urny jest najbardziej prawdopodobne?

Rozwiązanie. Załóżmy, że w urnie znajdują się kule białe , tj. można przyjąć sześć założeń. Następnie, zgodnie z warunkami problemu, mamy .

Przedstawmy wydarzenie A– losowo wybrana kula biała. Obliczmy. Ponieważ , to zgodnie ze wzorem Bayesa mamy:

Zatem najbardziej prawdopodobna hipoteza brzmi: ponieważ .

Przykład 20. Uszkodzone zostały dwa z trzech niezależnie działających elementów urządzenia obliczeniowego. Znajdź prawdopodobieństwo, że pierwszy i drugi element uległy uszkodzeniu, jeśli prawdopodobieństwo uszkodzenia odpowiednio pierwszego, drugiego i trzeciego elementu wynosi 0,2; 0,4 i 0,3.

Rozwiązanie. Oznaczmy przez A wydarzenie – zawiodły dwa elementy. Można postawić następujące hipotezy:

– uszkodzony jest pierwszy i drugi element, ale trzeci element działa. Ponieważ elementy działają niezależnie, obowiązuje twierdzenie o mnożeniu:

KATEGORIE

POPULARNE ARTYKUŁY

2024 „kingad.ru” - badanie ultrasonograficzne narządów ludzkich