Bayes tételének egyszerű magyarázata. Teljes valószínűségi képlet

A teljes valószínűségi képlet levezetésénél azt feltételeztük, hogy az esemény A, amelynek valószínűségét meg kellett határozni, megtörténhet valamelyik esemény H 1 , N 2 , ... , H n, amely páronként összeférhetetlen események teljes csoportját alkotja. Ezeknek az eseményeknek (hipotéziseknek) a valószínűsége előre ismert volt. Tételezzük fel, hogy egy kísérletet végeztünk, melynek eredményeként az esemény A jött. Ez a kiegészítő információ lehetővé teszi számunkra, hogy újraértékeljük a hipotézisek valószínűségét Szia , miután kiszámolta P(Hi/A).

vagy a teljes valószínűségi képlet segítségével azt kapjuk

Ezt a képletet Bayes-képletnek vagy hipotézistételnek nevezzük. A Bayes-képlet lehetővé teszi a hipotézisek valószínűségének "felülvizsgálatát", miután a kísérlet eredménye ismertté válik, amelynek eredményeként az esemény megjelent A.

Valószínűségek Р(Н i) a hipotézisek a priori valószínűségei (a kísérlet előtt számították ki). A valószínűségek P(H i /A) a hipotézisek a posteriori valószínűségei (a kísérlet után számítják ki). A Bayes-képlet lehetővé teszi az utólagos valószínűségek kiszámítását az előző valószínűségekből és az esemény feltételes valószínűségeiből A.

Példa. Ismeretes, hogy az összes férfi 5%-a és a nők 0,25%-a színvak. Az orvosi kártya száma alapján véletlenszerűen kiválasztott személy színvakságban szenved. Mennyi a valószínűsége, hogy férfi?

Megoldás. Esemény A Az ember színtévesztő. A kísérlet elemi eseményeinek tere - egy személyt az orvosi kártya száma választ ki - Ω = ( H 1 , N 2 ) 2 eseményből áll:

H 1 - kiválasztanak egy férfit,

H 2 - egy nő van kiválasztva.

Ezek az események hipotézisként választhatók.

A probléma feltétele szerint (véletlenszerű választás) ezeknek az eseményeknek a valószínűsége azonos és egyenlő P(H 1 ) = 0.5; P(H 2 ) = 0.5.

Ebben az esetben annak feltételes valószínűsége, hogy egy személy színvakságban szenved, egyenlő:

PÁN 1 ) = 0.05 = 1/20; PÁN 2 ) = 0.0025 = 1/400.

Mivel ismert, hogy a kiválasztott személy színvak, vagyis az esemény megtörtént, a Bayes-képletet használjuk az első hipotézis újraértékelésére:

Példa. Három egyforma doboz van. Az első dobozban 20 fehér golyó, a másodikban 10 fehér és 10 fekete, a harmadikban 20 fekete golyó található. Egy véletlenszerűen kiválasztott dobozból fehér golyót húznak. Számítsa ki annak a valószínűségét, hogy a golyót az első mezőből húzzák ki.

Megoldás. Jelölje A esemény - egy fehér labda megjelenése. A doboz kiválasztásával kapcsolatban három feltételezés (hipotézis) fogalmazható meg: H 1 ,H 2 , H 3 - az első, a második és a harmadik doboz kiválasztása.

Mivel bármelyik doboz kiválasztása egyaránt lehetséges, a hipotézisek valószínűsége megegyezik:

P(H 1 )=P(H 2 )=P(H 3 )= 1/3.

A probléma feltétele szerint annak a valószínűsége, hogy az első dobozból fehér golyót húzzunk

Annak valószínűsége, hogy fehér golyót húzzunk a második dobozból



Annak valószínűsége, hogy fehér golyót húzzunk a harmadik dobozból

A Bayes-képlet segítségével megtaláljuk a kívánt valószínűséget:

A tesztek megismétlése. Bernoulli képlet.

Van n próba, amelyek mindegyikében előfordulhat A esemény, de előfordulhat, hogy nem, és az A esemény valószínűsége minden egyes kísérletben állandó, azaz. tapasztalatról tapasztalatra nem változik. Már tudjuk, hogyan keressük meg egy A esemény valószínűségét egy kísérletben.

Külön érdekesség az A esemény bizonyos számú (m-szeres) előfordulásának valószínűsége n kísérletben. az ilyen problémák könnyen megoldhatók, ha a tesztek függetlenek.

Def. Számos tesztet hívnak független az eseménytől A ha az A esemény valószínűsége mindegyikben nem függ más kísérletek kimenetelétől.

Az A esemény pontosan m-szeres bekövetkezésének P n (m) valószínűsége (n-m alkalommal nem következik be, esemény ) ebben az n próbában. Az A esemény különféle sorozatokban m-szer jelenik meg).

- Bernoulli képlete.

A következő képletek nyilvánvalóak:

P n (m Kevésbé k-szer n próbában.

P n (m>k) = P n (k+1) + P n (k+2) +…+ P n (n) - az A esemény bekövetkezésének valószínűsége több k-szer n próbában.

Kezdjük egy példával. Az előtted lévő urnában Ugyanolyan valószínű lehet (1) két fehér golyó, (2) egy fehér és egy fekete, (3) két fekete. Húzod a labdát, és kiderül, hogy fehér. Hogyan értékeled most? valószínűség ez a három lehetőség (hipotézis)? Nyilvánvalóan a (3) hipotézis valószínűsége két fekete golyóval = 0. De hogyan számoljuk ki a két fennmaradó hipotézis valószínűségét!? Ez lehetővé teszi a Bayes-képlet elkészítését, amely esetünkben a következő alakkal rendelkezik (a képlet száma megegyezik a tesztelt hipotézis számával):

Jegyzet letöltése formátumban vagy

x egy valószínűségi változó (hipotézis), amely a következő értékeket veszi fel: x 1- két fehér x 2- egy fehér, egy fekete; x 3- két fekete; nál nél egy valószínűségi változó (esemény), amely a következő értékeket veszi fel: 1- fehér golyót húzunk és 2-kor- fekete golyót húznak; P(x 1) az első hipotézis valószínűsége a labda kihúzása előtt ( eleve valószínűség vagy valószínűség előtt tapasztalat) = 1/3; P(x 2)– a második hipotézis valószínűsége a labda felhúzása előtt = 1/3; P(x 3)– a harmadik hipotézis valószínűsége a labda kihúzása előtt = 1/3; P(y 1|x 1)– a fehér golyó húzásának feltételes valószínűsége, ha az első hipotézis igaz (a golyók fehérek) = 1; P(y 1|x 2) fehér golyó rajzolásának valószínűsége, ha a második hipotézis igaz (az egyik golyó fehér, a második fekete) = ½; P(y 1|x 3) fehér golyó rajzolásának valószínűsége, ha igaz a harmadik hipotézis (mindkettő fekete) = 0; P(y 1)– fehér golyó húzásának valószínűsége = ½; P(y 2)– fekete golyó húzásának valószínűsége = ½; és végül, amit keresünk - P(x 1|1-nél) annak a valószínűsége, hogy az első hipotézis igaz (mindkét golyó fehér), feltéve, hogy húztunk egy fehér golyót ( a posteriori valószínűség vagy valószínűség után tapasztalat); P(x 2|1-nél) annak a valószínűsége, hogy a második hipotézis igaz (az egyik golyó fehér, a második fekete), feltéve, hogy fehér golyót húztunk ki.

Annak a valószínűsége, hogy az első hipotézis (két fehér golyó) igaz, ha egy fehér golyót húztunk:

Annak a valószínűsége, hogy a második hipotézis igaz (az egyik fehér, a második fekete), feltéve, hogy fehér golyót húztunk ki:

Annak a valószínűsége, hogy a harmadik hipotézis (két fekete) igaz, ha fehér golyót húztunk:

Mit csinál a Bayes-képlet? Lehetővé teszi a hipotézisek a priori valószínűségei alapján, P(x 1), P(x 2), P(x 3)- és az események bekövetkezésének valószínűsége P(y 1), P(y 2)– kiszámítja a hipotézisek utólagos valószínűségét, például az első hipotézis valószínűségét, feltéve, hogy fehér golyót húzunk – P(x 1|1-nél).

Térjünk vissza az (1) képlethez. Az első hipotézis kezdeti valószínűsége az volt P(x 1) = 1/3. Valószínűséggel P(y 1) = 1/2 húzhatnánk egy fehér golyót, és valószínűséggel P(y 2) = 1/2- fekete. Kihúztuk a fehéret. A fehér rajzolásának valószínűsége, feltéve, hogy az első hipotézis igaz P(y 1|x 1) = 1. Bayes képlete szerint a fehér kihúzása óta az első hipotézis valószínűsége 2/3-ra nőtt, a második hipotézis valószínűsége továbbra is 1/3, a harmadik hipotézis valószínűsége pedig nulla.

Könnyen ellenőrizhető, hogy ha fekete golyót húzunk, a posterior valószínűségek szimmetrikusan változnának: P(x 1|y 2) = 0, P(x 2|y 2) = 1/3, P(x 3|y 2) = 2/3.

Íme, amit Pierre Simon Laplace írt a Bayes-képletről egy 1814-ben megjelent cikkében:

Ez az alapelve a véletlenelemzés azon ágának, amely az eseményekből az okokba való átmenetekkel foglalkozik.

Miért olyan nehéz megérteni Bayes képletét!? Véleményem szerint azért, mert a szokásos megközelítésünk az okoktól a következményekig érvelés. Például, ha egy urnában 36 golyó van, ebből 6 fekete, a többi fehér. Mennyi a valószínűsége annak, hogy fehér golyót rajzolunk? Bayes képlete lehetővé teszi, hogy az eseményektől az okokig (hipotézisek) jussunk el. Ha három hipotézisünk volt, és egy esemény bekövetkezett, akkor ez az esemény (és nem az alternatíva) pontosan hogyan befolyásolta a hipotézisek kezdeti valószínűségét? Hogyan változtak ezek a valószínűségek?

Úgy gondolom, hogy Bayes képlete nem csak a valószínűségekről szól. Megváltoztatja az észlelés paradigmáját. Mi a gondolatmenet a determinisztikus paradigma használatakor? Ha egy esemény megtörténik, mi az oka annak? Ha volt baleset, vészhelyzet, katonai konfliktus. Ki vagy mi volt a hibájuk? Hogyan gondolkodik egy bayesi megfigyelő? Mihez vezetett a valóság szerkezete adott eset ilyen-olyan megnyilvánulásra... Bayesian megérti, hogy in másképp az eredmény más is lehet...

Helyezzük el egy kicsit másképp a szimbólumokat az (1) és (2) képletekben:

Beszéljünk még egyszer arról, amit látunk. Egyenlő kezdeti (a priori) valószínűség mellett a három hipotézis egyike igaz lehet. Egyforma valószínűséggel húzhatunk fehér vagy fekete golyót. Kihúztuk a fehéret. Ezen új kiegészítő információk fényében felül kell vizsgálni a hipotézisek értékelését. Bayes képlete lehetővé teszi ezt számszerűen. Az első hipotézis (7. képlet) a priori valószínűsége az volt P(x 1), fehér golyót húzunk, az első hipotézis utólagos valószínűsége lesz P(x 1|1) pontnál. Ezek a valószínűségek egy tényezővel különböznek.

Esemény 1 bizonyítéknak nevezik, amely többé-kevésbé megerősít vagy cáfol egy hipotézist x 1. Ezt az arányt néha bizonyíték erejének is nevezik. Minél erősebb a bizonyíték (minél jobban eltér az együttható az egységtől), annál nagyobb a megfigyelés ténye 1 megváltoztatja a priori valószínűséget, annál jobban eltér a posterior valószínűség a priortól. Ha az evidencia gyenge (együttható ~ 1), a posterior közel egyenlő a priorval.

Bizonyítvány 1 V = 2 idők megváltoztatták a hipotézis előzetes valószínűségét x 1(4. képlet). Ugyanakkor bizonyíték 1 nem változtatta meg a hipotézis valószínűségét x 2, hiszen ereje = 1 (5. képlet).

Általában a Bayes-képlet a következő formában van:

x egy valószínűségi változó (egymást kizáró hipotézisek halmaza), amely a következő értékeket veszi fel: x 1, x 2, … , xn. nál nél egy valószínűségi változó (egymást kizáró események halmaza), amely a következő értékeket veszi fel: 1, 2-kor, … , nál néln. Bayes képlete lehetővé teszi, hogy megtalálja a hipotézis utólagos valószínűségét xén amikor egy esemény bekövetkezik y j. A számláló a hipotézis a priori valószínűségének szorzata xénP(xén) egy esemény bekövetkezésének valószínűsége y j ha a hipotézis igaz xénR(y j|xén). A nevezőben - ugyanaz, mint a számlálóban, de minden hipotézis szorzatainak összege. Ha kiszámítjuk a nevezőt, akkor megkapjuk az esemény bekövetkezésének teljes valószínűségét nál nélj(ha bármelyik hipotézis igaz) – R(y j) (mint az 1–3. képletekben).

Még egyszer a bizonyítékokról. Esemény y j további információkat nyújt, amelyek lehetővé teszik a hipotézis előzetes valószínűségének felülvizsgálatát xén. A bizonyíték ereje - - a számlálóban az esemény bekövetkezésének valószínűségét tartalmazza y j ha a hipotézis igaz xén. A nevező az esemény bekövetkezésének teljes valószínűsége nál nélj(vagy egy esemény bekövetkezésének valószínűsége nál nélj minden hipotézisre átlagolva). nál nélj fent a hipotézishez xén mint az összes hipotézis átlaga, akkor a bizonyítékok a hipotézis kezébe kerülnek xén, növelve a posterior valószínűségét R(y j|xén). Ha egy esemény bekövetkezésének valószínűsége nál nélj alább a hipotézishez xén mint az összes hipotézis átlaga, akkor a bizonyítékok csökkentik a posterior valószínűséget R(y j|xén) Mert hipotéziseket xén. Ha egy esemény bekövetkezésének valószínűsége nál nélj a hipotézishez xén megegyezik az összes hipotézis átlagával, akkor a bizonyítékok nem változtatnak a posterior valószínűségen R(y j|xén) Mert hipotéziseket xén.

Íme néhány példa, amelyek remélem megerősítik a Bayes-képlet megértését.

2. feladat: Két lövő egymástól függetlenül lő ugyanarra a célpontra, mindegyik egy lövést ad le. Az első lövő célba találásának valószínűsége 0,8, a másodiké 0,4. Lövés után egy lyukat találtak a célban. Határozza meg annak valószínűségét, hogy ez a lyuk az első lövészé. .

3. feladat: A megfigyelt objektum két állapotú lehet: H 1 = (működő) és H 2 = (nem működik). Ezen állapotok a priori valószínűségei Р(Н 1) = 0,7, Р(Н 2) = 0,3. Két információforrás létezik, amelyek egymásnak ellentmondó információkat szolgáltatnak egy objektum állapotáról; az első forrás arról számol be, hogy az objektum nem működik, a második - hogy működik. Ismeretes, hogy az első forrás 0,9-es valószínűséggel ad helyes információt, és 0,1-es valószínűséggel - hibás. A második forrás kevésbé megbízható: 0,7-es valószínűséggel ad helyes információt, 0,3-as valószínűséggel - hibás. Határozza meg a hipotézisek utólagos valószínűségét! .

Az 1–3. feladatok E.S. Ventzel, L.A. Ovcharov tankönyvéből származnak. Valószínűségszámítás és mérnöki alkalmazásai, 2.6. fejezet Hipotézistétel (Bayes-képlet).

A 4. feladat a könyv 4.3 Bayes-tétele részéből származik.

INFORMÁCIÓTECHNOLÓGIA, SZÁMÍTÁSTUDOMÁNY ÉS MENEDZSMENT

A Bayes-képlet alkalmazhatóságáról

DOI 10.12737/16076

A. I. Dolgov**

1 Részvénytársaság "Az irányítási, navigációs és kommunikációs rendszerek rádiós megfigyelésének tervezőirodája", Rostov-on-Don, Orosz Föderáció

A Bayes" képlet alkalmazhatóságáról*** A. I. Dolgov1**

1 "Az irányítási, navigációs és kommunikációs rendszerek felügyeletével foglalkozó tervezőiroda" JSC, Rostov-on-Don, Orosz Föderáció

A tanulmány tárgya a Bayes-képlet. Jelen munka célja a képlet elemzése és hatókörének bővítése. Elsődleges feladat a problémával foglalkozó publikációk tanulmányozása, amelyek lehetővé tették a Bayes-formula alkalmazásának hibás eredményhez vezető hiányosságainak azonosítását. A következő feladat a Bayes-formula olyan módosításainak megalkotása, amelyek figyelembe veszik a különböző egyedi bizonyítékokat és helyes eredményeket kapnak. Végül pedig a konkrét kiindulási adatok példáján összehasonlítjuk a Bayes-formulával kapott helytelen eredményeket és a javasolt módosításokkal számított helyes eredményeket. A vizsgálat során két módszert alkalmaztak. Elsőként a Bayes-formula és annak módosításai felírásához használt ismert kifejezések megalkotásának elveinek elemzését végeztem el. Másodszor, elvégezték az eredmények összehasonlító értékelését (beleértve a mennyiségi értékelést is). A javasolt módosítások a Bayes-formula szélesebb körű alkalmazását teszik lehetővé elméletben és gyakorlatban, beleértve az alkalmazott problémák megoldását is.

Kulcsszavak: feltételes valószínűségek, inkompatibilis hipotézisek, kompatibilis és inkompatibilis bizonyítékok, normalizálás.

Bayes" formula a kutatás tárgya. A munka célja a képlet alkalmazásának elemzése és alkalmazhatósági körének kiszélesítése. Az első prioritású probléma a Bayes" formula hátrányainak azonosítása a releváns publikációk tanulmányozása alapján, ami téves eredmények. A következő feladat a Bayes" képletmódosítások megalkotása, hogy különféle egyedi indikációk számbavételét biztosítsák a helyes eredmények elérése érdekében. Végül pedig a Bayes" formula alkalmazásával kapott helytelen eredményeket összehasonlítjuk a javasolt képletmódosításokat a konkrét kezdeti adatok példájával. A vizsgálatok során két módszert alkalmaznak. Először a Bayes-formula és annak módosításai rögzítésére használt ismert kifejezések megalkotásának elveinek elemzése történik. Másodszor, elvégzik az eredmények összehasonlító értékelését (beleértve a mennyiségi értékelést is). A javasolt módosítások a Bayes-formula szélesebb körű alkalmazását teszik lehetővé mind elméletben, mind gyakorlatban, beleértve az alkalmazott problémák megoldását is.

Kulcsszavak: feltételes valószínűségek, inkonzisztens hipotézisek, kompatibilis és inkompatibilis indikációk, normalizálás.

Bevezetés. A Bayes-képletet egyre gyakrabban alkalmazzák az elméletben és a gyakorlatban, beleértve az alkalmazott problémák számítógépes technológia segítségével történő megoldását is. A kölcsönösen független számítási eljárások alkalmazása különösen hatékonysá teszi ennek a képletnek az alkalmazását többprocesszoros számítási rendszerek problémáinak megoldásakor, mivel ebben az esetben a párhuzamos megvalósítás az általános séma szintjén történik, és a következő algoritmus vagy problémaosztály hozzáadásakor. , nincs szükség a párhuzamosítási munkák ismételt elvégzésére.

A tanulmány tárgya a Bayes-formula alkalmazhatósága inkonzisztens hipotézisek utólagos feltételes valószínűségeinek összehasonlító becslésére különböző egyedi bizonyítékok mellett. Amint az elemzésből kiderül, ilyen esetekben az összeférhetetlen események normalizált valószínűsége tartozik

S X<и ч и

IS eö ÉS IS X X<и H

„A munkát egy kezdeményezéses kutatási projekt részeként végeztük.

** E-mail: [e-mail védett]

""A kutatás a független K+F keretein belül zajlik.

különböző teljes rendezvénycsoportokhoz . Ugyanakkor az összehasonlított eredmények nem felelnek meg a valós statisztikai adatoknak. Ez a következő tényezőknek köszönhető:

Helytelen normalizálást alkalmaznak;

A vizsgált bizonyítékok metszéspontjainak meglétét vagy hiányát nem veszik figyelembe.

Az azonosított hiányosságok kiküszöbölése érdekében a Bayes-képlet alkalmazhatóságának eseteit azonosítjuk. Ha a megadott képlet nem alkalmazható, megoldódik a módosításának megalkotásának problémája, ami biztosítja, hogy a helyes eredmények elérése érdekében a különböző egyedi bizonyítékokat figyelembe vegyék. Konkrét kiindulási adatok példáján elvégeztük az eredmények összehasonlító értékelését:

Hibás - a Bayes-képlet alapján készült;

Helyes – a javasolt módosítással számítva.

Kiinduló pozíciók. A következő állítások a valószínűségi arányok megőrzésének elvén alapulnak: „Az események valószínűségeinek helyes feldolgozása csak akkor lehetséges, ha egy közös normalizáló osztóval normalizálunk, amely biztosítja a normalizált valószínűségek arányának egyenlőségét a megfelelő normalizált arányok arányaival. valószínűségek” . Ez az elv a valószínűségszámítás szubjektív alapja, de nem tükröződik megfelelően a modern oktatási, tudományos és műszaki irodalomban.

Ha ezt az elvet megsértik, a vizsgált események valószínűségére vonatkozó információ torzul. A torz információk alapján kapott eredmények és a meghozott döntések a valós statisztikai adatokhoz képest alkalmatlannak bizonyulnak.

Ebben a cikkben a következő fogalmakat használjuk:

Az elemi esemény olyan esemény, amely nem osztható elemekre;

Kombinált esemény - az elemi események egyik vagy másik kombinációját képviselő esemény;

Kompatibilis események - olyan események, amelyek valószínűségük összehasonlító értékelése során bizonyos esetekben összeegyeztethetetlenek, más esetekben pedig együttesek;

Az inkompatibilis események olyan események, amelyek minden esetben nem kompatibilisek.

A valószínűségi szorzási tétel szerint az U ^ és elemi események szorzatának P (U ^ E) valószínűsége

E kiszámítása a P(Uk E) = P(E)P(U^E) valószínűségek szorzataként történik. Ebben a tekintetben a Bayes-képlet gyakran

Р(Ик\Е) = - - - formában van írva, ami leírja az utólagos feltételes valószínűségek meghatározását

Az Uk (k = 1,...n) hipotézisek P(U^E) a P(U^E) P(U^E) a priori valószínűségeinek normalizálása alapján, amelyek figyelembe vették az I-től E-ig kombinált összeegyeztethetetlen eseményeket. Ezen események mindegyike egy termék, amelynek tényezői a figyelembe vett hipotézisek egyike és egy számonkérhető bizonyíték. Ugyanakkor mindent figyelembe vesznek

Az uIKE események (k = 1,...n) az uIKE nem kompatibilis kombinált események teljes csoportját alkotják, mivel

amellyel P(Ik E) valószínűségeiket normalizálni kell a teljes valószínűségi képlet figyelembevételével, amely szerint

raj P(E) = 2 P(Uk)P(E\Uk). Ezért a Bayes-képletet leggyakrabban a leggyakrabban használt formában írják le:

P(Uik) P(EIK)

P(Uk \ E) \u003d -. (1)

^ a Bayes-képlet kationja.

Az alkalmazott problémák megoldását célzó Bayes-formula felépítésének jellemzőinek elemzése, valamint példák

„és gyakorlati alkalmazása lehetővé teszi számunkra, hogy fontos következtetést vonjunk le a lehetőség mértéke alapján összehasonlított kombinált események teljes csoportjának kiválasztásával kapcsolatban (amelyek mindegyike két elemi esemény – a hipotézisek és a felvett bizonyítékok) eredménye. figyelembe). Az ilyen döntést a döntéshozó szubjektív módon, a helyzet tipikus körülményeiben rejlő objektív kiindulási adatok: az értékelt hipotézisek típusa és száma, valamint a konkrétan figyelembe vett bizonyítékok alapján hozza meg.

A hipotézisek összehasonlíthatatlan valószínűségei egyetlen ellentmondásos bizonyítékkal. A Bayes-képletet hagyományosan olyan utólagos feltételes valószínűségek meghatározására használják, amelyek a lehetőség mértékét tekintve nem összehasonlíthatók.

a H^ hipotézisek valószínűsége egyetlen összeférhetetlen bizonyítékkal, amelyek mindegyike „megjelenhet

csak e hipotézisek bármelyikével kombinálva. Ebben az esetben a teljes csoportok és a HkE kerülnek kiválasztásra, kombinálva

fürdőrendezvények termékek formájában, melyek tényezői az egyik bizonyíték a c. (1=1,...,m) és egy

a vizsgált n hipotézis közül.

A Bayes-képlet az egyes ilyen teljes csoportok kombinált eseményeinek valószínűségének összehasonlító értékelésére szolgál, amely nem csak a figyelembe vett bizonyítékokban különbözik a többi teljes csoporttól, hanem általános esetben a H hipotézistípusokban is. és (vagy) n számuk (lásd például )

RNky = P(Hk) P(eH)

% P(Hk) P(Er\Hk) k = 1

Egy speciális esetben n = 2 esetén

RNk\E,~ P(Hk) P(EN)

% P(Hk) P(E,\H k) k = 1

és a kapott eredmények helyesek a valószínűségi arányok megmaradásának elvének betartása miatt:

P(H1E,) _ P(H 1)P(E,\H1) / P(H2) P(E,\H2) = P(H 1) P(E,\H1)

P(H 2 = % PW1!)

A kombinált események teljes csoportja kiválasztásának szubjektivitása a lehetőség mértékét tekintve (val

bizonyos változó elemi események) lehetővé teszi a teljes eseménycsoport kiválasztását és a Hk E ■ s

az E ■ () elemi esemény tagadásával, és írjuk fel a Bayes-képletet (1 = 1,.. ., m) a következőképpen:

P(Hk \ E) -= - RNSh ±.

% P(Hk)P(E, Hk)

Egy ilyen képlet is alkalmazható, és lehetővé teszi a helyes eredmények elérését, ha a kiszámításra kerül

a normalizált valószínűségeket a különböző figyelembe vett hipotézisek szerint hasonlítják össze, de nem a különböző hipotézisekkel

hatóság. ¡^

A hipotézisek összehasonlítható valószínűsége egyetlen ellentmondásos bizonyíték mellett. Ismert publica-^ alapján ítélve

a hipotézisek utólagos feltételes valószínűségeinek összehasonlító értékelésére szolgál különféle egyedi bizonyítékok esetén.

hatóság. Ugyanakkor nem fordítanak figyelmet a következő tényre. Ezekben az esetekben az események különböző teljes csoportjaiba tartozó inkompatibilis (inkompatibilis) kombinált események normalizált ^ valószínűségét hasonlítjuk össze. Ebben az esetben azonban a Bayes-képlet nem alkalmazható, mivel olyan kombinált eseményeket hasonlítanak össze, amelyek nem szerepelnek egy teljes csoportban, amelyek valószínűségeinek normalizálása különböző n normalizáló osztók segítségével történik. Az inkompatibilis (inkompatibilis) kombinált események normalizált valószínűségei csak akkor hasonlíthatók össze, ha azok ugyanahhoz a teljes eseménycsoporthoz tartoznak, és ¡3-mal normalizálva vannak egy közös osztóval, amely egyenlő a teljes §-ban szereplő összes normalizált esemény valószínűségének összegével.

Általában a következők összeegyeztethetetlen bizonyítéknak tekinthetők:

Két bizonyíték (például a bizonyíték és annak tagadása); ^

Három bizonyíték (például játékhelyzetben nyer, veszít és döntetlen); ^

Négy ajánlás (különös tekintettel a sportra, a győzelemre, a vereségre, a döntetlenre és az újrajátszásra) stb.

Tekintsünk egy meglehetősen egyszerű példát (amely megfelel az alábbi példának) a Bayes-képlet ^ alkalmazására a H ^ hipotézis utólagos feltételes valószínűségeinek meghatározására két inkompatibilis eseményre.

bizonyíték formájában L]- és annak tagadása L]

P(H, k) - ^ . ^ P(A^k" , (2)

] E P(Hk> P(A]\vk> k - 1

■ _ P(HkA ]) P(Hk> P(A ]\nk>).

P(H,\A,) ----k-]-. (3)

V k\A]> P(A > n

] E P(Hk) P(A]\Hk) k -1

A (2) és (3) esetben szubjektíven kiválasztott teljes csoportokat hasonlítottak össze a kompozíció lehetőségének mértéke szempontjából.

a binned események rendre a halmazok és H-tól A-ig és H-tól A-ig. Ez az eset áll fenn, ha a képlet

k-1 k ] k-1 k ]

A Bayes nem alkalmazható, mivel sérül a valószínűségi arányok megőrzésének elve - a normalizált valószínűségek arányának és a megfelelő normalizált valószínűségek arányának egyenlősége nem figyelhető meg:

P(H–A]] P(Hk) P(A]\Hk) / P(Hk) P(A]\Hk) P(Hk) P(A] Hk)

P(Hk E P(Hk) P(A]\Hk)/ E P(Hk) P(A]\Hk) P(Hk) P(A] Hk)

k - 1 /k - 1 A valószínűségi arányok megőrzésének elve szerint az eseményvalószínűségek helyes feldolgozása csak akkor lehetséges, ha a normalizálás egyetlen közös normalizáló osztóval egyenlő az összes összehasonlított normalizált kifejezés összegével. Ezért

E P(Hk)P(A]\Hk) + E P(Hk)P(A]\Hk) - E P(Hk)[P(A]\Hk) + P(Hk) P(A]\Hk )] - EP (Hk) - 1. -1 - -1 - -1 - -1

Így kiderül a tény, hogy a Bayes-képletnek vannak olyan fajtái, amelyek különböznek

a normalizáló osztó hiányáról ismert:

A,) - P(H) P(A]\Hk), P(Hk A,) - P(H) P(A, Hk). (4)

J I-re ■> to

Ebben az esetben megfigyelhető a normalizált valószínűségek arányának a megfelelő normalizált valószínűségek arányaival való egyenlősége:

m^A^ P(Hk) P(A]\Hk)

A,) P(H k) P(A, Hk)

Az összeegyeztethetetlen események nem hagyományosan rögzített teljes csoportjainak szubjektív megválasztása alapján lehetőség nyílik a Bayes-formula bizonyítékokat tartalmazó módosításainak, illetve azok tagadásának egy-egy számának növelésére. Például a kombinált események legteljesebb csoportja

u és Hk /"./ ^ u és Hk E\ megfelel (figyelembe véve a normalizáló osztó hiányát) a módosítási képletnek: =1 A"=1; \u003d 1 bayesi

P(Hk\~) - P(Hk) ПЁ^^^

ahol egy elemi esemény bizonyíték formájában E \ e II II / "/ a jelzett halmaz egyik eleme

o A bizonyítékok megtagadásának hiányában, azaz amikor E\ \u003d // e és /"./,

^ P(H\E) P(Hk) P(E,\Hk)

E P(Hk) P(E \ Hk) k - 1

Így a Bayes-formula módosítása, amely a hipotézisek feltételes valószínűségeit hivatott meghatározni az egyes inkompatibilis bizonyítékok lehetőségének mértéke szempontjából, a következő. A számláló tartalmazza a teljes csoportot alkotó egyesített inkompatibilis események normalizált valószínűségét, a priori valószínűségek szorzataként kifejezve, a nevező pedig az összes összegét tartalmazza.

normalizált valószínűségek. Ugyanakkor betartják a valószínűségi arányok megőrzésének elvét - és a kapott eredmény helyes.

Hipotézisek valószínűsége egyetlen kompatibilis bizonyíték mellett. A Bayes-képleteket hagyományosan a Hk (k = 1,...,n) hipotézisek utólagos feltételes valószínűségeinek meghatározására használják, összehasonlítva a lehetőség mértékével a több összeegyeztethetőnek tartott bizonyíték EL (1 = 1,..) egyike mellett. .,m). Különösen (lásd

például és ), amikor a Р(Н 1Е^) és Р(Н 1 Е2) utólagos feltételes valószínűségeket határozzuk meg mind a két kompatibilis Е1 és Е2 bizonyítékra, a következő képleteket használjuk:

P(H1)PE\H1)P(Hj)P(E2Hj)P(HJE1)=-1- és P(HJE2)=--1-. (5)

I P(Hk) PE\Hk) I P(Hk) P(E2 Hk)

k = 1 k = 1 Vegye figyelembe, hogy ez egy másik eset, amikor a Bayes-képlet nem alkalmazható. Ezenkívül ebben az esetben két hiányosságot kell kiküszöbölni:

A kombinált események valószínűségének illusztrált normalizálása hibás, mivel a vizsgált események különböző teljes csoportjaiba tartoznak;

A HkEx és HkE2 kombinált események szimbolikus rekordjai nem tükrözik azt a tényt, hogy a figyelembe vett E x és E 2 bizonyítékok kompatibilisek.

Az utolsó hátrány kiküszöbölésére a kombinált események részletesebb nyilvántartása használható, figyelembe véve azt a tényt, hogy az E1 és E2 kompatibilis bizonyítékok egyes esetekben összeegyeztethetetlenek lehetnek, más esetekben pedig együttes:

HkE1 = HkE1 E2 és HkE2 = HkE 1E2+HkE1 E2, ahol E1 és E 2 az E1 és E 2 ellentéte.

Nyilvánvaló, hogy ilyen esetekben a Hk E1E2 események szorzatát kétszer veszik figyelembe. Ráadásul újra külön is figyelembe lehet venni, de ez nem történik meg. A helyzet az, hogy a vizsgált helyzetben a vizsgált helyzetet három valószínűsíthetően összeegyeztethetetlen esemény befolyásolja: HkE1E2, HkE 1E2 és

Hk E1E2. Ugyanakkor a döntéshozó számára csak a lehetőség mértékének felmérése az érdekes

két inkompatibilis kombinált esemény: HkE1 E2 és HkE 1E2, ami csak g figyelembevételének felel meg

egyetlen bizonyíték. ¡C

Így a Bayes-formula egy módosításának megalkotásakor az utólagos feltételes értékek meghatározásához,

Az egyetlen kompatibilis bizonyítékkal rendelkező hipotézisek valószínűségének a következőkön kell alapulnia. Elfogadó személy ^

döntése, arra vagyunk kíváncsiak, hogy pontosan milyen elemi eseményről van szó, amelyet egyik vagy másik bizonyíték képvisel

szám szerint konkrét körülmények között történt. Ha más elemi esemény következik be K-ben

egységes igazolás formájában a határozat felülvizsgálata szükséges, az n összehasonlító értékelés eredménye miatt.

hipotézisek utólagos feltételes valószínűségei a valós általánost befolyásoló egyéb feltételek nélkülözhetetlen figyelembevételével

beállítás. 3

Vezessük be a következő jelölést: HkE- egy (és csak egy) inkompatibilis kombinált ko-^

lény, ami abban áll, hogy m > 1 elemi eseményből Ei (i = 1,...,m) a hipotézissel együtt

Hk, egy Ex elemi esemény történt, más elemi esemény nem történt. se"

A legegyszerűbb esetben két összeférhetetlen bizonyítékot veszünk figyelembe. Ha megerősítik

ezek közül az egyik várható, a bizonyíték feltételes valószínűségét általános formában az l képlet fejezi ki

P(Hk E-) = P(Ei\Hk) -P(EjE^Hk) = P(Ei\Hk) -P(M^Hk)P(M^Hk) , i = 1, -2 (6) g

A képlet érvényessége jól látható (1. ábra).

Rizs. 1. P(Hk E-) számításának geometriai értelmezése / = 1,...,2 esetén feltételesen független bizonyítékokkal

P(K1K2\Hk) = p(E\Hk)P(E2\Hk),

ezért figyelembe véve (6)

P(Hk E-) = PE Hk) - P(E1 Hk) P(E21Hk) , = 1,.,2. (7)

Hasonlóképpen a három (/ = 1,...,3) összeférhetetlen esemény egyikének P(HkE-) valószínűségét HkE^ a képlet fejezi ki.

Például i = 1 esetén:

p(HkEl) = P(Ei\Hk)-[ S P(Ei\Hk)P(Ej\Hk) ] + P(EiE2E3Hk)

p(HkE-) = P(E7|Hk)- P(E]E^Hk)- P(E7EjHk) + P(E]E2E3\Hk)

Ennek a képletnek az érvényességét egyértelműen megerősíti az ábrán bemutatott geometriai értelmezés.

Rizs. 2. P(Hk E-) számításának geometriai értelmezése / = 1,...,3 esetén

A matematikai indukció módszerével igazolható a P(Hk E-) valószínűség általános képlete tetszőleges számú e, 0=1,...,m bizonyítékra:

P(HkE-) = P(E, Hk) - m PE\Hk) P(E]\Hk) + 1 P(E\Hk) P(E]\Hk) P(E^Hk) + ■■■ + (-1)

] = 1(] * 0 ],1 * 1

A valószínűségi szorzási tétel segítségével a Р(НкЕ~-) feltételes valószínűséget két formában írjuk fel:

^ amiből az következik

P(Hk E -) = P(Hk) P(E-|Hk) = P(E-) P(Hk

E-)= P(HkE-) "" P(E-)

A teljes valószínűségi képlet segítségével P(Ei) = S P(H£) P(Ei Hk) kiderül, hogy

E-) \u003d P (HkET)

2 P(HkE-) k \u003d 1

A kapott képletbe behelyettesítve Р(НкЕ-) kifejezéseit a (8) jobb oldala formájában, megkapjuk a H^ (k =) hipotézisek a posteriori feltételes valószínűségeinek meghatározására szolgáló képlet végső alakját. 1, ..., n) a több összeférhetetlennek tekintett egyetlen bizonyíték egyikére: (E^\Hk)

P(Hk)[P(E,\Hk) - 2 P(E,\Hk) P(Ep k) +...+ (-1)m-1 P(P P(Erk)] P(H, E ~) =-] = 1(] * ■----(9)

k 1 p t t t

2 P(Hk) 2 [P(E,\Hk) - 2 P(EgHk) P(E^Hk) + ...+ (-1)m-1 P(P P (Ep k)]

k=1 , = 1 ) = 1() *,) ■! =1

Összehasonlító becslések. Meglehetősen egyszerű, de szemléltető példákat veszünk figyelembe, amelyek a két hipotézis egyikének számított utólagos feltételes valószínűségeinek elemzésére korlátozódnak, két egyetlen bizonyítékkal. 1. Hipotézisek valószínűsége inkompatibilis egyetlen bizonyíték mellett. Hasonlítsuk össze a (2) és (3) Bayes-képletekkel kapott eredményeket két L. = L és L. = L bizonyíték példáján a kiindulási adatokkal:

P(H1=0,7; P(H2)=0,3; P(L|H^=0,1; P(L\n1)=0,9; P(L\H2)=0,6 P(A\H2)=0,4 A H1 hipotézissel vett példákat tekintve a hagyományos (2) és (3) képletek a következő eredményekhez vezetnek:

P(N.) P(A\No 0 07

P (N, L) \u003d - 11 \u003d - \u003d 0,28,

2 P(Hk) P(A\Hk)k = 1

R(N L R(A\N 1) 0,63

P (N, L) \u003d - 11 \u003d - \u003d 0,84,

2 P(Hk) P(A\Hk) k = 1

osztják a P (H 1 L) \u003d P (H ^ P (L \ Hp \u003d 0,07; P (H ^ A) \u003d P (H 1) P (n | H ^ \u003d 0,63. 1 a javasoltból) képletek a következőkre vonatkozóan:

R<Н)Р(АНА-Р(А|Н1) _ 0,07

és a javasolt (4) képletekkel, amelyeknek nincs normalizáló osztója: „és

Így a javasolt képletek alkalmazása esetén a normalizált valószínűségek aránya megegyezik a normalizált valószínűségek arányával: K

rm f P(H 1) P(A\H 1) A11 |

Ha ismert képleteket használunk azonos arányú -;-=-= 0,11 normalizált veron

P(H 1) P(A\H 1) Ǥ

a számlálókban feltüntetett arányok, a kapott normalizált valószínűségek aránya: 2

P(H1) P(A\H1) P(A\H1) 0,63

P (H1 L) \u003d 0,28 P (H 1 L) \u003d 0,84

Vagyis a valószínűségi arányok megőrzésének elvét nem tartják be, és helytelen eredményeket kapnak. Ebben az esetben £

ismert képletek alkalmazása esetén a hipotézisek a posteriori feltételes és feltételes valószínűségeinek aránya (11) a helyes eredményektől (10) nagyon szignifikánsnak bizonyul, mivel

°, 33 - °, P x 100 \u003d 242%.. I

2. Hipotézisek valószínűségei kompatibilis egyetlen bizonyíték mellett. Hasonlítsuk össze a Bayes-képletekkel (5) és a megszerkesztett helyes módosítással (9) kapott eredményeket a következő kiindulási adatok felhasználásával:

P(H1=0,7; P(H2)=0,3; P(E1H1)=0,4; P(E2H1)=0,8; P(E1\H2)=0,7; P(E^H2)=0,2,113

A vizsgált példákban a H 2 hipotézissel a hagyományos (5) képletek használata esetén:

P(H2)P(E1H2)Q, 21

P(H2E1) =-2-!-2- = - = Q,429,

p(Hk) p(El Hk) k = 1

P(H 2) P(E 2 H 2) Q, Q6

P(H 2E 2) \u003d -2-- \u003d - \u003d 0,097.

I P(Hk) P(E 2 Hk) k = 1

A javasolt (9) képlet alkalmazása esetén a (7) figyelembevételével P(H

P(H2) 0,168

E.) ----- 0,291,

Z P(Hk) Z "

P(H2) 0,018

E0) ----- 0,031.

Z P(Hk) Z k - 1 i - 1

A javasolt helyes képletek használatakor ugyanazon nevezők miatt a P(H2) - arány

A számlálókkal jelölt normalizált valószínűségek egyenlők az aránnyal

P(H2)

normalizált valószínűségek:

Vagyis betartják a valószínűségi arányok megmaradásának elvét.

Ismert képletek alkalmazása esetén azonban a számlálókban feltüntetett normalizált valószínűségek arányával

P (H 2) P (E1 \ H 2) _ 0,21 _3 5 P (H 2) P (E 2 H 2) 0,06,

normalizált valószínűségek aránya:

P (H 2 = 0,429 \u003d 4,423. (13)

P(H2\e2) 0,097

Vagyis a valószínűségi arányok megmaradásának elvét, mint korábban, nem tartják tiszteletben. Ebben az esetben az ismert képletek alkalmazása esetén a hipotézisek a posteriori feltételes valószínűségei arányának (13) a helyes eredményektől (12) való relatív eltérésének értéke is igen jelentősnek bizonyul:

9,387 4,423 x 100 = 52,9%.

Következtetés. A Bayes-formulát és annak módosításait megvalósító, gyakorlati problémák megoldására javasolt specifikus formularelációk felépítésének elemzése lehetővé teszi a következők megállapítását. Az összehasonlítható 2 lehetséges kombinált esemény teljes csoportját a döntéshozó szubjektív módon választhatja ki. Ez a választás az objektív kiindulási adatokon alapul, amelyek egy tipikus helyzetre jellemzőek (az elemi események meghatározott típusai és száma - becsült hipotézisek és bizonyítékok). Gyakorlati érdekesség a teljes csoport egyéb lehetőségeinek szubjektív választása a lehetőség mértékét tekintve összehasonlítva.

kombinált események - így a képletarányok jelentős változatossága biztosított a Bayes-képlet módosításainak nem hagyományos változatainak megalkotásakor. Ez pedig alapja lehet a szoftveres implementáció matematikai támogatásának fejlesztésének, valamint az alkalmazott problémák megoldására szolgáló új képletkapcsolatok körének bővítésének.

Bibliográfiai lista

1. Gnedenko, B. V. Elemi bevezetés a valószínűségelméletbe / B. V. Gnedenko, A. Ya. Khinchin. - 114 New York: Dover Publications, 1962. - 144 rubel.

2. Venttsel, E. S. Valószínűségelmélet / E. S. Venttsel. - 10. kiadás, törölve. - Moszkva: Felsőiskola, 2006. - 575 p.

3. Andronov. A. M., Valószínűségszámítás és matematikai statisztika / A. M. Andronov, E. A. Kopytov, L. Ya. Gringlaz. - Szentpétervár: Péter, 2004. - 481 p.

4. Zmitrovich, A. I. Intelligens információs rendszerek / A. I. Zmitrovich. - Minszk: TetraSistems, 1997. - 496 p.

5. Chernorutsky, I. G. Döntéshozatali módszerek / I. G. Chernorutsky. - Szentpétervár: BHV-Petersburg, 2005. - 416 p.

6 Naylor, C.-M. Építsd meg saját szakértői rendszeredet / C.-M. Naylor. - Chichester: John Wiley & Sons, 1987. - 289 p.

7. Romanov, V. P. Intelligens információs rendszerek a gazdaságban / V. P. Romanov. - 2. kiadás, törölve.

Moszkva: vizsga, 2007. - 496 p.

8. Gazdasági hatékonyság és versenyképesség / D. Yu. Muromtsev [és mások]. - Tambov: Tambov Kiadó. állapot tech. un-ta, 2007.- 96 p.

9. Dolgov, A. I. A Bayes-formula helyes módosításai párhuzamos programozáshoz / A. I. Dolgov // Szuperszámítógépes technológiák: a 3. összoroszországi anyagok. tudományos-műszaki konf. - Rostov-on-Don. - 2014.- 1. évf. - S. 122-126.

10. A. I. Dolgov, A Bayes-formula módosításainak helyességéről / A. I. Dolgov, Vestnik Don. állapot tech. egyetemi

2014. - V. 14., 3. szám (78). - S. 13-20.

1. Gnedenko, B.V., Khinchin, A.Ya. Elemi bevezetés a valószínűségelméletbe. New York: Dover Publications, 1962, 144 p.

2 Ventsel, E.S. Teoriya veroyatnostey. 10. kiadás, újraimpr. Moszkva: Vysshaya shkola, 2006, 575 p. (oroszul).

3. Andronov, A.M., Kopytov, E.A., Gringlaz, L.Y. Teoriya veroyatnostey i matematicheskaya statisztika. Szentpétervár: Piter, 2004, 481 p. (oroszul).

4. Zmitrovics, A.1. Intellektuális "nye informatsionnye sistemy. Minsk: TetraSistems, 1997, 496 p. (orosz nyelven).

5. Csernoruckij, I.G. Módszertan prinyatiya resheniy. Szentpétervár: BKhV-Peterburg, 2005, 416 p. (oroszul).

6 Naylor, C.-M. Építse fel saját szakértői rendszerét. Chichester: John Wiley & Sons, 1987, 289 p.

7. Romanov, V.P. Intellektuális "nye informatsionnye sistemy v ekonomike. 2. kiadás, reimpr. Moszkva: Ekzamen, 2007, 496 p. (orosz nyelven).

8. Muromtsev, D. Y. és mtsai. Ekonomicheskaya effektivnost" i konkurentosposobnost". Tambov: Izd-vo Tamb. gos. technológia un-ta, 2007, 96 p. (oroszul). IB

9. Dolgov, A1. Korrektnye modifikatsii formula Bayesa dlya párhuzamos "nogo programrovaniya. Superkomp" yuternye technologii: mat-ly 3-y vseros. tudományos-technikai. konf. Rostov-on-Don, 2014, vol. 1, pp. 122-126 (oroszul). ^

10. Dolgov, A1. O korrektnosti modifikatsiy formulay Bayesa. ↑ Vestnik of DSTU, 2014, vol. 14. sz. 3 (78), pp. 13-20 (oroszul). *

Ki az a Bayes? És mi köze ennek a menedzsmenthez? – következhet egy egészen jogos kérdés. Egyelőre fogadjon szót: ez nagyon fontos! .. és érdekes (legalábbis számomra).

Milyen paradigmában működik a legtöbb vezető: ha megfigyelek valamit, milyen következtetéseket vonhatok le belőle? Mit tanít Bayes: minek kell valójában lennie ahhoz, hogy megfigyelhessem ezt a valamit? Így fejlődik minden tudomány, és erről írja (emlékezetből idézek): akinek nincs a fejében elmélet, az egyik ötlettől a másikig ódzkodik a különféle események (megfigyelések) hatására. Nem hiába mondják: nincs gyakorlatiasabb egy jó elméletnél.

Példa a gyakorlatból. A beosztottam hibázik, és a kollégám (egy másik osztály vezetője) azt mondja, hogy vezetői befolyást kellene gyakorolni a hanyag alkalmazottra (vagyis megbüntetni/szidni). És úgy tudom, hogy ez az alkalmazott havonta 4-5 ezret hajt végre azonos típusú műveleteket, és ezalatt legfeljebb 10 hibát követ el. Érzi a különbséget a paradigmában? A kollégám reagál a megfigyelésre, és eleve tudomásom van arról, hogy egy alkalmazott bizonyos számú hibát vét, tehát egy másik nem befolyásolta ezt a tudást... Ha most a hónap végén kiderül, hogy vannak, pl. például 15 ilyen hiba! .. Ez már ok lesz a szabványok be nem tartása okainak vizsgálatára.

Meg van győződve a bayesi megközelítés fontosságáról? Érdekelt? Remélem". És most egy légy a kenőcsben. Sajnos a Bayes-féle ötletek ritkán adódnak elsőre. Őszintén nem volt szerencsém, mert a népi irodalom révén ismerkedtem meg ezekkel a gondolatokkal, amelyek elolvasása után sok kérdés maradt. Amikor jegyzetírást terveztem, összegyűjtöttem mindent, amit korábban Bayes szerint felvázoltam, és azt is tanulmányoztam, amit az interneten írnak. Bemutatom a legjobb tippemet a témával kapcsolatban. Bevezetés a Bayes-féle valószínűségbe.

Bayes tételének levezetése

Tekintsük a következő kísérletet: elnevezzük a szegmensen fekvő tetszőleges számot, és rögzítjük, ha ez a szám például 0,1 és 0,4 között van (1a. ábra). Ennek az eseménynek a valószínűsége egyenlő a szegmens hosszának a szegmens teljes hosszához viszonyított arányával, feltéve, hogy a számok előfordulnak a szakaszon azonos valószínűségű. Matematikailag ez leírható p(0,1 <= x <= 0,4) = 0,3, или кратко R(x) = 0,3, ahol R- valószínűség, x egy valószínűségi változó a tartományban, x tartományban egy valószínűségi változó. Vagyis a szegmens eltalálásának valószínűsége 30%.

Rizs. 1. Valószínűségek grafikus értelmezése

Most vegyük figyelembe az x négyzetet (1b. ábra). Tegyük fel, hogy meg kell neveznünk számpárokat ( x, y), amelyek mindegyike nagyobb nullánál és kisebb egynél. Annak a valószínűsége x(első szám) a szegmensen belül lesz (kék terület 1), egyenlő a kék terület területének és a teljes négyzet területének arányával, azaz (0,4 - 0,1) ) * (1 - 0) / (1 * 1) = 0, 3, azaz ugyanaz a 30%. Annak a valószínűsége y a szegmensen belül van (2. zöld terület) egyenlő a zöldfelület területének és a teljes négyzet területének arányával p(0,5 <= y <= 0,7) = 0,2, или кратко R(Y) = 0,2.

Mit lehet egyszerre megtudni az értékekről xÉs y. Például mennyi a valószínűsége annak, hogy mindkettő xÉs y a megfelelő adott szegmensekben vannak? Ehhez ki kell számítania a 3. tartomány területének (a zöld és kék csíkok metszéspontja) és a teljes négyzet területének arányát: p(x, Y) = (0,4 – 0,1) * (0,7 – 0,5) / (1 * 1) = 0,06.

Most tegyük fel, hogy tudni akarjuk, mennyi ennek a valószínűsége y az intervallumban van, ha x már a tartományban van. Azaz valójában van egy szűrőnk, és amikor párokat hívunk ( x, y), akkor azonnal eldobjuk azokat a párokat, amelyek nem felelnek meg a megtalálás feltételének x adott intervallumban, majd a szűrt párokból azokat számoljuk, amelyekre y kielégíti a feltételünket, és a valószínűséget tekintsük azon párok számának hányadosának, amelyek esetében y a fenti szegmensben található a szűrt párok teljes számához (vagyis amelyhez x szegmensben fekszik). Ezt a valószínűséget így írhatjuk fel p(Y|x nál nél x lőtt a tartományban." Nyilvánvaló, hogy ez a valószínűség egyenlő a 3. terület és az 1. kék terület területének arányával. A 3. terület területe (0,4 - 0,1) * (0,7 - 0,5) = 0,06, és a kék terület területe 1 ( 0,4 - 0,1) * (1 - 0) = 0,3, akkor ezek aránya 0,06 / 0,3 = 0,2. Más szóval, a megtalálás valószínűsége y a szegmensen, feltéve, hogy x szegmenshez tartozik p(Y|x) = 0,2.

Az előző bekezdésben tulajdonképpen megfogalmaztuk az azonosságot: p(Y|x) = p(x, Y) /p( x). Ez így szól: "ütés valószínűsége nál nél tartományban, feltéve, hogy x tartományba eső találat egyenlő az egyidejű találat valószínűségének arányával x tartományban és nál nél tartományban, az elütés valószínűségére x a tartományba."

Analógia alapján vegyük figyelembe a valószínűséget p(x|Y). Párokat hívunk x, y), és szűrje ki azokat, amelyekre y 0,5 és 0,7 között van, akkor annak a valószínűsége x abban a szegmensben van, feltéve, hogy y szegmenshez tartozó érték egyenlő a 3. terület és a 2. zöldterület területének arányával: p(x|Y) = p(x, Y) / p(Y).

Vegye figyelembe, hogy a valószínűségek p(x, Y) És p(Y, X) egyenlőek, és mindkettő egyenlő a 3. zóna területének és a teljes négyzet területének arányával, de a valószínűségek p(Y|x) És p(x|Y) nem egyenlő; míg a valószínűség p(Y|x) egyenlő a 3. terület és az 1. terület területének arányával, és p(x|Y) – a 3. tartománytól a 2. tartományig. Vegye figyelembe azt is p(x, Y) gyakran így jelölik p(x&Y).

Tehát két definíciónk van: p(Y|x) = p(x, Y) /p( x) És p(x|Y) = p(x, Y) / p(Y)

Írjuk át ezeket az egyenlőségeket a következőképpen: p(x, Y) = p(Y|x)*p( x) És p(x, Y) = p(x|Y) * p(Y)

Mivel a bal oldalak egyenlőek, a jobb oldalak is egyenlőek: p(Y|x)*p( x) = p(x|Y) * p(Y)

Vagy átírhatjuk az utolsó egyenlőséget a következőképpen:

Ez Bayes tétele!

Lehetséges, hogy ilyen egyszerű (majdnem tautologikus) transzformációkból nagyszerű tétel születik!? Ne siesse el a következtetéseket. Beszéljünk még egyszer arról, amit kaptunk. Volt némi kezdeti (a priori) valószínűség R(X) hogy a valószínűségi változó x a szegmensen egyenletesen eloszló tartományba esik x. Valami esemény történt Y, melynek eredményeként megkaptuk ugyanannak a valószínűségi változónak a posteriori valószínűségét x: R(X|Y), és ez a valószínűség eltér ettől R(X) együtthatóval. Esemény Y bizonyítéknak nevezett, többé-kevésbé megerősítő vagy cáfoló x. Ezt az együtthatót néha nevezik bizonyíték ereje. Minél erősebb az evidencia, annál inkább változtatja meg az Y megfigyelés ténye a priori valószínűséget, annál inkább tér el a posterior valószínűség a priortól. Ha a bizonyítékok gyengeek, a posterior közel azonos a korábbival.

Bayes-képlet diszkrét valószínűségi változókhoz

Az előző részben levezettük a Bayes-képletet az intervallumon definiált folytonos x és y valószínűségi változókra. Vegyünk egy példát diszkrét valószínűségi változókkal, amelyek mindegyike két lehetséges értéket vesz fel. A rutin orvosi vizsgálatok során kiderült, hogy negyven évesen a nők 1%-a szenved mellrákban. A rákos nők 80%-a pozitív mammográfiai eredményt kap. Az egészséges nők 9,6%-a pozitív mammográfiai eredményt is kap. A vizsgálat során egy ebbe a korosztályba tartozó nő kapott pozitív mammográfiás eredményt. Mennyi annak a valószínűsége, hogy valóban mellrákja van?

Az érvelés/számítás menete a következő. A rákos betegek 1%-a közül a mammográfia 80%-ban ad pozitív eredményt = 1% * 80% = 0,8%. Az egészséges nők 99%-ánál a mammográfia 9,6%-ban ad pozitív eredményt = 99% * 9,6% = 9,504%. Összességében a pozitív mammográfiás eredménnyel rendelkező 10,304% (9,504% + 0,8%) közül csak 0,8% beteg, a maradék 9,504% egészséges. Így annak a valószínűsége, hogy egy pozitív mammográfiás nő rákbeteg, 0,8% / 10,304% = 7,764%. 80%-ra gondoltál?

Példánkban a Bayes-képlet a következő formában jelenik meg:

Beszéljünk még egyszer ennek a képletnek a „fizikai” jelentéséről. x egy valószínűségi változó (diagnózis), amely a következő értékeket veszi fel: X 1- beteg és X 2- egészséges; Y– valószínűségi változó (mérési eredmény - mammográfia), amely a következő értékeket veszi fel: I 1- pozitív eredmény és Y2- negatív eredmény; p(X 1)- a betegség valószínűsége a mammográfia előtt (a priori valószínűség), 1%; R(Y 1 |x 1 ) – a pozitív eredmény valószínűsége, ha a beteg beteg (feltételes valószínűség, mivel ezt a feladat feltételei között kell megadni), egyenlő 80%-kal; R(Y 1 |x 2 ) – a pozitív eredmény valószínűsége, ha a beteg egészséges (feltételes valószínűség is), egyenlő 9,6%; p(X 2)- annak valószínűsége, hogy a beteg egészséges a mammográfia előtt (a priori valószínűség), 99%; p(X 1|Y 1 ) – annak a valószínűsége, hogy a beteg beteg, pozitív mammográfiai eredmény esetén (posterior valószínűség).

Látható, hogy az utólagos valószínűség (amit keresünk) arányos az előzetes valószínűséggel (kezdeti) egy kicsit összetettebb együtthatóval . ismét hangsúlyozom. Véleményem szerint ez a bayesi megközelítés alapvető aspektusa. Méret ( Y) hozzáadott egy bizonyos mennyiségű információt az eredetileg rendelkezésre állóhoz (a priori), ami pontosította az objektumról szerzett ismereteinket.

Példák

A tárgyalt anyag összevonásához próbáljon meg több problémát megoldani.

1. példa 3 urna van; az első 3 fehér golyóban és 1 fekete; a másodikban - 2 fehér és 3 fekete golyó; a harmadikban - 3 fehér golyó. Valaki véletlenszerűen közeledik az egyik urnához, és húz belőle 1 labdát. Ez a labda fehér. Határozza meg annak utólagos valószínűségét, hogy a golyót az 1., 2., 3. urnából húzzák.

Megoldás. Három hipotézisünk van: H 1 = (első urna kiválasztva), H 2 = (második urna kiválasztva), H 3 = (harmadik urna kiválasztva). Mivel az urnát véletlenszerűen választják ki, a hipotézisek a priori valószínűségei: Р(Н 1) = Р(Н 2) = Р(Н 3) = 1/3.

A kísérlet eredményeként megjelent az A = esemény (a kiválasztott urnából egy fehér golyót vettek ki). Az A esemény feltételes valószínűségei a H 1, H 2, H 3 hipotézisek mellett: P(A|H 1) = 3/4, P(A|H 2) = 2/5, P(A|H 3) = 1. Például az első egyenlőség így hangzik: „a valószínűsége, hogy fehér golyót húzunk, ha az első urnát választjuk, 3/4 (mivel az első urnában 4 golyó van, és ebből 3 fehér)”.

A Bayes-képlet alkalmazásával megtaláljuk a hipotézisek utólagos valószínűségeit:

Így az A esemény bekövetkezésére vonatkozó információk tükrében a hipotézisek valószínűségei megváltoztak: a legvalószínűbb a H 3 hipotézis, a legkevésbé valószínű - a H 2 hipotézis.

2. példa Két lövő egymástól függetlenül lő ugyanarra a célpontra, mindegyik egy lövést ad le. Az első lövő célba találásának valószínűsége 0,8, a másodiké 0,4. Lövés után egy lyukat találtak a célban. Határozzuk meg annak valószínűségét, hogy ez a lyuk az első lövőhöz tartozik (az eredményt (mindkét lyuk egybeesett) elvetjük, mint elhanyagolhatóan valószínűtlen).

Megoldás. A kísérlet előtt a következő hipotézisek lehetségesek: H 1 = (sem az első, sem a második nyíl nem fog eltalálni), H 2 = (mindkét nyíl eltalál), H 3 - (az első lövész eltalál, a második pedig nem ), H 4 = (az első lövöldöző nem fog eltalálni, a második pedig eltalálja). A hipotézisek előzetes valószínűségei:

P (H 1) = 0,2 * 0,6 = 0,12; P (H 2) = 0,8 * 0,4 \u003d 0,32; P (H 3) = 0,8 * 0,6 \u003d 0,48; P (H 4) \u003d 0,2 * 0,4 = 0,08.

A megfigyelt esemény A = (egy lyuk van a célpontban) feltételes valószínűségei ezen hipotézisek szerint: P(A|H 1) = P(A|H 2) = 0; P(A|H3) = P(A|H4) = 1

A tapasztalatok után a H 1 és H 2 hipotézisek lehetetlenné válnak, és a H 3 és H 4 hipotézisek utólagos valószínűsége a Bayes-képlet szerint:

Bayes a spam ellen

Bayes formulája széles körben alkalmazható a spamszűrők fejlesztésében. Tegyük fel, hogy meg akar tanítani egy számítógépet annak meghatározására, hogy mely e-mailek minősülnek spamnek. A szótárból és a szóösszetételekből indulunk ki, Bayesi becsléseket használva. Először hozzuk létre a hipotézisek terét. Legyen 2 hipotézisünk bármely betűvel kapcsolatban: H A spam, H B nem spam, hanem normális, szükséges betű.

Először is „tanítsuk be” jövőbeli levélszemét-elhárító rendszerünket. Vegyük az összes meglévő betűt, és osszuk két 10 betűs "kupacra". Az egyikbe spam leveleket teszünk és H A kupacnak hívjuk, a másikba pedig a szükséges levelezést és H B kupacnak hívjuk. Most pedig lássuk: milyen szavak és kifejezések találhatók a spamekben és a szükséges e-mailekben, és milyen gyakorisággal? Ezeket a szavakat és kifejezéseket bizonyítéknak nevezzük, és E 1 , E 2-vel jelöljük... Kiderült, hogy a gyakran használt szavak (például a „tetszik”, „tiéd”) a H A és H B halmokban körülbelül a ugyanaz a frekvencia. Így ezeknek a szavaknak a jelenléte egy levélben semmit sem árul el arról, hogy melyik kupachoz tartozik (gyenge bizonyíték). Rendeljünk ezekhez a szavakhoz a „spam” valószínűségének becslésének semleges értékét, mondjuk 0,5-öt.

Hagyja, hogy a „beszélgetési angol” kifejezés csak 10 betűben jelenjen meg, és gyakrabban a spam e-mailekben (például 7 spam e-mailben a 10-ből), mint a megfelelőekben (10-ből 3-ban). Adjunk erre a kifejezésre magasabb pontszámot, 7/10-et a spamre, és alacsonyabb pontszámot a normál e-mailekre: 3/10. Ezzel szemben kiderült, hogy a "haver" szó gyakoribb a normál betűkben (10-ből 6). Így kaptunk egy rövid levelet: „Barát! hogy beszélsz angolul?. Próbáljuk meg értékelni a „spam” jellegét. Az egyes kupacokhoz való tartozás általános becsléseit P(H A), P(H B) egy kissé leegyszerűsített Bayes-képlet és hozzávetőleges becsléseink segítségével fogjuk feltenni:

P(H A) = A/(A+B), Ahol A \u003d p a1 * p a2 * ... * pan, B \u003d p b1 * p b2 * ... * p b n \u003d (1 - p a1) * (1 - p a2) * ... * ( 1 - p an).

1. táblázat. Az írás egyszerűsített (és hiányos) Bayes-féle értékelése

Így hipotetikus levelünkbe a „spam” irányába való tartozás valószínűségének értékelése érkezett. Dönthetünk úgy, hogy bedobjuk a levelet valamelyik kupacba? Állítsuk be a döntési küszöböket:

  • Feltételezzük, hogy a betű a H i kupachoz tartozik, ha P(H i) ≥ T.
  • A betű nem tartozik a kupacba, ha P(H i) ≤ L.
  • Ha L ≤ P(H i) ≤ T, akkor nem lehet döntést hozni.

Felveheti T = 0,95 és L = 0,05. Mivel a kérdéses levélre és 0,05< P(H A) < 0,95, и 0,05 < P(H В) < 0,95, то мы не сможем принять решение, куда отнести данное письмо: к спаму (H A) или к нужным письмам (H B). Можно ли улучшить оценку, используя больше информации?

Igen. Számítsuk ki az egyes bizonyítékok pontszámát más módon, ahogy Bayes javasolta. Legyen:

F a a spam e-mailek teljes száma;

F ai a tanúsítvánnyal rendelkező betűk száma én egy halom spamben;

F b a szükséges betűk teljes száma;

F bi a tanúsítvánnyal rendelkező betűk száma én a szükséges (releváns) levelek halomában.

Ekkor: p ai = F ai /F a, p bi = F bi /F b. P(H A) = A/(A+B), P(H B) = B/(A+B), AholА = p a1 *p a2 *…*p an, B = p b1 *p b2 *…*p b n

Kérjük, vegye figyelembe, hogy a p ai és p bi bizonyítékszavak pontszámai objektívekké váltak, és emberi beavatkozás nélkül is kiszámíthatók.

2. táblázat: Pontosabb (de nem teljes) Bayes-féle becslés az elérhető jellemzőkre egy levélből

Egészen határozott eredményt kaptunk - nagy valószínűségi határ mellett a betű a szükséges betűknek tulajdonítható, hiszen P(H B) = 0,997 > T = 0,95. Miért változott az eredmény? Mivel több információt használtunk fel - figyelembe vettük az egyes kupacok betűinek számát, és mellesleg sokkal pontosabban határoztuk meg a p ai és p bi becsléseket. Ugyanúgy határozták meg őket, mint maga Bayes, a feltételes valószínűségek kiszámításával. Más szavakkal, p a3 annak a valószínűsége, hogy a "haver" szó megjelenik az e-mailben, mivel az e-mail már a H A spam kupachoz tartozik. Az eredmény nem váratott sokáig magára – úgy tűnik, nagyobb biztonsággal tudunk dönteni.

Bayes kontra vállalati csalás

A Bayes-féle megközelítés egy érdekes alkalmazását írta le MAGNUS8.

Jelenlegi projektem (gyártóvállalati csalások felderítésére szolgáló IS) a Bayes-képlet segítségével határozza meg a csalás (csalás) valószínűségét több tény megléte/hiánya esetén, közvetetten a csalás lehetőségének hipotézise mellett. Az algoritmus öntanuló (visszajelzéssel), azaz. újraszámítja együtthatóit (feltételes valószínűségét) a csalás tényleges megerősítése vagy nem igazolása esetén a gazdaságbiztonsági szolgálat által végzett ellenőrzés során.

Valószínűleg érdemes azt mondani, hogy az algoritmusok tervezésénél az ilyen módszerek meglehetősen magas matematikai kultúrát igényelnek a fejlesztőtől, mert a legkisebb hiba a számítási képletek levezetésében és/vagy megvalósításában érvényteleníti és hiteltelenné teszi az egész módszert. Ebben különösen a valószínűségi módszerek a hibásak, mivel az emberi gondolkodás nem alkalmazkodik a valószínűségi kategóriákkal való munkavégzéshez, és ennek megfelelően a köztes és végső valószínűségi paraméterek „fizikai jelentésének” nincs „láthatósága” és megértése. Ilyen megértés csak a valószínűségszámítás alapfogalmai esetében létezik, és akkor csak nagyon óvatosan kell kombinálni és levezetni a bonyolult dolgokat a valószínűségszámítás törvényei szerint - a józan ész többé nem segít az összetett objektumok esetében. Ez különösen a valószínűségszámítás filozófiájáról szóló modern könyvek lapjain zajló meglehetősen komoly módszertani csatákkal, valamint a témával kapcsolatos számos szofizmussal, paradoxonnal és érdekességgel jár.

Még egy árnyalat, amellyel szembe kellett néznem - sajnos szinte minden, ami többé-kevésbé HASZNOS A GYAKORLATBAN ebben a témában, angolul van megírva. Az orosz nyelvű forrásokban alapvetően csak egy jól ismert elmélet található, csak a legprimitívebb esetekre demonstrációs példákkal.

Az utolsó hozzászólással teljesen egyetértek. Például a Google, amikor valami olyasmit próbált találni, mint a „Bayesian Probability” könyv, nem adott semmi érthetőt. Igaz, azt mondta, hogy Kínában betiltottak egy bayesi statisztikákat tartalmazó könyvet. (Andrew Gelman statisztikaprofesszor a Columbia Egyetem blogján arról számolt be, hogy az Adatelemzés regresszióval és többszintű/hierarchikus modellekkel című könyvét betiltották Kínában. szöveg.) Kíváncsi vagyok, vajon hasonló ok vezetett-e a Bayes-féle könyvek hiányához. valószínűsége Oroszországban?

Konzervativizmus az emberi információfeldolgozás folyamatában

A valószínűségek határozzák meg a bizonytalanság mértékét. A valószínűség, mind Bayes, mind megérzéseink szerint, egyszerűen egy szám nulla és az, ami azt jelenti, hogy egy kissé idealizált személy milyen mértékben hiszi el, hogy az állítás igaz. Az ok, amiért az embert némileg idealizálják, az az, hogy a két egymást kölcsönösen kizáró esemény valószínűségeinek összegének meg kell egyeznie az események bekövetkezésének valószínűségével. Az additív tulajdonság olyan következményekkel jár, hogy kevés valódi ember tud mindegyiket összemérni.

Bayes tétele az additív tulajdonság triviális következménye, tagadhatatlan, és minden valószínűségszámító egyetért vele, legyen az Bayes-féle és egyéb. Ennek egyik módja a következő. Ha P(H A |D) annak a későbbi valószínűsége, hogy az A hipotézis az adott D érték megfigyelése után volt, P(H A) a korábbi valószínűsége az adott D érték megfigyelése előtt, P(D|H A ) annak a valószínűsége, hogy a adott D értéket figyeljük meg, ha H A igaz, és P(D) egy adott D érték feltétlen valószínűsége, akkor

(1) P(H A |D) = P(D|H A) * P(H A) / P(D)

A P(D) a legjobban egy normalizáló állandónak tekinthető, amely azt eredményezi, hogy az utólagos valószínűségek összeadódnak a vizsgált, egymást kölcsönösen kizáró hipotézisek teljes halmazához képest. Ha ki kell számolni, akkor így lehet:

De gyakrabban a P(D) ki van küszöbölve, nem pedig számolva. Kényelmes módja ennek kiküszöbölésére, ha Bayes tételét valószínűség-esély relációvá alakítjuk.

Tekintsünk egy másik hipotézist, H B , amely kölcsönösen kizárja H A-t, és gondolja meg ugyanazt a megadott mennyiséget, amely megváltoztatta a véleményét H A-val kapcsolatban. Bayes tétele azt mondja, hogy

(2) P(H B |D) = P(D|H B) * P(H B) / P(D)

Most elosztjuk az 1. egyenletet a 2. egyenlettel; így lesz az eredmény:

ahol Ω 1 az utólagos esély H A javára H B szempontjából, Ω 0 az előzetes esély, és L a statisztikusok számára ismert szám a valószínűségek arányaként. A 3. egyenlet Bayes tételének ugyanaz a releváns változata, mint az 1. egyenlet, és gyakran sokkal hasznosabb, különösen a hipotéziseket tartalmazó kísérleteknél. A Bayes-pártiak azzal érvelnek, hogy Bayes tétele formálisan optimális szabály arra vonatkozóan, hogy miként lehet felülvizsgálni a véleményeket az új adatok fényében.

Arra vagyunk kíváncsiak, hogy összehasonlítsuk a Bayes-tétel által meghatározott ideális viselkedést az emberek tényleges viselkedésével. Hogy némi fogalmat adjunk arról, hogy ez mit jelent, próbáljunk meg egy kísérletet Önnel, mint alanyal. Ez a táska 1000 póker zsetont tartalmaz. Két ilyen táskám van, az egyikben 700 piros és 300 blue chip van, a másikban 300 piros és 700 kék. Feldobtam egy érmét, hogy eldöntsem, melyiket használjam. Így, ha a véleményünk megegyezik, akkor a jelenlegi valószínűsége annak, hogy több piros zsetont tartalmazó zacskót húz, 0,5. Most véletlenszerűen mintát vesz, minden token után visszatérve. 12 zsetonnal 8 pirosat és 4 kéket kapsz. Nos, mindazok alapján, amiket tud, mennyi a valószínűsége, hogy egy zacskó több pirosat tartalmaz? Nyilvánvaló, hogy magasabb, mint 0,5. Kérjük, ne folytassa az olvasást, amíg nem rögzítette értékelését.

Ha úgy néz ki, mint egy tipikus alany, a pontszáma 0,7 és 0,8 közé esik. Ha azonban elvégeznénk a megfelelő számítást, akkor a válasz 0,97 lenne. Valójában nagyon ritka, hogy egy olyan személy, aki korábban nem mutatta be a konzervativizmus hatását, ilyen magas becslésre jut, még akkor is, ha ismerte Bayes tételét.

Ha a vörös chipek aránya a zacskóban az R, akkor a megszerzésének valószínűsége r piros chips és ( n-r) kék be n minták visszaküldéssel - p r (1–p)n-r. Így egy tipikus zacskó és pókerzseton kísérletben, ha HA azt jelenti, hogy a piros chipek aránya r AÉs HB azt jelenti, hogy a részesedés RB, akkor a valószínűségi arány:

Bayes képletének alkalmazásakor csak a tényleges megfigyelés valószínűségét kell figyelembe venni, nem pedig más megfigyelések valószínűségét, amelyeket esetleg megtett volna, de nem. Ennek az elvnek széles körű következményei vannak a Bayes-tétel minden statisztikai és nem statisztikai alkalmazására; a bayesi gondolkodás legfontosabb technikai eszköze.

Bayesi forradalom

Barátai és kollégái valamiről beszélnek, amit "Bayes-tételről" vagy "Bayes-szabályról", vagy valamiről, amit Bayes-féle gondolkodásról hívnak. Nagyon szeretik, ezért felmész az internetre, és találsz egy oldalt Bayes tételéről, és... Ez egy egyenlet. És ez minden... Miért vált ki egy matematikai fogalom ekkora lelkesedést a fejekben? Milyen „bayesi forradalom” zajlik a tudósok körében, és azt állítják, hogy még maga a kísérleti megközelítés is annak különleges eseteként írható le? Mi a titka, amit Bayes követői ismernek? Milyen fényt látnak?

A bayesi forradalom a tudományban nem azért következett be, mert egyre több kognitív tudós kezdte észrevenni, hogy a mentális jelenségeknek bayesi szerkezetük van; nem azért, mert a tudósok minden területen elkezdték használni a Bayes-módszert; hanem azért, mert maga a tudomány Bayes tételének speciális esete; a kísérleti bizonyíték Bayes-féle bizonyíték. A bayesi forradalmárok azzal érvelnek, hogy amikor egy kísérletet végez, és olyan bizonyítékot kap, amely " alátámasztja" vagy "cáfolja" az elméletét, akkor a megerősítés vagy cáfolat a bayesi szabályok szerint történik. Például nemcsak azt kell figyelembe vennie, hogy az elmélete megmagyarázhatja a jelenséget, hanem azt is, hogy más lehetséges magyarázatok is megjósolhatják ezt a jelenséget.

Korábban a legnépszerűbb tudományfilozófia a régi filozófia volt, amelyet a bayesi forradalom kiszorított. Karl Popper gondolata, hogy az elméleteket teljesen meg lehet hamisítani, de soha nem lehet teljesen megerősíteni, a bayesi szabályok másik speciális esete; ha p(X|A) ≈ 1 - ha az elmélet helyes előrejelzéseket ad, akkor a ~X megfigyelés nagyon erősen meghamisítja A-t, másrészt, ha p(X|A) ≈ 1 és megfigyeljük X-et, ez nem támogatja az elmélet nagyon; lehetséges más B feltétel is, például p(X|B) ≈ 1, és amely mellett X megfigyelése nem A-t, hanem B-t bizonyítja. Ahhoz, hogy X határozottan A-t megerősítse, nem tudnunk kell, hogy p( X|A) ≈ 1 és p(X|~A) ≈ 0, amit nem tudhatunk, mert nem tudunk minden lehetséges alternatív magyarázatot figyelembe venni. Például amikor Einstein általános relativitáselmélete felülmúlta Newton nagymértékben igazolható gravitációs elméletét, Newton elméletének összes előrejelzését Einstein sajátos esetévé tette.

Hasonlóképpen Popper azon állítása, miszerint egy elképzelésnek meghamisíthatónak kell lennie, a valószínűség megőrzésére vonatkozó Bayes-szabály megnyilvánulásaként értelmezhető; ha az X eredmény pozitív bizonyíték az elméletre, akkor az ~X eredménynek bizonyos mértékig meg kell hamisítania az elméletet. Ha az X-et és a ~X-et is úgy próbálod értelmezni, mint egy elmélet "támogatását", a Bayes-szabályok szerint ez lehetetlen! Egy elmélet valószínűségének növelése érdekében olyan teszteknek kell alávetni, amelyek potenciálisan csökkenthetik annak valószínűségét; ez nem csupán a sarlatánok tudományos felderítésének szabálya, hanem a Bayes-féle valószínűségi tétel következménye. Másrészt téves Popper azon elképzelése, hogy csak hamisításra van szükség, megerősítésre nincs szükség. Bayes tétele azt mutatja, hogy a hamisítás nagyon erős bizonyíték a megerősítéshez képest, de a hamisítás továbbra is valószínűségi jellegű; nem szabályozzák alapvetően más szabályok, és nem különbözik ebben a megerősítéstől, ahogy Popper állítja.

Így azt találjuk, hogy a kognitív tudományok számos jelensége, valamint a tudósok által használt statisztikai módszerek, plusz maga a tudományos módszer, mind speciális esetei Bayes tételének. Erről szól a bayesi forradalom.

Üdvözöljük a Bayes-féle összeesküvésben!

A Bayes-féle valószínűségről szóló irodalom

2. A közgazdasági Nobel-díjas Kahneman (et al.) Bayes sokféle alkalmazását írja le egy csodálatos könyvben. Csak ennek a nagyon nagy könyvnek az összefoglalójában 27 utalást számoltam meg egy presbiteri lelkész nevére. Minimális képletek. (.. nagyon tetszett. Igaz, bonyolult, sok matematika (és hol nélküle), de külön fejezetek (pl. 4. fejezet Tájékoztató), egyértelműen a témában. Mindenkinek tanácsot adok. Még akkor is, ha a matematika az nehéz számodra, olvasd végig a sort, kihagyod a matekot, és horgássz a hasznos gabonák után...

14. (2017. január 15-i kiegészítés), egy fejezet Tony Crilly könyvéből. 50 ötlet, amit tudnod kell. Matematika.

A Nobel-díjas Richard Feynman fizikus egy filozófusról különösen nagy beképzeltséggel beszélt egyszer: „Egyáltalán nem a filozófia mint tudomány irritál, hanem a körülötte teremtett pompa. Bárcsak a filozófusok tudnának magukon nevetni! Ha csak azt mondanák: "Azt mondom, hogy ez így van, de Von Leipzig másnak gondolta, és ő is tud róla valamit." Ha eszébe jutna tisztázni, hogy ez csak az övék .

Az események formálódnak teljes csoport, ha ezek közül legalább az egyik szükségszerűen bekövetkezik a kísérlet eredményeként, és páronként inkonzisztens.

Tegyük fel, hogy az esemény A csak akkor fordulhat elő több páronként összeférhetetlen esemény egyikével együtt, amelyek egy teljes csoportot alkotnak. Nevezzük az eseményeket én= 1, 2,…, n) hipotéziseket további tapasztalat (a priori). Az A esemény bekövetkezésének valószínűségét a képlet határozza meg teljes valószínűséggel :

16. példa Három urna van. Az első urnában 5 fehér és 3 fekete, a másodikban 4 fehér és 4 fekete, a harmadikban 8 fehér golyó található. Az egyik urnát véletlenszerűen választják ki (ez például azt jelentheti, hogy három 1-es, 2-es és 3-as golyót tartalmazó segédurnát választanak ki). Ebből az urnából véletlenszerűen egy labdát húznak. Mennyi a valószínűsége, hogy fekete lesz?

Megoldás. Esemény A– fekete golyót húznak. Ha ismert lenne, hogy melyik urnából húzzák ki a labdát, akkor a klasszikus valószínűségi definíció szerint ki lehetne számítani a szükséges valószínűséget. Vezessünk be feltételezéseket (hipotéziseket) arra vonatkozóan, hogy melyik urnát választjuk a labda kiemelésére.

A labda kihúzható vagy az első urnából (hipotézis), vagy a másodikból (hipotézis), vagy a harmadikból (hipotézis). Mivel egyenlő eséllyel választhatunk bármelyik urnát, akkor .

Ebből következik tehát

17. példa. Az elektromos lámpákat három gyárban gyártják. Az első üzem az elektromos lámpák teljes számának 30% -át állítja elő, a második - 25% -át.
a harmadik pedig a többiért. Az első üzem termékei 1% hibás elektromos lámpát tartalmaznak, a második - 1,5%, a harmadik - 2%. Az üzlet mindhárom gyár termékeit fogadja. Mennyi annak a valószínűsége, hogy a boltban vásárolt lámpa hibás?

Megoldás. Feltételezéseket kell megadni, hogy melyik gyárban gyártották az izzót. Ennek ismeretében megállapíthatjuk annak valószínűségét, hogy hibás. Vezessük be az események jelölését: A– a vásárolt villanylámpa hibásnak bizonyult, – a lámpát az első gyár gyártotta, – a lámpát a második gyár gyártotta,
– a lámpát a harmadik gyár gyártja.

A kívánt valószínűséget a teljes valószínűségi képlet határozza meg:

Bayes képlet. Legyen páronként összeférhetetlen események (hipotézisek) teljes csoportja. A véletlenszerű esemény. Akkor,

Az utolsó képlet, amely lehetővé teszi a hipotézisek valószínűségének túlbecslését, miután a teszt eredménye ismertté válik, amelynek eredményeként megjelent az A esemény, az ún. Bayes képlet .

18. példa. A betegségben szenvedő betegek átlagosan 50%-a speciális kórházba kerül NAK NEK, 30%-a betegséggel L, 20 % –
betegséggel M. A betegség teljes gyógyulásának valószínűsége K betegségek esetén 0,7 LÉs M ezek a valószínűségek rendre 0,8 és 0,9. A kórházba szállított beteget egészségesen hazaengedték. Határozza meg annak valószínűségét, hogy ez a beteg szenvedett betegségben K.


Megoldás. Hipotéziseket vezetünk be: - a beteg valamilyen betegségben szenvedett NAK NEK L, a beteg szenvedett a betegségben M.

Akkor a probléma körülményei szerint van . Mutassunk be egy eseményt A A kórházba szállított beteget egészségesen hazaengedték. Feltétel szerint

A teljes valószínűségi képlet alapján a következőket kapjuk:

Bayes képlet.

19. példa. Legyen öt golyó az urnában, és minden feltételezés a fehér golyók számáról egyformán valószínű. Véletlenszerűen kivesznek egy labdát az urnából, és kiderül, hogy fehér. Mi a legvalószínűbb feltevés az urna kezdeti összetételéről?

Megoldás. Legyen az a hipotézis, hogy az urnában a fehér golyókat , azaz hat feltételezés lehetséges. Akkor a probléma körülményei szerint van .

Mutassunk be egy eseményt A Egy véletlenszerűen kihúzott fehér golyó. Számoljunk. A Bayes-képlet szerint azóta:

Így a hipotézis a legvalószínűbb, hiszen .

20. példa. A számítástechnikai eszköz három egymástól függetlenül működő eleme közül kettő meghibásodott. Határozza meg annak valószínűségét, hogy az első és a második elem meghibásodott, ha az első, a második és a harmadik elem meghibásodási valószínűsége rendre 0,2; 0,4 és 0,3.

Megoldás. Jelölje A esemény - két elem nem sikerült. A következő hipotéziseket lehet felállítani:

- az első és a második elem meghibásodott, és a harmadik elem szervizelhető. Mivel az elemek egymástól függetlenül működnek, a szorzási tétel érvényes:

KATEGÓRIÁK

NÉPSZERŰ CIKKEK

2023 "kingad.ru" - az emberi szervek ultrahangvizsgálata