Bayes teoremi, yeni bir kanıt gördükten sonra bir olasılığı nasıl güncelleyeceğinizi söyler. Eğer P(B)>0P(B) > 0 ise,

P(AB)=P(BA)P(A)P(B)P(A \mid B) = \frac{P(B \mid A)P(A)}{P(B)}

Çok belirli bir soruya cevap verir: BB olayı gerçekleştikten sonra, AA olayı artık ne kadar olasıdır? Bu fikir; tıbbi testlerde, spam filtrelemede ve başlangıçta olayın ne kadar yaygın olduğunu hesaba katmadan kanıtın yanıltıcı olabildiği her durumda önemlidir.

Bayes teoremi formülü sade dille

Bayes teoremi üç bileşeni bir araya getirir:

  • kanıttan önce neye inandığınızla başlayın, P(A)P(A)
  • kanıtın bu olayla ne kadar uyumlu olduğunu sorun, P(BA)P(B \mid A)
  • bunu kanıtın genel olarak ne kadar yaygın olduğuna göre ölçekleyin, P(B)P(B)

Ortaya çıkan P(AB)P(A \mid B) sonucuna sonsal olasılık denir.

Formüldeki her bölüm ne anlama gelir

Şu ifadede

P(AB)=P(BA)P(A)P(B)P(A \mid B) = \frac{P(B \mid A)P(A)}{P(B)}

P(A)P(A) önsel olasılıktır. Yeni kanıtı kullanmadan önce AA için başlangıç olasılığınızdır.

P(BA)P(B \mid A) olabilirliktir. AA doğruysa, BB kanıtının ne kadar olası olduğunu söyler.

P(B)P(B) kanıtın genel olasılığıdır. Bu terim önemlidir çünkü bazı kanıtlar, AA yanlış olsa bile yaygın olabilir.

P(AB)P(A \mid B) sonsal olasılıktır. BB'nin gerçekleştiğini öğrendikten sonra AA için güncellenmiş olasılıktır.

Payda neden cevabı değiştirir

Bayes teoremi sadece hipotezinize uyan kanıtı ödüllendirmez. Aynı kanıtın zaten sık sık ortaya çıkıp çıkmadığını da sorar.

Bu yüzden paydadaki P(B)P(B) önemlidir. Kanıt birçok durumda yaygınsa, onu görmek inancınızı çok fazla değiştirmemelidir. Kanıt, AA doğru olduğundaki durumlar dışında nadirse, inancınızı büyük ölçüde değiştirebilir.

Koşullu olasılıktan kısa ispat

Gerektiği yerlerde P(B)>0P(B) > 0 ve P(A)>0P(A) > 0 olduğunu varsayalım. Koşullu olasılığın tanımına göre,

P(AB)=P(AB)P(B)P(A \mid B) = \frac{P(A \cap B)}{P(B)}

ve

P(BA)=P(AB)P(A)P(B \mid A) = \frac{P(A \cap B)}{P(A)}

İkinci denklemden,

P(AB)=P(BA)P(A)P(A \cap B) = P(B \mid A)P(A)

Bunu birinci denklemde yerine koyarsak:

P(AB)=P(BA)P(A)P(B)P(A \mid B) = \frac{P(B \mid A)P(A)}{P(B)}

Bu, Bayes teoremidir.

Çözümlü Bayes teoremi örneği: pozitif bir tıbbi test

Bir hastalığın bir popülasyonun 1%1\%'ini etkilediğini varsayalım. Bir testin duyarlılığı 99%99\% ve yanlış pozitif oranı 5%5\% olsun.

Tanımlayalım:

  • DD = kişinin hastalığı var
  • ++ = test sonucu pozitif

O hâlde

P(D)=0.01P(D) = 0.01 P(+D)=0.99P(+ \mid D) = 0.99 P(+Dc)=0.05P(+ \mid D^c) = 0.05

İstediğimiz şey, pozitif test verildiğinde kişinin gerçekten hastalığa sahip olma olasılığı olan P(D+)P(D \mid +) değeridir.

Önce pozitif sonucun toplam olasılığını bulalım. Pozitif test iki şekilde olabilir: kişi hastadır ve testi pozitiftir ya da kişi hasta değildir ama yine de testi pozitiftir.

P(+)=P(+D)P(D)+P(+Dc)P(Dc)P(+) = P(+ \mid D)P(D) + P(+ \mid D^c)P(D^c) P(+)=(0.99)(0.01)+(0.05)(0.99)=0.0594P(+) = (0.99)(0.01) + (0.05)(0.99) = 0.0594

Şimdi Bayes teoremini uygulayalım:

P(D+)=P(+D)P(D)P(+)=(0.99)(0.01)0.0594P(D \mid +) = \frac{P(+ \mid D)P(D)}{P(+)} = \frac{(0.99)(0.01)}{0.0594} P(D+)=0.00990.0594=160.167P(D \mid +) = \frac{0.0099}{0.0594} = \frac{1}{6} \approx 0.167

Yani tek bir pozitif testten sonra gerçekten hastalığa sahip olma olasılığı 99%99\% değil, yaklaşık 16.7%16.7\%'dir. Test güçlüdür, ancak hastalık nadirdir; bu yüzden pozitif sonuçların çoğu yine de hastalığı olmayan çok daha büyük gruptan gelir.

Birçok kişinin kaçırdığı temel ders şudur: Durum başlangıçta nadirse, güçlü bir test bile orta düzeyde bir sonsal olasılık üretebilir.

Bayes teoreminin kullanışlı iki durumlu bir biçimi

Kanıt, birbirini tamamlayan iki durumdan, yani AA ve AcA^c'den gelebiliyorsa,

P(B)=P(BA)P(A)+P(BAc)P(Ac)P(B) = P(B \mid A)P(A) + P(B \mid A^c)P(A^c)

Bunu Bayes teoreminde kullanırsak,

P(AB)=P(BA)P(A)P(BA)P(A)+P(BAc)P(Ac)P(A \mid B) = \frac{P(B \mid A)P(A)}{P(B \mid A)P(A) + P(B \mid A^c)P(A^c)}

Bu biçim, iki durumlu problemlerde çoğu zaman en kullanışlı olanıdır.

Bayes teoreminde yaygın hatalar

P(AB)P(A \mid B) ile P(BA)P(B \mid A) ifadelerini karıştırmak

Bu olasılıklar genellikle eşit değildir. Bir hastalık varken pozitif test sonucu çok olası olabilir, ama pozitif testten sonra hastalığın kendisi yine de oldukça düşük olasılıklı olabilir.

Temel oranı göz ardı etmek

Önsel olasılık P(A)P(A) önemlidir. Eğer AA çok nadirse, güçlü kanıt bile sonsal olasılığı sezginin beklediği kadar yükseltmeyebilir.

P(B)P(B) değerini fazla dar hesaplamak

Payda sadece artakalan bir terim değildir. Kanıtın toplam olasılığıdır ve çoğu zaman birden fazla durumdan gelen katkıların toplanmasını gerektirir.

Formülü P(B)=0P(B) = 0 iken kullanmak

Bayes teoreminin bu biçimi için P(B)>0P(B) > 0 gerekir. Kanıtın olasılığı 00 ise, temel formüle göre koşullu olasılık P(AB)P(A \mid B) tanımlı değildir.

Bayes teoremi ne zaman kullanılır

Bayes teoremi; tıbbi testlerde, spam filtrelemede, güvenilirlik analizinde, makine öğrenmesinde ve bilimsel çıkarımda karşımıza çıkar. Her durumda aynı fikir vardır: yeni bilgi geldiğinde bir inancı güncellemek.

Özellikle, insanlar olayın başlangıçta ne kadar yaygın olduğunu sormadan kanıta aşırı tepki verme eğilimindeyse çok yararlıdır.

Benzer bir Bayes teoremi sorusu deneyin

Aynı tıbbi testi koruyun, ama hastalık oranını 1%1\% yerine 10%10\% yapın. Duyarlılık ve yanlış pozitif oranı aynı kalsın, ancak sonsal olasılık çok değişir. Bu sürümü bir kez çözmek, önsel olasılığın neden önemli olduğunu hızlıca hissetmenin iyi bir yoludur.

Bir soruyla yardıma mı ihtiyacın var?

Sorunuzu yükleyin ve saniyeler içinde doğrulanmış adım adım çözüm alın.

GPAI Solver Aç →