Stała normalizująca - Normalizing constant

Pojęcie stałej normalizującej pojawia się w teorii prawdopodobieństwa i wielu innych dziedzinach matematyki . Stała normalizująca służy do redukcji dowolnej funkcji prawdopodobieństwa do funkcji gęstości prawdopodobieństwa z całkowitym prawdopodobieństwem równym jeden.

Definicja

W teorii prawdopodobieństwa , A normalizowanie stałej jest stała w którym wszędzie nieujemna funkcja musi być pomnożona więc obszarze pod wykresem wynosi 1, na przykład, aby to funkcja gęstości prawdopodobieństwa lub funkcją masy prawdopodobieństwa .

Przykłady

Jeśli zaczniemy od prostej funkcji Gaussa

mamy odpowiednią całkę Gaussa

Teraz, jeśli użyjemy odwrotności tego drugiego jako stałej normalizującej dla pierwszego, definiując funkcję jako

tak, że jego całka jest jednostką

wtedy funkcja jest funkcją gęstości prawdopodobieństwa. Jest to gęstość standardowego rozkładu normalnego . ( Standard , w tym przypadku oznacza, że oczekiwana wartość wynosi 0, a wariancja wynosi 1.)

A stała jest normalizującą stałą funkcji .

Podobnie,

i konsekwentnie

jest funkcją masy prawdopodobieństwa na zbiorze wszystkich nieujemnych liczb całkowitych. Jest to funkcja masy prawdopodobieństwa rozkładu Poissona o wartości oczekiwanej λ.

Zwróć uwagę, że jeśli funkcja gęstości prawdopodobieństwa jest funkcją różnych parametrów, tak samo będzie z jej stałą normalizującą. Sparametryzowana stała normalizująca dla rozkładu Boltzmanna odgrywa kluczową rolę w mechanice statystycznej . W tym kontekście stała normalizująca nazywana jest funkcją partycji .

Twierdzenie Bayesa

Twierdzenie Bayesa mówi, że miara prawdopodobieństwa a posteriori jest proporcjonalna do iloczynu miary prawdopodobieństwa wcześniejszego i funkcji wiarygodności . Proporcjonalny do implikuje, że trzeba pomnożyć lub podzielić przez stałą normalizującą, aby przypisać miarę 1 do całej przestrzeni, tj. uzyskać miarę prawdopodobieństwa. W prostym dyskretnym przypadku mamy

gdzie P(H 0 ) jest prawdopodobieństwem a priori, że hipoteza jest prawdziwa; P(D|H 0 ) jest prawdopodobieństwem warunkowym danych, dla których hipoteza jest prawdziwa, ale biorąc pod uwagę, że dane są znane, jest to prawdopodobieństwo hipotezy (lub jej parametrów) dla danych; P(H 0 |D) to prawdopodobieństwo a posteriori, że hipoteza jest prawdziwa, biorąc pod uwagę dane. P(D) powinno być prawdopodobieństwem uzyskania danych, ale samo w sobie jest trudne do obliczenia, więc alternatywnym sposobem opisania tej zależności jest proporcjonalność:

Ponieważ P(H|D) jest prawdopodobieństwem, suma wszystkich możliwych (wzajemnie wykluczających się) hipotez powinna wynosić 1, co prowadzi do wniosku, że

W tym przypadku odwrotność wartości

jest stałą normalizującą . Można ją rozszerzyć z policzalnie wielu hipotez do niepoliczalnie wielu, zastępując sumę całką.

Dla konkretności istnieje wiele metod szacowania stałej normalizacyjnej dla celów praktycznych. Metody obejmują technikę próbkowania mostka, naiwny estymator Monte Carlo, uogólniony estymator średniej harmonicznej i próbkowanie ważności.

Zastosowania nieprobabilistyczne

W wielomiany Legendre'a charakteryzują ortogonalności w odniesieniu do jednolitego środka w przedziale [- 1, 1], i że są one znormalizowane tak, że ich jakość w 1 jest 1. Stała, w którym jedno mnoży wielomianem więc jej wartość w 1 to 1 to stała normalizująca.

Funkcje ortonormalne są znormalizowane w taki sposób, że:

w odniesieniu do pewnego iloczynu skalarnego < fg >.

Stała 1 / 2 jest wykorzystane do ustalenia funkcji hiperboliczne cosh i sinh od długości sąsiednich i przeciwległych boków hiperbolicznej trójkąta .

Zobacz też

Uwagi

Bibliografia