Stała normalizująca - Normalizing constant
Pojęcie stałej normalizującej pojawia się w teorii prawdopodobieństwa i wielu innych dziedzinach matematyki . Stała normalizująca służy do redukcji dowolnej funkcji prawdopodobieństwa do funkcji gęstości prawdopodobieństwa z całkowitym prawdopodobieństwem równym jeden.
Definicja
W teorii prawdopodobieństwa , A normalizowanie stałej jest stała w którym wszędzie nieujemna funkcja musi być pomnożona więc obszarze pod wykresem wynosi 1, na przykład, aby to funkcja gęstości prawdopodobieństwa lub funkcją masy prawdopodobieństwa .
Przykłady
Jeśli zaczniemy od prostej funkcji Gaussa
mamy odpowiednią całkę Gaussa
Teraz, jeśli użyjemy odwrotności tego drugiego jako stałej normalizującej dla pierwszego, definiując funkcję jako
tak, że jego całka jest jednostką
wtedy funkcja jest funkcją gęstości prawdopodobieństwa. Jest to gęstość standardowego rozkładu normalnego . ( Standard , w tym przypadku oznacza, że oczekiwana wartość wynosi 0, a wariancja wynosi 1.)
A stała jest normalizującą stałą funkcji .
Podobnie,
i konsekwentnie
jest funkcją masy prawdopodobieństwa na zbiorze wszystkich nieujemnych liczb całkowitych. Jest to funkcja masy prawdopodobieństwa rozkładu Poissona o wartości oczekiwanej λ.
Zwróć uwagę, że jeśli funkcja gęstości prawdopodobieństwa jest funkcją różnych parametrów, tak samo będzie z jej stałą normalizującą. Sparametryzowana stała normalizująca dla rozkładu Boltzmanna odgrywa kluczową rolę w mechanice statystycznej . W tym kontekście stała normalizująca nazywana jest funkcją partycji .
Twierdzenie Bayesa
Twierdzenie Bayesa mówi, że miara prawdopodobieństwa a posteriori jest proporcjonalna do iloczynu miary prawdopodobieństwa wcześniejszego i funkcji wiarygodności . Proporcjonalny do implikuje, że trzeba pomnożyć lub podzielić przez stałą normalizującą, aby przypisać miarę 1 do całej przestrzeni, tj. uzyskać miarę prawdopodobieństwa. W prostym dyskretnym przypadku mamy
gdzie P(H 0 ) jest prawdopodobieństwem a priori, że hipoteza jest prawdziwa; P(D|H 0 ) jest prawdopodobieństwem warunkowym danych, dla których hipoteza jest prawdziwa, ale biorąc pod uwagę, że dane są znane, jest to prawdopodobieństwo hipotezy (lub jej parametrów) dla danych; P(H 0 |D) to prawdopodobieństwo a posteriori, że hipoteza jest prawdziwa, biorąc pod uwagę dane. P(D) powinno być prawdopodobieństwem uzyskania danych, ale samo w sobie jest trudne do obliczenia, więc alternatywnym sposobem opisania tej zależności jest proporcjonalność:
Ponieważ P(H|D) jest prawdopodobieństwem, suma wszystkich możliwych (wzajemnie wykluczających się) hipotez powinna wynosić 1, co prowadzi do wniosku, że
W tym przypadku odwrotność wartości
jest stałą normalizującą . Można ją rozszerzyć z policzalnie wielu hipotez do niepoliczalnie wielu, zastępując sumę całką.
Dla konkretności istnieje wiele metod szacowania stałej normalizacyjnej dla celów praktycznych. Metody obejmują technikę próbkowania mostka, naiwny estymator Monte Carlo, uogólniony estymator średniej harmonicznej i próbkowanie ważności.
Zastosowania nieprobabilistyczne
W wielomiany Legendre'a charakteryzują ortogonalności w odniesieniu do jednolitego środka w przedziale [- 1, 1], i że są one znormalizowane tak, że ich jakość w 1 jest 1. Stała, w którym jedno mnoży wielomianem więc jej wartość w 1 to 1 to stała normalizująca.
Funkcje ortonormalne są znormalizowane w taki sposób, że:
w odniesieniu do pewnego iloczynu skalarnego < f , g >.
Stała 1 / √ 2 jest wykorzystane do ustalenia funkcji hiperboliczne cosh i sinh od długości sąsiednich i przeciwległych boków hiperbolicznej trójkąta .
Zobacz też
Uwagi
Bibliografia
- Rozkłady ciągłe na Wydziale Nauk Matematycznych: University of Alabama w Huntsville
- Feller, William (1968). Wprowadzenie do teorii prawdopodobieństwa i jej zastosowań (tom I) . John Wiley & Synowie. Numer ISBN 0-471-25708-7.