Macierz ortogonalna - Orthogonal matrix

W Algebra liniowego , o prostopadłym matrycy lub ortonormalnych matrycy jest prawdziwy macierzą kwadratową których kolumny i rzędy są ortonormalne wektorów .

Jednym ze sposobów na wyrażenie tego jest

gdzie Q , T jest transpozycją z Q a I jest macierzą jednostkową .

Prowadzi to do równoważnej charakteryzacji: macierz Q jest ortogonalna, jeśli jej transpozycja jest równa jej odwrotności :

gdzie Q −1 jest odwrotnością Q .

Macierz ortogonalna Q jest koniecznie odwracalna (z odwrotnością Q -1 = Q T ), unitarną ( Q -1 = Q ), gdzie Q jest sprzężeniem hermitowskim ( sprzężoną transpozycją ) Q , a zatem normalną ( Q Q = QQ ) nad liczbami rzeczywistymi . Determinantą każdej prostopadłym matrycy jest albo +1 lub -1. W liniowej transformacji , ortogonalną macierz chroni wewnętrzną produkt wektorów, a więc działa jako izometrii w euklidesowej przestrzeni , takiej jak obrotowej , odbicie lub rotoreflection . Innymi słowy, jest to transformacja unitarna .

Zbiór n × n macierzy ortogonalnych tworzy grupę , O( n ) , zwaną grupą ortogonalną . Podgrupa SO ( N ), składający się z macierzy ortogonalnych determinanty +1 nazywa się specjalną grupę prostopadłe , a każdy z jej elementów jest specjalna matryca prostopadłe . Jako transformacja liniowa, każda specjalna macierz ortogonalna działa jak obrót.

Przegląd

Macierz ortogonalna jest rzeczywistą specjalizacją macierzy unitarnej, a więc zawsze macierzą normalną . Chociaż rozważamy tutaj tylko macierze rzeczywiste, definicji można użyć do macierzy z wpisami z dowolnego pola . Jednak macierze ortogonalne powstają w sposób naturalny z iloczynów skalarnych , a dla macierzy liczb zespolonych prowadzi zamiast tego do wymogu unitarnego. Macierze ortogonalne zachowują iloczyn skalarny, więc dla wektorów u i v w n- wymiarowej rzeczywistej przestrzeni euklidesowej

gdzie Q jest macierzą ortogonalną. Aby zobaczyć związek iloczynu wewnętrznego, rozważmy wektor v w n- wymiarowej rzeczywistej przestrzeni euklidesowej . Zapisana w odniesieniu do bazy ortonormalnej, kwadrat długości v wynosi v T v . Jeżeli transformacja liniowa, w postaci macierzy Q v , zachowuje długości wektorów, to

Tak więc skończenie wymiarowe izometrie liniowe — rotacje, odbicia i ich kombinacje — dają macierze ortogonalne. Prawdą jest również odwrotność: macierze ortogonalne implikują przekształcenia ortogonalne. Jednak algebra liniowa obejmuje przekształcenia ortogonalne między przestrzeniami, które mogą nie być ani skończenie wymiarowe, ani tego samego wymiaru, a te nie mają odpowiednika macierzy ortogonalnej.

Macierze ortogonalne są ważne z wielu powodów, zarówno teoretycznych, jak i praktycznych. N x n macierzami ortogonalnymi tworzą grupę względem mnożenia macierzy, na ortogonalne grupy oznaczonej O ( n ) , który, z podgrup, są szeroko stosowane w matematyce i naukach fizycznych. Na przykład grupa punktowa cząsteczki jest podgrupą O(3). Ponieważ wersje macierzy ortogonalnych zmiennoprzecinkowych mają korzystne właściwości, są one kluczem do wielu algorytmów w numerycznej algebrze liniowej, takich jak rozkład QR . Jako inny przykład, przy odpowiedniej normalizacji dyskretna transformata kosinusowa (używana w kompresji MP3 ) jest reprezentowana przez macierz ortogonalną.

Przykłady

Poniżej kilka przykładów małych macierzy ortogonalnych i możliwych interpretacji.

  •    (transformacja tożsamości)
  •   
  • (obrót o 16,26°)
  •    (odbicie w poprzek osi x )
  •    (permutacja osi współrzędnych)

Konstrukcje elementarne

Dolne wymiary

Najprostszymi macierzami ortogonalnymi są macierze 1×1 [1] i [−1], które możemy interpretować jako identyczność i odbicie linii rzeczywistej w poprzek początku.

W 2 x 2 matryce mają postać

które wymagania ortogonalności spełniają trzy równania

Uwzględniając pierwsze równanie, bez utraty ogólności niech p = cos θ , q = sin θ ; wtedy albo t = − q , u = p albo t = q , u = − p . Pierwszy przypadek możemy zinterpretować jako obrót o θ (gdzie θ = 0 jest identycznością), a drugi jako odbicie w poprzek prostej pod kątem θ/2.

Specjalny przypadek macierzy odbić z θ = 90° generuje odbicie wokół linii pod kątem 45°, dane przez y = x, a zatem zamienia x i y ; jest to macierz permutacji , z pojedynczą jedynką w każdej kolumnie i wierszu (a poza tym 0):

Tożsamość jest również macierzą permutacji.

Odbicie jest swoją własną odwrotnością , co oznacza, że ​​macierz odbicia jest symetryczna (równa jej transpozycji) oraz ortogonalna. Iloczyn dwóch macierzy rotacji jest macierzą rotacji , a iloczyn dwóch macierzy odbicia jest również macierzą rotacji.

Wyższe wymiary

Niezależnie od wymiaru zawsze można zaklasyfikować macierze ortogonalne jako czysto rotacyjne lub nie, ale dla macierzy 3 × 3 i większych macierze nierotacyjne mogą być bardziej skomplikowane niż odbicia. Na przykład,

reprezentują odpowiednio inwersję poprzez początek i rotoinwersję wokół osi z .

Obroty stają się bardziej skomplikowane w wyższych wymiarach; nie mogą być już całkowicie scharakteryzowane przez jeden kąt i mogą wpływać na więcej niż jedną podprzestrzeń planarną. Powszechnie opisuje się macierz obrotu 3 × 3 w kategoriach osi i kąta , ale działa to tylko w trzech wymiarach. Powyżej trzech wymiarów potrzebne są co najmniej dwa kąty, z których każdy jest powiązany z płaszczyzną obrotu .

Mamy jednak podstawowe elementy składowe permutacji, odbić i obrotów, które mają ogólne zastosowanie.

Prymitywy

Najbardziej elementarną permutacją jest transpozycja, uzyskana z macierzy jednostkowej poprzez zamianę dwóch wierszy. Każda macierz permutacji n × n może być skonstruowana jako iloczyn nie więcej niż n − 1 transpozycji.

Householdera odbicie jest wykonana z nie-zerowym wektor V jako

Tutaj licznik jest macierzą symetryczną, podczas gdy mianownik jest liczbą, kwadratem wielkości v . Jest to odbicie w hiperpłaszczyźnie prostopadłej do v (negujące dowolny składnik wektora równoległy do v ). Jeśli v jest wektorem jednostkowym, to wystarczy Q = I − 2 vv T. Odbicie Householder jest zwykle używane do jednoczesnego zerowania dolnej części kolumny. Dowolna macierz ortogonalna o rozmiarze n × n może być skonstruowana jako iloczyn co najwyżej n takich odbić.

Obrót Givens działa na dwuwymiarowej płaskiej) podprzestrzeni (trwającej od dwóch osi współrzędnych, obracającą się z wybranym kątem. Jest zwykle używany do zerowania pojedynczego wpisu pod przekątną. Dowolna macierz rotacji o rozmiarze n × n może być skonstruowana jako iloczyn co najwyżejn ( n − 1)/2takie rotacje. W przypadku macierzy 3 × 3 wystarczą trzy takie obroty; a ustalając sekwencję możemy w ten sposób opisać wszystkie macierze rotacji 3 × 3 (choć nie tylko) w kategoriach trzech użytych kątów, często nazywanych kątami Eulera .

Obrót Jacobim ma taką samą postać co obrót plansze, ale jest używany do zera zarówno pozycje niediagonalnych w 2 x 2 symetrycznego podmatryca.

Nieruchomości

Właściwości macierzy

Prawdziwy kwadratowych macierzy jest prostopadła wtedy i tylko wtedy, gdy jej kolumny tworzą podstawę ortonormalną w przestrzeni euklidesowej n zwykłą euklidesowej iloczynu skalarnego , co ma miejsce w przypadku, jeżeli i tylko jeżeli rzędami tworzą podstawę ortonormalną z n . Kuszące może być założenie, że macierz z kolumnami ortogonalnymi (nie ortonormalnymi) byłaby nazywana macierzą ortogonalną, ale takie macierze nie mają szczególnego znaczenia ani specjalnej nazwy; one jedynie spełniać M T, M = D , z D macierzą diagonalną .

Determinantą każdej prostopadłym matrycy +1 lub -1. Wynika to z podstawowych faktów dotyczących wyznaczników, jak następuje:

Odwrotność nie jest prawdą; posiadanie wyznacznika ± 1 nie gwarantuje ortogonalności, nawet w przypadku kolumn ortogonalnych, jak pokazano w poniższym kontrprzykładzie.

Z macierzami permutacji wyznacznik pasuje do sygnatury , będąc +1 lub -1, ponieważ parzystość permutacji jest parzysta lub nieparzysta, ponieważ wyznacznik jest naprzemienną funkcją wierszy.

Silniejsze niż ograniczenie zdeterminowane jest fakt, że macierz ortogonalna może być zawsze diagonalizowana względem liczb zespolonych, aby wykazywać pełny zestaw wartości własnych , z których wszystkie muszą mieć (złożony) moduł  1.

Właściwości grupy

Odwrotność każdej macierzy ortogonalnej jest znowu ortogonalna, podobnie jak iloczyn macierzy dwóch macierzy ortogonalnych. W rzeczywistości zbiór wszystkich n × n macierzy ortogonalnych spełnia wszystkie aksjomaty grupy . Jest to zwarta grupa wymiarów Lien ( n − 1)/2, zwana grupą ortogonalną i oznaczona przez O( n ) .

Ortogonalnych których wyznacznikiem macierzy jest +1 tworzą ścieżki podłączone normalne podgrupa o O ( n ) o indeksie 2, specjalną grupę prostopadłe SO ( n ) obrotów. Grupa ilorazowa O( n )/SO( n ) jest izomorficzna z O(1) , przy czym mapa rzutowania wybiera [+1] lub [−1] zgodnie z wyznacznikiem. Macierze ortogonalne z wyznacznikiem -1 nie zawierają identyczności, a więc nie tworzą podgrupy, a jedynie coset ; jest również (oddzielnie) połączony. W ten sposób każda grupa ortogonalna rozpada się na dwie części; oraz ponieważ odwzorowania pęknięć , O ( n ) jest iloczynów produkt o SO ( n ) o O (1) . W praktyce, porównywalnym stwierdzeniem jest to, że każda macierz ortogonalna może być wytworzona przez wzięcie macierzy rotacji i ewentualnie zanegowanie jednej z jej kolumn, jak widzieliśmy z macierzami 2 × 2 . Jeśli n jest nieparzyste, to iloczyn półbezpośredni jest w rzeczywistości iloczynem bezpośrednim , a dowolna macierz ortogonalna może być wytworzona przez wzięcie macierzy rotacji i ewentualnie zanegowanie wszystkich jej kolumn. Wynika to z właściwości wyznaczników, że zanegowanie kolumny neguje wyznacznik, a zatem zanegowanie nieparzystej (ale nie parzystej) liczby kolumn neguje wyznacznik.

Rozważmy teraz ( n + 1) × ( n + 1) macierze ortogonalne z wpisem w prawym dolnym rogu równym 1. Pozostała część ostatniej kolumny (i ostatniego wiersza) musi być zerami, a iloczyn dowolnych dwóch takich macierzy ma tę samą postać . Reszta macierzy jest macierzą ortogonalną n × n ; zatem O( n ) jest podgrupą O( n +1) (i wszystkich wyższych grup).

Ponieważ elementarne odbicie w postaci macierzy Gospodarstwa Domowego może zredukować dowolną macierz ortogonalną do tej ograniczonej postaci, seria takich odbić może doprowadzić do tożsamości dowolną macierz ortogonalną; w ten sposób grupa ortogonalna jest grupą odbicia . Ostatnia kolumna może być ustalona na dowolnym wektorze jednostkowym, a każdy wybór daje inną kopię O( n ) w O( n + 1 ) ; w ten sposób O( n + 1) jest wiązką nad sferą jednostkową S n z włóknem O( n ) .

Podobnie, SO( n ) jest podgrupą SO( n +1) ; a dowolna specjalna macierz ortogonalna może być generowana przez obroty płaszczyzny Givensa przy użyciu analogicznej procedury. Struktura wiązek pozostaje: SO( n ) ↪ SO( n + 1) → S n . Pojedynczy obrót może dać zero w pierwszym wierszu ostatniej kolumny, a seria n - 1 obrotów wyzeruje wszystkie z wyjątkiem ostatniego wiersza ostatniej kolumny n × n macierzy rotacji. Ponieważ płaszczyzny są nieruchome, każdy obrót ma tylko jeden stopień swobody, czyli swój kąt. Przez indukcję SO( n ) ma zatem

stopnie swobody, podobnie jak O( n ) .

Macierze permutacji są jeszcze prostsze; tworzą one nie grupę Liego, lecz tylko grupę skończoną, porządek n ! grupa symetryczna S n . Według tego samego rodzaju argumentu, S n jest podgrupą S n + 1 . Permutacje parzyste tworzą podgrupę macierzy permutacyjnych wyznacznika +1, rzędun !/2 grupa przemienna .

Forma kanoniczna

Mówiąc szerzej, wpływ dowolnej macierzy ortogonalnej rozdziela się na niezależne działania na ortogonalnych dwuwymiarowych podprzestrzeniach. Oznacza to, że jeśli Q jest specjalne ortogonalne, to zawsze można znaleźć macierz ortogonalną P , (rotacyjną) zmianę bazy , która sprowadza Q do postaci przekątnej bloku:

gdzie macierze R 1 , ..., R k są macierzami rotacji 2 × 2 , a przy pozostałych wpisach zero. Wyjątkowo blok rotacji może być ukośny, ± I . Tak więc, negując jedną kolumnę, jeśli to konieczne, i zauważając, że odbicie 2 × 2 diagonalizuje do +1 i -1, dowolna macierz ortogonalna może być sprowadzona do postaci

Macierze R 1 , ..., R k dają sprzężone pary wartości własnych leżące na okręgu jednostkowym na płaszczyźnie zespolonej ; więc ta dekompozycja potwierdza, że ​​wszystkie wartości własne mają wartość bezwzględną 1. Jeśli n jest nieparzyste, istnieje co najmniej jedna rzeczywista wartość własna, +1 lub -1; dla obrotu 3 × 3 wektor własny powiązany z +1 jest osią obrotu.

Algebra kłamstwa

Załóżmy, że wpisy Q są różniczkowalnymi funkcjami t i że t = 0 daje Q = I . Różniczkowanie warunku ortogonalności

plony

Ocena w t = 0 ( Q = I ) implikuje

W terminologii grupy Liego oznacza to, że algebra Liego grupy macierzy ortogonalnych składa się z macierzy skośnie symetrycznych . Idąc w drugą stronę, macierz wykładnicza dowolnej macierzy skośno-symetrycznej jest macierzą ortogonalną (w rzeczywistości specjalną ortogonalną).

Na przykład fizyka obiektów trójwymiarowych nazywa prędkość kątową rotacją różniczkową, a więc wektor w algebrze Liego (3) styczny do SO(3) . Biorąc pod uwagę ω = ( , , ) , gdzie v = ( x , y , z ) jest wektorem jednostkowym, poprawna skośno-symetryczna forma macierzy ω to

Wykładnik tego jest macierzą ortogonalną dla obrotu wokół osi v o kąt θ ; ustawienie c = cosθ/2, s = grzechθ/2,

Numeryczna algebra liniowa

Korzyści

Analiza numeryczna wykorzystuje wiele właściwości macierzy ortogonalnych dla numerycznej algebry liniowej i powstają one w sposób naturalny. Na przykład często pożądane jest obliczenie bazy ortonormalnej dla przestrzeni lub ortogonalnej zmiany baz; obie przyjmują postać macierzy ortogonalnych. Posiadanie wyznacznika ±1 i wszystkich wartości własnych o wielkości 1 jest bardzo korzystne dla stabilności numerycznej . Jedną z implikacji jest to, że liczba warunku wynosi 1 (co jest minimum), więc błędy nie są powiększane podczas mnożenia przez macierz ortogonalną. Z tego powodu wiele algorytmów używa macierzy ortogonalnych, takich jak odbicia Householder i rotacje Givens . Pomocne jest również to, że nie tylko macierz ortogonalna jest odwracalna, ale jej odwrotność jest zasadniczo dostępna za darmo, poprzez wymianę indeksów.

Permutacje mają zasadnicze znaczenie dla powodzenia wielu algorytmów, w tym eliminacji koni pociągowych Gaussa z częściowym obracaniem (gdzie permutacje wykonują ruch obrotowy). Rzadko jednak pojawiają się one wyraźnie jako macierze; ich specjalna forma pozwala na bardziej wydajną reprezentację, taką jak lista n indeksów.

Podobnie algorytmy wykorzystujące macierze Householder i Givens zazwyczaj wykorzystują wyspecjalizowane metody mnożenia i przechowywania. Na przykład rotacja Givensa wpływa tylko na dwa wiersze macierzy, którą mnoży, zmieniając pełne mnożenie rzędu n 3 na znacznie wydajniejszy porządek n . Gdy zastosowania tych odbić i obrotów wprowadzają zera w macierzy, zwolniona przestrzeń wystarcza do przechowywania wystarczającej ilości danych do odtworzenia transformacji i do solidnego wykonania tego. (W związku Stewart (1976) , my nie przechowywać kąt obrotu, który jest zarówno kosztowne i źle wychowane.)

Rozkłady

Szereg ważnych rozkładów macierzy ( Golub i Van Loan 1996 ) obejmuje macierze ortogonalne, w tym zwłaszcza:

Rozkład QR
M = QR , Q ortogonalny, R górny trójkątny
Rozkład według wartości osobliwych
M = U Σ V T , U i V ortogonalne, Σ macierz diagonalna
Dekompozycja własna macierzy symetrycznej (dekompozycja według twierdzenia spektralnego )
S = Q Λ Q T , S symetryczne, Q ortogonalne, Λ przekątne
Rozkład polarny
M = QS , Q ortogonalne, S symetryczne dodatnio-półokreślone

Przykłady

Rozważ nadmiernie określony układ równań liniowych , który może się pojawić przy powtarzanych pomiarach zjawiska fizycznego w celu skompensowania błędów eksperymentalnych. Napisz A x = b , gdzie A to m × n , m > n . QR rozkład zmniejsza A na górnej trójkątnej R . Na przykład, jeśli A wynosi 5 × 3, to R ma postać

Liniowych najmniejszych kwadratów problemem jest znalezienie X , który minimalizuje || A xb || , co jest równoważne rzutowaniu b na podprzestrzeń rozpiętą przez kolumny A . Zakładając, że kolumny A (a więc R ) są niezależne, rozwiązanie rzutowania znajduje się z A T A x = A T b . Teraz T jest kwadratowy ( n x n ) i odwracalna, a także równą R T R . Ale dolne rzędy zer w R są zbędne w produkcie, który jest już zatem w formie faktorów dolnego trójkąta górnego trójkąta, jak w eliminacji Gaussa ( rozkład Cholesky'ego ). Tutaj ortogonalność jest ważna nie tylko dla zmniejszenia A T A = ( R, T, Q, T ) QR do R T R , ale również do umożliwienia rozwiązania bez powiększające problemów numerycznych.

W przypadku układu liniowego, który jest niedookreślony, lub macierzy w inny sposób nieodwracalnej , równie przydatna jest dekompozycja według wartości osobliwych (SVD). Z uwzględnione jako U Ď V T , to zadowalające rozwiązanie wykorzystuje Penrose-Moore pseudoinverse , V Ď + U T , gdzie Σ + jedynie Następnie każdy niezerową przekątnej z nich jej odwrotności. Zestaw x do V Σ + U T b .

Interesujący jest również przypadek kwadratowej macierzy odwracalnej. Załóżmy na przykład, że A jest macierzą rotacji 3 × 3 , która została obliczona jako złożenie wielu skrętów i zwojów. Liczba zmiennoprzecinkowa nie odpowiada matematycznemu ideałowi liczb rzeczywistych, więc A stopniowo traci swoją prawdziwą ortogonalność. Proces Grama-Schmidta mógłby ortogonalizować kolumny, ale nie jest to ani najbardziej niezawodna, ani najbardziej wydajna, ani najbardziej niezmienna metoda. Rozkładu polarne czynniki matrycę do pary, z których jedna jest unikalny najbliżej macierzą ortogonalną do danej matrycy lub jednej z najbliżej czy dany macierzy jest pojedyncza. (Bliskość można mierzyć dowolną normą matrycy niezmienna przy prostopadłym zmiany podstawy, na przykład widma normy lub normy Frobenius). Przez prawie prostopadłym matrycy szybkiej zbieżności na czynnik prostopadłym można osiągnąć przez „ metoda Newtona ” podejście według Highama (1986) ( 1990 ), wielokrotnie uśredniając macierz z jej odwrotną transpozycją. Dubrulle (1994) opublikował przyspieszoną metodę z wygodnym testem zbieżności.

Rozważmy na przykład nieortogonalną macierz, dla której prosty algorytm uśredniania wykonuje siedem kroków

i które przyspieszenie zmniejsza się do dwóch stopni (przy γ = 0,353553, 0,565685).

Gram-Schmidt daje gorsze rozwiązanie, o czym świadczy odległość Frobeniusa 8,28659 zamiast minimalnej 8,12404.

Randomizacja

Niektóre zastosowania numeryczne, takie jak metody Monte Carlo i eksploracja wielowymiarowych przestrzeni danych, wymagają generowania jednolicie rozłożonych losowych macierzy ortogonalnych. W tym kontekście „jednolita” jest definiowana w kategoriach miary Haara , która zasadniczo wymaga, aby rozkład nie zmieniał się po pomnożeniu przez dowolną dowolnie wybraną macierz ortogonalną. Ortogonalizacja macierzy z niezależnymi wpisami losowymi o rozkładzie jednostajnym nie skutkuje macierzami ortogonalnymi o rozkładzie jednostajnym, ale rozkład QR niezależnych wpisów losowych o rozkładzie normalnym tak jest, o ile przekątna R zawiera tylko wpisy dodatnie ( Mezzadri 2006 ). Stewart (1980) zastąpił to bardziej wydajną ideą, którą Diaconis i Shahshahani (1987) uogólnili później jako „algorytm podgrup” (w której formie działa on równie dobrze dla permutacji i rotacji). Aby wygenerować macierz ortogonalną ( n + 1) × ( n + 1) , weź n × n i jednostajnie rozłożony wektor jednostkowy wymiaru n + 1 . Skonstruuj odbicie Householder z wektora, a następnie zastosuj je do mniejszej macierzy (osadzonej w większym rozmiarze z 1 w prawym dolnym rogu).

Najbliższa macierz ortogonalna

Problem znalezienia macierzy ortogonalnej Q najbliższej danej macierzy M jest związany z problemem Ortogonalnego Prokrustesa . Istnieje kilka różnych sposobów, aby uzyskać unikalne rozwiązanie, z których najprostszy podejmuje swoistą wartość rozkładowi z M i wymiana wartości osobliwych z nich. Inna metoda wyraża R wprost, ale wymaga użycia macierzy kwadratowego pierwiastka :

Można to połączyć z babilońską metodą wyodrębniania pierwiastka kwadratowego z macierzy, aby uzyskać rekurencję, która zbiega się kwadratowo z macierzą ortogonalną:

gdzie Q 0 = M .

Te iteracje są stabilne pod warunkiem, że liczba stan z M jest mniejsza niż trzy.

Użycie aproksymacji odwrotności pierwszego rzędu i tej samej inicjalizacji skutkuje zmodyfikowaną iteracją:

Zakręć i przypnij

Subtelny problem techniczny dotyka niektórych zastosowań macierzy ortogonalnych. Nie tylko składniki grupy z wyznacznikiem +1 i -1 nie są ze sobą połączone , nawet składnik +1, SO( n ) , nie jest po prostu połączony (z wyjątkiem SO(1), który jest trywialny). Zatem czasami korzystne, a nawet konieczne, do pracy z obejmujące grupy SO ( n ), przy czym grupy wirowania , wirowania ( n ) . Podobnie, O( n ) ma grupy pokrywające, grupy pinów, Pin( n ). Dla n > 2 , Spin( n ) jest po prostu połączony, a tym samym uniwersalna grupa pokrywająca dla SO( n ) . Zdecydowanie najbardziej znanym przykładem grupy spinowej jest Spin(3) , który jest niczym innym jak SU(2) lub grupą kwaternionów jednostkowych .

Grupy Pin i Spin znajdują się w algebrach Clifforda , które same mogą być zbudowane z macierzy ortogonalnych.

Matryce prostokątne

Jeśli Q nie jest macierzą kwadratową, to warunki Q T Q = I i QQ T = I nie są równoważne. Warunek Q T Q = I mówi, że kolumny Q są ortonormalne. Może się to zdarzyć tylko wtedy, gdy Q jest macierzą m × n z nm (ze względu na zależność liniową). Podobnie QQ T = I mówi, że wiersze Q są ortonormalne, co wymaga nm .

Nie ma standardowej terminologii dla tych macierzy. Są one różnie nazywane „macierzami półortogonalnymi”, „macierzami ortonormalnymi”, „macierzami ortogonalnymi”, a czasami po prostu „macierzami z ortonormalnymi rzędami/kolumnami”.

Zobacz też

Uwagi

Bibliografia

  • Diaconis, perski ; Shahshahani, Mehrdad (1987), „Algorytm podgrupy do generowania jednolitych zmiennych losowych”, Prob. w inż. I informacje. Nauka. , 1 : 15–32, doi : 10.1017/S0269964800000255 , ISSN  0269-9648
  • Dubrulle, Augustin A. (1999), "Optymalna iteracja rozkładu macierzy polarnego" , Electron. Przeł. Numer. Analny. , 8 : 21–25
  • Golub, Gene H .; Van Loan, Charles F. (1996), Matrix Computations (3/e ed.), Baltimore: Johns Hopkins University Press, ISBN 978-0-8018-5414-9
  • Higham, Nicholas (1986), „Computing the Polar Decomposition — with Applications” (PDF) , SIAM Journal on Scientific and Statistical Computing , 7 (4): 1160–1174, doi : 10.1137/0907079 , ISSN  0196-5204
  • Higham, Mikołaj ; Schreiber, Robert (lipiec 1990), „Szybki rozkład biegunowy arbitralnej macierzy”, SIAM Journal on Scientific and Statistical Computing , 11 (4): 648-655, CiteSeerX  10.1.1.230.4322 , doi : 10.1137/0911038 , ISSN  0196 -5204 [1]
  • Stewart, GW (1976), "Ekonomiczne przechowywanie obrotów płaszczyzny", Numerische Mathematik , 25 (2): 137-138, doi : 10.1007/BF01462266 , ISSN  0029-599X
  • Stewart, GW (1980), „Wydajne generowanie losowych macierzy ortogonalnych z zastosowaniem do estymatorów warunków”, SIAM J. Numer. Analny. , 17 (3): 403–409, doi : 10.1137/0717034 , ISSN  0036-1429
  • Mezzadri, Francesco (2006), „Jak wygenerować macierze losowe z klasycznych grup zwartych”, Notices of the American Mathematical Society , 54

Linki zewnętrzne