Entropia w termodynamice i teorii informacji - Entropy in thermodynamics and information theory

Wyrażenia matematyczne dla termodynamicznej entropii w termodynamiki statystycznej formułowania ustanowionego przez Ludwiga Boltzmanna i J. Willard Gibbs w 1870 są podobne do entropii informacyjnej przez Claude Shannon i Ralpha Hartleya , opracowany w 1940 roku.

Równoważność formy wyrażeń definiujących

Grób Boltzmanna w Zentralfriedhof w Wiedniu, z wzorem popiersia i entropii.

Wyrażenie definiujące entropię w teorii mechaniki statystycznej ustanowionej przez Ludwiga Boltzmanna i J. Willarda Gibbsa w latach 70. XIX wieku ma postać:

gdzie jest prawdopodobieństwo mikrostanu i pobranego z zespołu równowagi.

Wyrażenie określające entropię w teorii informacji ustanowionej przez Claude'a E. Shannona w 1948 roku ma postać:

gdzie jest prawdopodobieństwo przesłania pobranej z wiadomości przestrzeni M i b jest podstawa z logarytmu używany. Typowe wartości b to 2, liczba Eulera e i 10, a jednostką entropii jest Shannon (lub bit ) dla b  = 2, nat dla b  =  e i hartley dla b  = 10.

Matematycznie H można również traktować jako uśrednioną informację, przejętą nad przestrzenią wiadomości, ponieważ gdy dana wiadomość wystąpi z prawdopodobieństwem p i , uzyskana zostanie wielkość informacji −log( p i ) (zwana treścią informacji lub samoinformacją).

Jeśli wszystkie mikrostany są jednakowo prawdopodobne ( zespół mikrokanoniczny ), statystyczna entropia termodynamiczna sprowadza się do postaci podanej przez Boltzmanna:

gdzie W jest liczbą mikrostanów, która odpowiada makroskopowemu stanowi termodynamicznemu. Dlatego S zależy od temperatury.

Jeśli wszystkie komunikaty są jednakowo prawdopodobne, entropia informacji redukuje się do entropii Hartleya

gdzie jest liczność przestrzeni wiadomości M .

Logarytm w definicji termodynamicznej to logarytm naturalny . Można wykazać, że przez Gibbsa entropii wzór z logarytmu naturalnego, odtwarza wszystkie właściwości makroskopowych klasycznej termodynamiki z Rudolf Clausiusa . (Zobacz artykuł: Entropia (widoki statystyczne) ).

Logarytm mogą być również podejmowane na bazie naturalnego w przypadku informacji entropii. Jest to równoznaczne z wyborem pomiaru informacji w nats zamiast zwykłych bitów (lub bardziej formalnie, shannonów). W praktyce entropia informacji jest prawie zawsze obliczana przy użyciu logarytmów o podstawie 2, ale to rozróżnienie nie jest niczym innym jak zmianą jednostek. Jeden nat ma około 1,44 shannona.

Dla prostego ściśliwego systemu, który może wykonywać tylko pracę objętościową, pierwsza zasada termodynamiki staje się

Ale równie dobrze można zapisać to równanie w kategoriach tego, co fizycy i chemicy nazywają czasami „zredukowaną” lub bezwymiarową entropią, σ = S / k , tak że

Podobnie jak S ma koniugat T , tak σ znaczy koniugat K B t (energia, która jest charakterystyczna dla T na poziomie molekularnym).

Tak więc definicje entropii w mechanice statystycznej ( wzór na entropię Gibbsa ) i w termodynamice klasycznej ( i podstawowa relacja termodynamiczna ) są równoważne dla zespołu mikrokanonicznego , a zespoły statystyczne opisujące układ termodynamiczny w równowadze ze zbiornikiem, taki jak zespół kanoniczny , układ wielki kanoniczny , izoterma-isobaric zespół . Ta równoważność jest powszechnie pokazywana w podręcznikach. Jednak równoważność między termodynamiczną definicją entropii a entropią Gibbsa nie jest ogólna, lecz jest wyłączną własnością uogólnionego rozkładu Boltzmanna .

Związek teoretyczny

Pomimo powyższego istnieje różnica między tymi dwiema wielkościami. Informacji entropia Η można obliczyć dla każdej rozkładu prawdopodobieństwa (jeżeli zostanie podjęta „informacja” będzie, że zdarzenie i która miała prawdopodobieństwa p i miejsce, z przestrzeni zdarzeń możliwe) a termodynamiczny entropię S oznacza termodynamiczny prawdopodobieństwa P i szczegółowo. Różnica jest jednak bardziej teoretyczna niż rzeczywista, ponieważ każdy rozkład prawdopodobieństwa może być dowolnie przybliżony przez jakiś układ termodynamiczny.

Co więcej, między nimi można nawiązać bezpośrednie połączenie. Jeśli prawdopodobieństwo których mowa, są termodynamicznego prawdopodobieństwa P I : The (zredukowana) Gibbs entropia σ może następnie być postrzegane jako po prostu ilość informacji potrzebnej do Shannon określają szczegółowe stanu mikroskopowego systemu, biorąc pod uwagę jego makroskopowy opis. Lub, według słów GN Lewisa piszącego o entropii chemicznej w 1930 r., „Zwiększenie entropii zawsze oznacza utratę informacji i nic więcej”. Mówiąc bardziej konkretnie, w przypadku dyskretnym przy użyciu dwóch logarytmów o podstawie, zredukowana entropia Gibbsa jest równa średniej z minimalnej liczby pytań tak-nie, na które należy odpowiedzieć, aby w pełni określić mikrostan , biorąc pod uwagę, że znamy makrostan .

Co więcej, recepta na znalezienie rozkładów równowagi mechaniki statystycznej – takich jak rozkład Boltzmanna – poprzez maksymalizację entropii Gibbsa z odpowiednimi ograniczeniami ( algorytm Gibbsa ) może być postrzegana jako coś nie unikalnego dla termodynamiki, ale jako zasada o ogólnym znaczeniu. we wnioskowaniu statystycznym, jeśli pożądane jest znalezienie maksymalnie mało informacyjnego rozkładu prawdopodobieństwa , z zastrzeżeniem pewnych ograniczeń dotyczących jego średnich. (Te perspektywy są dalej badane w artykule Termodynamika maksymalnej entropii ).

Entropia Shannona w teorii informacji jest czasami wyrażana w jednostkach bitów na symbol. Entropia fizyczna może być określana na podstawie „ilości” ( h ), która jest nazywana entropią „ intensywną ” zamiast zwykłej entropii całkowitej, która jest nazywana entropią „ekstensywną”. "Shannons" wiadomości ( Η ) to całkowita "rozległa" entropia informacji i jest h razy liczba bitów w komunikacie.

Bezpośredni i fizycznie rzeczywisty związek między h i S można znaleźć, przypisując symbol do każdego mikrostanu, który występuje na mol, kilogram, objętość lub cząstkę jednorodnej substancji, a następnie obliczając „h” tych symboli. Teoretycznie lub przez obserwację, symbole (mikrostaty) będą występować z różnym prawdopodobieństwem i to określi h . Jeśli istnieje N moli, kilogramów, objętości lub cząstek substancji jednostkowej, zależność między h (w bitach na jednostkę substancji) a ekstensywną entropią fizyczną w natach wynosi:

gdzie ln(2) jest współczynnikiem konwersji o podstawie 2 entropii Shannona na naturalną podstawę e entropii fizycznej. N h to ilość informacji w bitach potrzebnych do opisania stanu układu fizycznego o entropii S . Zasada Landauera pokazuje prawdziwość tego, stwierdzając, że minimalna energia E wymagana (a zatem ciepło Q generowane) przez idealnie wydajną zmianę pamięci lub operację logiczną poprzez nieodwracalne wymazanie lub łączenie N h bitów informacji będzie S razy większa od temperatury, która jest

gdzie h jest w bitach informacyjnych, a E i Q w dżulach fizycznych. Zostało to potwierdzone eksperymentalnie.

Temperatura jest miarą średniej energii kinetycznej na cząstkę w idealnym gazie (kelwiny = 2/3dżule/ k B ), więc jednostki J/K k B są bezwymiarowe (dżul/dżul). k b jest współczynnikiem konwersji energii w3/2 kelwiny do dżuli dla gazu doskonałego. Gdyby pomiary energii kinetycznej na cząsteczkę gazu doskonałego były wyrażone w dżulach zamiast w kelwinach, k b w powyższych równaniach zastąpiono by 3/2. To pokazuje, że S jest prawdziwą statystyczną miarą mikrostanów, która nie ma podstawowej jednostki fizycznej innej niż jednostki informacji, w tym przypadku nats, co jest tylko stwierdzeniem, którego podstawę logarytmiczną wybrano umownie.

Informacje są fizyczne

Silnik Szilarda

Schemat silnika z atomem N

Fizyczny eksperyment myślowy pokazujący, jak samo posiadanie informacji może w zasadzie mieć termodynamiczne konsekwencje, został przeprowadzony w 1929 roku przez Leó Szilárda , w udoskonaleniu słynnego scenariusza demona Maxwella .

Rozważmy konfigurację Maxwella, ale z tylko jedną cząsteczką gazu w pudełku. Jeśli nadprzyrodzony demon wie, w której połowie pudełka znajduje się cząstka (co odpowiada jednemu bitowi informacji), może zamknąć przesłonę między dwiema połówkami pudełka, zamknąć tłok w pustej połowie pudełka i następnie pobieraj dżule użytecznej pracy, jeśli żaluzja zostanie ponownie otwarta. Cząstkę można następnie pozostawić, aby izotermicznie rozszerzyła się z powrotem do pierwotnej objętości zajętej w równowadze. Zatem w odpowiednich okolicznościach posiadanie pojedynczego bitu informacji Shannona (pojedynczy bit negentropii w ujęciu Brillouina) rzeczywiście odpowiada zmniejszeniu entropii układu fizycznego. Entropia globalna nie jest zmniejszona, ale możliwa jest informacja do konwersji energii swobodnej.

Używając mikroskopu z kontrastem fazowym wyposażonego w szybką kamerę podłączoną do komputera, jak demon , zasada została faktycznie zademonstrowana. W tym eksperymencie konwersja informacji na energię jest przeprowadzana na cząstce Browna za pomocą sterowania ze sprzężeniem zwrotnym ; to znaczy zsynchronizowanie pracy zadanej cząstce z informacjami uzyskanymi na temat jej pozycji. Obliczanie bilansów energii dla różnych protokołów sprzężenia zwrotnego potwierdziło, że równość Jarzyńskiego wymaga uogólnienia uwzględniającego ilość informacji związanych ze sprzężeniem zwrotnym.

Zasada Landauera

W rzeczywistości można uogólnić: każda informacja, która ma fizyczną reprezentację, musi w jakiś sposób być osadzona w statystycznie mechanicznych stopniach swobody systemu fizycznego.

Tak więc, jak argumentował Rolf Landauer w 1961 r., gdyby wyobrazić sobie, że zaczynając od tych stopni swobody w stanie termalizowanym, nastąpi rzeczywiste zmniejszenie entropii termodynamicznej, jeśli zostaną one następnie ponownie ustawione do znanego stanu. Można to osiągnąć tylko w ramach zachowującej informacje mikroskopowo deterministycznej dynamiki, jeśli niepewność zostanie w jakiś sposób zrzucona gdzie indziej – tj. jeśli entropia środowiska (lub nieniosące informacji stopnie swobody) zostanie zwiększona co najmniej o równoważną wartość, zgodnie z wymaganiami przez drugie prawo, poprzez uzyskanie odpowiedniej ilości ciepła: konkretnie kT  ln 2 ciepła za każdy wymazany bit losowości.

Z drugiej strony, argumentował Landauer, nie ma termodynamicznego sprzeciwu wobec potencjalnie odwracalnej logicznie operacji, która mogłaby zostać osiągnięta w systemie w sposób odwracalny fizycznie. To tylko logicznie nieodwracalne operacje – na przykład wymazanie bitu do znanego stanu lub połączenie dwóch ścieżek obliczeniowych – którym musi towarzyszyć odpowiedni wzrost entropii. Gdy informacja jest fizyczna, wszelkie przetwarzanie jej reprezentacji, tj. generowanie, kodowanie, przesyłanie, dekodowanie i interpretacja, są naturalnymi procesami, w których entropia wzrasta poprzez zużycie darmowej energii.

W przypadku scenariusza Maxwella z demonem/silnikiem Szilarda sugeruje to, że możliwe jest „odczytanie” stanu cząstki do aparatury obliczeniowej bez kosztów entropii; ale tylko wtedy, gdy urządzenie zostało już SET do znanego stanu, zamiast bycia w thermalised stanie niepewności. Aby SET (lub reset ) urządzenia w tym stanie będzie kosztować cały entropii, który może być zapisany przez znając stan cząstki Szilard użytkownika.

Negentropia

Entropia Shannona została powiązana przez fizyka Léona Brillouina z koncepcją nazywaną czasem negentropią . W 1953 Brillouin wyprowadził ogólne równanie stwierdzające, że zmiana wartości bitu informacyjnego wymaga co najmniej kT  ln(2) energii. Jest to ta sama energia , jaką w idealistycznym przypadku wytwarza silnik Leo Szilarda , a ta z kolei równa się tej samej wielkości, którą odkrył Landauer . W swojej książce dalej badał ten problem, stwierdzając, że każda przyczyna zmiany wartości bitu (pomiar, decyzja o pytaniu tak/nie, wymazanie, wyświetlanie itp.) będzie wymagała tej samej ilości, kT  ln(2), energii . W konsekwencji, pozyskiwanie informacji o mikrostanach systemu wiąże się z wytwarzaniem entropii, podczas gdy wymazywanie daje wytwarzanie entropii tylko wtedy, gdy zmienia się wartość bitu. Ustawienie odrobiny informacji w podsystemie pierwotnie w równowadze termicznej skutkuje lokalną redukcją entropii. Jednak według Brillouina nie ma naruszenia drugiej zasady termodynamiki, ponieważ zmniejszenie entropii termodynamicznej dowolnego układu lokalnego powoduje wzrost entropii termodynamicznej w innym miejscu. W ten sposób Brillouin wyjaśnił znaczenie negentropii, która została uznana za kontrowersyjną, ponieważ jej wcześniejsze zrozumienie może dać wydajność Carnota wyższą niż jeden. Dodatkowo, związek między energią a informacją sformułowaną przez Brillouina został zaproponowany jako związek między ilością bitów przetwarzanych przez mózg a energią, którą zużywa: Collell i Fauquet twierdzili, że De Castro analitycznie znalazł granicę Landauera jako dolną granicę termodynamiczną dla obliczenia mózgu. Jednakże, chociaż przypuszcza się, że ewolucja „wybrała” najbardziej wydajne energetycznie procesy, fizyczne dolne granice nie są realistycznymi wielkościami w mózgu. Po pierwsze dlatego, że minimalną jednostką przetwarzania rozważaną w fizyce jest atom/cząsteczka, która jest odległa od rzeczywistego sposobu działania mózgu; a po drugie, ponieważ sieci neuronowe zawierają ważne czynniki redundancji i hałasu, które znacznie zmniejszają ich wydajność. Laughlin i in. był pierwszym, który podał wyraźne ilości kosztów energetycznych przetwarzania informacji sensorycznych. Ich wyniki w much plujek wykazały, że dla danych czuciowych wzrokowych, koszt transmisji jednego bitu informacji jest około 5 x 10 -14 dżuli lub równoważnie 10 4 cząsteczki ATP. Tak więc wydajność przetwarzania neuronowego jest wciąż daleka od granicy Landauera z kTln(2) J, ale co ciekawe, nadal jest znacznie wydajniejsza niż współczesne komputery.

W 2009 roku Mahulikar i Herwig przedefiniowali negentropię termodynamiczną jako specyficzny deficyt entropii dynamicznie uporządkowanego podukładu względem jego otoczenia. Definicja ta umożliwiła sformułowanie zasady negentropii , która, jak matematycznie wykazano, wynika z II zasady termodynamiki, w czasie istnienia porządku.

Czarne dziury

Stephen Hawking często mówił o entropii termodynamicznej czarnych dziur pod kątem ich zawartości informacyjnej. Czy czarne dziury niszczą informacje? Wydaje się, że istnieją głębokie relacje między entropią czarnej dziury a utratą informacji. Zobacz termodynamiki czarnej dziury i informacje Black Hole paradoksu .

Teoria kwantowa

Hirschman pokazał, por. Niepewność Hirschmana , że zasadę nieoznaczoności Heisenberga można wyrazić jako określone dolne ograniczenie sumy klasycznych entropii rozkładu kwantowych obserwowalnych rozkładów prawdopodobieństwa stanu mechaniki kwantowej, kwadratu funkcji falowej, we współrzędnych, a także w przestrzeni pędu , wyrażony w jednostkach Plancka . Powstałe nierówności zapewniają ściślejsze powiązanie relacji niepewności Heisenberga.

Przypisanie „ połączonej entropii ” ma sens , ponieważ pozycje i pędy są zmiennymi sprzężonymi kwantowo i dlatego nie można ich wspólnie zaobserwować. Matematycznie należy je traktować jako dystrybucję wspólną . Zauważ, że ta łączna entropia nie jest równoważna entropii von Neumanna , −Tr ρ ln ρ = −⟨ln ρ ⟩. Mówi się, że entropia Hirschmana odpowiada za pełną zawartość informacyjną mieszaniny stanów kwantowych .

(Niezadowolenie z entropii von Neumanna z punktu widzenia informacji kwantowej wyrazili Stotland, Pomeransky, Bachmat i Cohen, którzy wprowadzili jeszcze inną definicję entropii, która odzwierciedla nieodłączną niepewność stanów mechaniki kwantowej. Ta definicja pozwala na rozróżnienie między minimalna entropia niepewności stanów czystych i nadmiarowa entropia statystyczna mieszanin.)

Twierdzenie o fluktuacji

Twierdzenie fluktuacja zapewnia matematyczne uzasadnienie drugiego prawa termodynamiki Zgodnie z tymi zasadami, i precyzyjnie określa ograniczenia stosowania tej ustawy dla systemów z dala od równowagi termodynamicznej.

Krytyka

Istnieje krytyka związku między entropią termodynamiczną a entropią informacyjną.

Najczęstszą krytyką jest to, że entropia informacyjna nie może być powiązana z entropią termodynamiczną, ponieważ nie ma pojęcia temperatury, energii ani drugiego prawa w dyscyplinie entropii informacyjnej. Można to najlepiej omówić, rozważając podstawowe równanie termodynamiki :

gdzie F i to „uogólnione siły”, a dx i to „uogólnione przemieszczenia”. Jest to analogiczne do równania mechanicznego dE = F dx, gdzie dE jest zmianą energii kinetycznej obiektu przemieszczonego o odległość dx pod wpływem siły F . Na przykład dla prostego gazu mamy:

gdzie temperatura ( T ), ciśnienie ( P ) i potencjał chemiczny ( μ ) są siłami uogólnionymi, które niezrównoważone powodują uogólnione przemieszczenie odpowiednio w entropii ( S ), objętości ( -V ) i ilości ( N ), oraz iloczyny sił i przemieszczeń dają zmianę energii wewnętrznej ( dU ) gazu.

W przykładzie mechanicznym deklaracja, że dx nie jest przemieszczeniem geometrycznym, ponieważ ignoruje dynamiczną zależność między przemieszczeniem, siłą i energią, jest niepoprawna. Przemieszczenie, jako pojęcie w geometrii, nie wymaga do zdefiniowania pojęć energii i siły, można więc oczekiwać, że entropia może nie wymagać do jej zdefiniowania pojęć energii i temperatury. Sytuacja nie jest jednak taka prosta. W termodynamice klasycznej, która jest badaniem termodynamiki z czysto empirycznego lub pomiarowego punktu widzenia, entropia termodynamiczna może być mierzona tylko przez uwzględnienie energii i temperatury. Stwierdzenie Clausiusa dS= δQ/T lub, równoważnie, gdy wszystkie inne efektywne przemieszczenia wynoszą zero, dS=dU/T , jest jedynym sposobem rzeczywistego pomiaru entropii termodynamicznej. Dopiero wraz z wprowadzeniem mechaniki statystycznej , poglądu, że układ termodynamiczny składa się ze zbioru cząstek i który wyjaśnia termodynamikę klasyczną w kategoriach rozkładów prawdopodobieństwa, entropię można rozpatrywać oddzielnie od temperatury i energii. Wyraża się to w słynnym wzorze na entropię Boltzmanna S=k B ln(W) . Tutaj k B jest stałą Boltzmanna , a W jest liczbą równie prawdopodobnych mikrostanów, które dają konkretny stan termodynamiczny lub makrostan.

Zakłada się, że równanie Boltzmanna zapewnia powiązanie między entropią termodynamiczną S a entropią informacyjną H = −Σi pi ln pi = ln(W), gdzie p i =1/W są równymi prawdopodobieństwami danego mikrostanu. Ta interpretacja również została skrytykowana. Chociaż niektórzy twierdzą, że równanie jest jedynie równaniem konwersji jednostek między termodynamiką a entropią informacyjną, nie jest to całkowicie poprawne. Równanie konwersji jednostek zmieni np. cale na centymetry i da dwa pomiary w różnych jednostkach tej samej wielkości fizycznej (długości). Ponieważ termodynamika i entropia informacyjna są wymiarowo nierówne (energia/temperatura jednostkowa vs jednostki informacji), równanie Boltzmanna jest bardziej zbliżone do x = ct, gdzie x jest odległością przebytą przez wiązkę światła w czasie t , c jest prędkością światła. Chociaż nie możemy powiedzieć, że długość x i czas t reprezentują tę samą wielkość fizyczną, możemy powiedzieć, że w przypadku wiązki światła, ponieważ c jest stałą uniwersalną, zapewnią one idealnie dokładne pomiary siebie nawzajem. (Na przykład rok świetlny jest używany jako miara odległości). Podobnie w przypadku równania Boltzmanna, chociaż nie możemy powiedzieć, że entropia termodynamiczna S i entropia informacyjna H reprezentują tę samą wielkość fizyczną, możemy powiedzieć, że w przypadku układu termodynamicznego, ponieważ k B jest stałą uniwersalną, będą zapewniają idealnie dokładne pomiary siebie nawzajem.

Pozostaje zatem pytanie, czy ln(W) jest wielkością informacyjno-teoretyczną. Jeśli jest mierzony w bitach, można powiedzieć, że przy danym makrostanie reprezentuje średnią z minimalnej liczby pytań typu tak/nie, które należy zadać, aby określić mikrostan, co jest wyraźnie pojęciem informacyjno-teoretycznym. Przeciwnicy zwracają uwagę, że taki proces jest czysto koncepcyjny i nie ma nic wspólnego z pomiarem entropii. Z drugiej strony cała mechanika statystyczna jest czysto konceptualna, służąc jedynie wyjaśnieniu „czystej” nauki termodynamiki.

Ostatecznie krytyka związku między entropią termodynamiczną a entropią informacyjną jest kwestią terminologii, a nie treści. Żadna ze stron kontrowersji nie zgodzi się na rozwiązanie konkretnego problemu termodynamicznego lub informacyjno-teoretycznego.

Tematy najnowszych badań

Czy informacja jest skwantowana?

W 1995 roku Tim Palmer zasygnalizował dwa niepisane założenia dotyczące definicji informacji Shannona, które mogą uniemożliwić jej zastosowanie w mechanice kwantowej :

  • Przypuszczenie, że istnieje coś takiego jak obserwowalny stan (na przykład górna strona kostki lub monety) przed rozpoczęciem obserwacji
  • Fakt, że znajomość tego stanu nie zależy od kolejności, w jakiej dokonywane są obserwacje ( przemienność )

Artykuł Antona Zeilingera i Caslava Bruknera zsyntetyzował i rozwinął te uwagi. Tak zwana zasada Zeilingera sugeruje, że kwantyzacja obserwowana w QM może być związana z kwantyzacją informacji (nie można zaobserwować mniej niż jednego bitu, a to, co nie jest obserwowane, jest z definicji „losowe”). Niemniej jednak twierdzenia te pozostają dość kontrowersyjne. Opublikowano szczegółowe dyskusje na temat stosowalności informacji Shannona w mechanice kwantowej oraz argument, że zasada Zeilingera nie może wyjaśnić kwantyzacji, które pokazują, że Brukner i Zeilinger zmieniają, w trakcie obliczeń w swoim artykule, wartości liczbowe wymaganych prawdopodobieństw aby obliczyć entropię Shannona, aby obliczenia nie miały sensu.

Wyodrębnianie pracy z informacji kwantowych w silniku Szilárd

W 2013 roku opublikowano opis dwuatomowej wersji silnika Szilárda wykorzystującego dyskord kwantowy do generowania pracy z czysto kwantowej informacji. Zaproponowano udoskonalenia w zakresie dolnej granicy temperatury.

Chłodzenie algorytmiczne

Chłodzenie algorytmiczne to algorytmiczna metoda przekazywania ciepła (lub entropii) z niektórych kubitów do innych lub na zewnątrz systemu i do otoczenia, co skutkuje efektem chłodzenia. Ten efekt chłodzenia może mieć zastosowanie do inicjowania zimnych (wysoce czystych) kubitów do obliczeń kwantowych oraz do zwiększania polaryzacji niektórych spinów w magnetycznym rezonansie jądrowym .

Zobacz też

Bibliografia

Dodatkowe referencje

Zewnętrzne linki