Określona złożoność - Specified complexity

Określona złożoność to kreacjonistyczny argument przedstawiony przez Williama Dembskiego , używany przez zwolenników inteligentnego projektu . Według Dembskiego pojęcie to może sformalizować właściwość, która wyróżnia wzorce zarówno określone, jak i złożone , przy czym w terminologii Dembskiego określony wzorzec to taki, który dopuszcza krótkie opisy, podczas gdy złożony wzorzec to taki, który jest mało prawdopodobny do przypadkowego wystąpienia. Zwolennicy inteligentnego projektu używają określonej złożoności jako jednego z dwóch głównych argumentów, obok nieredukowalnej złożoności .

Dembski argumentuje, że nie jest możliwe, aby określona złożoność istniała we wzorcach, które tworzą konfiguracje utworzone przez procesy niekierowane. Dlatego, przekonuje Dembski, fakt, że w organizmach żywych można znaleźć określone złożone wzorce, wskazuje na pewien rodzaj wskazówek w ich powstawaniu, co świadczy o inteligencji. Dembski dalej argumentuje, że można rygorystycznie wykazać, stosując twierdzenia „no-free-lunch ”, niezdolność algorytmów ewolucyjnych do wybierania lub generowania konfiguracji o wysokiej określonej złożoności. Dembski stwierdza, że ​​określona złożoność jest wiarygodnym wyznacznikiem projektu przez inteligentnego agenta — centralną zasadą inteligentnego projektu, za którą Dembski argumentuje w opozycji do współczesnej teorii ewolucji . Określona złożoność jest tym, co Dembski nazywa „filtrem wyjaśniającym”: projekt można rozpoznać, wykrywając „złożone określone informacje” (CSI). Dembski twierdzi, że niekierowane pojawienie się CSI wyłącznie zgodnie ze znanymi prawami fizycznymi i przypadkiem jest wysoce nieprawdopodobne.

Pojęcie określonej złożoności jest powszechnie uważane za matematycznie niepoprawne i nie było podstawą do dalszych samodzielnych prac w teorii informacji , w teorii systemów złożonych czy w biologii . Badanie przeprowadzone przez Wesleya Elsberry'ego i Jeffreya Shallita stwierdza: „Praca Dembskiego jest pełna niekonsekwencji, dwuznaczności, błędnego wykorzystania matematyki, słabej wiedzy naukowej i błędnego przedstawiania wyników innych”. Kolejny zarzut dotyczy obliczania prawdopodobieństw przez Dembskiego. Według Martina Nowaka , profesora matematyki i biologii ewolucyjnej z Harvardu: „Nie możemy obliczyć prawdopodobieństwa pojawienia się oka. Nie mamy informacji, aby dokonać obliczeń”.

Definicja

Terminologia Orgel

Termin „określona złożoność” został pierwotnie ukuty przez badacza życia Leslie Orgela w jego książce „ The Origins of Life: Molecules and Natural Selection” z 1973 roku , w której sugerowano, że RNA mógł wyewoluować poprzez darwinowski dobór naturalny . Orgel użył tego wyrażenia, omawiając różnice między strukturami żywymi i nieożywionymi:

Krótko mówiąc, żywe organizmy wyróżnia ich określona złożoność. Kryształy są zwykle traktowane jako prototypy prostych, dobrze określonych struktur, ponieważ składają się z bardzo dużej liczby identycznych cząsteczek upakowanych razem w jednolity sposób. Bryły granitu lub losowe mieszaniny polimerów to przykłady struktur, które są złożone, ale nieokreślone. Kryształy nie kwalifikują się jako żywe, ponieważ brakuje im złożoności; mieszaniny polimerów nie kwalifikują się, ponieważ brakuje im specyficzności.

Fraza ta została podjęta przez kreacjonistów Charlesa Thaxtona i Waltera L. Bradleya w rozdziale, który wnieśli do książki The Creation Hypothesis z 1994 roku, w której omawiali „wykrywanie projektu” i przedefiniowali „określoną złożoność” jako sposób mierzenia informacji. Kolejny wkład do książki napisał William A. Dembski , który potraktował to jako podstawę swojej późniejszej pracy.

Termin ten został później użyty przez fizyka Paula Daviesa do określenia złożoności żywych organizmów:

Żywe organizmy są tajemnicze nie ze względu na swoją złożoność per se, ale ze względu na ściśle określoną złożoność

Definicja Dembskiego

Dembski opisuje określoną złożoność jako właściwość istot żywych, którą mogą zaobserwować zwolennicy inteligentnego projektu. Jednakże, podczas gdy Orgel użył tego terminu dla cech biologicznych, które są uważane w nauce za powstałe w procesie ewolucji, Dembski mówi, że opisuje cechy, które nie mogą powstać w wyniku „niekierowanej” ewolucji – i dochodzi do wniosku, że pozwala to wnioskować o inteligentnym projekcie. Podczas gdy Orgel zastosował to pojęcie w sposób jakościowy, zastosowanie Dembskiego ma być ilościowe. Użycie tego pojęcia przez Dembskiego datuje się na jego monografię The Design Inference z 1998 roku . Określona złożoność ma fundamentalne znaczenie w jego podejściu do inteligentnego projektu, a każda z kolejnych jego książek również w znacznym stopniu zajmowała się tą koncepcją. Stwierdził, że jego zdaniem „jeśli istnieje sposób na wykrycie projektu, to jest nim określona złożoność”.

Dembski twierdzi, że określona złożoność występuje w konfiguracji, gdy można ją opisać za pomocą wzorca, który wyświetla dużą ilość niezależnie określonych informacji, a także jest złożona, którą definiuje jako o niskim prawdopodobieństwie wystąpienia. Podaje następujące przykłady, aby zademonstrować tę koncepcję: „Pojedyncza litera alfabetu jest określona, ​​ale nie jest skomplikowana. Długie zdanie losowych liter jest złożone bez określania. Sonet Szekspira jest zarówno złożony, jak i sprecyzowany”.

We wcześniejszych pracach Dembski zdefiniował złożoną określoną informację (CSI) jako występującą w określonym zdarzeniu, którego prawdopodobieństwo nie przekracza 1 na 10 150 , co nazywa uniwersalnym prawdopodobieństwem związanym . W tym kontekście „określony” oznaczał to, co w późniejszych pracach nazwał „wstępnie określony”, co jest określane przez nienazwanego projektanta przed poznaniem jakiejkolwiek informacji o wyniku. Wartość uniwersalnego ograniczenia prawdopodobieństwa odpowiada odwrotności górnej granicy „całkowitej liczby [możliwych] określonych wydarzeń w historii kosmicznej”, obliczonej przez Dembskiego. Wszystko poniżej tej granicy ma CSI. Terminy „określona złożoność” i „złożona określona informacja” są używane zamiennie. W nowszych pracach Dembski przedefiniował uniwersalne prawdopodobieństwo związane z odniesieniem do innej liczby, odpowiadającej całkowitej liczbie operacji bitowych, jakie mogły być wykonane w całej historii wszechświata.

Dembski twierdzi, że CSI istnieje w wielu cechach istot żywych, takich jak DNA i inne funkcjonalne molekuły biologiczne, i argumentuje, że nie może być generowany przez jedyne znane naturalne mechanizmy praw fizycznych i przypadku, ani przez ich połączenie. Twierdzi, że dzieje się tak, ponieważ prawa mogą jedynie przesuwać lub tracić informacje, ale ich nie wytwarzają, oraz ponieważ przypadek może wytworzyć złożone, nieokreślone informacje lub proste określone informacje, ale nie CSI; przedstawia analizę matematyczną, która, jak twierdzi, pokazuje, że współdziałanie prawa i przypadku również nie może generować CSI. Ponadto twierdzi on, że CSI jest holistyczne , przy czym całość jest większa niż suma części, a to zdecydowanie eliminuje darwinowskiej ewolucji jako możliwych sposobów jego „stworzenia”. Dembski utrzymuje, że proces eliminacji najlepiej tłumaczy, że CSI wynika z inteligencji, a zatem jest wiarygodnym wskaźnikiem projektu.

Prawo zachowania informacji

Dembski formułuje i proponuje następujące prawo zachowania informacji:

To silne nakazowe twierdzenie, że przyczyny naturalne mogą jedynie przekazywać CSI, ale nigdy go nie wywodzą, nazywam Prawem Ochrony Informacji.

Bezpośrednie następstwa proponowanej ustawy są następujące:

  1. Określona złożoność w zamkniętym systemie przyczyn naturalnych pozostaje stała lub maleje.
  2. Określona złożoność nie może być generowana spontanicznie, powstawać endogenicznie ani sama się organizować (bo te terminy są używane w badaniach początków życia ).
  3. Określona złożoność w zamkniętym systemie przyczyn naturalnych albo była w systemie wiecznie, albo została w pewnym momencie dodana egzogenicznie (co sugeruje, że system, choć teraz zamknięty, nie zawsze był zamknięty).
  4. W szczególności każdy zamknięty system przyczyn naturalnych, który ma również skończony czas trwania, otrzymał jakąkolwiek określoną złożoność, jaką zawiera, zanim stał się systemem zamkniętym.

Dembski zauważa, że ​​termin „Prawo zachowania informacji” był wcześniej używany przez Petera Medawara w jego książce The Limits of Science (1984) „do opisania słabszego twierdzenia, że ​​prawa deterministyczne nie mogą wytwarzać nowych informacji”. Rzeczywista ważność i użyteczność proponowanego prawa Dembskiego są niepewne; nie jest szeroko stosowany przez społeczność naukową ani cytowany w głównym nurcie literatury naukowej. Esej Erika Tellgrena z 2002 roku dostarczył matematycznego obalenia prawa Dembskiego i stwierdza, że ​​jest ono „matematycznie nieuzasadnione”.

Specyficzność

W nowszym artykule Dembski przedstawia relację, która, jak twierdzi, jest prostsza i ściślej trzyma się teorii testowania hipotez statystycznych sformułowanej przez Ronalda Fishera . Ogólnie rzecz biorąc, Dembski proponuje traktować wnioskowanie o projekcie jako test statystyczny odrzucający hipotezę przypadku P na przestrzeni wyników Ω.

Proponowany przez Dembskiego test opiera się na złożoności Kołmogorowa wzorca T, który przejawia się w zaistniałym zdarzeniu E. Matematycznie E jest podzbiorem Ω, wzorzec T określa zbiór wyników w Ω, a E jest podzbiorem T . Cytując Dembskiego

Tak więc wydarzenie E może być rzutem kostką, który wypadnie szóstą, a T może być złożonym wydarzeniem składającym się ze wszystkich rzutów kostką, które wylądowały na równej powierzchni.

Złożoność Kołmogorowa stanowi miarę zasobów obliczeniowych potrzebnych do określenia wzoru (takiego jak sekwencja DNA lub sekwencja znaków alfabetycznych). Mając wzorzec T , liczba innych wzorców może mieć złożoność Kołmogorowa nie większą niż T, oznaczona przez φ( T ). Liczba φ( T ) zapewnia zatem ranking wzorców od najprostszych do najbardziej złożonych. Na przykład, na strukturze T opisującej bakteryjną wić roszczenia Dembski uzyskać górną granicę cp ( T ) mniejszej niż 10 20 .

Dembski definiuje określoną złożoność wzorca T przy hipotezie przypadku P as

gdzie P( T ) jest prawdopodobieństwem zaobserwowania wzorca T , R jest liczbą „zasobów replikacyjnych” dostępnych „dla agentów obserwujących”. R odpowiada w przybliżeniu powtarzającym się próbom stworzenia i rozpoznania wzoru. Dembski twierdzi następnie, że R może być ograniczone przez 10 120 . Liczbę tę rzekomo uzasadnia wynik Setha Lloyda, w którym określa on, że liczba elementarnych operacji logicznych, które mogły zostać wykonane we wszechświecie w całej jego historii, nie może przekroczyć 10 120 operacji na 10 90 bitach.

Głównym twierdzeniem Dembskiego jest to, że do wywnioskowania projektu dla konfiguracji można użyć następującego testu: Istnieje wzorzec docelowy T, który stosuje się do konfiguracji i którego określona złożoność przekracza 1. Warunek ten można powtórzyć jako nierówność

Wyjaśnienie Dembskiego określonej złożoności

Wyrażenie Dembskiego σ nie jest związane z żadnym znanym pojęciem w teorii informacji, chociaż twierdzi, że może uzasadnić jego znaczenie w następujący sposób: inteligentny agent S jest świadkiem zdarzenia E i przypisuje je do pewnej klasy odniesienia zdarzeń Ω i wewnątrz tej klasy odniesienia uważa je za spełniające specyfikację T . Rozważmy teraz wielkość φ( T ) × P( T ) (gdzie P jest hipotezą „przypadku”):

Możliwe cele z rankingiem złożoności i prawdopodobieństwem nieprzekraczającym wartości osiągniętego celu T . Prawdopodobieństwo unii mnogościowej nie przekracza φ( T ) × P( T )

Pomyśl o S jako próbie ustalenia, czy łucznik, który właśnie wystrzelił strzałę w dużą ścianę, przypadkiem trafił w mały cel na tej ścianie. Powiedzmy, że strzała rzeczywiście wbija się prosto w ten maleńki cel. Problem polega jednak na tym, że na ścianie jest wiele innych małych celów. Po uwzględnieniu wszystkich innych celów, czy nadal jest mało prawdopodobne, że łucznik mógł trafić w którekolwiek z nich przez przypadek?

Ponadto musimy wziąć pod uwagę to, co nazywam zasobami replikacyjnymi związanymi z T , to znaczy wszystkie możliwości wywołania zdarzenia o złożoności opisowej i nieprawdopodobieństwa T przez wielu agentów będących świadkami wielu zdarzeń.

Według Dembskiego liczba takich „zasobów replikacyjnych” może być ograniczona przez „maksymalną liczbę operacji bitowych, jakie znany, obserwowalny wszechświat mógł wykonać w całej swojej wielomiliardowej historii”, która według Lloyda wynosi 10 120 .

Jednak według Elsberry i Shallit „[określona złożoność] nie została formalnie zdefiniowana w żadnym renomowanym, recenzowanym czasopiśmie matematycznym, ani (według naszej najlepszej wiedzy) przyjęta przez żadnego badacza teorii informacji”.

Obliczanie określonej złożoności

Jak dotąd Dembskiego próbować tylko przy obliczaniu określonego złożoność naturalnie występującej struktury biologicznej jest w swojej książce No Free Lunch , dla bakteryjnej wici z E. coli . Strukturę tę można opisać wzorem „dwukierunkowe obrotowe śmigło napędzane silnikiem”. Dembski szacuje, że istnieje co najwyżej 10 20 wzorów opisanych czterema lub mniej podstawowymi pojęciami, a więc jego test na projekt będzie miał zastosowanie, jeśli

Dembski mówi jednak, że dokładne obliczenie odpowiedniego prawdopodobieństwa „nie zostało jeszcze zrobione”, chociaż twierdzi również, że niektóre metody obliczania tych prawdopodobieństw „są już gotowe”.

Metody te zakładają, że wszystkie części składowe wici musiały zostać wygenerowane całkowicie losowo, co jest scenariuszem, którego biolodzy nie biorą pod uwagę poważnie. Uzasadnia to podejście odwołując się do koncepcji „ nieredukowalnej złożoności ” (IC) Michaela Behe'a , co prowadzi go do założenia, że ​​wici nie mogłyby powstać w żadnym stopniowym lub stopniowym procesie. Ważność poszczególnych obliczeń Dembskiego jest więc całkowicie zależna od koncepcji IC Behe'ego, a zatem podatna na jej krytykę, której jest wiele.

Aby dojść do górnej granicy rankingu 10 20 wzorów, Dembski rozważa wzór specyfikacji dla wici zdefiniowany przez predykat (w języku naturalnym) „dwukierunkowe obrotowe śmigło napędzane silnikiem”, które uważa za określone przez cztery niezależnie wybrane podstawowe pojęcia. Ponadto zakłada, że ​​język angielski jest w stanie wyrazić co najwyżej 10 5 podstawowych pojęć (górna granica wielkości słownika). Dembski twierdzi następnie, że możemy uzyskać zgrubną górną granicę

dla zestawu wzorców opisanego przez cztery podstawowe pojęcia lub mniej.

Z punktu widzenia teorii złożoności Kołmogorowa to obliczenie jest problematyczne. Cytując Ellsberry'ego i Shallita „Specyfikacja języka naturalnego bez ograniczeń, na co Dembski milcząco pozwala, wydaje się problematyczna. Po pierwsze, skutkuje to paradoksem Berry'ego ”. Autorzy ci dodają: „Nie mamy zastrzeżeń do specyfikacji języka naturalnego per se, pod warunkiem, że istnieje jakiś ewidentny sposób przełożenia ich na ramy formalne Dembskiego. Ale czym właściwie jest przestrzeń zdarzeń Ω tutaj?”

Krytyka

Słuszność koncepcji Dembskiego określonej złożoności i zasadność argumentów opartych na tym pojęciu są szeroko dyskutowane. Częstą krytyką (zob. Elsberry i Shallit) jest to, że Dembski używa zamiennie terminów „złożoność”, „informacja” i „nieprawdopodobieństwo”. Liczby te mierzą właściwości różnych typów rzeczy: Złożoność mierzy, jak trudno jest opisać obiekt (np. ciąg bitów), informacja określa, jak bardzo niepewność dotycząca stanu obiektu jest zmniejszona dzięki znajomości stanu innego obiektu lub systemu , a nieprawdopodobieństwa mierzy stopień prawdopodobieństwa wystąpienia danego zdarzenia w rozkładzie prawdopodobieństwa.

Na stronie 150 No Free Lunch Dembski twierdzi, że może udowodnić swoją tezę matematycznie: „W tej sekcji przedstawię podstawowy argument matematyczny, dlaczego przyczyny naturalne nie są w stanie wygenerować złożonych, określonych informacji”. Kiedy Tellgren badane Dembskiego „prawo zachowania informacji” używając bardziej formalnego podejścia, doszedł do wniosku, że jest matematycznie bezpodstawne. Dembski odpowiedział w części, która nie jest „w branży oferując ścisły dowód matematyczny dla niezdolności mechanizmów materialnych do wygenerowania określonej złożoności”. Jeffrey Shallit stwierdza, że ​​matematyczny argument Demskiego ma wiele problemów, na przykład kluczowe obliczenia na stronie 297 No Free Lunch są przesunięte o współczynnik około 10 65 .

Obliczenia Dembskiego pokazują, że prosta funkcja gładka nie może uzyskać informacji. W związku z tym dochodzi do wniosku, że aby uzyskać CSI, musi być projektant. Jednak dobór naturalny ma mapowanie rozgałęzień od jednego do wielu (replikacja), po którym następuje przycinanie mapowania wielu z powrotem do kilku (selekcja). Kiedy informacje są replikowane, niektóre kopie mogą być różnie modyfikowane, podczas gdy inne pozostają takie same, co pozwala na zwiększenie ilości informacji. Te odwzorowania zwiększające i redukcyjne nie były modelowane przez Dembskiego. Innymi słowy, obliczenia Dembskiego nie modelują narodzin i śmierci. Ta podstawowa wada w jego modelowaniu sprawia, że ​​wszystkie późniejsze obliczenia i rozumowanie Dembskiego w No Free Lunch są nieistotne, ponieważ jego podstawowy model nie odzwierciedla rzeczywistości. Ponieważ podstawa No Free Lunch opiera się na tym błędnym argumencie, cała teza książki upada.

Według Martina Nowaka, profesora matematyki i biologii ewolucyjnej z Harvardu „Nie możemy obliczyć prawdopodobieństwa, że ​​pojawiło się oko. Nie mamy informacji, aby dokonać obliczeń”.

Krytycy Dembskiego zauważają, że określona złożoność, jak pierwotnie zdefiniował Leslie Orgel, jest dokładnie tym, co ma stworzyć darwinowska ewolucja. Krytycy utrzymują, że Dembski używa terminu „złożoność”, tak jak większość ludzi użyłaby słowa „absurdalnie nieprawdopodobne”. Twierdzą również, że jego argument jest kołowy : CSI nie może wystąpić naturalnie, ponieważ Dembski tak to zdefiniował. Twierdzą, że aby skutecznie wykazać istnienie CSI, konieczne byłoby wykazanie, że jakaś cecha biologiczna ma niewątpliwie niezwykle niskie prawdopodobieństwo wystąpienia w jakikolwiek naturalny sposób, czego Dembski i inni prawie nigdy nie próbowali zrobić. Takie obliczenia zależą od dokładnej oceny wielu prawdopodobieństw przyczynkowych, których określenie jest często z konieczności subiektywne. Dlatego CSI może co najwyżej zapewnić „bardzo wysokie prawdopodobieństwo”, ale nie absolutną pewność.

Inna krytyka odnosi się do problemu „arbitralnych, ale konkretnych wyników”. Na przykład, jeśli moneta zostanie rzucona losowo 1000 razy, prawdopodobieństwo wystąpienia konkretnego wyniku wynosi mniej więcej 1 na 10 300 . W przypadku każdego konkretnego wyniku procesu rzucania monetą prawdopodobieństwo a priori (prawdopodobieństwo mierzone przed wystąpieniem zdarzenia), że ten wzór wystąpił, wynosi zatem jeden na 10300 , co jest astronomicznie mniejsze niż uniwersalne prawdopodobieństwo Dembskiego równe jeden do 10150 . Wiemy jednak, że prawdopodobieństwo post hoc (prawdopodobnie obserwowane po wystąpieniu zdarzenia) jest dokładnie jedno, ponieważ zaobserwowaliśmy, jak to się dzieje. Jest to podobne do obserwacji, że jest mało prawdopodobne, aby dana osoba wygrała na loterii, ale ostatecznie loteria będzie miała zwycięzcę; twierdzenie, że jest bardzo mało prawdopodobne, aby którykolwiek z graczy wygrał, to nie to samo, co udowodnienie, że istnieje taka sama szansa, że ​​nikt nie wygra. Podobnie, argumentowano, że „przestrzeń możliwości jest jedynie badana, a my, jako zwierzęta poszukujące wzorców, po prostu narzucamy wzorce, a zatem cele, po fakcie”.

Poza takimi rozważaniami teoretycznymi krytycy przytaczają doniesienia o dowodach tego rodzaju ewolucyjnego „pokolenia spontanicznego”, o którym Dembski twierdzi, że jest zbyt nieprawdopodobne, aby mogło wystąpić naturalnie. Na przykład w 1982 roku BG Hall opublikował badania wykazujące, że po usunięciu genu umożliwiającego trawienie cukru u niektórych bakterii, te bakterie, hodowane na podłożach bogatych w cukier, szybko ewoluują w nowe enzymy trawiące cukier, aby zastąpić te usunięte. Innym szeroko cytowanym przykładem jest odkrycie bakterii żywiących się nylonem, które wytwarzają enzymy przydatne tylko do trawienia materiałów syntetycznych, które nie istniały przed wynalezieniem nylonu w 1935 roku.

Inni komentatorzy zauważyli, że ewolucja poprzez selekcję jest często wykorzystywana do projektowania pewnych systemów elektronicznych, lotniczych i samochodowych, które są uważane za problemy zbyt złożone dla ludzkich „inteligentnych projektantów”. Jest to sprzeczne z argumentem, że w przypadku najbardziej złożonych systemów wymagany jest inteligentny projektant. Takie techniki ewolucyjne mogą prowadzić do projektów, które są trudne do zrozumienia lub oceny, ponieważ żaden człowiek nie rozumie, jakie kompromisy zostały dokonane w procesie ewolucyjnym, co naśladuje nasze słabe zrozumienie systemów biologicznych.

Książka Dembskiego No Free Lunch została skrytykowana za to, że nie odnosi się do pracy naukowców, którzy wykorzystują symulacje komputerowe do badania sztucznego życia . Według Shallita:

Dziedzina sztucznego życia ewidentnie stanowi poważne wyzwanie dla twierdzeń Dembskiego o niepowodzeniu algorytmów ewolucyjnych w generowaniu złożoności. Rzeczywiście, badacze sztucznego życia regularnie odkrywają, że ich symulacje ewolucji wytwarzają takie nowości i zwiększoną złożoność, które według Dembskiego są niemożliwe.

Zobacz też

Uwagi i referencje

Zewnętrzne linki