Jednym z kamieni węgielnych samolubnego genu (Dawkins) jest spontaniczne pojawienie się replikatorów, tj. Cząsteczek zdolnych do samoreplikacji.
Zostało to wymodelowane in silico w otwartych symulacjach ewolucyjnych / sztucznego życia?
Systemy takie jak Avida lub Tierra wyraźnie określają mechanizmy replikacji; inne algorytmy genetyczne / systemy programowania genetycznego wyraźnie wyszukują mechanizmy replikacji (np. w celu uproszczenia uniwersalnego konstruktora von Neumanna)
Mile widziane są linki do symulacji, w których replikatory wyłaniają się z pierwotnej cyfrowej zupy.
Odpowiedzi:
Podejście systemowe
Zacznijmy replikować system czasu rzeczywistegoS:X⇒Y|I , gdzieX jest empiryczną ciągłą historią danych wejściowych iY empiryczną ciągłą historią danych wyjściowych, uwarunkowaną rzeczywistym stanem początkowym układuI . W oparciu o jakąś definicję wymagamy, abyS żył.
Nie możemy symulować replikacji teoretycznego modelu życia z samolubnym genem lub jakimkolwiek innym takim atrybutem, po prostu dlatego, że nie istnieje żaden matematycznie zwięzły model, na którym mogłaby opierać się symulacja. W chwili pisania tego tekstu znane są jedynie wskazówki i szczegóły takiego modelu.
Co więcej, modele są reprezentacjami matematycznymi, które w całej historii ludzkości okazują się przybliżeniami złożoności po usunięciu anomalii i opracowaniu nowych modeli w celu włączenia ich do teorii. 1
Symulacja z grubsza zdefiniowana
Jeśli zbadamy ogólny algorytmA do replikacji S , replikację można z grubsza naszkicować w następujący sposób.
Definiowanie spontanicznego pojawiania się
Przez spontaniczne pojawienie się rozumie się, że pojawił się tak duży astronomicznie szereg stanów początkowych i sekwencji bodźców, że istnieje wysokie prawdopodobieństwo, że jedna z permutacji będzie żywa, w oparciu o jakąś konkretną i rozsądną definicję tego, co żyje.
Definiowanie, czym jest życie
Przeglądając kilka definicji żywych organizmów, najbardziej uzasadnione są następujące:
Rywalizacja o zasoby, dobór naturalny i wszystkie inne cechy teorii ewolucji są następstwem powyższych pięciu wymagań. Oprócz tego nie należy odrzucać obecnej tendencji do uznawania symbiogenezy za wspólny temat pojawiania się gatunków.
Sztuczne życie jako symulacja
Te siedem kryteriów stanowi wyzwanie dla ludzi próbujących sztucznie generować życie. Łatwo jest stworzyć model komputerowy, który symuluje życie. Zastanów się, jak to zrobić.
Magiczne geny spontanicznego życia
Zauważ, że samolubny gen nie jest wspomniany powyżej. Samolubstwo, którego warunkiem jest intencja, nie jest warunkiem życia. Ameba nie myśli samolubnie, gdy się porusza lub je. Działa bezmyślnie. Nie powinniśmy antropomorfizować każdego badanego organizmu ani rozwijać teorii opartej na koncepcjach antropomorficznych.
Podobnie powstają związki symbiotyczne, które nie są ani kochające, ani altruistyczne. Istnieją, ponieważ istnieje obopólna korzyść, która pojawiła się jako niezamierzony produkt uboczny normalnych operacji i oboje symbiotyczni rodzice przekazali to symbiotyczne połączenie swojemu potomstwu. Wzajemna korzyść, symbioza i replikacja są bezmyślne i niezamierzone.
Nie musi istnieć mechanizm kontrolny odrębny od wszystkich innych replikowanych mechanizmów do kontroli współpracy symbiotycznej lub konkurencji. One także są naturalnymi konsekwencjami życia żywych istot w środowisku. Czy organizm umiera z tego powodu
nadal nie jest w stanie powielać się, więc jego cechy giną wraz z nim.
Zauważ też, że nie ma znanej cząsteczki, która mogłaby się replikować. Złożone układy cząsteczek o różnych stanach chemicznych i równowagach są wymagane do odtworzenia.
Powrót do symulowania już istniejącego organizmu
Otwartość wymaga weryfikacji w celu uzyskania zasług
Najbardziej znaczącym ograniczeniem we wdrożeniach in silico jest to, że nigdy nie mogą być naprawdę otwarte.
Od tego zapisu nie ma możliwości odtworzenia tego, co było symulowane poza systemem symulacji. Dopóki nanotechnologia nie osiągnie punktu, w którym konstrukcja i montaż 3D mogą migrować żywe symulacje do nieimulowanego wszechświata, symulacje te są zamknięte w ten sposób, a ich żywotność w vito nie jest testowana. Wartość otwartych symulacji bez możliwości ich zweryfikowania jest zasadniczo zerowa, z wyjątkiem rozrywki.
Nawet w dziedzinie cyfrowej symulacji, o ile technologia ta się rozwinęła, nic nie jest bliskie uniwersalnemu konstruktorowi von Neumanna. Chociaż ogólne funkcjonalne konstruktory kopii są dostępne w językach Scheme, LISP, C ++, Java i późniejszych, jest to niewielki krok w kierunku żywych obiektów w komputerach.
Zupa Cyfrowa
Problem z pierwotną cyfrową zupą jest jedną z kombinatorycznych eksplozji. Na powierzchni Ziemi znajduje się 510 milionów kilometrów kwadratowych i możliwe są tylko trzy kategorie ram czasowych pochodzenia życia.
Przy nanobiałach o średnicy 20 nm i możliwości, że pojawienie się mogło zająć tylko jedną sekundę, musimy zasymulować w trzech wymiarach w czasie następującą domenę czasoprzestrzenną w elementach skończonych z co najmniej 50% nakładaniem się we wszystkich trzech wymiarach.
W przypadku komputera kwantowego o wysokości dwóch pięter wielkości Szwajcarii czas obliczeń znacznie przekraczałby czas trwania przeciętnego gatunku na ziemi. Ludzie prawdopodobnie wyginą, zanim obliczenia się zakończą.
Ponieważ datowanie najstarszych znalezionych skamielin zbiega się z datowaniem Ziemi, może się wydawać, że życie szybko pojawiło się na Ziemi, ale nie jest to logiczny wniosek. Jeśli życie powstało, gdy tylko ziemia wystarczająco ostygła, a przez pozostałe miliardy lat nie znaleziono żadnego dowodu ciągłego wschodu, wówczas wniosek Vernadsky'ego, że życie przybyło na Ziemię przez jedno lub więcej ciał, które go uderzyły, staje się bardziej prawdopodobny.
Jeśli tak jest, należy zadać pytanie, czy wszystkie założenia zostaną odrzucone, czy życie w ogóle miało początek.
Symulowanie życia a symulowanie jego powstawania
Zgodność fizyki poza komputerem z symulacją może być niemożliwa. To, czy symulowane życie, gdy zostanie wcielone w robotyczny system, będzie faktycznie uważane za życie, pozostanie naszym potomkom, jeśli gatunek przetrwa wystarczająco.
Przypisy
[1] Klasyczne przypadki obejmują heliocentryczny układ kopernikański ustępujący prawu grawitacji, przy czym prawo to jest przybliżone do ogólnej teorii względności, pokazanej przez właściwe przewidywanie orbity Merkurego i krzywizny światła w pobliżu Słońca, Cztery Elementy odrzucone w światło odkrycia tlenu przez Lavoisiera i absolutna możliwość udowodnienia prawdy w zamkniętym systemie symbolicznym obalonym przez Gödela w jego drugim twierdzeniu o niekompletności, a następnie częściowo (pod względem obliczalności) odzyskanym przez twierdzenie Turinga o kompletności.
źródło
Chociaż trudno udowodnić, że jest negatywny, nie sądzę, że tak się stało.
Najbardziej zaawansowane symulacje funkcji niskiego poziomu nie są w stanie skalować, aby symulować wystarczająco duże populacje w wystarczająco dużych skalach czasowych, w których zgodnie z naukowymi konsensusami dzieje się tak w rzeczywistości.
Chociaż mówisz, że nie jesteś bezpośrednio zainteresowany chemią, ale jakimś abstrakcyjnym substratem, używam chemii jako przykładu wyzwania. Wynika to z faktu, że stworzenie uproszczonego podłoża z wystarczającą ilością bogatych zachowań wschodzących nie jest trywialne. Pierwiastki chemiczne mają zasady dotyczące łączenia się w większe struktury fizyczne (poprzez różne mechanizmy wiązania) i w grę wchodzi tylko kilkanaście rodzajów atomów. Jest to właściwie dość proste i możliwe do przełożenia na najniższym poziomie. Problemy wynikają z wielu skal struktury - budowania cząsteczek „jednostek” (zasad DNA / RNA, peptydów białkowych, lipidów, zasad cukrowych itp.), Tworzenia polimerów z tych jednostek, interakcji między polimerami, struktur fizycznych budowanych i niszczonych przez te interakcje , z których każdy wykazuje bardziej złożone zachowanie. Ta strukturalna hierarchia jest prawdopodobnie wymagana dla każdej samoreplikującej się maszyny, która nie jest po prostu zasilana bezpośrednio z urządzeń wyższego poziomu. W swoim pytaniu chcesz znaleźć samoreplikację, która się pojawia, a nie jest zaprojektowana. . . więc karmienie tymi jednostkami wyższego poziomu prawdopodobnie liczyłoby się jako oszustwo.
Prawdopodobnie nie mamy mocy obliczeniowej, aby poprawnie symulować nawet eksperyment Millera-Ureya, który jest daleki od samoreplikacji - symulacje chemiczne in silico ograniczają się do takich rzeczy, jak obliczenia fałdowania białek, i są one dalekie od czasu rzeczywistego. Wewnątrz tylko jednej komórki bakteryjnej przygotowującej się do podziału, białka są wytwarzane i składane przez setki co sekundę.
Jedną z rzeczy, które zostały zrobione, jest stworzenie samoreplikującej się maszyny w grze życia Conwaya o nazwie „Bliźnięta” . Zostało to zaprojektowane, a nie spontanicznie stworzone. Miałoby to jednak bardzo małą, ale niezerową szansę na spontaniczne utworzenie z losową inicjalizacją. Byłby to jednak bardzo delikatny replikator, każda mutacja lub kolizja z innymi aktywnymi elementami prawdopodobnie go złamałaby. Eksperyment polegający na próbie losowego / spontanicznego tworzenia Bliźniąt nie jest wykonalny obliczeniowo.
źródło
Pierwotne replikatory mogą być prostsze niż myślisz. Sprawdź ten film:
Autoreplikacja: w jaki sposób molekuły mogą tworzyć własne kopie
[Źródło: University of Groeningen]
W hałaśliwym otoczeniu masz naturalną mutację. I voila, replikacja + mutacja = ewolucja.
źródło
Jak opisał Neil Slater w pierwszej odpowiedzi, trudno jest zrozumieć, jak działa samoreplikujący się organizm. Ponieważ liczba możliwych działań jest ogromna i nie można przetestować ich wszystkich w procesie ewolucyjnym. W biochemii do rozwiązania problemu używana jest komunikacja między cząsteczkami. Zakłada się, że dostępny jest język symboliczny o strukturze hierarchicznej, który pozwala opisać bardziej złożone operacje. Terminem badawczym jest biosemiotyka , cytat:
Zanim możliwe będzie stworzenie systemów samoreplikujących się, najpierw należy przeanalizować istniejące systemy naturalne. Mówiąc dokładniej, „parser akcji” interpretuje język cząsteczek w procesie samoreplikacji. Po uruchomieniu parsera możliwe jest użycie go w kierunku rezerwy, co oznacza, że do parsera będą wysyłane losowe sygnały i sprawdzane, jak będzie wyglądał wynik na poziomie semantycznym.
źródło