Piękne wyniki w TCS

29

Niedawno mój przyjaciel (pracujący w TCS) wspomniał w rozmowie, że „chciał zobaczyć / poznać wszystkie (lub jak najwięcej) pięknych wyników w TCS w swoim życiu”. Ten rodzaj sprawił, że zastanawiałem się nad pięknymi wynikami w tej dziedzinie, a tym samym motywacją do następującego pytania:

Które wyniki (lub pomysły) są Twoim zdaniem piękne w informatyce teoretycznej? Byłoby wspaniale, gdybyś również podał powód. [Byłoby również w porządku, nawet jeśli pomysły pochodzą z matematyki, ale wzbudziły zainteresowanie i znalazły zastosowanie w TCS]

Zacznę od odpowiedzi jako przekątnego argumentu Cantora, ponieważ jest to prosty, elegancki, a jednocześnie potężny wynik.

Nikhil
źródło
2
Prawie duplikat tego pytania (ale tylko blisko, ponieważ algorytmy są właściwym podzbiorem TCS)
Jeffε
3
Nie jestem, jeśli jest to dobre pytanie w obecnej formie, zobacz Dobre subiektywne, złe subiektywne .
Kaveh
5
Przynajmniej musi to być CW.
Suresh Venkat
1
Być może moglibyśmy zmodyfikować pytanie, aby skupić się na wynikach nie algorytmicznych - ponieważ drugi wątek dotyczy algorytmów.
Vijay D
4
Na swoim blogu Lance Fortnow ma listy „ulubionych twierdzeń” każdej dekady. Na tych listach jest sporo pięknych wyników.
MCH

Odpowiedzi:

21

Nierozstrzygalność problemu zatrzymania.

Piękna z wielu powodów. To wynik niemożliwości. Dowód wykorzystuje diagonalizację. Oświadczenie dotyczy szerokiej gamy modeli obliczeniowych. Można go formułować na różne sposoby, w szczególności przy użyciu standardowych języków programowania. Był to przełomowy wynik w historii komputerów. Rozszerzenie tego stwierdzenia prowadzi do twierdzenia Rice'a, stopni Turinga i wielu innych fajnych wyników. Itd Itd Itd Itd

Vijay D.
źródło
17

Moim zdaniem korespondencja Curry-Howarda jest jednym z najpiękniejszych wyników teoretycznych i tym, co skłoniło mnie do badań.

Idea, że ​​dwa systemy, programy z jednej strony i dowody z drugiej strony mają dokładnie taką samą strukturę, ma niemal filozoficzny charakter: czy istnieją jakieś ogólne „wzorce rozumowania”?

Charles
źródło
Osobiście uważam korespondencję Curry-Howarda za kanoniczny przykład zduplikowanych teorii ze względu na różne konteksty, podczas gdy mają one tę samą matematyczną denotację. Należy to raczej uznać za wstyd dla ludzi, którzy nie są w stanie rozpoznać istniejących struktur i wymyślić koła na nowo.
Ludovic Patey
11
Całkowicie się nie zgadzam. Jeśli Curry-Howard ma na myśli mizernych ludzi powielających pracę, podobnie jest ze współczesną matematyką, szczególnie z wynikami dotyczącymi struktur w kombinatorykach, algebrze i topologii.
Vijay D
Masz rację w tym sensie, że matematyka polega głównie na znajdowaniu korelacji między strukturami, a korelacja jest z definicji nieistotnością, ujawniając pewne duplikacje przynajmniej w niektórych częściach teorii. Aby zachować spójność, muszę stwierdzić, że matematyka jest wstydem w swej istocie, ponieważ gdybyśmy byli w stanie zobaczyć duplikacje, twierdzenia byłyby oczywiste, a matematyka bezużyteczna. ^^
Ludovic Patey
Turingoid: zgadzam się. Do podobnych wniosków (dotyczących ponownego wynalezienia koła) doszedłem podczas pracy z koncepcją symetrii. Szkoda, że ​​nie jesteśmy w stanie pracować na poziomie pierwotnych relacji symetria / asymetria. IMO rozpadnie się niektórych rzeczywistych nauk na szersze, kiedy w końcu się przełamiemy.
Mooncer
1
Gdyby tylko istniał sposób na zautomatyzowanie tego procesu.
Jeffε
17

Możliwość kryptografii z kluczem publicznym, na przykład schemat wymiany kluczy Diffie-Hellmana.

Przełamuje to bardzo silne przekonanie, że ludzie muszą się spotkać przed wymianą tajemnic na niepewnym kanale.

aelguindy
źródło
16

Byłem i nadal jestem zaskoczony algorytmem Euclida. Dla mnie jest to świadectwo siły ludzkiego myślenia - że ludzie mogliby sobie wyobrazić taki algorytm tak wcześnie (około 300 rpne, jeśli ufam mojej pamięci).

Szybkie przewijanie do przodu, jest przytłaczająca literatura na ten temat. Myślę, że lista Scotta Aaronsona powinna być pomocna w tym względzie - jednak, jak sam Aaronson mówi, że nie jest kompletna (i nie do końca teoretyczna)

Akash Kumar
źródło
15

Technika Yao polegająca na zastosowaniu twierdzenia Minmaxa von Neumanna do udowodnienia dolnych granic dla algorytmów randomizowanych. Uważam to za coś nie z tego świata.

Probabilistyczna metoda udowodnienia istnienia obiektów, które trudno nam zbudować, w tym lemata lokalna Lovasz. Te techniki są tak proste, ale tak potężne.

Konstrukcje teorii kodowania Madhu Sudana z wykorzystaniem wielomianów.

Ekspandery (zaczęło się jako wykresy Ramanujana) oraz Ekstraktory i ich aplikacje w Pseudolosie.

Algorytm szybkiej transformacji Fouriera Cooleya i Tukeya w celu znalezienia DFT. (Chociaż, jak zakładał Tukey, było to ponowne odkrycie dobrze znanej techniki, przynajmniej znanej Gaussowi!)

Twierdzenie Barringtona (bardzo zaskakujący wynik w swoim czasie)

Twierdzenie o równoległych powtórzeniach (chociaż wynik jest dobry, dowód nie jest łatwy)

Funkcja Lovasz Theta do oszacowania pojemności shannona wykresu.

Algorytm elipsoidalny, który pokazał, że LP jest w P, zaskakuje wielu w tym samym czasie, gdy wielu nadal podejrzewa, że ​​może być NP-Complete.

karthik
źródło
Metoda probabilistyczna tak naprawdę nie jest wynikiem. To tylko natychmiastowa cecha definicji prawdopodobieństwa. Z podobnych powodów trudno argumentować, że jest wyjątkowy dla TCS (mimo że istnieje książka o tej samej nazwie).
Lembik
14

zaskakująco jedna z najbardziej oczywistych odpowiedzi nie została jeszcze dodana. czasami ktoś zbyt wiele pracuje z czymś, aby widzieć to bezstronnie. Teoria NP kompletności zainicjowanej przez Cooka / Levin i natychmiast powielanego przez Karp, który dał wczesne wskazanie jego ubiquitousness, jeszcze bardziej przewidujący z perspektywy czasu. pod wieloma względami jest to narodziny nowoczesnej teorii TCS i teorii złożoności, a jej podstawowe / kluczowe / notoryczne pytanie P =? NP jest nadal otwarte po czterech dekadach intensywnych badań / ataku. P =? NP ma nagrodę Claymath w wysokości 1 mln USD za swoje rozwiązanie.

Dowód Cooka wprowadził NDTM, który najwyraźniej wcale nie jest jedynie teoretyczną ciekawością, ale prawie niezwykle podstawową częścią TCS. wypuścił tysiąc statków, że tak powiem. co więcej, nieustannie opiera się / przeciwstawia wysiłkom poprzez jedną z innych kluczowych / potężnych technik TCS wymienionych na tej liście, przekątną, widzianą np. w wynikach BGS-75 Oracle / Relatywizacja - co sugeruje, że musi być coś egzotycznego i innego w każdej możliwej rozwiązanie, również dalej zasugerowane / rozwinięte w dokumencie Razborov-Rudich Natural Proofs (nagroda Godela 2007).

istnieje wiele, wiele referencji na temat, ale jedno z ostatnich relacji z pierwszej ręki historii można znaleźć w The P =? NP Question i Godel's Lost Letter autorstwa RJ Liptona

vzn
źródło
W rzeczywistości NDTM pojawiają się już w pracy Turinga z 1936 roku jako „maszyny wyboru”; patrz Wikipedia.
Jeffε
1
ups, ok. dzięki za korektę. w każdym razie papier do gotowania może być pierwszy, aby pokazać, że NDTM różni się znacznie od DTM w sensie teorii złożoności.
vzn
Ups! Właśnie miałem to opublikować. Byłem również zaskoczony, że nie został opublikowany natychmiast.
Andrew D. King,
14

Złożoność Kołmogorowa i metoda nieściśliwości .

Metoda nieściśliwości - oparta na złożoności Kołmogorowa - zapewniła nowy i intuicyjny sposób formułowania dowodów. W typowym dowodzie wykorzystującym metodę nieściśliwości, najpierw wybiera się obiekt nieściśliwy z omawianej klasy. Argument niezmiennie mówi, że jeśli żądana właściwość nie jest zachowana, to w przeciwieństwie do założenia obiekt można skompresować, co stwarza wymaganą sprzeczność.

Zobacz na przykład dowód, że istnieje nieskończona liczba liczb pierwszych, alternatywny dowód twierdzenia o niekompletności Godela lub związki między złożonością Kołmogorowa a złożonością obliczeniową ...

Marzio De Biasi
źródło
11

Byłem (i wciąż jestem) zdumiony twierdzeniem Kleene'a o drugiej rekurencji . Na pierwszy rzut oka wydaje się prosty i mało przydatny, ale później odkryłem, że jest głęboki zarówno matematycznie, jak i filozoficznie.

Kiedy przeczytałem również o wariancie sprawdzonym na maszynach Turinga (bardzo nieformalnie stwierdzając, że maszyny mogą uzyskać własne opisy lub równoważnie, że istnieją maszyny, które generują własny opis, jak program, który drukuje się sam ...), poczułem, że mój mózg się wykręca. tak trudne, ale zaintrygowane jak nigdy przedtem. Następnie zobaczysz, w jaki sposób twierdzenie to daje jeden wiersz dowodu na nierozstrzygalność problemu zatrzymania i nierozpoznawalności maszyn minimalnych ... itd.

aelguindy
źródło
11

Twierdzenia Shannona o kodzie źródłowym i kanałowym.

Definicja matematyczna, która odróżniała przekaz, odbiornik od medium i która ignorowała semantykę wiadomości, była dużym krokiem. Entropia w kontekście danych jest fantastycznie użytecznym pojęciem. A ponieważ teoria informacji powinna być lepiej znana.

Vijay D.
źródło
Zauważ również, że Shannon prawie wynalazł teorię informacji w swoim przełomowym artykule.
Alejandro Piad
11

Piękny wynik, który opiera się na twierdzeniu PCP, stwierdza, że ​​trudne jest obliczenie (NP-trudne), aby spełnić więcej niż 7/8 klauzul wzoru 3SAT, nawet w przypadku warunków zadowalających.

Mohammad Al-Turkistany
źródło
4
Jeszcze bardziej niesamowite, ponieważ 7/8 klauzul można spełnić dość trywialnie (przez losowe przypisanie lub chciwy algorytm.)
Jan Johannsen
1
Ten wynik nie jest dokładnie twierdzeniem PCP. Opiera się na twierdzeniu PCP, ale wymaga znacznie więcej pracy.
MCH
10

algorytm Shors dla faktoringu w BQP . moim zdaniem / pamięć, obliczenia kwantowe były bardziej ciekawostką teoretyczną, aż do tego wyniku w 1994 r., kiedy to wydawało się, że eksplozja literatury i badań w dziedzinie obliczeń QM. jest to prawdopodobnie jeden z najważniejszych znanych algorytmów QM. przyznał nagrodę Gödel w 1999 roku. ujawnia również, że faktoring w obliczeniach QM jest w pewnym sensie nieco lepiej rozumiany niż w obliczeniach klasycznych, gdzie np. wciąż pozostaje otwarte pytanie, czy faktoring jest kompletny.

vzn
źródło
1
zauważ, że faktoring będący kompletnym NP byłby dużym szokiem, ponieważ oznaczałby coNP = NP
Sasho Nikolov
2
Złożyłbym algorytm Simona razem z algorytmem Shora.
Juan Bermejo Vega
10

Wydaje mi się, że test pierwotności czasu AKS P jest dość piękny pod wieloma względami. przełom w tym czasie, jeden z wielkich, ale raczej rzadkich przełomów w teorii złożoności w naszych czasach. rozwiązuje problem sięgający starożytności greckiej i odnosi się do niektórych z najwcześniejszych wynalezionych algorytmów (sito eratostenów), tj. efektywnego identyfikowania liczb pierwszych. jest to konstruktywny dowód na to, że wykrywanie pierwotności ma wartość P, w przeciwieństwie do wielu wielkich dowodów, które niestety nie są konstruktywne.

jest połączony z algorytmem kryptograficznym RSA wspomnianym w innej odpowiedzi, ponieważ algorytm ten musi szybko znaleźć duże liczby pierwsze, przed algorytmem AKS było to możliwe tylko probabilistycznie. jest zasadniczo związane z teorią liczb i innymi głębokimi problemami, np. hipotezą Riemanna, która pod wieloma względami jest oryginalną dziedziną algorytmiki.

przyznał nagrodę Gödel 2006 i nagrodę Fulkerson 2006

vzn
źródło
3
To zdecydowanie ważny wynik, ale piękny? Naprawdę?
Jeffε
Zgadzam się z powyższym komentarzem JeffE. Wynik jest bardzo znaczący i to właśnie zostało wskazane w odpowiedzi, a nie jak (lub jaki pomysł (-y) wykorzystano) testowanie pierwotności AKS jest / są piękne.
Nikhil
dla mnie „niezwykle istotny” wynik jest piękny. „Twój przebieg może się różnić”.
vzn
7
Z drugiej strony Miller-Rabin jest dość piękny
Sasho Nikolov
1
nie wiem, dlaczego ludzie uznaliby algorytm probabilistyczny za lepszy pod względem piękna niż ten algorytm tak, AKS jest w dużej mierze oparty na Millerze-Rabinie, ale jest dużym postępem w usuwaniu randomizacji, która była pomijana (lub może nie była postrzegana jako możliwa) przez dziesięciolecia i ostatecznie została znaleziona. dla mnie to jest piękne. ponadto teoria liczb jest tylko pięknym obszarem matematyki / algorytmiki [z teorią liczb pierwszych w teorii liczb], tę perspektywę można zobaczyć np. w słynnej książce Mathematicians Apology GH Hardy'ego.
dniu
10

Myślę, że małe twierdzenie grafów autorstwa Robertsona i Seymour'a było najwspanialszymi teoriami, jakie kiedykolwiek widziałem (i częściowo je przeczytałem). Przede wszystkim jest to cicho skomplikowane, ale podstawowe przypuszczenia nie są trudne i być może każdy, kto pracuje w TCS, może je odgadnąć. Ich niezwykły wysiłek, aby je udowodnić, był wspaniały. W rzeczywistości po przeczytaniu niektórych artykułów z tej serii rozumiem siłę ludzkiego umysłu.

Również małe twierdzenie o grafach ma duży wpływ na różne pola TCS. Podobnie jak teoria grafów, algorytm aproksymacyjny, algorytmy parametryzowane, logika, ...

Saeed
źródło
9

Jedną z moich ulubionych rodzin wyników jest rozstrzyganie różnych problemów z pozornie nieskończonej natury.

  1. Teoria pierwszego rzędu rzeczywistych pól zamkniętych jest rozstrzygalna (według Tarskiego). Geometria euklidesowa jest także modelem aksjomatów rzeczywistych zamkniętych pól, stąd też według Tarskiego rozstrzygające są zdania pierwszego rzędu w tym modelu.
  2. Arytmetyka Presburgera jest rozstrzygalna.
  3. Teoria pierwszego rzędu algebraicznie zamkniętych pól (w tym liczb zespolonych) jest rozstrzygalna.
  4. Monadyczna logika drugiego rzędu nad nieskończonymi (i skończonymi) słowami jest rozstrzygalna. Dowód jest elegancki i można go nauczyć studentów.
Vijay D.
źródło
8

Istnieje wiele cudownych wyników na temat algorytmów probabilistycznych, które są zwodniczo proste i stanowią duży krok naprzód w naszym podejściu do obliczeń.

Trik von Neumanna dotyczący wprowadzenia uczciwej monety za pomocą stronniczości. Jesteśmy teraz tak przyzwyczajeni do algorytmów probabilistycznych, ale z zewnętrznej perspektywy jest to niewiarygodnie fajne. Zarówno algorytm, jak i dowód są dostępne dla każdego, kto zna prawdopodobieństwo w szkole średniej.

Vijay D.
źródło
Spodziewałbym się, że wspomnisz zasadę minmax Yao dotyczącą znajdowania dolnych granic oczekiwanych czasów działania algorytmów Las Vegas. Łączy idee teorii gier z prawdopodobieństwem i algorytmami.
karthik
Pewnie. Ale spamuję to pytanie, podając już wystarczającą liczbę odpowiedzi. Dodaj swój ulubiony wynik jako odpowiedź.
Vijay D
8

Wynik Tima Griffina, który kontroluje takich operatorów, jak call/cclogika klasyczna, rozszerza korespondencję Curry-Howarda.

Zasadniczo wpisywanie call/ccjest takie, że jeśli ma typ , to ma typ . Działa to przy interpretacji typu jako , co jest standardem w logice i odpowiada typowi funkcji, która przyjmuje i nigdy nie zwraca. To właśnie robi kontynuacja, dzięki czemu korespondencja działa.¬ ¬ τ c a l l / c c ( E ) τ ¬ τ τ τE¬¬τcall/cc(E)τ¬τττ

Jego praca zatytułowana „Formuła jako pojęcie kontroli” pojawia się w POPL 1990.

Sam Tobin-Hochstadt
źródło
7

Moim ulubionym jest liniowy algorytm czasu Rabina do obliczania najbliższej pary punktów na płaszczyźnie (a ściślej jej uproszczenie). Omawia znaczenie modelu obliczeniowego, moc algorytmów losowych i elegancki sposób myślenia o algorytmach losowych.

To powiedziawszy, CS wciąż jest daleki od osiągnięcia poziomu elegancji, jaki napotyka się w matematyce (no cóż, mieli 5000 lat przewagi), od podstawowych definicji / wyników w rachunku różniczkowym, topologicznym (twierdzenia o stałym punkcie), kombinatoryki, geometrii (twierdzenie Pitagorasa http : //en.wikipedia.org/wiki/Plik: Pythag_anim.gif ) itp.

Jeśli szukasz piękna, szukaj go wszędzie ...

Sariel Har-Peled
źródło
5

Ten wynik jest prawdopodobnie nieco nowy, aby można go było uznać za fundamentalny, ale uważam, że interpretacja typów jako homotopii kwalifikuje się. Ten widok pozwala interpretować typy z konstruktywnej teorii typów jako zestawy o określonych właściwościach geometrycznych, w tym przypadku homotopii .

Uważam ten punkt widzenia za szczególnie piękny, ponieważ upraszcza on niektóre wcześniej złożone obserwacje dotyczące teorii typów, na przykład fakt, że „aksjomat K” nie jest możliwy do wyprowadzenia .

Przegląd tego obiecującego pola autorstwa Steve'a Awodeya można znaleźć tutaj .

cody
źródło
2

Dowód braku wiedzy to bardzo interesująca koncepcja. Pozwala bytowi, dowodzącemu, udowodnić (z dużym prawdopodobieństwem) innemu bytowi, weryfikatorowi, że zna on „sekret” (rozwiązanie jakiegoś problemu NP, modułowy pierwiastek kwadratowy z pewnej liczby, dyskretny dziennik pewnej liczby itp.) bez podawania jakichkolwiek informacji na temat sekretu (co na pierwszy rzut oka jest trudne, ponieważ pierwszym pomysłem na udowodnienie, że znasz sekret, jest przekazanie tajemnicy i każda komunikacja, która mogłaby skutkować weryfikator wierzący, że znasz tajemnicę, może z góry tylko zwiększyć wiedzę weryfikatora na temat tajemnicy).

Hugo Vincennes
źródło