Schöne Ergebnisse in TCS


29

Kürzlich erwähnte ein Freund von mir (der in TCS arbeitet) in einem Gespräch, dass "er alle (oder so viel wie möglich) der schönen Ergebnisse in TCS in seinem Leben sehen / kennen wollte". Diese Art hat mich über die schönen Ergebnisse in diesem Bereich und damit die Motivation für die folgende Frage wundern lassen:

Welche Ergebnisse (oder Ideen) sind Ihrer Meinung nach in der theoretischen Informatik schön? Es wäre toll, wenn Sie auch den Grund nennen würden. [Wäre auch in Ordnung, wenn die Ideen aus der Mathematik stammen, aber Interesse geweckt und Verwendung in TCS gefunden hätten.]

Ich würde mit einer Antwort als Cantors diagonales Argument beginnen, weil es einfach, elegant und dennoch ein kraftvolles Ergebnis ist.


2
Fast

3
Ich bin nicht der Meinung, dass dies eine gute Frage in der aktuellen Form ist, siehe Gut Subjektiv, Schlecht Subjektiv .
Kaveh

5
Zumindest muss dies CW sein.
Suresh Venkat

1
Vielleicht könnten wir die Frage so ändern, dass sie sich auf nicht-algorithmische Ergebnisse konzentriert - da sich der andere Thread um Algorithmen handelt.
Vijay D

4
In seinem Blog hat Lance Fortnow Listen von "Lieblingssätzen" jedes Jahrzehnts. Es gibt eine Menge schöner Ergebnisse in diesen Listen.
MCH

Antworten:


21

Die Unentscheidbarkeit des Halteproblems.

Aus vielen Gründen wunderschön. Es ist ein Unmöglichkeitsergebnis. Der Beweis verwendet eine Diagonalisierung. Die Aussage gilt für eine breite Palette von Rechenmodellen. Es kann auf verschiedene Arten formuliert werden, insbesondere unter Verwendung von Standard-Programmiersprachen. Es war ein Wendepunkt in der Geschichte des Rechnens. Die Erweiterung dieser Aussage führt zu Rices Theorem, Turing-Graden und vielen anderen coolen Ergebnissen. Etc. Etc. Etc.


17

Meiner Meinung nach ist die Curry-Howard-Korrespondenz eines der schönsten theoretischen Ergebnisse und das, was mich zu Nachforschungen veranlasst hat.

Die Vorstellung, dass zwei Systeme, Programme einerseits und Beweise andererseits, genau die gleiche Struktur haben, ist fast philosophischer Natur: Gibt es einige allgemeine "Argumentationsmuster"?


Persönlich betrachte ich die Curry-Howard-Korrespondenz als das kanonische Beispiel für doppelte Theorien aufgrund unterschiedlicher Kontexte, obwohl sie dieselbe mathematische Bezeichnung haben. Es sollte eher als Schande für Menschen angesehen werden, die vorhandene Strukturen nicht erkennen und das Rad neu erfinden können.
Ludovic Patey

11
Ich stimme überhaupt nicht zu. Wenn es bei Curry-Howard um mickrige Menschen geht, die Arbeiten duplizieren, dann geht es auch um moderne Mathematik, insbesondere um Ergebnisse in Bezug auf Strukturen in Kombinatorik, Algebra und Topologie.
Vijay D

Sie haben Recht in dem Sinne, dass Mathematik hauptsächlich darin besteht, Korrelationen zwischen Strukturen zu finden, und eine Korrelation ist per Definition eine Nichtunabhängigkeit, die in zumindest einigen Teilen der Theorien einige Überschneidungen aufdeckt. Um konsequent zu sein, muss ich zu dem Schluss kommen, dass Mathematik in ihrem Wesen eine Schande ist, denn wenn wir in der Lage wären, Überschneidungen zu erkennen, wären Theoreme offensichtlich und Mathematik nutzlos. ^^
Ludovic Patey

Turingoid: Dem stimme ich zu. Ich bin zu ähnlichen Schlussfolgerungen (über die Neuerfindung des Rads) gekommen, wenn ich mit dem Symmetriekonzept arbeite. Es ist wirklich eine Schande, dass wir nicht in der Lage sind, auf der Ebene der primären Symmetrie / Asymmetrie-Beziehungen zu arbeiten. IMO wird es einen Zusammenbruch einiger aktueller Wissenschaften in größere geben, wenn wir endlich durchbrechen.
Mooncer

1
Wenn es nur eine Möglichkeit gäbe, den Prozess zu automatisieren.
Jeffs

17

Die Möglichkeit der Kryptographie mit öffentlichen Schlüsseln, zum Beispiel das Diffie-Hellman-Schlüsselaustauschschema.

Es durchbricht das sehr starke Vorurteil, dass sich Menschen treffen müssen, bevor sie Geheimnisse auf einem unsicheren Kanal austauschen.


16

Ich war und bin immer noch überrascht von Euklids Algorithmus. Für mich ist es ein Beweis für Macht des menschlichen Denkens - , dass Menschen eines solchen Algorithmus vorstellen konnte so früh (um 300 vor Christus , wenn ich mein Gedächtnis vertrauen).

Schneller Vorlauf, es gibt stichhaltige Literatur zu diesem Thema. Ich denke, die Liste von Scott Aaronson sollte in dieser Hinsicht hilfreich sein - obwohl Aaronson selbst sagt, dass sie nicht vollständig (und nicht ganz theoretisch) ist.


15

Yaos Technik, von Neumanns Minmax-Theorem zu verwenden, um untere Schranken für randomisierte Algorithmen zu beweisen. Ich finde es als etwas nicht von dieser Welt.

Probabilistische Methode, um die Existenz von Objekten zu beweisen, die wir nur schwer konstruieren können, einschließlich des Lovasz Local Lemma. Diese Techniken sind so einfach und doch so mächtig.

Konstruktionen der Codierungstheorie von Madhu Sudan unter Verwendung von Polynomen.

Expander (dies begann als Ramanujan-Diagramme) und Extraktoren und ihre Anwendungen in der Pseudozufälligkeit.

Der Fast Fourier Transform-Algorithmus von Cooley und Tukey zum Auffinden der DFT. (Obwohl, wie von Tukey angenommen, dies eine Wiederentdeckung einer bekannten Technik war, die zumindest Gauß bekannt war!)

Der Satz von Barrington (ein sehr überraschendes Ergebnis seiner Zeit)

Satz der parallelen Wiederholung (obwohl das Ergebnis schön ist, ist der Beweis nicht einfach)

Lovasz-Theta-Funktion zur Schätzung der Shannon-Kapazität eines Graphen.

Ellipsoid-Algorithmus, der zeigte, dass LP in P ist, überraschend viele zu einer Zeit, als viele noch vermuteten, dass es NP-Complete sein könnte.


Die probabilistische Methode ist nicht wirklich das Ergebnis. Es ist nur ein unmittelbares Merkmal der Definition der Wahrscheinlichkeit. Aus ähnlichen Gründen ist es schwer zu argumentieren, dass TCS etwas Besonderes ist (obwohl es ein gleichnamiges Buch gibt).
Lembik

14

überraschenderweise eine der naheliegendsten noch nicht hinzugefügten Antworten. manchmal arbeitet man zu viel mit etwas, um es unparteiisch zu sehen. Die Theorie der NP-Vollständigkeit wurde von Cook / Levin auf den Weg gebracht und sofort von Karp verdeutlicht, der im Nachhinein noch vorsichtiger auf seine Allgegenwart hinwies. In vielerlei Hinsicht ist dies die Geburtsstunde der modernen TCS- und Komplexitätstheorie, und ihre Kern- / Schlüssel- / berüchtigte Frage P =? NP ist nach vier Jahrzehnten intensiven Studiums / Angriffs immer noch offen. P =? NP hat für seine Lösung einen Claymath-Preis in Höhe von 1 Mio. USD erhalten.

Mit dem Cook-Proof wurde der NDTM eingeführt, der anscheinend keine bloße theoretische Neugierde ist, sondern ein fast extrem grundlegender Bestandteil von TCS. hat sozusagen tausend Schiffe ins Leben gerufen. Darüber hinaus widersteht / trotzt es fortwährend den Bemühungen durch eine der anderen wichtigen / leistungsfähigen TCS-Techniken, die in dieser Liste aufgeführt sind, nämlich die Diagonalisierung, wie sie z Lösung, die auch durch das Razborov-Rudich Natural Proofs Paper (Godel-Preis 2007) vorgeschlagen / erweitert wurde.

Es gibt viele, viele Referenzen auf dem Subj, aber eine neuere mit einem Bericht aus erster Hand über die Geschichte kann in The P =? NP Question und Godels Lost Letter von RJ Lipton gefunden werden


Tatsächlich erscheinen NDTMs bereits in Turings Papier von 1936 als "Wahlmaschinen"; siehe Wikipedia
Jeffs

1
hoppla ok Danke für die Korrektur. Auf jeden Fall ist das Kochpapier vielleicht das erste, das zeigt, dass der NDTM sich in komplexitätstheoretischer Hinsicht stark von einem DTM unterscheidet.
Vzn

Hoppla! War gerade dabei, dies zu posten. Ich war auch überrascht, dass es nicht sofort gepostet wurde.
Andrew D. King

14

Kolmogorov Komplexität und die Inkompressibilitätsmethode .

Die auf der Kolmogorov-Komplexität basierende Inkompressibilitätsmethode bot eine neue und intuitive Möglichkeit, Beweise zu formulieren. In einem typischen Beweis unter Verwendung der Inkomprimierbarkeitsmethode wählt man zuerst ein inkomprimierbares Objekt aus der diskutierten Klasse. Das Argument besagt immer, dass, wenn eine gewünschte Eigenschaft nicht gilt, das Objekt im Gegensatz zur Annahme komprimiert werden kann und dies den erforderlichen Widerspruch ergibt.

Siehe zum Beispiel den Beweis, dass es unendlich viele Primzahlen gibt, den alternativen Beweis des Gödelschen Unvollständigkeitssatzes oder die Verbindungen zwischen Kolmogorov-Komplexität und Computerkomplexität , ...


11

Ich war (und bin) erstaunt über Kleenes zweiten Rekursionssatz . Auf den ersten Blick scheint es einfach und nicht sehr nützlich zu sein, aber ich habe später herausgefunden, dass es sowohl mathematisch als auch philosophisch tiefgreifend ist.

Als ich auch über die auf Turing Machines bewährte Variante las (sehr informell, dass Maschinen ihre eigenen Beschreibungen erhalten können oder dass es Maschinen gibt, die ihre eigene Beschreibung ausgeben, wie ein Programm, das sich selbst druckt), spürte ich, wie sich mein Gehirn drehte so hart und doch fasziniert wie nie zuvor. Dann sehen Sie, wie der Satz verwendet wird, um einzeilige Beweise für die Unentscheidbarkeit des Halteproblems und die Nichterkennbarkeit minimaler Maschinen usw. zu liefern.


11

Shannons Satz zur Quellen- und Kanalcodierung.

Eine mathematische Definition, die zwischen Senden, Empfangen und Medium unterschied und die Semantik der Nachricht ignorierte, war ein großer Schritt. Entropie im Kontext von Daten ist ein fantastisch nützlicher Begriff. Und weil die Informationstheorie besser bekannt sein sollte.


Beachten Sie auch, dass Shannon die Informationstheorie in seiner wegweisenden Abhandlung fast erfunden hätte.
Alejandro Piad

11

Ein schönes Ergebnis, das auf dem PCP-Theorem aufbaut, besagt, dass es rechnerisch schwierig (NP-schwer) ist, mehr als 7/8 der Klauseln der 3SAT-Formel auch für erfüllbare zu erfüllen.


4
Noch erstaunlicher, da 7/8 der Klauseln ganz trivial erfüllt werden können (durch eine zufällige Zuordnung oder einen gierigen Algorithmus.)
Jan Johannsen

1
Dieses Ergebnis ist nicht genau das PCP-Theorem. Es baut auf dem PCP-Theorem auf, benötigt aber viel mehr Arbeit.
MCH

10

Shors-Algorithmus zum Faktorisieren in BQP . nach meiner meinung / erinnerung war die quantenberechnung bis zu diesem ergebnis im jahr 1994 eher eine theoretische kuriosität. an diesem punkt scheint das literatur- und forschungsinteresse am qm-rechnen explodiert zu sein. Es ist immer noch einer der wichtigsten bekannten QM-Algorithmen. 1999 mit dem Gödel-Preis ausgezeichnet. es zeigt sich auch, dass das Factoring in der QM-Berechnung in gewissem Sinne tatsächlich etwas besser verstanden wird als im klassischen Computing, wo z. B. die Frage, ob das Factoring NP-vollständig ist, noch offen ist.


1
Beachten Sie, dass die Tatsache, dass NP-vollständig ist, ein großer Schock wäre, da dies bedeuten würde, dass coNP = NP
Sasho Nikolov

2
Ich würde Simons Algorithmus mit Shors zusammenfügen.
Juan Bermejo Vega

10

Mir scheint, der AKS P-Zeit-Primalitätstest ist in verschiedener Hinsicht recht schön. Ein Durchbruch zu dieser Zeit, einer der großen, aber eher seltenen Durchbrüche in der Komplexitätstheorie in unseren Leben. Es löst ein Problem aus der griechischen Antike und bezieht sich auf einige der frühesten erfundenen Algorithmen (Eratosthensieb), dh die effiziente Identifizierung von Primzahlen. Es ist ein konstruktiver Beweis dafür, dass die Erkennung von Primzahlen in P erfolgt, im Gegensatz zu vielen großen Beweisen, die leider nicht konstruktiv sind.

Es ist mit dem in einer anderen Antwort erwähnten RSA-Kryptografiealgorithmus verbunden, da dieser Algorithmus große Primzahlen schnell finden muss, was vor dem AKS-Algorithmus nur wahrscheinlich möglich war. Es ist grundlegend mit der Zahlentheorie und anderen tiefen Problemen verbunden, z. B. der Riemannschen Vermutung, die in vielerlei Hinsicht das ursprüngliche Gebiet der Algorithmik ist.

Ausgezeichnet mit dem Gödel-Preis 2006 und dem Fulkerson-Preis 2006


3
Das ist definitiv ein wichtiges Ergebnis, aber schön? "Ja wirklich?"
Jeffs

Ich stimme dem obigen Kommentar von JeffE zu. Das Ergebnis ist von enormer Bedeutung, und das ist es, worauf in der Antwort hingewiesen wurde, und nicht, wie (oder welche Idee (n) in AKS-Primalitätstests verwendet wurden).
Nikhil

für mich ist ein "enorm signifikantes" ergebnis wunderschön. msgstr "Ihr Kilometerstand kann variieren".
Vzn

7
Miller-Rabin ist ziemlich schön, auf der anderen Seite
Sasho Nikolov

1
Ich weiß nicht, warum Menschen den probabilistischen Algorithmus als dem exakten Algorithmus überlegen betrachten. Ja, AKS basiert größtenteils auf Miller-Rabin , ist aber ein großer Fortschritt, der die Randomisierung beseitigt, die seit Jahrzehnten verpasst (oder möglicherweise nicht als möglich angesehen) und schließlich gefunden wurde. für mich ist das schön. Darüber hinaus ist die Zahlentheorie nur ein wunderschönes Gebiet der Mathematik / Algorithmusik (wobei die Primzahlentheorie in der Zahlentheorie die Hauptrolle spielt). Diese Perspektive ist beispielsweise in dem berühmten Buch Mathematicians Apology von GH Hardy zu sehen.
vzn

10

Ich denke, der Graph-Minor-Satz von Robertson und Seymour war die wunderbarste Theorie, die ich je gesehen habe (und teilweise gelesen habe). Erstens ist es ziemlich kompliziert, aber Grundannahmen sind nicht schwer und können möglicherweise von jedem, der in TCS arbeitet, erraten werden. Ihre extreme Anstrengung, sie zu beweisen, war wunderbar. Tatsächlich verstehe ich die Kraft des menschlichen Geistes, nachdem ich einige der Artikel in dieser Reihe gelesen habe.

Auch der Graph-Minor-Satz hat einen großen Einfluss auf verschiedene Bereiche der TCS. Wie Graphentheorie, Approximationsalgorithmus, parametrisierte Algorithmen, Logik, ...


9

Eines meiner Lieblingsergebnisse ist, dass verschiedene Probleme scheinbar unendlicher Natur entscheidbar sind.

  1. Die Theorie erster Ordnung von realen geschlossenen Feldern ist entscheidbar (von Tarski). Die euklidische Geometrie ist auch ein Modell der Axiome von real geschlossenen Feldern, daher sind nach Tarski Aussagen erster Ordnung in diesem Modell entscheidbar.
  2. Presburger Arithmetik ist entscheidbar.
  3. Die Theorie erster Ordnung von algebraisch geschlossenen Feldern (einschließlich komplexer Zahlen) ist entscheidbar.
  4. Die monadische Logik zweiter Ordnung über unendlichen (und endlichen) Wörtern ist entscheidbar. Der Beweis ist elegant und kann Studenten beigebracht werden.

8

Es gibt viele schöne Ergebnisse über probabilistische Algorithmen, die täuschend einfach sind und einen großen Fortschritt in der Art und Weise darstellen, wie wir über Berechnungen nachdenken.

von Neumanns Trick, eine faire Münze mit einer voreingenommenen Münze umzusetzen. Wir sind so an probabilistische Algorithmen gewöhnt, aber von außen betrachtet ist dies unglaublich cool. Sowohl der Algorithmus als auch der Beweis sind für jeden zugänglich, der die Wahrscheinlichkeit der Highschool kennt.


Ich hätte erwartet, dass Sie das Minmax-Prinzip von Yao erwähnen, um die erwarteten Laufzeiten von Las Vegas-Algorithmen zu begrenzen. Es verbindet spieltheoretische Ideen mit Wahrscheinlichkeiten und Algorithmen.
Karthik

Sicher. Aber ich spamme diese Frage schon mit genügend Antworten. Bitte geben Sie Ihr Lieblingsergebnis als Antwort an.
Vijay D

8

Das Ergebnis von Tim Griffin, dass Operatoren wie call/ccdie klassische Logik steuern , erweitert die Curry-Howard-Korrespondenz.

call/ccE¬¬τcall/cc(E)τ¬τττ

Sein Aufsatz "A Formulas-as-Types-Konzept der Kontrolle" erscheint in POPL 1990.


7

Mein Favorit ist Rabins linearer Zeitalgorithmus zur Berechnung des nächsten Punktpaares in der Ebene (oder genauer gesagt seiner Vereinfachung). Es wird die Bedeutung des Berechnungsmodells, die Leistungsfähigkeit randomisierter Algorithmen und eine elegante Art, über randomisierte Algorithmen nachzudenken, verdeutlicht.

Das heißt, CS ist noch weit davon entfernt, das Niveau an Eleganz zu erreichen, das man in der Mathematik vorfindet (nun, sie hatten 5000 Jahre Vorsprung), von grundlegenden Definitionen / Ergebnissen in der Analysis, Topologie (Fixpunktsätze), Kombinatorik, Geometrie (Pythagorasatz http : //en.wikipedia.org/wiki/File: Pythag_anim.gif ) usw.

Wenn Sie nach Schönheit suchen, suchen Sie überall danach ...


5

Dieses Ergebnis ist wahrscheinlich etwas neu, um als grundlegend eingestuft zu werden, aber ich glaube, dass die Interpretation der Typen als Homotopietypen geeignet ist. Diese Ansicht ermöglicht die Interpretation von Typen aus der konstruktiven Typentheorie als Mengen mit bestimmten geometrischen Eigenschaften, in diesem Fall der Homotopie .

Ich finde diese Sichtweise besonders schön, da sie bestimmte bisher komplexe Beobachtungen zur Typentheorie einfach macht, zum Beispiel die Tatsache, dass "Axiom K" nicht ableitbar ist .

Eine Übersicht über dieses aufstrebende Feld von Steve Awodey finden Sie hier .


2

Der wissensfreie Nachweis ist ein sehr interessantes Konzept. Es ermöglicht einer Entität, dem Prüfer, (mit hoher Wahrscheinlichkeit) einer anderen Entität, dem Prüfer, zu beweisen, dass sie "ein Geheimnis" kennt (eine Lösung für ein NP-Problem, eine modulare Quadratwurzel einer bestimmten Zahl, eine diskrete protokollieren Sie eine Nummer usw.), ohne Informationen über das Geheimnis zu geben (was auf den ersten Blick schwierig ist, da die erste Idee, um zu beweisen, dass Sie ein Geheimnis kennen, darin besteht, das Geheimnis tatsächlich zu verraten, und dass jede Kommunikation, die dazu führen könnte Der Prüfer, der glaubt, das Geheimnis zu kennen, kann a priori nur das Wissen des Prüfers über das Geheimnis erweitern.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.