Bedeutende neue Erfindungen im Computer seit 1980


561

Diese Frage ergab sich aus Kommentaren zu verschiedenen Fortschritten beim Rechnen in den letzten 50 Jahren.

Ich wurde von einigen anderen Teilnehmern gebeten, dies als Frage an das gesamte Forum zu richten.

Die Grundidee hier ist nicht, den aktuellen Stand der Dinge zu verprügeln, sondern zu versuchen, etwas über den Fortschritt der Entwicklung grundlegender neuer Ideen und Prinzipien zu verstehen.

Ich behaupte, dass wir in den meisten Bereichen des Computing wirklich neue Ideen brauchen, und ich würde gerne wissen, welche wichtigen und leistungsstarken in letzter Zeit umgesetzt wurden. Wenn wir sie nicht wirklich finden können, sollten wir fragen "Warum?" und "Was sollen wir tun?"


77
Jeff Atwood bestätigte, dass der Benutzer "Alan Kay" DER "Alan Kay" ist. Weißt du, der Typ, der für diese Kopiererfirma gearbeitet hat ... ;-) en.wikipedia.org/wiki/Alan_Kay
splattne

1
Ich habe dieses Video gesehen: video.google.com/videoplay?docid=-533537336174204822 - Ein historisches Video (1979) über die Entwicklung des Dynabooks, Children and Computers und vieles mehr, präsentiert von Alan Kay. Erstaunliche Dinge, die vor 1970 getan wurden - insbesondere der Teil "Sketchpad" von 1962.
Splattne

2
Abhängig von Ihrer eigenen Definition kann die Antwort von "keine" bis hin zu einer Aufzählung aller möglichen Technologien reichen. Und all diese Antworten wären entweder richtig oder falsch, abhängig von der Definition einer "neuen Idee", die der Leser / Beobachter verwendet ...
Emile Vrijdags

3
Nachdem ich mir alle Antworten hier angesehen habe: Guter Kummer! Haben wir in den letzten 30 Jahren nichts getan ?
Jeremy Powell

2
@ Will: Seltsamerweise glaube ich, dass ich kürzlich von einer interessanten Antwort auf diese Frage erfahren habe: schnelle Clustering-Algorithmen. DBSCAN ist für einen Großteil davon der Stand der Technik (O (n log n) in der Anzahl der Punkte im Datensatz) und stammt aus dem Jahr 1996. Leider werde ich mir bei geschlossener Frage nicht die Zeit zum Lesen nehmen die vielen Antworten, um herauszufinden, ob mich jemand geschlagen hat.
dmckee --- Ex-Moderator Kätzchen

Antworten:


311

Das Internet selbst stammt aus der Zeit vor 1980, aber das von Tim Berners-Lee vorgeschlagene und implementierte World Wide Web ("verteilter Hypertext über einfache Mechanismen") begann 1989/90.

Während die Idee des Hypertexts schon früher existierte ( Nelsons Xanadu hatte versucht, ein verteiltes Schema zu implementieren), war das WWW ein neuer Ansatz zur Implementierung eines verteilten Hypertextsystems. Berners-Lee kombinierte ein einfaches Client-Server-Protokoll, eine Auszeichnungssprache und ein Adressierungsschema auf eine Weise, die leistungsstark und einfach zu implementieren war.

Ich denke, die meisten Innovationen entstehen, wenn bestehende Stücke auf originelle Weise neu kombiniert werden. Jedes Stück des WWW hatte zuvor in irgendeiner Form existiert, aber die Kombination war nur im Nachhinein offensichtlich.

Und ich weiß mit Sicherheit, dass Sie es gerade verwenden.


26
+1 für das offensichtlichste, aber auch das am leichtesten vergessene, weil wir es alle für selbstverständlich halten :)
PolyThinker

20
Ich benutze gerade nicht das World Wide Web. Ich verwende eine Reihe von Röhren, die als Internet bekannt sind und über Google erreicht werden.
Robert S.

13
@bruceatk: Hypertext ist eine Implementierung von Text. Der Text wurde 3500 v. Chr. Erfunden.
Portman

1
@ Bruceatk: Ich glaube nicht, dass er bis 1989 über das WWW geschrieben hat. w3.org/People/Berners-Lee
Portman

2
@splattne: Und denken ist Suche geworden
u0b34a0f6ae

235

Free Software Foundation (gegründet 1985)

Auch wenn Sie kein uneingeschränkter Befürworter ihrer Philosophie sind, haben die von ihnen vorangetriebenen Ideen von freier Software und Open Source einen erstaunlichen Einfluss auf die Softwareindustrie und den Inhalt im Allgemeinen (z. B. Wikipedia).


9
Stimmen Sie zu, dass FSF sehr einflussreich war, aber es gibt eine Tendenz unter seinen Befürwortern, sich für "Gruppendenken" einzusetzen. So viele FSF können nicht akzeptieren, dass Apple OSX und MS Windows für den durchschnittlichen Benutzer viel besser sind als jedes Open Source-Betriebssystem. Niemand will das zugeben.
RussellH

32
Der gesamte Zweck des FSF besteht darin, Software zu fördern, die von allen frei verwendet, geändert und weitergegeben werden kann. OSX und Windows sind in keiner Weise "besser".
Adam Lassek

5
@RussellH: Sie verwechseln "Open Source" und "Freie (wie in Freiheit) Software". Ihr Kommentar zeigt genau, warum die Unterscheidung wichtig ist. Trotzdem ist Firefox besser als Internet Explorer und Safari und für Benutzer wichtiger als Windows gegen MacOS gegen Linux.
NiXar

8
Janie, du musst kein Unterstützer sein, um zu sehen, dass die Prinzipien, die sie vorantreiben, einen großen Einfluss auf die Branche haben. Ich habe kein Interesse daran, in eine Diskussion darüber hineingezogen zu werden, ob die FSF kommunistisch ist oder ob Sie einige kommunistische Prinzipien annehmen sollten.
Oddthinking

9
Gesetzliche Erfindung, keine Computererfindung.
Charles Stewart

150

Ich denke, es ist fair zu sagen, dass Sie 1980, wenn Sie einen Computer benutzten, entweder dafür bezahlt wurden oder ein Geek waren ... also, was hat sich geändert?

  • Drucker und Desktop Publishing auf Verbraucherebene . Das heißt, Sie brauchten keine Druckmaschine, um hochvolumiges und hochwertiges Druckmaterial herzustellen. Das war groß - natürlich halten wir es heutzutage für selbstverständlich, und meistens kümmern wir uns nicht einmal um den Druckteil, weil sowieso alle online sind.

  • Farbe . Ernsthaft. Farbbildschirme haben die Wahrnehmung von Spielen und Anwendungen durch Nicht-Geeks entscheidend beeinflusst. Plötzlich schienen Spiele weniger harte Arbeit als vielmehr Fernsehen zu sein, was Sega, Nintendo, Atari und anderen die Türen öffnete, um Consumer-Gaming nach Hause zu bringen.

  • Medienkomprimierung (MP3s und Videodateien). Und eine ganze Reihe von Dingen - wie TiVO und iPods -, die wir nicht mehr wirklich als Computer betrachten, weil sie so allgegenwärtig und benutzerfreundlich sind. Aber sie sind.

Ich denke, der rote Faden hier ist etwas, das früher unmöglich war (gedruckte Dokumente erstellen, Farbbilder genau wiedergeben, Nachrichten in Echtzeit in die ganze Welt senden, Audio- und Videomaterial verteilen) und dann aufgrund der Ausstattung und Logistik teuer war beteiligt, und ist jetzt auf Verbraucherebene. Also - was machen große Unternehmen jetzt, was früher unmöglich war, aber vielleicht cool ist, wenn wir herausfinden können, wie man es klein und billig macht?

Alles, was noch physischen Transport beinhaltet, ist interessant anzusehen. Videokonferenzen haben (noch) keine echten Besprechungen ersetzt - aber mit der richtigen Technologie könnte dies immer noch der Fall sein. Einige Freizeitreisen könnten durch eine voll sensorische immersive Umgebung beseitigt werden - Heimkino ist ein triviales Beispiel; Ein anderer ist der "virtuelle Golfplatz" in einem Bürogebäude in Soho, auf dem Sie auf einem simulierten Platz 18 Löcher echtes Golf spielen.

Für mich wird die nächste wirklich große Sache die Herstellung sein. Dinge machen. Löffel und Gitarren und Stühle und Kleidung und Autos und Fliesen und so. Dinge, die immer noch auf einer Fertigungs- und Vertriebsinfrastruktur beruhen. Ich muss nicht mehr in ein Geschäft gehen, um einen Film oder ein Album zu kaufen - wie lange dauert es, bis ich nicht mehr in den Laden gehen muss, um Kleidung und Küchenutensilien zu kaufen?

Sicher, es gibt interessante Entwicklungen bei OLED-Displays, GPS und mobilen Breitband- und IoC-Containern sowie bei Skripten und "der Cloud" - aber es sind alles nur neue Möglichkeiten, Bilder auf einen Bildschirm zu bringen. Ich kann meine eigenen Fotos drucken und meine eigenen Webseiten schreiben, aber ich möchte in der Lage sein, einen Wäschekorb herzustellen, der genau in diese Ecke neben meinem Schreibtisch passt, und eine Halterung, um meine Gitarren-FX-Einheit an meinem Schreibtisch zu befestigen, und so weiter zum Befestigen meines Handys an meinem Fahrradlenker.

Nicht programmierbezogen? Nein ... aber 1980 gab es auch keine Tonproduktion. Oder Videoverteilung. Oder senden Sie Nachrichten an Ihre Verwandten in Sambia. Denken Sie groß, Leute ... :)


1
Ich denke, Medienkomprimierung ist kein neues Konzept (es geht auf Shannons Arbeit in den 50er Jahren zurück), es ist nur mit verbesserter Hardware machbar geworden (schnell genug, in der Lage, die Medien abzuspielen).
Kornel

Ich müsste damit einverstanden sein, dass die Herstellung etwas ist, von dem ich denke, dass es eines der nächsten großen Dinge ist. Wenn Objekt- "Drucker" zum Mainstream werden (Drucker, die einfache physische Elemente replizieren können, die langlebig sind), werden wir wahrscheinlich da sein.
Andy Webb

Es wäre auch großartig, vorhandene Elemente zu scannen, damit Ersetzungen vorgenommen werden können. Ich musste bei vielen Gelegenheiten nach einer seltsamen Schraube oder einem Teil suchen, um eine zu ersetzen, die im Haus oder auf meinem Fahrrad gebrochen war. Mit einem solchen System könnte ich das alte Teil scannen, es in der Software reparieren und dann den Ersatz erstellen.
Andy Webb

44
Desktop Publishing und qualitativ hochwertiges Drucken wurden in den 70er Jahren bei Xerox PARC erfunden. Einige der Altos verfügten damals auch über hochwertige Farbbildschirme. Das Internet war älter als 1980. Die Medienkomprimierung war älter als 1980. Die Frage ist, welche grundlegenden neuen Technologien seit 1980 erfunden wurden
Alan Kay

3
Sie, mein Herr, sind ein Visionär. Lass dich nicht vom Mann unterkriegen. Das Drucken von Druckern ist die nächste große Revolution.
Waylon Flinn

137

Paketverwaltung und verteilte Revisionskontrolle.

Diese Muster in der Art und Weise, wie Software entwickelt und verteilt wird, sind relativ neu und wirken sich erst jetzt aus.

Ian Murdock hat das Paketmanagement als "den größten Fortschritt bezeichnet, den Linux in der Branche gebracht hat". Nun, er würde, aber er hat einen Punkt. Die Art und Weise, wie Software installiert wird, hat sich seit 1980 erheblich geändert, aber die meisten Computerbenutzer haben diese Änderung noch nicht erlebt.

Joel und Jeff haben mit Eric Sink in Podcast # 36 über Revisionskontrolle (oder Versionskontrolle oder Quellcodeverwaltung) gesprochen . Es scheint, dass die meisten Entwickler noch nicht mit zentralisierten Systemen Schritt gehalten haben, und DVCS wird allgemein als mysteriös und unnötig angesehen.

Aus dem Podcast 36-Transkript :

0:06:37

Atwood: ... Wenn Sie davon ausgehen - und das ist eine große Annahme -, dass die meisten Entwickler die grundlegende Quellcodeverwaltung irgendwie beherrschen - was ich ehrlich gesagt nicht für wahr halte ...

Spolsky: Nein. Die meisten von ihnen, auch wenn sie es getan haben, ist es das Ein- und Auschecken, das sie verstehen, aber das Verzweigen und Zusammenführen - das verwirrt sie zum Teufel.


1
Wenn man als bedeutende neue Erfindung gelten sollte, dann ist es Schwachkopf.
hasen

8
hasen j: git ist ein fantastisches DCMS, es wurden jedoch mehrere andere implementiert, bevor git - git eine bedeutende Neuimplementierung einer Idee darstellt.
Arafangion

+1 für Paketverwaltung. Immer noch eines der wichtigsten Dinge, die Linux / BSD über die Köpfe aller anderen halten muss, obwohl der Rest dort ankommt (nur sehr langsam).
New123456

Sogar serverbasierte Revisionskontrollsysteme sind größtenteils Entwicklungen nach 1980, und es ist eine kolossale und subtile Änderung, vom aktuellen Status zur Statusgeschichte des Status überzugehen.
Donal Fellows

Verteilte Revisionskontrolle ist der falsche Name. Es interessiert niemanden, ob Ihr System zentralisiert ist oder nicht. Wichtig ist, ob Sie Änderungssätze oder Versionen verfolgen. Aber die meiste Zeit kommen sie zusammen (GIT, Mercurial), was alle verwirrt. Joel Spolsky sagte es selbst in einem Blog-Beitrag :With distributed version control, the distributed part is actually not the most interesting part.
Benjamin Crouzier

123

BitTorrent . Es stellt eine bisher offensichtlich unveränderliche Regel auf den Kopf - die Zeit, die eine einzelne Person benötigt, um eine Datei über das Internet herunterzuladen, wächst proportional zur Anzahl der Personen, die sie herunterladen. Es werden auch die Mängel früherer Peer-to-Peer-Lösungen, insbesondere im Zusammenhang mit „Blutegel“, auf eine Weise behoben, die für die Lösung selbst organisch ist.

BitTorrent verwandelt elegant das, was normalerweise ein Nachteil ist - viele Benutzer versuchen, eine einzelne Datei gleichzeitig herunterzuladen - in einen Vorteil und verteilt die Datei geografisch als einen natürlichen Teil des Downloadprozesses. Die Strategie zur Optimierung der Bandbreitennutzung zwischen zwei Peers verhindert Blutegel als Nebeneffekt. Es ist im besten Interesse aller Teilnehmer, die Drosselung durchzusetzen.

Es ist eine dieser Ideen, die, wenn jemand anderes sie erfindet, einfach, wenn nicht offensichtlich erscheint.


Zwar mag BitTorrent etwas anders / verbessert sein, doch sollte die bedeutende neue Erfindung eigentlich die P2P-Verteilung sein und nicht irgendeine spezifische Implementierung wie BitTorrent.
Ilari Kajaste

10
Ich stimme dir nicht zu. P2P ist überhaupt nicht neu, es ist älter als USENET. Pre-bitTorrent "P2P" -Apps für den Desktop (Kazaa und dergleichen) packen einfach das Client-Server-Konzept neu und fügen ein dynamisches zentrales Serververzeichnis hinzu. Jeder "Peer" -Client stellt eine Verbindung zu einem anderen "Peer" -Server her, um eine Datei zu übertragen. Die Tatsache, dass ein einzelner Knoten beides tut, ist ein alter Hut (zumindest für Systeme vor Windows). Das bitTorrent-Protokoll (AFAIK) ist eine völlig neue Methode zum Übertragen von Dateien, bei der mehrere Systeme genutzt werden, um eine Datei auf wirklich verteilte Weise untereinander zu übertragen.
Kief

7
@JL: Theoretisch ist der direkte Download schneller, in der Praxis jedoch nicht. Mit einer Sämaschine und einer Laugung sollte es keinen Unterschied geben. Sobald Sie einen weiteren Leacher hinzufügen, kann dieser Leacher Teile von Personen entnehmen, die eine schnellere Verbindung haben (auch wenn der Client mit der schnelleren Verbindung nicht über die vollständige Datei verfügt). Bei einem direkten Download müssten Sie zunächst warten, bis der Client den Download abgeschlossen hat, bevor Sie beginnen können, um die schnellere Verbindung nutzen zu können.
Peter Di Cecco

1
Ich denke, die bessere Frage ist, wie viel Bandbreite Sie sparen, indem Sie einen Torrent hosten und ihn mit einer direkten Download-Box versehen. Nur Unternehmen wie Blizzard wissen das jetzt, und ich habe nicht gesehen, dass sie Zahlen sprechen. Ohne einen 'Super Seed'-Torrent verlassen sich Benutzer auf Seed, was bei asynchronen Verbindungen und Menschen, die ihren Computer nicht eingeschaltet und stromaufwärts gesättigt lassen möchten, einfach nicht funktioniert.
Semi

6
@JL: Torrents sind langsamer als direkter Download? Meine "praktische" Erfahrung sagt anders; Versuchen Sie, Eclipse in beide Richtungen herunterzuladen.
Dean J

120

Damas-Milner-Typinferenz (oft als Hindley-Milner-Typinferenz bezeichnet) wurde 1983 veröffentlicht und ist seitdem die Grundlage jedes hoch entwickelten statischen Typsystems. Es war eine wirklich neue Idee in Programmiersprachen (zugelassen aufgrund von Ideen, die in den 1970er Jahren veröffentlicht, aber erst nach 1980 praktikabel gemacht wurden). In Bezug auf die Wichtigkeit habe ich mich mit dem Selbst und den Techniken, die zur Implementierung des Selbst verwendet werden, auseinandergesetzt. In Bezug auf den Einfluss hat es keinen Peer. (Der Rest der OO-Welt macht immer noch Variationen von Smalltalk oder Simula.)

Variationen der Typinferenz spielen sich immer noch ab. Die Variante, die ich am meisten herausgreifen würde, ist der Typklassenmechanismus von Wadler und Blott zur Lösung von Überlastungen, der später sehr leistungsfähige Mechanismen für die Programmierung auf Typebene bietet. Das Ende dieser Geschichte wird noch geschrieben.


3
+1 Statische Systeme sind ein großer Schritt in der Softwareentwicklung. Ich konnte dieser Antwort nicht mehr zustimmen.
Jeremy Powell

104

Hier ist ein Plug-in für Google Map-Reduce , nicht nur für sich selbst, sondern auch als Proxy für Googles Leistung, schnelle und zuverlässige Dienste auf Farmen unzuverlässiger Warenmaschinen auszuführen. Auf jeden Fall eine wichtige Erfindung und völlig anders als die Big-Iron-Mainframe-Ansätze für die Schwergewichtsberechnung, die 1980 das Quartier beherrschten.


10
Map-Reduce ist überhaupt keine Erfindung von Google.
Akappa

20
Ich bin ein funktionierender Programmierer. Meine Muttersprache war APL. Dein Punkt genau?
Norman Ramsey

15
Also (mapcar fl) und (redu fl) in Lisp laufen automatisch auf einer beliebigen Anzahl von Warenmaschinen und behandeln alle Interkommunikation, Ausfälle und Neustarts?
Jared Updike

16
Die Google-Kartenreduzierung hat überhaupt nicht viel mit der funktionalen Kartenreduzierung zu tun.
Aehlke

91

Tagging , die Art und Weise, wie Informationen kategorisiert werden. Ja, die kleinen Textfelder unter jeder Frage.

Es ist erstaunlich, dass es ungefähr 30 Jahre gedauert hat, um das Tagging zu erfinden. Wir haben Listen und Inhaltsverzeichnisse verwendet; Wir haben Dinge verwendet, die für gedruckte Bücher optimiert sind.

30 Jahre sind jedoch viel kürzer als die Zeit, die Menschen benötigen, um zu erkennen, dass gedruckte Bücher in kleinerem Format vorliegen können. Menschen können Bücher in Händen halten.

Ich denke, dass das Tagging-Konzept unter den CS-Kernleuten unterschätzt wird. Alle Forschungsarbeiten konzentrieren sich auf die Verarbeitung natürlicher Sprache (Top-Down-Ansatz). Tagging ist jedoch die erste Sprache, in der sowohl Computer als auch Menschen gut verstehen können. Es ist ein Bottom-up-Ansatz, bei dem Computer natürliche Sprachen verwenden.


1
Einverstanden - dies korreliert mit meiner Behauptung, dass das einzige Neue, an das ich denken kann, syntaktisches Markup ist, das unter vielen Domänen abgefragt werden kann - aber Sie haben es besser ausgedrückt.
dkretz

40
Check out Engelbart ca 1962-72
Alan Kay

Für mich ist das Taggen sehr ähnlich wie bei frühen Suchmaschinen, die meta = keywords tag verwendeten (das ist auch nach den 80ern, ich argumentiere nur, dass das Taggen nicht erwähnenswert ist).
Kornel

1
Während das Markieren im Computer ein relativ neuer Ansatz ist, ist das Markieren auch ein Konzept, das von Büchern geerbt wird. In Büchern heißt es Indizierung.
Domchi

6
Bibliotheken verwenden "Tags" seit ... nun, ich weiß es nicht, aber seit langer Zeit. Denken Sie an die Buchkarten (sorry, ich bin mir nicht sicher, wie sie auf Englisch heißen) mit dem Tag "books about xxx".
Nico

80

Ich denke, wir sehen das falsch und ziehen die falschen Schlussfolgerungen. Wenn ich das richtig verstehe, geht der Zyklus:

Idee -> erste Implementierung -> Übernahme von Minderheiten -> kritische Masse -> Rohstoffprodukt

Von der ersten Idee bis zur Ware haben Sie oft Jahrhunderte, vorausgesetzt, die Idee schafft es jemals bis zu diesem Stadium. Da Vinci hat vielleicht 1493 eine Art Hubschrauber gezogen, aber es dauerte ungefähr 400 Jahre, bis eine tatsächliche Maschine in der Lage war, sich vom Boden abzuheben.

Von William Bournes erster Beschreibung eines U-Bootes im Jahr 1580 bis zur ersten Implementierung im Jahr 1800 haben Sie 220 Jahre und die aktuellen U-Boote stecken noch in den Kinderschuhen: Wir wissen fast nichts über Unterwasserreisen (mit 2/3 des Planeten unter Wasser, denken Sie daran die potenziellen Immobilien;).

Und es ist nicht zu sagen, dass es keine früheren, viel früheren Ideen gab, von denen wir einfach noch nie gehört haben. Basierend auf einigen Legenden sieht es so aus, als hätte Alexander der Große 332 v. Chr. Eine Art Taucherglocke benutzt (was die Grundidee eines U-Bootes ist: ein Gerät, um Menschen und Luft unter Wasser zu transportieren). Wenn wir das zählen, betrachten wir 2000 Jahre von der Idee (auch mit einem grundlegenden Prototyp) bis zum Produkt.

Was ich damit sagen will, ist, dass die Suche nach Implementierungen, geschweige denn nach Produkten, die vor 1980 noch nicht einmal Ideen waren, ... Ich wette, der "Quick Sort" -Algorithmus wurde von einigen namenlosen Dateischreibern im alten China verwendet. Na und?

Vor 40 Jahren gab es zwar vernetzte Computer, aber das war nicht mit dem heutigen Internet zu vergleichen. Die Grundidee / Technologie war da, aber unabhängig davon konnte man kein Warcraft-Spiel online spielen.

Ich behaupte, dass wir in den meisten Bereichen des Computing wirklich neue Ideen brauchen, und ich würde gerne wissen, welche wichtigen und leistungsstarken in letzter Zeit umgesetzt wurden. Wenn wir sie nicht wirklich finden können, sollten wir fragen "Warum?" und "Was sollen wir tun?"

Historisch gesehen war es uns nie möglich, sie so schnell von der Idee zu "finden". Ich denke, der Zyklus wird schneller, aber das Rechnen ist noch verdammt jung.

Derzeit versuche ich herauszufinden, wie man ein Hologramm erstellt (Star Wars-Art, ohne physische Unterstützung). Ich glaube, ich weiß, wie es funktioniert. Ich habe noch nicht einmal die Werkzeuge, Materialien und Mittel gesammelt, und selbst wenn ich bis zu einem gewissen Grad Erfolg haben sollte, wäre die eigentliche Idee zumindest schon mehrere Jahrzehnte alt, und verwandte Implementierungen / Technologien wurden genauso lange verwendet .

Sobald Sie mit der Auflistung der tatsächlichen Produkte beginnen, können Sie ziemlich sicher sein, dass Konzepte und erste Implementierungen vor einiger Zeit vorhanden waren. Ist egal.

Man könnte aus irgendeinem Grund argumentieren, dass nichts jemals neu ist oder dass immer alles neu ist. Das ist Philosophie und beide Standpunkte können verteidigt werden.

Aus praktischer Sicht liegt die Wahrheit irgendwo dazwischen. Wahrheit ist kein binäres Konzept, verdammt noch mal boolesche Logik.

Die Chinesen haben sich vor einiger Zeit vielleicht die Druckmaschine ausgedacht, aber erst seit ungefähr 10 Jahren können die meisten Menschen zu Hause anständige Farbfotos zu einem vernünftigen Preis drucken.

Erfindung ist nirgends und überall, abhängig von Ihren Kriterien und Ihrem Bezugsrahmen.


1
+1. Schauen Sie sich zum Beispiel das iPad an;) Siehe stackoverflow.com/questions/432922/…
VonC

4
Wenn es nur einen Favoriten gäbe. Antwort-Tag ... wenn es nur eine Option gäbe, 2 Upvotes zu geben ...
Tshepang

Gute Antwort. Vielleicht sollten wir uns dann fragen, welche neuen Ideen es in den letzten 30 Jahren gegeben hat (keine neuen Produkte / Erfindungen). Und da es zu schwer zu sagen ist, ob sie "bedeutend" oder revolutionär sein werden oder nicht, bevor sie überhaupt gebaut werden ... Vielleicht können wir spekulieren und dann entscheiden, wo wir mehr Energie ausgeben sollen.
Mpen

3
In den letzten 30 Jahren gab es unzählige erstaunliche neue Ideen, aber es war nicht unbedingt Zeit zu sehen, welche wichtig sind. Wählen Sie einen beliebigen Computerbereich aus und blättern Sie einfach durch die im letzten Jahr veröffentlichten Forschungsergebnisse. Sie werden keinen Mangel an neuen Ideen finden, von kleinen Verbesserungen bis hin zu vollständigen Überholungen. Die 1980er Jahre und früher scheinen jedoch so revolutionär und voll zu sein, weil diese Ideen inzwischen verwirklicht wurden und allgegenwärtig sind, sodass sie bedeutsam erscheinen. Wir werden dieselbe Diskussion in 30 Jahren führen, wenn die Ideen von jetzt an zu wundervollen Erfindungen zusammengekommen sind.
Perrako

@Mark: Was ist eine "neue Idee"? Jede Idee, jeder Code, jeder biologische Organismus hat einen Kontext, der auf einen Blick nichts wirklich Neues machen würde. Das Problem mit Prof. Kays Frage ist, dass die Philosophie hinter dem Feuer, das er und seine Kollegen im Xerox Parc (und Engelbart 10 Jahre vor ihm) unter der Tech- / Computerindustrie angezündet haben, wie ein unkontrolliertes Feuer brannte und die Welt veränderte Kontext. Wirklich neue Ideen haben keine Auswirkungen, daher hat keiner von uns davon gehört - Betriebssysteme, die mit Beweisen für ihre Korrektheit und Kernelsicherheit geschrieben wurden, Nicht-ARM-, Nicht-x86-Architekturen usw.
Jared Updike

68

Googles Page Rank- Algorithmus. Obwohl dies nur als Verfeinerung von Web-Crawler-Suchmaschinen angesehen werden kann, möchte ich darauf hinweisen, dass auch sie nach 1980 entwickelt wurden.


"Nur eine Verfeinerung" ist oft ein Oxymoron. In diesem Fall ist die Verfeinerung die Technologie. Das Internet war ein viel beängstigenderer Ort, bevor Google diesen Seitenrang-Algorithmus einführte (und die Ergebnisse schnell und ohne Seitengewirr lieferte, und all die anderen Bagger, unter denen wir leiden mussten, um andere Suchmaschinen in der Vergangenheit zu verwenden).
David Berger

19
Ich glaube nicht, dass du weißt, was ein Oxymoron ist.
Jason

1
Erinnerst du dich an Altavista und diese kleine unbekannte Firma: Yahoo?
Esteban Küber

@voyager: Hotbot und Lycos waren auch nicht schlecht.
Dean J

2
@martin es ist ein Nicht-Oxymoron-Oxymoron . Widerspruch ist in der Definition: ninjawords.com/oxymoron
Jason

66

DNS, 1983, und abhängige Fortschritte wie die Auflösung von E-Mail-Hosts über MX-Einträge anstelle von Bang-Pfaden. *schaudern*

Zeroconf arbeitet über DNS, 2000. Ich schließe meinen Drucker an das Netzwerk an und mein Laptop sieht es. Ich starte einen Webserver im Netzwerk und mein Browser sieht ihn. (Vorausgesetzt, sie senden ihre Verfügbarkeit.)

NTP (1985) basierend auf Marzullos Algorithmus (1984). Genaue Zeit über nervöse Netzwerke.

Das Mausrad, 1995. Die Verwendung von Mäusen ohne Mausrad fühlt sich so primitiv an. Und nein, daran hat Engelbarts Team nicht gedacht und vergessen zu erwähnen. Zumindest nicht, als ich jemanden fragte, der zu der Zeit im Team war. (Es war bei einer Engelbart-Veranstaltung im Jahr 1998 oder so. Ich musste mit einer der ersten Mäuse umgehen.)

Unicode, 1987, und seine abhängigen Fortschritte für verschiedene Arten von Codierung, Normalisierung, bidirektionalem Text usw.

Ja, es ist ziemlich üblich, dass Menschen jeden Tag alle 5 davon verwenden.

Sind das "wirklich neue Ideen"? Immerhin gab es Mäuse, es gab Zeichencodierungen, es gab Netzwerkzeitmessung. Sagen Sie mir, wie ich zwischen "neu" und "wirklich neu" unterscheiden kann, und ich werde das für Sie beantworten. Meine Intuition sagt, dass diese neu genug sind.

In kleineren Bereichen gibt es leicht neuere Fortschritte. In der Bioinformatik beispielsweise ermöglichen Smith-Waterman (1981) und insbesondere BLAST (1990) das Feld effektiv. Aber es hört sich so an, als würden Sie nach Ideen fragen, die über den gesamten Bereich des Rechnens sehr breit sind, und die niedrig hängenden Früchte werden zuerst gepflückt. So ist es immer mit einem neuen Feld.


63

Was ist mit Digitalkameras?

Laut Wikipedia erschien 1988 die erste echte Digitalkamera, und Ende der neunziger Jahre wurden Digitalkameras für den Massenmarkt erschwinglich.


Aber die Idee, die Erfindung und die Patente waren in den frühen 70er Jahren da (siehe Abschnitt "Frühe Entwicklung")
saschabeaumont

10
Digitalkamera? Man fragt sich, was die Leute heute unter dem Begriff "Computing" verstehen.
MaD70

1
Bilder sind das, worauf moderne Verbrauchercomputer basieren. Ohne eine Webcam, ein Point-and-Shoot oder eine teure Spiegelreflexkamera (für Zeitungen) würden moderne Verbraucher Computer nicht wirklich brauchen.
Marius

14
@ MaD70: Ich denke du stehst nicht so sehr auf Fotografie, oder? Um nur einige zu nennen: automatische Gesichtserkennung, Autofokus, "Panoramamodus", automatischer Weißabgleich ... es fällt definitiv in die Datenverarbeitung.
Nico

6
Entschuldigung, der erste Prototyp einer Digitalkamera wurde anscheinend 1975 von Kodak hergestellt. pluggedin.kodak.com/post/?ID=687843
Mark Ransom

50

Moderne Schattierungssprachen und die Verbreitung moderner GPUs.

Die GPU ist auch ein kostengünstiger paralleler Supercomputer mit Tools wie CUDA und OpenCL für blitzschnellen Parallelcode auf hoher Ebene . Vielen Dank an alle Spieler da draußen, die die Preise für diese immer beeindruckender werdenden Hardware-Wunder gesenkt haben. Ich hoffe, dass in den nächsten fünf Jahren jeder neue verkaufte Computer (und auch iPhones) die Möglichkeit haben wird, als Grundannahme massiv parallelen Code auszuführen, ähnlich wie im 24-Bit-Farb- oder 32-Bit-geschützten Modus.


Versuch es. Du wirst es nicht mögen. Multi-Core-Systeme sind für die meisten realen Probleme viel schneller. YMMV. Gut für Grafiken und sonst nicht viel.
Xcramps

Es gibt einen Grund, warum sie GPUs und nicht PPUs genannt werden ... (Parallelverarbeitungseinheiten). Die meisten Menschen haben nicht die Geduld und / oder die Fähigkeiten, guten Code für sie zu schreiben. Es gibt jedoch immer mehr Forschungsprojekte, die sich mit der Verwendung von GPUS für nicht grafische Zwecke befassen.
RCIX

3
Ich versuchte es. Ich mochte es. Ich kann meinen gesamten Matlab-Code auf der GPU ausführen, ohne dass Änderungen am Quellcode vorgenommen werden müssen, abgesehen von einigen typisierten Änderungen, die Sie mit einem Search'n'Splace vornehmen können. Google "Matlab GPU Computing".
Contango

3
Ich stimme dem OP zu. Die programmierbare Pipeline hat die Welt der Grafiken zwar völlig als selbstverständlich angesehen, aber es sieht so aus, als würde sie andere Teile der Programmierwelt weiter verändern. @xcramps: Ich glaube, ich vermisse etwas; Zuletzt habe ich überprüft, GPUs waren Multi-Core-Systeme. Nur mit viel mehr Kernen. Ein bisschen wie ... Supercomputer. Aber ich denke, diese werden in der realen Welt nicht wirklich für irgendetwas verwendet ...
Perrako

Zwei Jahre später (nicht 5 wie gesagt) und mobile Geräte, die mit OpenCL ausgeliefert werden, stehen am Horizont: macrumors.com/2011/01/14/…
Jared Updike

43

Die JIT-Zusammenstellung wurde Ende der 1980er Jahre erfunden.


Nun, die gesamte Arbeit an der Implementierung der Selbstsprache (die vollständig JIT-kompiliert wurde) war erstaunlich, und ihre Nützlichkeit kann heute für Javascript in Google V8 gesehen werden. Und das ist aus den späten 80ern und frühen 90ern.
Blaisorblade

7
Ich habe diese Idee zum ersten Mal im letzten Kapitel von John Allens Buch Anatomy of Lisp gesehen, das in den 70er Jahren veröffentlicht wurde. Als Urheber referierte er eine Doktorarbeit aus den 70er Jahren.
Darius Bacon

Vielleicht sollten wir es verfeinern, um "profilbasierte adaptive JIT-Kompilierung" wie Self JIT oder Suns 'Java Hotspot
Kohlerm

34
Eine der Doktorarbeiten in den frühen 1970er Jahren, die JIT hatten, war Jim Mitchell an der CMU - er ging später zu PARC
Alan Kay

2
Nori, KV; Ammann, U.; Jensen; Nageli, H. (1975). Implementierungshinweise zum Pascal P-Compiler. Zürich: Eidgen. Technik. Hochschule. (Danke Wikipedia)
Arafangion

42

Um die beiden Fragen zu "Warum der Tod neuer Ideen" und "Was tun?" Zu beantworten?

Ich vermute, dass ein Großteil des Mangels an Fortschritten auf den massiven Kapitalzufluss und den fest verwurzelten Wohlstand in der Branche zurückzuführen ist. Klingt nicht intuitiv, aber ich denke, es ist zur gängigen Weisheit geworden, dass jede neue Idee einen Schuss bekommt. Wenn es beim ersten Versuch nicht gelingt, kann es nicht zurückkehren. Es wird von jemandem gekauft, der fest verwurzelte Interessen hat oder einfach nur scheitert, und die Energie ist weg. Einige Beispiele sind Tablet-Computer und integrierte Office-Software. Die Newton und einige andere hatten echtes Potenzial, verschwendeten jedoch (durch Wettbewerbsabrieb und schlechtes Urteilsvermögen) ihre Geburtsrechte und töteten ganze Kategorien. (Ich mochte Ashton Tates Framework besonders gern, aber ich bleibe immer noch bei Word und Excel).

Was ist zu tun? Das erste, was mir in den Sinn kommt, ist Wm. Shakespeares Rat: "Lassen Sie uns alle Anwälte töten." Aber jetzt sind sie leider zu gut bewaffnet. Ich denke tatsächlich, dass die beste Alternative darin besteht, eine Open Source-Initiative zu finden. Sie scheinen die Zugänglichkeit und schrittweise Verbesserung besser aufrechtzuerhalten als die Alternativen. Aber die Branche ist groß genug geworden, so dass eine Art organischer Kooperationsmechanismus notwendig ist, um Traktion zu erreichen.

Ich denke auch, dass es eine Dynamik gibt, die besagt, dass die fest verankerten Interessen (insbesondere Plattformen) eine erhebliche Menge an Veränderungen erfordern - Abwanderung -, um anhaltende Einnahmequellen zu rechtfertigen. und dies absorbiert viel kreative Energie, die besser hätte ausgegeben werden können. Schauen Sie, wie viel Zeit wir damit verbringen, mit der neuesten Iteration von Microsoft oder Sun oder Linux oder Firefox auf Wasser zu treten und Änderungen an Systemen vorzunehmen, die größtenteils bereits einwandfrei funktionieren. Es ist nicht, weil sie böse sind, es ist nur in die Industrie eingebaut. Es gibt kein stabiles Gleichgewicht; Alle Rückkopplungsmechanismen sind positiv und begünstigen Änderungen gegenüber Stabilität. (Haben Sie jemals gesehen, dass eine Funktion zurückgezogen oder eine Änderung zurückgezogen wurde?)

Der andere Hinweis, der auf SO diskutiert wurde, ist das Skunkworks-Syndrom (Ref: Geoffrey Moore): Echte Innovationen in großen Organisationen zeigen sich fast immer (über 90%) in nicht autorisierten Projekten, die spontan entstehen und ausschließlich von Einzel- oder Kleingruppeninitiativen angetrieben werden ( und meistens von formalen Managementhierarchien abgelehnt). Also: Frage Autorität, Buck the System.


Ich habe Framework geliebt, und Sie können es immer noch kaufen, aber es ist teuer.
Norman Ramsey

7
Es ist immer einfacher, neue Ideen in einem neuen Wissensbereich zu haben, daher kam eine sehr große Anzahl wichtiger Ideen in den 1950er und 1960er Jahren zustande. Wir können die meisten von ihnen jetzt viel besser machen.
David Thornley

6
Ich denke, diese Antwort und die Kommentare sind sehr gut formuliert.
Alan Kay

5
@ David: "jetzt viel besser". Und billiger. Und kleiner. Das ermöglicht neue Wege, andere Dinge besser zu machen. ZB 10 Songs -> 1.000 Songs -> 1.000 Alben in meiner Tasche, sicher ist es eine Frage des Grades, aber es ändert alles, auch wenn jemand vor 1980 gezeigt hat, dass dies theoretisch auf einem riesigen Mainframe möglich ist. Die Teile mögen dort gewesen sein, aber einige Erfindungen, wie der iPod, sind mehr als die Summe der Teile.
Jared Updike

@Alan Kay, @le dorfier: Es scheint mir, dass ein teilweises Gegenbeispiel mit dieser fest verankerten Haltung die Entscheidung von Donald Knuth ist, die TeX-Versionsnummer asymptotisch in Richtung pi zu erhöhen. Aber er ist eine Institution, kein Unternehmen. Ich bin entsetzt über Mozilla und Google Race um die Version 100 ihrer Browser, während die intelligente und kreative Standardisierung sowie die Innovation beim Datenzugriff und bei der Transformation hinterherhinken.
Ogerard

36

Eine Sache, die mich verblüfft, ist die bescheidene Tabelle. Nicht-Programmierer bauen mit einem einfachen Formelraster wilde und wunderbare Lösungen für Probleme der realen Welt. Das Replizieren ihrer Bemühungen in Desktop-Anwendungen dauert oft 10 bis 100 Mal länger als das Schreiben der Tabelle, und die resultierende Anwendung ist oft schwieriger zu verwenden und voller Fehler!

Ich glaube, der Schlüssel zum Erfolg der Tabelle ist die automatische Abhängigkeitsanalyse. Wenn der Benutzer der Tabelle gezwungen wäre, das Beobachtermuster zu verwenden, hätte er keine Chance, es richtig zu machen.

Der große Fortschritt ist also die automatische Abhängigkeitsanalyse. Warum hat keine moderne Plattform (Java, .Net, Web Services) dies in den Kern des Systems eingebaut? Insbesondere in Zeiten der Skalierung durch Parallelisierung führt ein Diagramm der Abhängigkeiten trivial zu einer parallelen Neuberechnung.

Edit: Dang - gerade überprüft. VisiCalc wurde 1979 veröffentlicht - tun wir so, als wäre es eine Erfindung nach 1980.

Edit2: Scheint, dass die Tabelle ohnehin schon von Alan notiert wurde - wenn die Frage, die ihn in dieses Forum gebracht hat, richtig ist!


5
Ich hatte an diese Antwort gedacht, aber Visicalc wurde nur einen Katzensprung vor dem Stichtag 1980 veröffentlicht. ( en.wikipedia.org/wiki/VisiCalc )
Oddthinking

Dies zeigt jedoch einen interessanten Punkt: Nur eine einfache Möglichkeit zum Anzeigen und Bearbeiten von Daten hat eine unglaublich nützliche Klasse von Werkzeugen geschaffen. Gibt es eine andere "befähigende" Idee wie diese? brauchen wir eins Ich glaube schon.
Javier


Ich stimme voll und ganz zu. Die automatische Abhängigkeitsanalyse könnte und sollte Teil moderner Programmiersprachen sein.
Jesse Pepper

1
@hasen j: Excel ist eine Tabelle Übrigens gibt es moderne Plattformen, die Abhängigkeiten zwischen Berechnungen beibehalten - zum Beispiel Haskel (Excel und funktionale Sprachen haben vieles gemeinsam - zum Beispiel reine Funktionen und verzögerte Auswertung). Excel ist einfach viel intuitiver als Haskel :)
Ajuc

36

Software:

  • Virtualisierung und Emulation

  • P2P-Datenübertragungen

  • Community-gesteuerte Projekte wie Wikipedia, SETI @ home ...

  • Web-Crawler und Web-Suchmaschinen, dh Indizierung von Informationen, die auf der ganzen Welt verteilt sind

Hardware:

  • der modulare PC

  • E-Paper


6
Die Virtualisierung wurde 1972 auf VM / CMS implementiert. Was verstehen Sie unter "dem modularen PC"?
Hudson

Ich denke, mit "dem modularen PC" meint er, dass jeder fast austauschbare Komponenten kaufen und seinen eigenen Computer bauen kann.
Psycho_Penguin

14
P2P wurde in den 70er Jahren bei Xerox PARC erfunden - die Altos waren alle P2P und die Dateiressourcen und Drucker und "Router" waren alle P2P Altos
Alan Kay

1
Ich sah "E-Paper" und dachte, was? Wie wirkt sich das auf mich aus? Ich bin froh, dass es das gibt, aber E-Reader sind im Vergleich zu Mobiltelefonen oder iPods keine weit verbreiteten Technologien.
Jared Updike

3
Ich möchte darauf hinweisen, dass vor ungefähr 40-50 Jahren noch alle hauptsächlich auf Papier
rechneten

36

Die Wiederentdeckung der Monade durch funktionale Programmierforscher. Die Monade war maßgeblich daran beteiligt, dass eine reine, faule Sprache (Haskell) zu einem praktischen Werkzeug wurde. Es hat auch das Design von Kombinatorbibliotheken beeinflusst (monadische Parser-Kombinatoren haben sogar ihren Weg in Python gefunden).

Moggis "Eine kategorietheoretische Darstellung von Programmmodulen" (1989) wird allgemein zugeschrieben, Monaden für eine effektive Berechnung ins Blickfeld zu rücken; Wadlers Arbeit (zum Beispiel "Imperative Functional Programming" (1993)) präsentierte Monaden als praktisches Werkzeug.


36

Shrinkwrap-Software

Vor 1980 wurde Software hauptsächlich speziell geschrieben. Wenn Sie ein Unternehmen betrieben und computerisieren wollten, würden Sie normalerweise einen Computer, einen Compiler und eine Datenbank erhalten und Ihre eigenen Sachen schreiben lassen. Unternehmenssoftware wurde normalerweise geschrieben, um sich an Geschäftspraktiken anzupassen. Dies bedeutet nicht, dass es keine vorgefertigte Software gab (ich habe vor 1980 mit SPSS gearbeitet), aber es war nicht die Norm, und was ich sah, war in der Regel Infrastruktur- und Forschungssoftware.

Heutzutage können Sie in einen Computerladen gehen und im Regal alles finden, was Sie brauchen, um ein kleines Unternehmen zu führen. Es ist nicht so konzipiert, dass es sich nahtlos in die bisherigen Praktiken einfügt, aber es funktioniert gut, wenn Sie lernen, mehr oder weniger entsprechend dem Workflow zu arbeiten. Große Unternehmen sind mit Dingen wie SAP und PeopleSoft dem Shrinkwrap viel näher als früher.

Es ist keine saubere Pause, aber nach 1980 gab es eine deutliche Verlagerung von teurer kundenspezifischer Software zu kostengünstiger Standard-Software, und die Flexibilität verlagerte sich von Software zu Geschäftsabläufen.

Dies wirkte sich auch auf die Wirtschaftlichkeit von Software aus. Benutzerdefinierte Softwarelösungen können rentabel sein, lassen sich jedoch nicht skalieren. Sie können nur einem Kunden so viel in Rechnung stellen und nicht dasselbe an mehrere Kunden verkaufen. Mit der Shrinkwrap-Software können Sie viele, viele der gleichen Dinge verkaufen und die Entwicklungskosten über eine sehr große Verkaufsbasis amortisieren. (Sie müssen Support leisten, aber das skaliert. Betrachten Sie es einfach als Grenzkosten für den Verkauf der Software.)

Theoretisch wird es Verlierer geben, wenn es große Gewinner aus einer Veränderung gibt. Bisher ist das Geschäft mit Software weiter gewachsen, so dass sich mit der Vermarktung von Bereichen andere Bereiche öffnen. Dies wird wahrscheinlich irgendwann ein Ende haben, und mäßig talentierte Entwickler werden sich in einer echten Krise befinden, unfähig, für die großen Jungs zu arbeiten und vom Markt verdrängt. (Dies geschieht vermutlich in anderen Bereichen. Ich vermute, dass die Nachfrage nach Buchhaltern viel geringer ist als ohne QuickBooks und dergleichen.)


Turbo Pascal & C für 100 US-Dollar auf einem MS-DOS-System provozierte einen Preis von 100 US-Dollar für einen C-Complier für ein C / PM von anderen.
CW Holeman II

Entschuldigung, ziemlich sicher, dass Microsoft Shrink-Wrap-Software vor 1980 verkauft hat. Nicht, dass sie die einzigen waren.
Mark Ransom

34

Außerhalb von Hardware-Innovationen stelle ich fest, dass es unter der Sonne wenig oder nichts Neues gibt. Die meisten der wirklich großen Ideen stammen von Leuten wie von Neumann und Alan Turing.

Viele Dinge, die heutzutage als "Technologie" bezeichnet werden, sind eigentlich nur ein Programm oder eine Bibliothek, die jemand geschrieben hat, oder eine Runderneuerung einer alten Idee mit einer neuen Metapher, einem neuen Akronym oder einem neuen Markennamen.


3
Sie können den Wald nicht sehen, da alle Bäume im Weg sind ... Die Bausteine ​​sind ähnlich, aber das Ergebnis hat sich geändert / weiterentwickelt.
Johan

8
... das ist die Definition von Technologie;) "die praktische Anwendung von Wissen ..."
Dampfer25

1
Ich bin damit einverstanden, dass es Zeit für das nächste große Ding ist. Ich bin es leid, Dinge, die aus der Vergangenheit vergessen wurden, als etwas Neues neu zu verpacken. Wie Javascript = AJAX.
James

32

Computerwürmer wurden in den frühen achtziger Jahren des letzten Jahrhunderts im Xerox Palo Alto Research Center erforscht.

Aus John Shochs und Jon Hupps " The Worm" -Programmen - Frühe Erfahrungen mit einer verteilten Berechnung "(Mitteilungen der ACM, März 1982, Band 25, Nummer 3, S. 172-180, März 1982):

In The Shockwave Rider entwickelte J. Brunner die Idee eines allmächtigen "Bandwurm" -Programms, das lose durch ein Computernetzwerk läuft - eine Idee, die ziemlich verstörend erscheint, aber auch weit über unsere derzeitigen Möglichkeiten hinausgeht. Das Grundmodell bleibt jedoch sehr provokativ: ein Programm oder eine Berechnung, die von Maschine zu Maschine verschoben werden kann, Ressourcen nach Bedarf nutzt und sich bei Bedarf selbst repliziert.

In ähnlicher Weise haben wir einmal ein Rechenmodell beschrieben, das auf dem klassischen Science-Fiction-Film The Blob basiert: Ein Programm, das ursprünglich auf einer Maschine ausgeführt wurde, aber mit zunehmendem Appetit auf Rechenzyklen die Reichweite erreichen, nicht verwendete Maschinen finden und diese Ressourcen umfassen konnte. Mitten in der Nacht könnte ein solches Programm Hunderte von Maschinen in einem Gebäude mobilisieren. Am Morgen, wenn Benutzer ihre Maschinen zurückeroberten, musste sich der "Blob" auf geordnete Weise zurückziehen und die Zwischenergebnisse seiner Berechnung sammeln. Während des Tages in ein oder zwei Maschinen versteckt, könnte das Programm später wieder auftauchen, sobald Ressourcen verfügbar werden, was die Berechnung erneut erweitert. (Diese Affinität zur nächtlichen Erforschung veranlasste einen Forscher, diese als "Vampirprogramme" zu bezeichnen.)

Zitat von Alan Kay: "Der beste Weg, die Zukunft vorherzusagen, besteht darin, sie zu erfinden."


@Bobby: Laut den Grundlagen der Computersicherheit, 2006, Lehtinen, Russell & Gangemi, begann diese Arbeit "um 1980". Wenn Sie also die Science-Fiction-Vorläufer ignorieren, zählt dies.
Charles Stewart

31

Bessere Benutzeroberflächen.

Die heutigen Benutzeroberflächen sind immer noch schlecht. Und ich meine nicht auf kleine Weise, sondern auf große, grundlegende Weise. Ich kann nicht anders, als zu bemerken, dass selbst die besten Programme immer noch Schnittstellen haben, die entweder extrem komplex sind oder auf andere Weise viel abstraktes Denken erfordern und die sich einfach nicht der Leichtigkeit herkömmlicher Nicht-Software-Tools annähern.

Zugegeben, dies liegt an der Tatsache, dass Software so viel mehr kann als herkömmliche Tools. Das ist jedoch kein Grund, den Status Quo zu akzeptieren. Darüber hinaus ist die meiste Software einfach nicht gut gemacht.

In der Regel fehlt Anwendungen immer noch eine gewisse „einfach funktioniert“ Gefühl zu viel ausgerichtet , was getan werden kann, und nicht als das, was sollte getan werden. Ein Punkt, der immer wieder angesprochen wurde und der immer noch nicht gelöst ist, ist der Punkt des Sparens. Anwendungen stürzen ab und zerstören Arbeitsstunden. Ich habe die Angewohnheit, alle paar Sekunden Strg + S zu drücken (dies funktioniert natürlich nicht mehr in Webanwendungen). Warum muss ich das tun? Es ist unglaublich dumm. Dies ist eindeutig eine Aufgabe für die Automatisierung. Natürlich muss die Anwendung auch für jeden einen Unterschied speichern Änderung, die ich vornehme (im Grunde eine unendliche Rückgängig-Liste), falls ich einen Fehler mache.

Die Lösung dieses Problems ist nicht einmal wirklich schwierig. Es wäre nur schwer, es in jedem zu implementieren Anwendung da es keine gute API dafür gibt. Programmiertools und Bibliotheken müssen erheblich verbessert werden, bevor eine mühelose Implementierung solcher Effords auf allen Plattformen und Programmen für alle Dateiformate mit beliebigem Sicherungsspeicher und ohne erforderliche Benutzerinteraktion möglich ist. Es ist jedoch ein notwendiger Schritt, bevor wir endlich anfangen, „gute“ Bewerbungen zu schreiben, anstatt nur angemessene.

Ich glaube, dass Apple derzeit annähernd das Gefühl hat, dass es in mancher Hinsicht am besten funktioniert. Nehmen Sie zum Beispiel die neueste Version von iPhoto mit einer Gesichtserkennung, die Fotos automatisch nach Personen gruppiert, die in ihnen erscheinen. Dies ist eine klassische Aufgabe, die der Benutzer nicht manuell ausführen möchte und nicht versteht, warum der Computer dies nicht automatisch ausführt. Und selbst iPhoto ist noch weit von einer guten Benutzeroberfläche entfernt, da diese Funktion noch eine endgültige Bestätigung durch den Benutzer erfordert (für jedes Foto!), Da die Gesichtserkennungs-Engine nicht perfekt ist.


3
Googles Picasa hat das schon eine Weile. In der Tat hat Picasa so viele andere Funktionen, die langsam in iPhoto kriechen.
Akshaykarthik

30

HTM-Systeme ( Hiearchical Temporal Memory ).

Ein neuer Ansatz zur künstlichen Intelligenz, initiiert von Jeff Hawkins durch das Buch " On Intelligence ".

Jetzt als Unternehmen namens Numenta aktiv, wo diese Ideen durch die Entwicklung einer "echten" KI auf die Probe gestellt werden, mit einer Einladung an die Community, mithilfe des Systems über SDKs teilzunehmen.

Es geht mehr darum, Maschinenintelligenz von Grund auf aufzubauen, als zu versuchen, menschliches Denken zu emulieren.


11
Wenn sie etwas Interessantes tun, werde ich der erste und lauteste Anführer des Applaus sein
Alan Kay

@AlanKay Nun, es scheint, dass HTM bereits in echten Produkten verwendet wird. Beispiel: Mit vitamind inc können Sie Objekte oder Personen in CCTV-Filmmaterial erkennen. Vitamindinc wird vollständig von HTM betrieben. In diesem Artikel sehen Sie, dass HTM den SVM-Ansatz für die handschriftliche Erkennung von Datensätzen wie USPS tatsächlich übertrifft. Die Tatsache, dass es gleichzeitig biologisch inspiriert und von hohem praktischem Wert ist, beeindruckt mich. Ich denke, Sie können sofort anfangen zu applaudieren.
Benjamin Crouzier

26

Die Verwendung von Physik in der Mensch-Computer-Interaktion als alternative, verständliche Metapher. Dies wird in Kombination mit Gesten und Haptik wahrscheinlich zu einem Ersatz für die derzeitige GUI-Metapher führen, die in den 70er Jahren erfunden und seit Mitte bis Ende der 80er Jahre gebräuchlich ist.

Die Rechenleistung war 1980 nicht vorhanden, um dies zu ermöglichen. Ich glaube, dass Spiele hier wahrscheinlich den Weg weisen. Ein Beispiel ist leicht in der Interaktion des Listenscrollens auf dem iPod Touch / iPhone zu sehen. Der Interaktionsmechanismus basiert auf der Intuition, wie Impuls und Reibung in der realen Welt funktionieren, um eine einfache Möglichkeit zum Scrollen einer Liste von Elementen bereitzustellen, und die Benutzerfreundlichkeit basiert auf der physischen Geste, die das Scrollen verursacht.


Das früheste Beispiel, an das ich denken kann, war Randy Smiths Alternate Reality Kit, das 1986 oder 1987 in Smalltalk-80 bei PARC gebaut wurde. Sie können neue Objekte mit einer physischen Metapher implementieren. Jedes Objekt hatte Ort, Masse, Impuls und ein Popup-Menü für die Interaktion mit ihm über seine Nachrichtenschnittstelle.
PanCrit

25

Ich glaube, Unit Testing, TDD und Continuous Integration sind bedeutende Erfindungen nach 1980.


2
Das erste Testen war eine sehr alte Methode, die meiner Meinung nach wiederbelebt wurde.
Johnno Nolan

Das ist eine Software-Engineering-Sache, keine "Computer"
-Sache

7
Ich würde John zustimmen, zum Beispiel beschreibt Brooks in The Mythical Man-Month (1975) einen Test-First-Ansatz.
Fabian Steeg

28
Die kontinuierliche Integration wurde erstmals Ende der 60er Jahre in BBN Lisp 1.85 ernsthaft durchgeführt, das bei PARC zu Interlisp wurde. Smalltalk bei PARC in den 70er Jahren war auch ein kontinuierliches Integrationssystem.
Alan Kay

3
TDD wurde im Allgemeinen nur dann nützlich, wenn Computer schnell genug wurden, um kleine Tests so schnell auszuführen, dass Sie bereit sind, sie immer wieder auszuführen.
Jay Bazuzi

25

Mobiltelefone.

Während das erste Patent für "Mobiltelefone" im Jahr 1908 bestand und lange gekocht wurde (0G im Jahr 1945, 1G im Jahr 1979 in Japan eingeführt), erschienen moderne digitale 2G-Handys erst 1991. SMS gab es nicht bis 1993, und der Internetzugang erschien 1999.


4
Japan im Jahr 1979, das ist vor 1980. Wir suchen nach neuen Erfindungen - denken Sie an Forschungslabors, Universitäten, praktische Demonstrationen von Patentanmeldungen ... all dies wird einige Jahre vor der Verfügbarkeit auf dem Massenmarkt liegen.
Saschabeaumont

1
Der Unterschied zwischen 1G und 2G ist ungefähr so ​​groß wie der Unterschied zwischen analogen und digitalen Computern. Ich denke, 2G (1991) verdient den Status einer "neuen" Erfindung.
Domchi

Und ist abhängig von Powersave-Technologien und guten Batterien.
Johan

23

Ich habe am 2. Januar 1980 angefangen zu programmieren. Ich habe versucht, über bedeutende neue Erfindungen im Laufe meiner Karriere nachzudenken. Ich habe Mühe, an irgendetwas zu denken. Das meiste, was ich für bedeutsam halte, wurde tatsächlich vor 1980 erfunden, aber erst danach weit verbreitet oder verbessert.

  1. Grafische Benutzeroberfläche.
  2. Schnelle Verarbeitung.
  3. Großer Speicher (ich habe 1980 200,00 USD für 16.000 bezahlt).
  4. Kleine Größen - Handys, Pocket PCs, iPhones, Netbooks.
  5. Große Speicherkapazitäten. (Ich bin von einer großen 90k-Diskette zu einem 8-Gig-USB-Stick übergegangen.
  6. Mehrere Prozessoren. (Fast alle meine Computer haben jetzt mehr als einen, Software kämpft darum, sie beschäftigt zu halten).
  7. Standardschnittstellen (wie USB) zum einfachen Anschließen von Hardware-Peripheriegeräten.
  8. Mehrere Touch-Displays.
  9. Netzwerkkonnektivität - führt zur Internetexplosion Mitte der 90er Jahre.
  10. IDEs mit Intellisense und inkrementeller Kompilierung.

Während sich die Hardware enorm verbessert hat, hat die Softwareindustrie Probleme, mitzuhalten. Wir sind Lichtjahre vor 1980, aber die meisten Verbesserungen waren eher Verfeinerungen als Erfindungen. Seit 1980 sind wir zu beschäftigt damit, das anzuwenden, was die Fortschritte uns ermöglichen, anstatt zu erfinden. An sich sind die meisten dieser inkrementellen Erfindungen nicht wichtig oder mächtig, aber wenn man auf die letzten 29 Jahre zurückblickt, sind sie ziemlich mächtig.

Wir müssen wahrscheinlich die inkrementellen Verbesserungen annehmen und steuern. Ich glaube, dass wirklich originelle Ideen wahrscheinlich von Menschen kommen werden, die wenig mit Computern zu tun haben und immer schwieriger zu finden sind.


"Ursprüngliche Ideen werden wahrscheinlich von Menschen kommen, die wenig mit Computern zu tun haben", so wahr. und noch trauriger, da der größte Teil dieser "betäubenden" Belichtung Fenster / Büro ist.
Javier

1
Einige Daten für frühere Erfindungen: Engelbarts GUI wurde 1968 vorgeführt und der Xerox PARC Alto wurde 1973 entwickelt. Mehrere CPUs sind neu auf dem Desktop, jedoch nicht im Maschinenraum - der VAX-Cluster war erstmals 1978 verfügbar.
Hudson

Sie haben programmiert, bevor ich geboren wurde. Verdammt, ich habe noch einen langen Weg vor mir.
Kezzer

Autsch. Ich habe erst mit 26 angefangen, jetzt fühle ich mich wirklich alt. :)
Bruceatk

Haben Sie die Inflation für diesen 200-Dollar-Speicherchip mit 16.000 US-Dollar berücksichtigt?
Tim Tonnesen

22

Nichts.

Ich denke, das liegt daran, dass die Leute ihre Einstellungen geändert haben. Früher glaubten die Leute, wenn sie nur diese "große Idee" finden würden, würden sie sie reich schlagen. Heute glauben die Menschen, dass es die Hinrichtung und nicht die Entdeckung ist, die sich am meisten auszahlt. Sie haben Mantras wie "Ideen sind ein Dutzend" und "Die zweite Maus bekommt den Käse". Daher konzentrieren sich die Menschen darauf, vorhandene Ideen zu nutzen, anstatt neue zu entwickeln.


3
So viele der vorhandenen Ideen wurden einfach noch nicht umgesetzt.
Bretonischer

3
Es gibt immer ein paar Wahnsinnige, die sich neue Ideen einfallen lassen, sie können einfach nicht anders ;-)
Johan

Aber sie sind Wahnsinnige, deshalb können sie ihre Ideen nicht verkaufen, weil niemand auf sie hört.
Adam Jaskiewicz

Ideen sind eher die Provinz der Künstler. Praktische Umsetzung ist das, was wir tun. Ingenieure nach brandneuen Ideen zu durchsuchen, ist eine Art Fischen im falschen Teich. Für gute neue Ideen lesen Sie Sf und finden Sie heraus, wie dieses Zeug gemacht werden kann (ich denke, dass viel davon gemacht werden kann). Die Umsetzung einer wilden Idee kann jedoch Jahre dauern. Künstler können davonkommen, Ideen und Träume zu verkaufen, aber von Ingenieuren wird erwartet, dass sie Produkte entwickeln ... und sie müssen auch essen.
Sylverdrag

16

Open Source Community-Entwicklung.


2
Tatsächlich datieren die SIG / M-Benutzergruppen-Datenträger das, was wir jetzt als Open Source bezeichnen. Es enthielt Hunderte von Festplatten (der Diskettenart) mit CP / M-Software, ein Großteil davon Open Source (obwohl der Begriff "Open Source" damals noch nicht existierte).
Mike Thompson

2
Im Sinne einer offenen Zusammenarbeit und Entwicklung zwischen Menschen, die Zugang zu einem Computer hatten, ähnelt es den IBM-Benutzergruppen in den 1960er Jahren. Es ist nur so, dass sich jetzt mehr Menschen Computer leisten können.
David Thornley

2
Stimmen Sie mit David überein, es ist erst jetzt prominenter geworden, als Computer aus dem Bildungs- und Wissenschaftsbereich in die Geschäftswelt verlagert wurden. Dies führte zu "Closed Source" -Software, die Lizenzen verwirrte. Es war immer da, es brauchte nur keinen Namen, bis sich die Anwälte einmischten.
Saschabeaumont

1
Ja, ich muss auch hier David zustimmen. Open Source ist viel früher als 1980. Es liegt mindestens 20 Jahre vor ihm. Ich dachte, es waren die 1950er Jahre, nicht die 1960er Jahre.
Brendan Enrick

16

Das iPad (veröffentlicht im April 2010): Ein solches Konzept ist sicherlich absolut revolutionär!

Alternativtext http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG

Auf keinen Fall sah Alan Kay das aus den 1970ern!
Stellen Sie sich einen solchen "persönlichen, tragbaren Informationsmanipulator" vor ...


...

Warten? Was!? Das Dynabook , sagst du?

Alt-Text

Von Alan Kay bereits 1968 durchdacht und in diesem Artikel von 1972 ausführlich beschrieben ?

NOOOooo ooooo ....

Na gut, vergiss es.


Unter stackoverflow.com/questions/432922/… finden Sie einen größeren Kontext, der durch diese Antwort veranschaulicht wird.
VonC

Nun, sicherlich gab es die Idee schon früher (zum Beispiel Apple Newton); Die Technologie ging jedoch so weit, dass es möglich ist, ein billiges (und großartiges) Consumer-Gerät zu bauen.
Nils
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.