Um Ihre Frage sofort zu beantworten: Nein, das World Wide Web, wie wir es jetzt kennen, hängt nicht von HTTP ab. Es war noch nie von HTTP abhängig. Es ist lediglich ein Protokoll über einen zuverlässigen Transport erforderlich, mit dem ein Client eine Ressource von einem Server anfordern kann. Alles, was diese Mindestanforderungen erfüllt, ist ausreichend. Es verwendet jetzt HTTP, da dies das beste verfügbare Protokoll war, als das Web zum ersten Mal populär wurde. Wenn etwas Besseres als HTTP auftaucht, wie es bei SPDY der Fall zu sein scheint , wird auch HTTP als Protokoll in die Geschichte eingehen, bevor dies der Fall ist.
Es hängt jedoch von HTML und in geringerem Maße von den verschiedenen Technologien ab, die darauf angewachsen sind, wie z. B. CSS, JavaScript usw. Selbst das heutige HTML 5 war vor 20 Jahren als HTML erkennbar und von den damaligen Browsern meistens analysierbar , und eine gut gestaltete Website von heute funktioniert tatsächlich in den ältesten bekannten Browsern (so wie eine gut gestaltete Website von vor 20 Jahren tatsächlich in den heutigen Browsern funktioniert ).
Der Rest dieser Antwort stammt aus meiner Erfahrung und kann übersprungen werden, aber ...
Bisher wurden in den vorliegenden Antworten meistens Referenzen aus der heutigen Zeit zitiert, was bedauerlich ist, da das heutige Internet nur sehr wenige Informationen über die Zeit vor dem "Dot-Com-Boom" Ende der 1990er Jahre enthält. Einige dieser Referenzen stimmen nicht mit meiner Erfahrung überein: Ich war Jahre vor der Veröffentlichung im Internet und hatte eine gute Aussicht, den Aufstieg des Webs zu verfolgen.
HTTP wurde entworfen , ein Protokoll zu sein , die auf der Übertragung von Webseiten und andere Dateien zu und von Servern effizient war. Es wurden verschiedene Mängel bei FTP behoben, die es zu einer nicht ganz praktischen Wahl für die Bereitstellung von Webseiten machen. Insbesondere wurde FTP zu der Zeit meistens im "aktiven" Modus verwendet, da Firewalls und NAT meistens nicht existierten. FTP hatte ab 1985 einen "passiven" Modus, der jedoch erst dann wirklich notwendig wurde, wenn große Teile des Internets hinter den eisernen Vorhängen standen. In beiden Modi war es bestenfalls ineffizient, mehrere Verbindungen zu öffnen, um Dateien zu übertragen. HTTP konnte FTP (oder sogar Gopher) dramatisch übertreffen, was wichtig war, wenn praktisch jeder zu Hause eine DFÜ-Verbindung hatte, und zwar sehr langsam .
Während einige Webseiten über Gopher bereitgestellt wurden, lag dies hauptsächlich daran, dass die gängigen Web-Clients der damaligen Zeit verschiedene Protokolle unterstützten: HTTP, FTP und Gopher. Sie mussten, um Mindshare zu gewinnen. Zu diesem Zeitpunkt wurde das "Durchsuchen des Internets" mit einem Programm namens Archie durchgeführt, das Sie nur über Dateien auf FTP-Sites informierte. Sie mussten dann Veronica oder Jughead verwenden, um Gopherspace zu durchsuchen. Es gab auch WAIS, vielleicht die erste bedeutende Volltextsuchmaschine, aber was Wikipedia Ihnen nicht sagen wird, ist, dass es sich um weit überarbeiteten Mist handelt und Sie nichts finden konnten, es sei denn, Sie wussten, auf welcher Site Sie danach suchen sollten anfangen mit.
Ich erinnere mich noch, dass ich 1995 über mehrere Wochen Gespräche mit einem AIDS-Forscher über das Internet geführt und versucht habe, ihn davon zu überzeugen, dass er dieses Mosaik-Ding ausprobieren sollte. Was ihn schließlich überzeugt hat, ist, dass Johns Hopkins gerade eine medizinische Datenbank eingerichtet hat, die er über HTTP im Web benötigt, und ein Webbrowser war der einzige Weg, um dorthin zu gelangen. Ich hatte viele Gespräche mit verschiedenen Leuten in ähnlicher Richtung.
Um Fuß zu fassen, unterstützten Webbenutzer-Agents damals üblicherweise FTP und Gopher, sodass Benutzer mit einem einzigen Programm Ressourcen über eines dieser Protokolle anzeigen oder herunterladen konnten. Es hat funktioniert und das Internet ist in Schwung gekommen, aber selbst das Herunterladen einer Nur-Text-Webseite war mit 2400 Bit / s schmerzhaft langsam, und viele Leute (ich selbst eingeschlossen) hatten immer noch nichts Besseres, als das Internet endlich für die Öffentlichkeit geöffnet wurde. Es war oft schneller, in Ihr Unix-Shell-Konto zu telneten und lynx
dort oder an die Öffentlichkeit lynx
, die von der Universität von Kansas betrieben wurde, zu telneten. Die Universität verfügte über eine große Bandbreite und auf diese Weise musste immer nur ein Bildschirm angezeigt werden (die Aktualisierung eines 80x24-Terminals mit 2400 Bit / s dauerte ungefähr vier Sekunden).
Also, von einem einzigen Programm, ob es lynx
, mosaic
oder dem Referenz - Client , dass CERN schrieb aber niemand wirklich jemals verwendet, die Sie im Internet zu der Zeit praktisch alles zugreifen konnten, da diese Programme in der Regel versteckt oder de-betont werden , um den spezifischen Transport verwendet . (Das heißt, selbst dann hat niemand in die Adressleiste geschaut. Und Lynx würde die aktuelle URL nur dann anzeigen, wenn Sie ausdrücklich danach gefragt haben.)
Da HTTP schneller und flexibler als andere Protokolle war und HTML eine deutlich leistungsstärkere Sprache für die Darstellung eines Dokuments war als bisher verfügbar, war das Abheben praktisch unvermeidlich. Gopher hatte nie eine Chance; es existierte nur wenige Jahre in bedeutender Form. Und FTP bleibt nach wie vor sinnvoll , da es etwas besser bei großen Dateien oder ganze Verzeichnisstrukturen auf einmal übertragen (vorausgesetzt , Sie haben tar
und gzip
und kennen die geheimen Beschwörungen) und bis vor kurzem war es besser für das Hochladen Daten.
Der Punkt, den ich versuche, hier nach Hause zu fahren, ist, dass das Web transportunabhängig ist. Es musste sein, um loszulegen, und die Tatsache, dass dies bedeutet, dass es mit ziemlicher Sicherheit noch Jahrzehnte - oder sogar Jahrhunderte - in Gebrauch sein wird.