OK, also paraphrasierte ich. Das vollständige Zitat:
Das Internet wurde so gut gemacht, dass die meisten Menschen es als natürliche Ressource wie den Pazifischen Ozean betrachten, anstatt als etwas, das von Menschenhand geschaffen wurde. Wann war das letzte Mal eine Technologie mit einer solchen Skala so fehlerfrei? Das Web ist im Vergleich dazu ein Witz. Das Web wurde von Amateuren gemacht. - Alan Kay.
Ich versuche, die Geschichte des Internets und des Internets zu verstehen, und diese Aussage ist schwer zu verstehen. Ich habe an anderer Stelle gelesen, dass das Internet jetzt für ganz andere Dinge verwendet wird, als es gedacht war, und dass dies vielleicht eine Rolle spielt.
Was macht das Internet so gut und was macht das Web so amateurhaft?
(Natürlich ist Alan Kay fehlbar, und niemand hier ist Alan Kay, daher können wir nicht genau wissen, warum er das gesagt hat, aber was sind mögliche Erklärungen?)
* Siehe auch das Originalinterview *.
quelle
Antworten:
Genau auf dieses Thema geht er auf der zweiten Seite des Interviews ein. Es sind nicht die technischen Mängel des von ihm beklagten Protokolls, sondern die Vision der Webbrowser-Designer. Wie er es ausdrückte:
Er nennt einige spezifische Beispiele, wie die Wikipedia-Seite in einer Programmiersprache, in der keine Beispielprogramme in dieser Sprache ausgeführt werden können, und den Mangel an WYSIWYG-Bearbeitung, obwohl sie in Desktop-Anwendungen lange vor dem Bestehen des Webs verfügbar war. 23 Jahre später schaffen wir es kaum, die Einschränkungen zu umgehen, die durch die ursprünglichen Entscheidungen zum Design des Webbrowsers auferlegt wurden.
quelle
POST
ist völlig unzureichend für diesen Zweck.In gewisser Hinsicht hatte er recht. Die ursprünglichen (vorab festgelegten) Versionen von HTML, HTTP und URL wurden von Amateuren (keine Standardleute) entwickelt. Und es gibt Aspekte der jeweiligen Designs ... und der nachfolgenden (Original-) Spezifikationen ..., die (um es höflich auszudrücken) nicht so gut sind, wie sie hätten sein können. Zum Beispiel:
HTML hat die Struktur / den Inhalt nicht von der Präsentation getrennt, und es waren eine Reihe von Überarbeitungen ... und zusätzliche Spezifikationen (CSS) erforderlich, um dies zu beheben.
HTTP 1.0 war sehr ineffizient und erforderte für jedes abgerufene "Dokument" eine neue TCP-Verbindung.
Die URL-Spezifikation war eigentlich ein Versuch, eine Spezifikation für etwas rückgängig zu machen, das im Wesentlichen ad hoc und inkonsistent war. Es gibt immer noch Lücken im Bereich der Definition von Schemata, und die Syntaxregeln für URLs (z. B. was wo maskiert werden muss) sind barock.
Und wenn es früher mehr "professionelle" Standards gegeben hätte, wären viele dieser "Fehltritte" möglicherweise nicht gemacht worden . (Natürlich werden wir es nie erfahren.)
Allerdings hat die Bahn prächtig gelungen , trotz dieser Dinge. Und alle Verdienste sollten den Menschen zuteil werden, die es möglich gemacht haben. Ob sie zu dieser Zeit "Amateure" waren oder nicht, sie sind jetzt definitiv keine Amateure.
quelle
Es scheint an einer grundsätzlichen Meinungsverschiedenheit zwischen Alan Kay und den Leuten (vor allem Tim Berners-Lee) zu liegen, die das Web entworfen haben, wie ein solches System funktionieren sollte.
Der ideale Browser sollte laut Kay eigentlich ein Mini-Betriebssystem mit nur einer Aufgabe sein: Aus dem Internet heruntergeladenen Code sicher ausführen. In Kays Design besteht das Web nicht aus Seiten, sondern aus Black-Box- "Objekten", die jede Art von Code enthalten können (sofern dieser sicher ist). Aus diesem Grund sollte ein Browser keine Funktionen haben. Ein Browser würde keinen HTML-Parser oder eine Rendering-Engine benötigen, da all dies von den Objekten implementiert werden sollte. Dies ist auch der Grund, warum er keine Standards zu mögen scheint. Wenn der Inhalt nicht vom Browser, sondern vom Objekt selbst gerendert wird, ist kein Standard erforderlich.
Offensichtlich wäre dies immens leistungsfähiger als das heutige Web, in dem Seiten durch die Fehler und Einschränkungen der aktuellen Browser und Webstandards eingeschränkt werden.
Die Philosophie von Tim Berners-Lee, dem Erfinder des Webs, ist fast genau das Gegenteil. Das Dokument " Das Prinzip der geringsten Leistung " umreißt die Entwurfsprinzipien, die HTTP, HTML, URLs usw. zugrunde liegen. Er weist auf die Vorteile von Einschränkungen hin. Beispielsweise ist es einfacher, eine gut spezifizierte deklarative Sprache wie HTML zu analysieren, was Suchmaschinen wie Google ermöglicht. In Kays Web ist die Indizierung von Black-Box-Objekten nicht wirklich möglich. Das Fehlen von Einschränkungen für die Objekte macht sie also weniger nützlich. Wie wertvoll sind mächtige Objekte, wenn Sie sie nicht finden können? Und ohne einen Standardbegriff von Links und URLs könnte der Googles-Page-Rank-Algorithmus nicht funktionieren. Und auch keine Lesezeichen für diese Angelegenheit.
Ein weiteres Problem ist die Inhaltserstellung. Jetzt haben wir verschiedene Tools, aber von Anfang an konnte jeder Amateur lernen, eine HTML-Seite im Editor zu erstellen. Dies ist es, was das Web zum Kickstart brachte und es wie ein Lauffeuer verbreitete. Überlegen Sie, ob Sie eine Webseite nur dann erstellen können, wenn Sie die Programmierung Ihrer eigenen Rendering-Engine starten müssen. Die Eintrittsbarriere wäre immens.
Java-Applets und Silverlight ähneln in gewissem Maße Kays Vision. Beide Systeme sind viel flexibler und leistungsfähiger als das Internet (da Sie einen Browser darin implementieren könnten), leiden jedoch unter den oben beschriebenen Problemen. Und beide Technologien sind im Grunde genommen tot im Wasser.
Tim Berners-Lee war ein Informatiker, der Erfahrung mit Netzwerken und Informationssystemen hatte, bevor er das Web erfand. Es scheint, dass Kay die Ideen hinter dem Web nicht versteht, und deshalb glaubt er, dass die Designer Amateure ohne Kenntnisse der Computergeschichte sind. Aber Tim Berners-Lee war bestimmt kein Amateur.
quelle
Ich las dies, als Kay die Protokolle der niedrigeren Ebene nicht kannte, um anzunehmen, dass sie wesentlich sauberer sind als das Web der höheren Ebene. Die Ära „Von Profis entworfen“, von der er spricht, hatte immer noch große Probleme mit der Sicherheit (Spoofing ist immer noch zu einfach), der Zuverlässigkeit und der Leistung, weshalb immer noch neue Arbeiten durchgeführt werden, um alles für Verbindungen mit hoher Geschwindigkeit oder hohem Paketverlust abzustimmen. Gehen Sie noch ein wenig weiter zurück und Hostnamen wurden aufgelöst, indem Sie eine Textdatei durchsuchten, die die Leute verteilen mussten!
Beide Systeme sind komplexe heterogene Systeme und haben erhebliche Probleme mit der Abwärtskompatibilität, wenn Sie eine Warze reparieren möchten. Es ist leicht, Probleme zu erkennen, schwer zu beheben, und wie die Reihe der gescheiterten Konkurrenten zeigt, ist es überraschend schwer, etwas Äquivalentes zu entwerfen, ohne die gleiche Lernkurve zu durchlaufen.
Wie ein Biologe einem Befürworter eines intelligenten Designs vielleicht sagt, wenn Sie sich eines davon ansehen und feststellen, dass es sich um ein geniales Design handelt, schauen Sie nicht genau genug hin.
quelle
Ahh ja, ich habe Alan diese Frage einige Male gestellt, zum Beispiel als er in Potsdam war und auf der Fonc-Mailingliste stand . Hier ist ein neueres Zitat aus der Liste, das ich sehr gut zusammengefasst habe:
Ich verstehe seine verschiedenen Antworten so, dass er meint, Webbrowser sollten keine (HTML) -Dokumente anzeigen, möglicherweise angereichert, sondern einfach Programme ausführen. Ich persönlich denke, dass er sich darin irrt, obwohl ich sehen kann, woher er kommt. Mit ActiveX, Java-Applets, Flash und jetzt "reichen" JavaScript-Apps hatten wir schon so etwas, und die Erfahrung war im Allgemeinen nicht gut, und meine persönliche Meinung ist, dass die meisten JavaScript-Websites schon jetzt einen Schritt zurück von gutem HTML darstellen Websites, kein Zwischenstopp vorwärts.
Theoretisch macht natürlich alles Sinn: Der Versuch, die Interaktivität schrittweise zu dem hinzuzufügen, was im Grunde genommen Dokumentbeschreibungssprache ist, ist rückwärts und entspricht dem Hinzufügen von immer mehr Epizyklen zum ptolemäischen System, während die "richtige" Antwort dies herausfindet (reichhaltig) ) Text ist ein Sonderfall eines Programms und deshalb sollten wir nur Programme senden.
Angesichts des praktischen Erfolgs des WWW halte ich es jedoch für ratsam, unsere Theorien zu modifizieren, anstatt das WWW dafür zu kritisieren, dass die Galle nicht unseren Theorien entspricht.
quelle
Man kann nicht wirklich sagen, dass das Internet oder das Web von Amateuren oder Profis erfunden wurde, da diese Bereiche absolut neu sind. Alle Menschen waren Amateur in Internet-Protokollen, bevor sie erfunden wurden. Aus der Sicht der Internet-Erfinder waren dies auch Amateure.
Wenn wir wirklich urteilsfähig sein wollten, war das Internet doch nicht so toll: IPv6 wird benötigt. Und es geht nicht nur um den Adressraum; IPv6 hat einen neuen Header mit weniger und unterschiedlichen Feldern.
Ein weiterer großer Unterschied zum Internet und zum Web besteht darin, wie sie vom Programmierer wahrgenommen werden. Ein Programmierer interagiert selten mit dem Internet. Aus seiner Sicht haben Sie in IP Adressen und in TCP zusätzlich einen Port und Sie können sicher sein, dass die Pakete versendet werden. Das war's auch schon ... Während der Programmierer mit dem Web eine intensivere Interaktion hat: HTTP-Methoden, Header, HTML, URLs usw. Es ist normal, die Grenzen von etwas mit viel mehr Möglichkeiten zu sehen als in etwas mit fast überhaupt keinen Möglichkeiten. Damit möchte ich nicht sagen, dass das Internet einfach ist:
In Bezug auf die Größe dieser beiden Technologien wird das Internet so geschätzt, weil es eine sehr skalierbare Technologie ist und die Idee der Schichtung sehr gut war. Grundsätzlich können Sie auf den unteren Ebenen jede gewünschte Technologie verwenden (WLAN, Ethernet, Token Ring usw.) und IP als Standard-Zwischenprotokoll verwenden, auf dem TCP und UDP platziert sind. Darüber können Sie im Grunde das gewünschte Anwendungsprotokoll hinzufügen.
Die Größe des Webs hängt eng mit der Größe des Internets zusammen, da das Web stark vom Internet abhängig ist und den TCP / IP-Stack darunter hat. Aber ich würde sagen, das Internet ist auch vom Web abhängig. Das Internet existierte 20 Jahre vor dem Web und war eine Art anonym, aber 20 Jahre nach dem Web ist das Internet allgegenwärtig und all dies dank des Web.
quelle
Ich glaube, er zeigte auf etwas weniger Dunkles - TBL wusste nichts über die Hypertext-Arbeit, die in den 60er Jahren stattgefunden hatte, so dass diese Arbeit das Design des Webs nicht beeinflusste. Er spricht oft von Computer als Popkultur, in der die Praktizierenden ihre Geschichte nicht kennen und "den platten Reifen immer wieder neu erfinden".
quelle
Das Internet hat sich als Prototyp des von Baran, Pouzin und Zeitgenossen entdeckten Paketvermittlungskonzepts bemerkenswert gut bewährt. Entgegen der weit verbreiteten Meinung bedeutet dies nicht, dass IPv4 als überliefert die perfekte Protokollarchitektur ist oder dass IPv6 der richtige Weg ist. John Day, der maßgeblich an der Entwicklung von ARPANET und IP beteiligt war, erläutert dies in seinem 2008 erschienenen Buch Patterns of Network Architecture .
Wie für das Web, in den Worten von Richard Gabriel, "Schlimmer ist besser". Tim Berners-Lees Bericht Weaving The Web ist anständig. Wie das Web von Gillies & Cailliau ins Leben gerufen wurde, ist dichter und weniger lesbar, weist jedoch viele Details und einige faszinierende Verknüpfungen mit anderen Ereignissen im Bereich Personal Computing auf. Ich glaube nicht, dass Kay genug Anerkennung dafür gibt.
quelle
Ich weiß nicht, ein Teil des Nicht-Web-Internets hat einige schreckliche Warzen. E-Mail war vor dem Web und ist Teil des Internets. Der Standard ist sehr offen und erfordert viele zusätzliche Hacks, um das Spam-Problem anzugehen (aber nicht zu lösen).
quelle
"Amateur" bezieht sich nicht auf den Mangel an Programmierkenntnissen, sondern auf den Mangel an Vorstellungskraft.
Das grundlegende Problem mit Tim Berners-Lees Web ist, dass es nie für Entwickler erstellt wurde . (Dies steht in krassem Gegensatz zu Alan Kays Web.)
Tims Bahn wurde für Nicht-Programmierer gebaut , die im Web veröffentlichen würden direkt durch Dilettantismus mit Dateien mit ihren Zeitschriften / Artikel durchsetzt mit HT-Markup-Sprache: Es ist wie die 1980er Jahre Wordperfect und MS-Word, außer sie würden "verwenden <b> < / b> "anstatt auf das BSymbol zu klicken und es als offenes" .htm "-Format statt als proprietäres" .doc "-Format zu speichern. Die Erfindung ist hier das " <a> " -Tag, mit dem diese statischen Journale / Artikel global verknüpft werden können.
Und das ist es, das ist die gesamte Web-Vision von Tim: Sein Web ist eine bloße globale Autobahn von miteinander verbundenen statischen Gegenständen. Wenn Sie das Geld hätten, könnten Sie vielleicht einen Editor wie Dreamweaver, Nexus , Publisher, Citydesk ( ? ) Usw. kaufen , mit dem Sie all diese " <b> </ b> " - Tags erstellen können , indem Sie auf das BSymbol klicken .
..Und wir sehen, wie seine Vision nicht wie beabsichtigt funktionierte. Tatsächlich gibt es von Anfang an mächtige rote Flaggen, die die Welt weit mehr als das, was Tims Vision bietet, haben wollte:
Rote Fahne 1: Der rasante Aufstieg von "Smart CGI" (PHP).
Rote Fahne 2: Der rasante Aufstieg von "Smart HTML" (Javascript).
In diesen Tagen gibt es noch mehr rote Fahnen wie den Aufstieg von Chrome-OS-ist-der-Browser-ist-der-OS ( genau das , was Alan Kay für den Browser vorgesehen hatte) und WASM / Browser-Erweiterungen.
Im Gegensatz zu Tims Web ist Alan Kays Web ein dynamisches Web, das für Programmierer entwickelt wurde: eine globale Autobahn von miteinander verknüpften dynamischen Programmen. Nicht- Programmierer , die eine "Seite" benötigen, veröffentlichen einfach eine, indem sie ein Programm im Web verwenden . (Und das Programm selbst wurde offensichtlich von Programmierern geschrieben, nicht von HTML-Spielern.)
Dies ist genau der Status Quo von Tims Web in den 2000er Jahren, aber wenn wir Alans Web hätten, wäre dies in den 1990er Jahren der Fall gewesen Haben sie Recht, als das Web in den 1990er Jahren begann.
Ähnlich werden wir Programme wie Steam, Visual Studio, Warcraft und VM Ware in den 2040er Jahren nicht mehr im Web haben, sondern jetzt in den 2010er Jahren. (Die Verzögerung von mehreren Jahrzehnten ist darauf zurückzuführen, dass diese Programme bereits für das Betriebssystem-ist-nicht-der-Browser erstellt wurden, was den wirtschaftlichen Anreiz verringert, sie auf dem Betriebssystem-ist-der-Browser-ist-der-neu zu erstellen -OS.)
Also das ist , was die Leute meinen , wenn sie sagen , Tim Berners-Lee das wahre Dynamic Web getötet hatte durch seine „schäbig statische Web“ auf der Welt drängen. Schon mal was von den Begriffen "Web 2.0", "Web 3.0" gehört? Sie wären einfach "The Web" genannt worden, wenn wir Alans Web anstelle von Tims Web gehabt hätten. Aber Tims Web muss ständig überarbeitet werden, weil es so statisch ist .
Offensichtlich ist nicht jede Hoffnung verloren, da das Web so umgebaut werden kann, wie es die Browser-Anbieter definieren. Aber der springende Punkt ist, dass all diese Dinge, die sie im Internet "erfinden", bereits vor langer Zeit erfunden wurden. Wir könnten heute schon alles haben, nicht morgen.
quelle