Warum sagte Alan Kay: "Das Internet war so gut gemacht, aber das Web war von Amateuren"?

86

OK, also paraphrasierte ich. Das vollständige Zitat:

Das Internet wurde so gut gemacht, dass die meisten Menschen es als natürliche Ressource wie den Pazifischen Ozean betrachten, anstatt als etwas, das von Menschenhand geschaffen wurde. Wann war das letzte Mal eine Technologie mit einer solchen Skala so fehlerfrei? Das Web ist im Vergleich dazu ein Witz. Das Web wurde von Amateuren gemacht. - Alan Kay.

Ich versuche, die Geschichte des Internets und des Internets zu verstehen, und diese Aussage ist schwer zu verstehen. Ich habe an anderer Stelle gelesen, dass das Internet jetzt für ganz andere Dinge verwendet wird, als es gedacht war, und dass dies vielleicht eine Rolle spielt.

Was macht das Internet so gut und was macht das Web so amateurhaft?

(Natürlich ist Alan Kay fehlbar, und niemand hier ist Alan Kay, daher können wir nicht genau wissen, warum er das gesagt hat, aber was sind mögliche Erklärungen?)

* Siehe auch das Originalinterview *.

Kalaracey
quelle
24
Eigentlich Alan Kay an einem Punkt in der Vergangenheit beantwortet eine Frage Stack - Überlauf ...
Weltingenieur
6
Meiner Meinung nach bestand die größte verpasste Gelegenheit darin, das HTML-Parsen nicht strikt zu gestalten, z. B. hatten die Vorgänger wie SGML usw. strenge Parsing-Regeln, aber die frühen Webbrowser / UA ließen jede Art von HTML zu und versuchten ihr Bestes, um sie anzuzeigen. Das machte HTML den Einstieg leicht, verursachte aber jahrelang Probleme.
JQA
9
IMHO ist das grundlegende Problem, dass die Webnutzung weit über seine ursprüngliche Anwendungsdomäne (Hypertext) hinaus erweitert wurde.
Chmike
3
Ich habe großen Respekt vor Alan Kays Arbeit, aber er redet von hinten, wenn er das wirklich glaubt. Als eine Person, die viel Zeit damit verbracht hat, Low-Level-Netzwerkparser zu implementieren, kann ich mit Zuversicht sagen, dass die APIs für TCP / IP gleichermaßen amateurhaft und naiv waren. Sicher, implementieren Sie eine variable Länge von Optionserweiterungen (die noch niemand verwendet hat), aber korrigieren Sie den Adressraum und begrenzen Sie ihn auf eine Länge von 2 Byte, da dies kein Idiot war.
Evan Plaice

Antworten:

61

Genau auf dieses Thema geht er auf der zweiten Seite des Interviews ein. Es sind nicht die technischen Mängel des von ihm beklagten Protokolls, sondern die Vision der Webbrowser-Designer. Wie er es ausdrückte:

Sie möchten, dass es sich um ein Mini-Betriebssystem handelt, und die Leute, die den Browser erstellt haben, haben es als Anwendung verwechselt.

Er nennt einige spezifische Beispiele, wie die Wikipedia-Seite in einer Programmiersprache, in der keine Beispielprogramme in dieser Sprache ausgeführt werden können, und den Mangel an WYSIWYG-Bearbeitung, obwohl sie in Desktop-Anwendungen lange vor dem Bestehen des Webs verfügbar war. 23 Jahre später schaffen wir es kaum, die Einschränkungen zu umgehen, die durch die ursprünglichen Entscheidungen zum Design des Webbrowsers auferlegt wurden.

Karl Bielefeldt
quelle
Also wollte er, dass der Browser ein Mini-Betriebssystem ist, da er interaktiver ist als früheres HTML (es wird jetzt besser, da stimme ich zu)?
Kalaracey
2
Was hat WYSIWYG mit dem Web zu tun? Das ist eine reine Browserfunktion. Nun, das Fehlen der richtigen Bearbeitung, das ist ein echter Web-Fehler. POSTist völlig unzureichend für diesen Zweck.
MSalters
9
"Was hat WYSIWYG mit dem Web zu tun?" Das ist der Punkt, die Vision des Webs ist sehr begrenzt. Statische Textdateien, die herumgereicht werden. Keine Interaktion. Keine Logik. Kein Code. Das ist eine sehr eingeschränkte Vision im Vergleich zu dem, was Computer können und was Kay schon Jahre zuvor gesehen hat. Und weil das Web so statisch ist, muss es ständig überarbeitet werden. In Kays Vision würde der Browser selbst mit der Webseite kommen, die er anzeigt.
Cormac Mulhall
2
In einer idealen Welt, die funktionieren würde und Frameworks wie Java-Applets und Flash versuchten, dies zu verwirklichen. Wenn Sie die Sicherheitsaspekte, die systemübergreifende Kompatibilität, die Skalierbarkeit und die Arbeit berücksichtigen, die erforderlich sind, um den Status zwischen Anforderungen aufrechtzuerhalten. Kein Wunder, dass der Fortschritt so lange gedauert hat. Einige sehr kluge / talentierte Leute haben jahrelang die fundamentalen Mängel / Schwächen einer naiven Spezifikation herausgearbeitet.
Evan Plaice
79

In gewisser Hinsicht hatte er recht. Die ursprünglichen (vorab festgelegten) Versionen von HTML, HTTP und URL wurden von Amateuren (keine Standardleute) entwickelt. Und es gibt Aspekte der jeweiligen Designs ... und der nachfolgenden (Original-) Spezifikationen ..., die (um es höflich auszudrücken) nicht so gut sind, wie sie hätten sein können. Zum Beispiel:

  • HTML hat die Struktur / den Inhalt nicht von der Präsentation getrennt, und es waren eine Reihe von Überarbeitungen ... und zusätzliche Spezifikationen (CSS) erforderlich, um dies zu beheben.

  • HTTP 1.0 war sehr ineffizient und erforderte für jedes abgerufene "Dokument" eine neue TCP-Verbindung.

  • Die URL-Spezifikation war eigentlich ein Versuch, eine Spezifikation für etwas rückgängig zu machen, das im Wesentlichen ad hoc und inkonsistent war. Es gibt immer noch Lücken im Bereich der Definition von Schemata, und die Syntaxregeln für URLs (z. B. was wo maskiert werden muss) sind barock.

Und wenn es früher mehr "professionelle" Standards gegeben hätte, wären viele dieser "Fehltritte" möglicherweise nicht gemacht worden . (Natürlich werden wir es nie erfahren.)

Allerdings hat die Bahn prächtig gelungen , trotz dieser Dinge. Und alle Verdienste sollten den Menschen zuteil werden, die es möglich gemacht haben. Ob sie zu dieser Zeit "Amateure" waren oder nicht, sie sind jetzt definitiv keine Amateure.

Stephen C
quelle
29
gibt es auch das Problem , dass HTML durch den Browser - Krieg verschmutzt wurde
Ratsche Freak
3
Dies ist Teil meiner eigenen Unzufriedenheit mit den aktuellen Standards. Ich kann nicht anders, als zu glauben, dass dies etwas ist, das wir mit den Vorteilen sowohl der Erfahrung als auch der Rückschau und den aktuellen technischen Fähigkeiten überdenken müssen.
greyfade
3
@greyfade - Leider wird das W3C durch 1) Millionen älterer Webserver-Installationen, Milliarden älterer Webseiten und 2) Unternehmen, die mehr daran interessiert sind, den "kommerziellen Vorteil" zu nutzen, als Dinge zu reparieren, in diesem Ziel schwer behindert.
Stephen C
3
@StephenC: Trotzdem würde ich die Bemühungen um neue, bessere Standards nachdrücklich unterstützen.
greyfade
1
@greyfade Das ist die Sache mit dem Internet auch; Millionen von Routern mit IP / TCP-Stack und OSI-Modell, ein besseres und standardisiertes Modell wird nicht übernommen.
m3th0dman
27

Es scheint an einer grundsätzlichen Meinungsverschiedenheit zwischen Alan Kay und den Leuten (vor allem Tim Berners-Lee) zu liegen, die das Web entworfen haben, wie ein solches System funktionieren sollte.

Der ideale Browser sollte laut Kay eigentlich ein Mini-Betriebssystem mit nur einer Aufgabe sein: Aus dem Internet heruntergeladenen Code sicher ausführen. In Kays Design besteht das Web nicht aus Seiten, sondern aus Black-Box- "Objekten", die jede Art von Code enthalten können (sofern dieser sicher ist). Aus diesem Grund sollte ein Browser keine Funktionen haben. Ein Browser würde keinen HTML-Parser oder eine Rendering-Engine benötigen, da all dies von den Objekten implementiert werden sollte. Dies ist auch der Grund, warum er keine Standards zu mögen scheint. Wenn der Inhalt nicht vom Browser, sondern vom Objekt selbst gerendert wird, ist kein Standard erforderlich.

Offensichtlich wäre dies immens leistungsfähiger als das heutige Web, in dem Seiten durch die Fehler und Einschränkungen der aktuellen Browser und Webstandards eingeschränkt werden.

Die Philosophie von Tim Berners-Lee, dem Erfinder des Webs, ist fast genau das Gegenteil. Das Dokument " Das Prinzip der geringsten Leistung " umreißt die Entwurfsprinzipien, die HTTP, HTML, URLs usw. zugrunde liegen. Er weist auf die Vorteile von Einschränkungen hin. Beispielsweise ist es einfacher, eine gut spezifizierte deklarative Sprache wie HTML zu analysieren, was Suchmaschinen wie Google ermöglicht. In Kays Web ist die Indizierung von Black-Box-Objekten nicht wirklich möglich. Das Fehlen von Einschränkungen für die Objekte macht sie also weniger nützlich. Wie wertvoll sind mächtige Objekte, wenn Sie sie nicht finden können? Und ohne einen Standardbegriff von Links und URLs könnte der Googles-Page-Rank-Algorithmus nicht funktionieren. Und auch keine Lesezeichen für diese Angelegenheit.

Ein weiteres Problem ist die Inhaltserstellung. Jetzt haben wir verschiedene Tools, aber von Anfang an konnte jeder Amateur lernen, eine HTML-Seite im Editor zu erstellen. Dies ist es, was das Web zum Kickstart brachte und es wie ein Lauffeuer verbreitete. Überlegen Sie, ob Sie eine Webseite nur dann erstellen können, wenn Sie die Programmierung Ihrer eigenen Rendering-Engine starten müssen. Die Eintrittsbarriere wäre immens.

Java-Applets und Silverlight ähneln in gewissem Maße Kays Vision. Beide Systeme sind viel flexibler und leistungsfähiger als das Internet (da Sie einen Browser darin implementieren könnten), leiden jedoch unter den oben beschriebenen Problemen. Und beide Technologien sind im Grunde genommen tot im Wasser.

Tim Berners-Lee war ein Informatiker, der Erfahrung mit Netzwerken und Informationssystemen hatte, bevor er das Web erfand. Es scheint, dass Kay die Ideen hinter dem Web nicht versteht, und deshalb glaubt er, dass die Designer Amateure ohne Kenntnisse der Computergeschichte sind. Aber Tim Berners-Lee war bestimmt kein Amateur.

JacquesB
quelle
6
+1. Eine Menge von dem, was Alan Kay sagt, lässt ihn die Art von Person erscheinen, die den alten Witz über den Unterschied zwischen Theorie und Praxis nicht verstehen würde. Er hat im Laufe der Jahre viele großartige Theorien entwickelt, die in der Praxis schrecklich versagt haben und auf dem "Marktplatz der Ideen" von weniger theoretisch hübschen Systemen, die tatsächlich gut funktionieren, gründlich übertroffen wurden, und Kay's schien das nie wirklich zu verstehen.
Mason Wheeler
2
msgstr "gut spezifizierte deklarative Sprache wie HTML". Das ist reich
Andy
2
Für den vorgesehenen Zweck, Hypertext, ist HTML in Ordnung. Aber als Anwendungsplattform scheitert es kläglich. Der einzige Vorteil war keine Bereitstellung und Plattformunabhängigkeit. Suchen ist nicht das einzige, was Menschen an einem Computer tun. Finanzplanung, Spiele, soziale Interaktionen usw. Wen interessiert es, wenn ich mein Blackjack-Spiel nicht durchsuchen kann? Bei der Wahl zwischen Web-App und mobiler App entscheiden sich die Benutzer überwiegend für die native App. Dafür gibt es einen Grund.
Andy
2
Zweifellos sind native Anwendungen leistungsfähiger, aber das ist nicht wirklich die Frage. Laut Kay sollte das Web nur von nativen Apps betrieben werden, überhaupt kein HTML. Ein solches Web wäre niemals gestartet.
JacquesB
3
@Pacerier: Wir hatten bereits vor Jahrzehnten die Möglichkeit, all das mit Java-Applets und mit ActiveX, Silverlight und so weiter zu tun. Das Web ist überhaupt nicht behindert, da es Sie nicht auf HTML beschränkt. Es kann jedes Medienformat unterstützen, einschließlich Code wie Java-Applets. Es wird nur aus den Gründen, die ich in der Antwort darlege, nicht sehr häufig verwendet.
JacquesB
22

Ich las dies, als Kay die Protokolle der niedrigeren Ebene nicht kannte, um anzunehmen, dass sie wesentlich sauberer sind als das Web der höheren Ebene. Die Ära „Von Profis entworfen“, von der er spricht, hatte immer noch große Probleme mit der Sicherheit (Spoofing ist immer noch zu einfach), der Zuverlässigkeit und der Leistung, weshalb immer noch neue Arbeiten durchgeführt werden, um alles für Verbindungen mit hoher Geschwindigkeit oder hohem Paketverlust abzustimmen. Gehen Sie noch ein wenig weiter zurück und Hostnamen wurden aufgelöst, indem Sie eine Textdatei durchsuchten, die die Leute verteilen mussten!

Beide Systeme sind komplexe heterogene Systeme und haben erhebliche Probleme mit der Abwärtskompatibilität, wenn Sie eine Warze reparieren möchten. Es ist leicht, Probleme zu erkennen, schwer zu beheben, und wie die Reihe der gescheiterten Konkurrenten zeigt, ist es überraschend schwer, etwas Äquivalentes zu entwerfen, ohne die gleiche Lernkurve zu durchlaufen.

Wie ein Biologe einem Befürworter eines intelligenten Designs vielleicht sagt, wenn Sie sich eines davon ansehen und feststellen, dass es sich um ein geniales Design handelt, schauen Sie nicht genau genug hin.

Chris Adams
quelle
2
Die .hosts-Datei wird immer noch auf so ziemlich jeder Plattform verwendet. Es ist praktisch, um eine bösartige Website auf die schwarze Liste zu setzen.
Rob K
@RobK Definitiv - dieser Verlauf ist tiefgreifend, auch wenn wir nicht tools.ietf.org/html/rfc953 verwenden , um ihn zu aktualisieren. In diesen Tagen frage ich mich jedoch, ob Malware die häufigste Verwendung ist.
Chris Adams
10

Ahh ja, ich habe Alan diese Frage einige Male gestellt, zum Beispiel als er in Potsdam war und auf der Fonc-Mailingliste stand . Hier ist ein neueres Zitat aus der Liste, das ich sehr gut zusammengefasst habe:

Nach buchstäblich Jahrzehnten des Versuchs, mehr und mehr Funktionen hinzuzufügen und noch nicht mit der Software übereinzustimmen, als sie auf den Maschinen lief, auf denen der ursprüngliche Browser ausgeführt wurde, kommen sie langsam auf die Idee, dass sie von anderen geschriebene Programme sicher ausführen sollten. Erst in den letzten Jahren - mit Native Client in Chrome - können wirklich schnelle Programme ohne Erlaubnis eines SysAdmin sicher als ausführbare Dateien heruntergeladen werden.

Ich verstehe seine verschiedenen Antworten so, dass er meint, Webbrowser sollten keine (HTML) -Dokumente anzeigen, möglicherweise angereichert, sondern einfach Programme ausführen. Ich persönlich denke, dass er sich darin irrt, obwohl ich sehen kann, woher er kommt. Mit ActiveX, Java-Applets, Flash und jetzt "reichen" JavaScript-Apps hatten wir schon so etwas, und die Erfahrung war im Allgemeinen nicht gut, und meine persönliche Meinung ist, dass die meisten JavaScript-Websites schon jetzt einen Schritt zurück von gutem HTML darstellen Websites, kein Zwischenstopp vorwärts.

Theoretisch macht natürlich alles Sinn: Der Versuch, die Interaktivität schrittweise zu dem hinzuzufügen, was im Grunde genommen Dokumentbeschreibungssprache ist, ist rückwärts und entspricht dem Hinzufügen von immer mehr Epizyklen zum ptolemäischen System, während die "richtige" Antwort dies herausfindet (reichhaltig) ) Text ist ein Sonderfall eines Programms und deshalb sollten wir nur Programme senden.

Angesichts des praktischen Erfolgs des WWW halte ich es jedoch für ratsam, unsere Theorien zu modifizieren, anstatt das WWW dafür zu kritisieren, dass die Galle nicht unseren Theorien entspricht.

mpw
quelle
1
Ich komme zu dieser Überzeugung um, siehe meinen Kommentar zur ursprünglichen Frage. Native, sichere Codeausführung im Browser (als "Betriebssystem") und nicht als dynamischere Version von (vielleicht zweifellos) grundlegend statischen Dokumenten, denke ich, ist das, worum es ihm geht.
Kalaracey
1
Ja, aber wir haben bereits ein Betriebssystem und können bereits Programme aus dem Internet herunterladen, um sie auf unserem Betriebssystem auszuführen. Wenn wir diese Funktionalität wünschen, haben wir sie bereits! Der Browser, IMHO, erfüllt also ein anderes Bedürfnis für Benutzer: Die Internet-Nutzung als App-Bereitstellungsplattform scheint eher von der Anbieterseite gesteuert zu werden (coole, glänzende Technologie + einfachere Bereitstellung).
mpw
3
"Ja, aber wir haben bereits ein Betriebssystem und können bereits Programme aus dem Internet herunterladen, um sie auf unserem Betriebssystem auszuführen ..." Aber Vertrauen ist das Problem. Sie würden nicht die gleiche Anzahl nativer Anwendungen an einem Tag auf Ihren Computer herunterladen wie die Anzahl der von Ihnen besuchten Websites. Dies liegt einfach daran, dass Sie nur Anwendungen herunterladen, denen Sie vertrauen (der Hersteller der App) / überprüfen (MD5 / SHA). t Laden Sie blindlings Dutzende (Hunderte) von ihnen von Personen herunter, die Sie nicht kennen. OTOH, mit dem Browser als Betriebssystem erhalten Sie das Beste aus beiden Welten!
Kalaracey
@mpw nein, das erfüllt der Browser nicht. Brower "Apps" sind schrecklich, weil sie versuchen, den Browser als etwas zu missbrauchen, was es nicht ist. Es bietet die grundlegendsten Steuerelemente, und JavaScript wird verwendet, um zu versuchen, alles in der Nähe des umfangreichen Steuerelementsatzes von Desktops zu platzieren. Was kays vision vorantreibt, sind die App Stores von Microsoft, Apple und Google. Ich vermute, dass normale Benutzer weniger Browser verwenden werden, da die Zahl der Apps weiter steigt. Das Web wird immer noch da sein, aber es wird hinter den Kulissen von Apps genutzt.
Andy
@mpw, das sollten wir haben, aber jetzt haben wir es noch nicht . Wie lautet die URI für die Ausführung von Eclipse in meinem Browser? Da ist gar nichts. Das ist das Problem. Dies ist der Unterschied zwischen Alans Vision und Tims kurzsichtiger viraler Idee. Mit Tims lahmer Idee müssen Sie Eclipse mithilfe eines URI von Ihrem Browser auf Ihr Betriebssystem herunterladen und dann manuell außerhalb des Browsers ausführen. Mit Alans Idee können Sie Eclipse einfach über einen URI herunterladen und im Cache ausführen. Tim hat das Web nicht erfunden , er hat es mit seinem lahmen, schäbigen "gefälschten" Produkt getötet. ...
Pacerier
4

Man kann nicht wirklich sagen, dass das Internet oder das Web von Amateuren oder Profis erfunden wurde, da diese Bereiche absolut neu sind. Alle Menschen waren Amateur in Internet-Protokollen, bevor sie erfunden wurden. Aus der Sicht der Internet-Erfinder waren dies auch Amateure.

Wenn wir wirklich urteilsfähig sein wollten, war das Internet doch nicht so toll: IPv6 wird benötigt. Und es geht nicht nur um den Adressraum; IPv6 hat einen neuen Header mit weniger und unterschiedlichen Feldern.

Ein weiterer großer Unterschied zum Internet und zum Web besteht darin, wie sie vom Programmierer wahrgenommen werden. Ein Programmierer interagiert selten mit dem Internet. Aus seiner Sicht haben Sie in IP Adressen und in TCP zusätzlich einen Port und Sie können sicher sein, dass die Pakete versendet werden. Das war's auch schon ... Während der Programmierer mit dem Web eine intensivere Interaktion hat: HTTP-Methoden, Header, HTML, URLs usw. Es ist normal, die Grenzen von etwas mit viel mehr Möglichkeiten zu sehen als in etwas mit fast überhaupt keinen Möglichkeiten. Damit möchte ich nicht sagen, dass das Internet einfach ist:

In Bezug auf die Größe dieser beiden Technologien wird das Internet so geschätzt, weil es eine sehr skalierbare Technologie ist und die Idee der Schichtung sehr gut war. Grundsätzlich können Sie auf den unteren Ebenen jede gewünschte Technologie verwenden (WLAN, Ethernet, Token Ring usw.) und IP als Standard-Zwischenprotokoll verwenden, auf dem TCP und UDP platziert sind. Darüber können Sie im Grunde das gewünschte Anwendungsprotokoll hinzufügen.

Die Größe des Webs hängt eng mit der Größe des Internets zusammen, da das Web stark vom Internet abhängig ist und den TCP / IP-Stack darunter hat. Aber ich würde sagen, das Internet ist auch vom Web abhängig. Das Internet existierte 20 Jahre vor dem Web und war eine Art anonym, aber 20 Jahre nach dem Web ist das Internet allgegenwärtig und all dies dank des Web.

m3th0dman
quelle
10
Das ist nicht ganz richtig. Vinton Cerf studierte Datenpaketvernetzung an der Graduiertenschule und Bob Kahn arbeitete für das ARPA-Büro für Informationsverarbeitungstechnologien. Beide waren also Profis, als sie TCP / IP entwickelten. Berners-Lee hingegen befasste sich mit Teilchenphysik.
2
@GrahamLee Berners-Lee war kein Physiker; wikipedia zufolge schlug er 1980 am CERN "ein Projekt vor, das auf dem Konzept des Hypertexts basiert, um den Austausch und die Aktualisierung von Informationen zwischen Forschern zu erleichtern". Von 1981 bis 1984 "arbeitete er an einem Echtzeit-Remoteprozeduraufruf, der ihm Erfahrung in Computernetzwerken brachte." Also von 1989-1990 er nicht ein Amateur war ... beiden Zitate haben Referenzen en.wikipedia.org/wiki/Tim_Berners-Lee
m3th0dman
Dann hat die Antwort mehr Probleme: Jeder, der von "Alle Menschen waren Amateur" abgedeckt wird, entpuppt sich als Unamateur :-(
@ AbrahamLee Wenn wir Absolutisten sein wollen; Ich neige dazu , zu glauben , dass von Neumann wirklich kein Profi auf dem Gebiet der Computerarchitektur war , als er dies schrieb - en.wikipedia.org/wiki/First_Draft_of_a_Report_on_the_EDVAC - im Grunde ist es nicht einmal fertig war und stellt die Blaupause für die meisten die Computerarchitektur verwendet heute. Zu dieser Zeit war von Neumann mit dem Manhattan-Projekt beschäftigt und davor gab es keine Computerarchitektur (oder wir konnten nach Babbage gehen und dasselbe sagen).
m3th0dman
1
Nein, er war kein Mathematiker. Obwohl die Leute seit Jahrzehnten nach Wegen aus den Zwängen von Neumanns (oder besser gesagt Turing) Maschinen suchen
4

Ich glaube, er zeigte auf etwas weniger Dunkles - TBL wusste nichts über die Hypertext-Arbeit, die in den 60er Jahren stattgefunden hatte, so dass diese Arbeit das Design des Webs nicht beeinflusste. Er spricht oft von Computer als Popkultur, in der die Praktizierenden ihre Geschichte nicht kennen und "den platten Reifen immer wieder neu erfinden".

Gregor McNish
quelle
4

Das Internet hat sich als Prototyp des von Baran, Pouzin und Zeitgenossen entdeckten Paketvermittlungskonzepts bemerkenswert gut bewährt. Entgegen der weit verbreiteten Meinung bedeutet dies nicht, dass IPv4 als überliefert die perfekte Protokollarchitektur ist oder dass IPv6 der richtige Weg ist. John Day, der maßgeblich an der Entwicklung von ARPANET und IP beteiligt war, erläutert dies in seinem 2008 erschienenen Buch Patterns of Network Architecture .

Wie für das Web, in den Worten von Richard Gabriel, "Schlimmer ist besser". Tim Berners-Lees Bericht Weaving The Web ist anständig. Wie das Web von Gillies & Cailliau ins Leben gerufen wurde, ist dichter und weniger lesbar, weist jedoch viele Details und einige faszinierende Verknüpfungen mit anderen Ereignissen im Bereich Personal Computing auf. Ich glaube nicht, dass Kay genug Anerkennung dafür gibt.

vdm
quelle
1

Ich weiß nicht, ein Teil des Nicht-Web-Internets hat einige schreckliche Warzen. E-Mail war vor dem Web und ist Teil des Internets. Der Standard ist sehr offen und erfordert viele zusätzliche Hacks, um das Spam-Problem anzugehen (aber nicht zu lösen).

Rory
quelle
3
Ich denke, mit dem Internet meinte er TCP / IP und mit dem Internet eher http / html / javascript als E-Mail. Er spricht weiter über den Browser.
Kalaracey
E-Mail bezieht sich genau wie das Web auf das Internet. Daher ist es einfach ungenau, das Web als etwas Besonderes zu bezeichnen, das E-Mail als "Teil des Internets" einschließt, wie Sie es so deutlich ausdrücken. Darüber hinaus sagte Kay, dass wir das Netz für selbstverständlich halten, genauso wie wir den Pazifischen Ozean. Die Tatsache, dass Sie in Ihrer Antwort über E-Mails sprechen, beweist genau das, worum es geht. :-)
Der Pellmeister
0

"Amateur" bezieht sich nicht auf den Mangel an Programmierkenntnissen, sondern auf den Mangel an Vorstellungskraft.

Das grundlegende Problem mit Tim Berners-Lees Web ist, dass es nie für Entwickler erstellt wurde . (Dies steht in krassem Gegensatz zu Alan Kays Web.)

Tims Bahn wurde für Nicht-Programmierer gebaut , die im Web veröffentlichen würden direkt durch Dilettantismus mit Dateien mit ihren Zeitschriften / Artikel durchsetzt mit HT-Markup-Sprache: Es ist wie die 1980er Jahre Wordperfect und MS-Word, außer sie würden "verwenden <b> < / b> "anstatt auf das BSymbol zu klicken und es als offenes" .htm "-Format statt als proprietäres" .doc "-Format zu speichern. Die Erfindung ist hier das " <a> " -Tag, mit dem diese statischen Journale / Artikel global verknüpft werden können.

Und das ist es, das ist die gesamte Web-Vision von Tim: Sein Web ist eine bloße globale Autobahn von miteinander verbundenen statischen Gegenständen. Wenn Sie das Geld hätten, könnten Sie vielleicht einen Editor wie Dreamweaver, Nexus , Publisher, Citydesk ( ? ) Usw. kaufen , mit dem Sie all diese " <b> </ b> " - Tags erstellen können , indem Sie auf das BSymbol klicken .

..Und wir sehen, wie seine Vision nicht wie beabsichtigt funktionierte. Tatsächlich gibt es von Anfang an mächtige rote Flaggen, die die Welt weit mehr als das, was Tims Vision bietet, haben wollte:

  • Rote Fahne 1: Der rasante Aufstieg von "Smart CGI" (PHP).

  • Rote Fahne 2: Der rasante Aufstieg von "Smart HTML" (Javascript).

In diesen Tagen gibt es noch mehr rote Fahnen wie den Aufstieg von Chrome-OS-ist-der-Browser-ist-der-OS ( genau das , was Alan Kay für den Browser vorgesehen hatte) und WASM / Browser-Erweiterungen.


Im Gegensatz zu Tims Web ist Alan Kays Web ein dynamisches Web, das für Programmierer entwickelt wurde: eine globale Autobahn von miteinander verknüpften dynamischen Programmen. Nicht- Programmierer , die eine "Seite" benötigen, veröffentlichen einfach eine, indem sie ein Programm im Web verwenden . (Und das Programm selbst wurde offensichtlich von Programmierern geschrieben, nicht von HTML-Spielern.)

Dies ist genau der Status Quo von Tims Web in den 2000er Jahren, aber wenn wir Alans Web hätten, wäre dies in den 1990er Jahren der Fall gewesen Haben sie Recht, als das Web in den 1990er Jahren begann.

Ähnlich werden wir Programme wie Steam, Visual Studio, Warcraft und VM Ware in den 2040er Jahren nicht mehr im Web haben, sondern jetzt in den 2010er Jahren. (Die Verzögerung von mehreren Jahrzehnten ist darauf zurückzuführen, dass diese Programme bereits für das Betriebssystem-ist-nicht-der-Browser erstellt wurden, was den wirtschaftlichen Anreiz verringert, sie auf dem Betriebssystem-ist-der-Browser-ist-der-neu zu erstellen -OS.)

Also das ist , was die Leute meinen , wenn sie sagen , Tim Berners-Lee das wahre Dynamic Web getötet hatte durch seine „schäbig statische Web“ auf der Welt drängen. Schon mal was von den Begriffen "Web 2.0", "Web 3.0" gehört? Sie wären einfach "The Web" genannt worden, wenn wir Alans Web anstelle von Tims Web gehabt hätten. Aber Tims Web muss ständig überarbeitet werden, weil es so statisch ist .

Offensichtlich ist nicht jede Hoffnung verloren, da das Web so umgebaut werden kann, wie es die Browser-Anbieter definieren. Aber der springende Punkt ist, dass all diese Dinge, die sie im Internet "erfinden", bereits vor langer Zeit erfunden wurden. Wir könnten heute schon alles haben, nicht morgen.

Pacerier
quelle