Ich habe gerade einen AI & Data Mining Kurs begonnen und das Buch. AI Application Programming, beginnt mit einem Überblick über die Geschichte der AI. Das erste Kapitel befasst sich mit der Geschichte der KI von den 1940er Jahren bis heute. Eine besondere Aussage ist mir aufgefallen:
[In den 60ern] KI-Ingenieure haben zu viel versprochen und zu wenig geliefert ...
Was war der Grund für das Überbewusstsein? Lag es an mathematischen Vorhersagemodellen, die zeigten, dass ein Durchbruch unmittelbar bevorstand, oder an der ständig wachsenden Hardware-Fähigkeit, diese Vorteile zu nutzen?
Antworten:
Meine persönliche Meinung ist, dass es an Hybris lag . In den 60er und 70er Jahren gingen einige mächtige Egos durch die Hallen von MIT, Stanford usw. und sie wussten einfach, dass sie dieses Problem gelöst hatten. Recht.
Obwohl ich damals nicht Teil dieses Universums war, arbeitete ich Mitte bis Ende der 80er Jahre mit Ähnlichkeitssuche. Unsere Arbeit basierte ursprünglich auf Untersuchungen von Gerard Salton in Cornell in den 60er Jahren, die gewichtete Attributvektoren zur Darstellung von Dokumenten und Abfragen verwendeten. Es war tatsächlich eine brauchbare Annäherung, aber als neuronale Netze in Flammen ging nach unten (zumindest bis sie entdeckt Backpropagation ), Salton Arbeit mit ihm wegen der Ähnlichkeiten enthalten war (Wortspiel beabsichtigt) auf neuronale Netze. Er versuchte, etwas anderes zu machen, aber es gab mehrere Jahre, in denen er mit den anderen verwechselt wurde.
Jedes Mal, wenn jemand eine Lösung für die Current Brick Wall ™ findet, ist er sehr aufgeregt und erklärt AI als gelöstes Problem. Nur ist es nicht. Denn hinter dieser Mauer ist eine andere. Dieser Zyklus hat sich immer und immer wieder wiederholt und nicht nur in der KI. Ich glaube fest daran , dass alle potenziellen Informatiker und Ingenieure sollten werden benötigt sehr ein Semester lang Klasse in der Geschichte der Informatik, mit besonderem Schwerpunkt auf der Anzahl von Next Big Things ™ , die stiegen wie Raketen ... und dann machten zu nehmen großer Krater im Talboden.
Nachtrag: Ich habe das Labor Day-Wochenende mit einem alten Freund verbracht und wir haben ein wenig darüber gesprochen. Der Kontext - herauszufinden, was das bedeutet, wie man es darstellt und wie man es dann verwendet - stellte sich als möglicherweise größte Hürde heraus, die es zu überwinden gilt. Und je länger Sie es betrachten, desto größer wird eine Hürde. Der Mensch ist in der Lage, ein erstaunliches, nahezu augenblickliches Teilmuster-Matching von "was passiert" mit einem riesigen Vorrat von "was passiert ist" durchzuführen und dann dieses Wissen über die Vergangenheit mit der gegenwärtigen Situation zu kombinieren, um einen Kontext zu schaffen, in dem Verständnis entsteht kann zum Handeln führen. Zum Beispiel können wir es als leistungsstarken Filter für "Dinge, die wir ignorieren können / nicht können" verwenden, während wir den Waldo-Grad hinunterflitzen bei 60 mph mit Verkehr 4 Spuren nebeneinander und nur 3 oder 4 Fuß (oder weniger!) getrennt.
Auf dem Spektrum von
stuff > data > information > knowledge > understanding > judgement
bemühen wir uns immer noch, zu den Informations- / Wissensschritten zu gelangen, und selbst das ist auf stark eingeschränkte Diskursbereiche beschränkt .quelle
Ganz einfach, sie haben das Ausmaß des vorliegenden Problems massiv unterschätzt, insbesondere was die kombinatorische Explosion betrifft. Viele KI-Lösungen eignen sich gut für "Spielzeug" -Proben, scheitern jedoch schwer, wenn sie auf Probleme auf menschlicher Ebene skaliert werden.
Sie waren wohl auch einfach unerfahren. KI als Feld war (relativ) erst im Hinblick auf praktische Anwendungen erfunden worden, daher hatte niemand bedeutende Erfahrung darin, Theorie auf irgendetwas anzuwenden.
quelle
Ich kann mir ein paar Gründe vorstellen.
AI erlebte mit einigen der in den späten 50ern und frühen 60ern in Angriff genommenen Spielzeugprobleme einen derart raschen Erfolg, dass sie das Erreichte überschätzten. ELIZA und SHRDLU haben die Leute verblüfft, obwohl es sich um relativ einfache Programme handelt. Leider war ein großer Teil dessen, was diese Programme umwerfend machte, wirklich nur eine Neuheit. Niemand ist heute sehr beeindruckt von einem Gespräch mit ELIZA, aber damals hielten die Leute es für beinahe wunderbar.
Auch wenn Probleme "gelöst" oder zumindest lösbar werden, werden sie von den Leuten nicht mehr als KI betrachtet. Codeoptimierung war früher ein KI-Problem. Das statistische Lernen entwickelte sich aus der KI zu einer eigenen Spezialität und nahm die Spracherkennung mit. Wenn Data Mining zum Mainstream wird, verliert es seine Verbindung zur KI. Mit der Zeit vergisst die KI ihre Erfolge und bleibt an den unlösbaren und unlösbaren Problemen hängen, und es sieht aus wie ein Flop.
quelle
Ich denke, die Menschen in den 60er Jahren haben ihre eigene menschliche Erfahrung genutzt, um Probleme in "harte Probleme" und "leichte Probleme" zu unterteilen: Dinge wie das Gewinnen von Schach, das Lösen logischer Rätsel und das Lösen mathematischer Gleichungen erscheinen uns Menschen schwierig. Dinge wie das Verstehen natürlicher Sprachen oder das Finden der Umrisse von Objekten in einem Bild scheinen einfach zu sein, da unser Gehirn die gesamte Arbeit ohne bewusste Anstrengung erledigt. Wenn wir versuchen zu erklären, wie wir diese Dinge tun, finden wir einfache Erklärungen wie "Englische Sätze haben immer die Struktur subject-predicate-object, wobei subject ein einfacher Begriff oder eine Phrase sein kann ..." oder "I'm nach Kanten suchen und mit Objektgrenzen verbinden ". Heute wissen wir, dass die Dinge nicht so einfach sind, sondern nur, weil all die einfachen (und viele weniger einfachen) Lösungen ausprobiert wurden und nicht. '
Außerdem hat dieser Irrtum in den 60er Jahren nicht begonnen: Es gibt Jahrhunderte der Forschung, wie diese "harten Probleme" (Heuristik, Spieltheorie, Entscheidungstheorie, Mathematik, Logik usw.) gelöst werden können, aber ich bin mir nicht sicher, ob es jemals jemanden gegeben hat haben sich die Mühe gemacht zu untersuchen, wie natürliche Sprachen vor den 1950er Jahren analysiert werden könnten.
Und auch heute noch finden sich regelmäßig Fragen zum Stapelüberlauf, bei denen gefragt wird, wie englische Sätze analysiert, das Alter einer Person in einem Bild geschätzt oder beurteilt werden kann, ob ein Bild "arbeitssicher" ist oder ob zwei Bilder dasselbe zeigen . Ich glaube nicht , die Leute , die diese Fragen von zu viel Überheblichkeit oder Arroganz leiden fragen: Diese Probleme scheinen nur so einfach, es ist unglaublich, dass es ist kein einfacher Algorithmus , sie zu lösen.
quelle
AI hat eine lange Geschichte von Enttäuschungen hinter sich, aber ich denke, viele Kritiker vereinfachen das, was passiert ist, oftmals zu sehr, zum Beispiel mit Ihrem Zitat "Ingenieure aus den 1960er Jahren zu viel versprochen und zu wenig geliefert".
In den 60er Jahren war AI die Domäne einer relativ kleinen Gruppe von Forschern (das Gebiet war noch nicht so weit entwickelt, dass man es als Ingenieurwesen bezeichnen konnte), hauptsächlich an Universitäten, und nur sehr wenige von ihnen waren versierte Programmierer.
Die plötzliche Verfügbarkeit von Computern in den 1950er Jahren hatte große Erwartungen an die Automatisierung geweckt, insbesondere bei der maschinellen Übersetzung von natürlicher Sprache, beim Schachspielen und ähnlichen Problemen. Sie werden vielleicht einige tatsächliche Erfolgsvorhersagen aus dieser Zeit finden, aber die Versprechungen kamen unvermeidlich, BEVOR sich jemand eingehend mit einem dieser Probleme befasste. (Oder sie gingen fälschlicherweise davon aus, dass ein Erfolg den anderen garantiert, zum Beispiel, dass sie in der Lage sind, gutes Schach zu spielen, nachdem Samuel so viel Erfolg mit Dame hatte.)
Seien Sie auch vorsichtig bei Behauptungen wie "sie sagten", "sie fühlten", "sie dachten" usw .; retrospektive Meinungen (wie diese!) sind leicht zu finden, während dokumentierte Beweise für tatsächliche Vorhersagen von "Experten" (die tatsächlich versucht haben, ein bestimmtes Problem zu lösen) viel schwerer zu finden sind.
Zu vielversprechend und zu wenig zu liefern war schon immer ein Symptom der Softwareentwicklung, unabhängig von dem speziellen Bereich, in dem die Programmierung angewendet wird. Eine Hauptschwierigkeit bei KI besteht darin, dass nicht-triviale Probleme die Fähigkeiten der meisten Ingenieure übersteigen. Zum Beispiel, obwohl Charles E. Grants Antwort ELIZA und SHRDLU als "relativ einfach" einstuft, würde ich sagen, dass dies nur für ELIZA gilt (was die meisten Programmierstudenten im ersten Jahr wahrscheinlich ohne große Schwierigkeiten umsetzen könnten). Andererseits ist SHRDLU ein großes, äußerst ausgeklügeltes Programm, dessen Implementierung die meisten Programmierer nur sehr schwer erfinden können. In der Tat konnten zwei Teams von Universitätsstudenten nicht einmal den Quellcode wieder vollständig zum Laufen bringen, und SHRDLU-ähnliche Fähigkeiten sind heute, über 40 Jahre später, immer noch schwer zu finden.
Da KI wahrscheinlich eines der am wenigsten verstandenen und am schwersten zu lösenden Probleme ist, bei denen Computer zum Einsatz kommen können, würde ich sagen, dass die Fortschritte in der KI im Allgemeinen auf dem Niveau des Kurses liegen. Es gibt immer noch hohe Erwartungen und unsere Hardware-Geschwindigkeit und -Kapazitäten haben seit den 60er Jahren enorm zugenommen, aber ich würde sagen, dass sich die Fähigkeiten und das Verständnis der Ingenieure für KI nicht allzu sehr verbessern Wahrscheinlich ist es noch ein langer Weg, und vielversprechende und zu geringe Lieferungen werden wahrscheinlich noch einige Zeit anhalten.
quelle
Ich denke, der Grund war Arroganz. Wäre ich in den 60ern Ingenieur bei AI gewesen, wäre ich selbst ziemlich arrogant gewesen.
Ich denke, um großartige Dinge zu erreichen, muss man nach großartigen Dingen greifen. So vielversprechend ist nicht unbedingt eine schlechte Sache, solange Sie das Limit nicht überschreiten. Wissenschaftler von heute versprechen Dinge, von denen ich nicht glaube, dass sie möglich sein werden, aber wenn sie nicht danach greifen, werden wir verpassen, was als Ergebnis erreicht wird.
quelle
Es kann sehr schwierig sein, irgendwohin zu gelangen, wenn Sie nicht wissen, wohin Sie wollen.
Wenn wir eine vernünftige Erklärung darüber hätten, was Intelligenz ist und wie sie funktioniert, hätten wir vielleicht eine Chance, sie effektiv nachzuahmen. Der Turing-Test ist faszinierend und nützlich, reicht jedoch wahrscheinlich nicht aus, um die wahre Intelligenz zu modellieren. Nach allem, was wir wissen, könnte ein "Modell" der Intelligenz auch für echte Intelligenz nicht ausreichen.
quelle
Nun, ich würde sagen, es ist mehr oder weniger dasselbe, was gerade mit OWL passiert. Schauen Sie sich um und versuchen Sie, Parallelen zu ziehen.
Klingt auf dem Papier gut, scheint bei Spielzeugproblemen gut zu funktionieren, wird bei den meisten realen Daten unglaublich kompliziert.
quelle
Zusätzlich zu den guten Antworten wurden zwei Bemerkungen gemacht:
Einige Zitate des Tages scheinen zu implizieren, dass viele der Forscher dachten, dass die trivialen Lösungen vergrößert werden könnten, sobald schnellere Computer entworfen wurden. Für einige Lernsysteme war dies sehr richtig, aber für die Art von Dingen, von denen ich denke, dass das OP sich darauf bezieht, wurde es im Maßstab wirklich nicht besser.
Zu der Zeit schätzten die Forscher die Komplexität des menschlichen Geistes nur sehr gering ein (konzentrieren Sie sich auf Ideen wie Turing-Test, die Idee, dass Menschen nur einen geringen Prozentsatz ihres Gehirns jemals verwenden, usw.). KI auf dem Niveau eines einfachen Tieres wurde durch einige Maßnahmen erreicht, als die Dinge größer wurden, aber der Sprung zu einer menschlichen KI war viel größer als erwartet. Dies hat einige Forscher dazu veranlasst, Babysysteme und andere wachstums- / evolutionsbasierte Simulationen zu lernen, um diese Lücke zu schließen.
quelle
Ein Grund dafür war der Erfolg, den wir in den 1960er Jahren auf ELSEWHERE hatten. Wir waren gerade ins All gestartet und würden bald einen Mann auf dem Mond landen. Wir hatten gerade Heilmittel für Kinderlähmung und andere schwere Krankheiten entdeckt.
Aber "Künstliche Intelligenz" war ein anderes Tier als die "technischen" Probleme, mit denen wir damals konfrontiert waren. Es war eher ein "logisches" als ein "mechanisches" Problem.
Kurz gesagt, AI (in den 1960er Jahren) war eine Idee, "deren Zeit noch nicht gekommen war". Es dauerte in den folgenden Jahrzehnten weitere Entwicklung, bis es so zugänglich wurde wie die anderen Probleme.
quelle
Ein weiterer Grund kann sein, dass das Beherrschen eines Computers / das Schreiben von Computerprogrammen bei kleinen Kontrollfreaks ein Gefühl der Allmacht hervorruft - tatsächlich schafft man kleine Universen, wenn auch geschlossene.
Dies sowie das Fehlen einer philosophischen / erkenntnistheoretischen Ausbildung und das naive Vertrauen in einfache Erklärungen wie "Intelligenz ist nichts anderes als ..." können zu Hybris führen.
quelle