Ich habe Judea Pearl's The Book of Why gelesen , in dem er erwähnt, dass Deep Learning nur eine verherrlichte Technologie zur Kurvenanpassung ist und keine menschenähnliche Intelligenz erzeugen kann.
Aus seinem Buch gibt es dieses Diagramm, das die drei Ebenen der kognitiven Fähigkeiten veranschaulicht:
Die Idee ist, dass die "Intelligenz", die durch die aktuelle Deep-Learning-Technologie erzeugt wird, nur auf der Ebene der Assoziation liegt. Somit ist die KI bei weitem nicht in der Lage, Fragen zu stellen wie "Wie kann ich Y verwirklichen" (Intervention) und "Was passiert, wenn ich anders gehandelt habe, wird X immer noch auftreten?" (Kontrafakten), und es ist höchst unwahrscheinlich, dass Kurvenanpassungstechniken uns jemals einem höheren Grad an kognitiven Fähigkeiten näher bringen können.
Ich fand sein Argument auf einer intuitiven Ebene überzeugend, aber ich kann keine physikalischen oder mathematischen Gesetze finden, die dieses Argument entweder stützen oder in Zweifel ziehen können.
Gibt es also ein wissenschaftliches / physikalisches / chemisches / biologisches / mathematisches Argument, das verhindert, dass tiefes Lernen jemals eine starke KI (menschenähnliche Intelligenz) hervorbringt?
quelle
Antworten:
Der Kommentar von Judea Pearl aus dem Jahr 2018 zu ACM.org in seinem Buch „ Wirklich intelligente Maschinen bauen, lehren sie Ursache und Wirkung“ durchdringt die Wahrheit.
Wie kann Rationalität von der Liste wichtiger menschlicher Merkmale der Intelligenz ausgeschlossen werden, was diese beiden Behauptungen zusammen bedeuten würden?
Ist das menschliche Gehirn ein Netzwerk hochentwickelter Kurvenmonteure? Marvin Minskys berühmtes Zitat "Das Gehirn ist zufällig eine Fleischmaschine" wurde ohne Beweis angeboten, und seitdem wurde weder ein Beweis für seine Trivialisierung des menschlichen Gehirns noch ein Beweis dafür erbracht, dass das Gehirn außerhalb der Reichweite der Berechenbarkeit von Turing liegt .
Führen Ihre neuronalen Netze beim Lesen dieser Wörter die folgende Folge von Kurvenanpassungen durch?
Die Behauptung, dass die ersten fünf ein Konvergenzmechanismus für ein Modell sind und die gesamte Struktur des maschinellen Lernens nur eine Methode ist, um die Daten an das Modell anzupassen, spricht stark dafür.
In den letzten beiden Punkten bricht das Paradigma zusammen und viele KI-Forscher und Autoren haben zu Recht festgestellt, dass maschinelles Lernen erhebliche Einschränkungen aufweist, wenn es ausschließlich auf mehrschichtigen Perceptrons und Faltungskernen basiert. Darüber hinaus ist der letzte Punkt in seinem aktuellen Zustand stark vereinfacht, wahrscheinlich um Größenordnungen. Selbst wenn Minsky richtig ist, dass ein Computer das ausführen kann, was das Gehirn tut, kann der Prozess des Lesens und Verstehens dieses Absatzes leicht tausend verschiedene Arten einzigartiger Prozesskomponenten in Mustern des internen Workflows mit massiver Parallelität aufweisen. Die Bildgebungstechnologie zeigt diese Wahrscheinlichkeit an. Wir haben Computer, die nur die einfachsten peripheren Schichten modellieren.
Andere Fragen untersuchen hier, ob diese hoch entwickelten Kurvenmonteure Erkenntnis- oder Argumentationselemente ausführen können.
Das Totem von drei im Bild der Frage, Sehen, Tun und Vorstellen, ist nicht besonders vollständig, genau oder aufschlussreich.
Die höheren Formen sind Wertschätzung, Realitätssinn, der über den Rahmen wissenschaftlicher Messungen hinausgeht, berechtigter Zweifel, Liebe, Opfer für das Wohl anderer oder der Menschheit.
Viele erkennen, dass der aktuelle Stand der KI-Technologie bei weitem nicht in der Nähe der Beschaffung eines Systems liegt, das zuverlässig antworten kann: "Wie kann ich Y verwirklichen?" oder "Wenn ich anders gehandelt habe, tritt X dann immer noch auf?"
Es gibt keinen mathematischen Beweis dafür, dass eine Kombination kleiner Kurvenanpassungselemente die Fähigkeit erreichen kann oder nicht, diese Fragen zu beantworten, wie es ein typischer Mensch kann, hauptsächlich weil es kein ausreichendes Verständnis dafür gibt, was Intelligenz ist oder wie man sie in mathematischen Begriffen definiert.
Es ist auch möglich, dass die menschliche Intelligenz überhaupt nicht existiert, dass Verweise darauf auf der religiösen Überzeugung beruhen, dass wir als Spezies höher sind als andere Spezies. Dass wir bevölkern, konsumieren und ausrotten können, ist eigentlich keine sehr intelligente Vorstellung von Intelligenz.
Die Behauptung, dass menschliche Intelligenz eine Anpassung ist, die uns von anderen Säugetieren unterscheidet, steht im Widerspruch dazu, ob wir uns gut anpassen. Wir wurden nicht getestet. Kommen Sie zum nächsten meteorischen globalen Killer mit einer Schockwelle in der Größenordnung des Meteors des Chicxulub-Kraters, gefolgt von einigen tausend Jahren solaren Winters, und wir werden sehen, ob es sich um unser 160.000-jähriges Bestehen oder das 4.000.000.000-jährige Bestehen von Bakterien handelt erweist sich als nachhaltiger. In der Zeitachse des Lebens hat sich die menschliche Intelligenz als adaptives Merkmal noch nicht als bedeutsam erwiesen.
Was an der KI-Entwicklung klar ist, ist, dass andere Arten von Systemen zusammen mit tiefen Lernenden eine Rolle spielen, basierend auf dem mehrschichtigen Perzeptron-Konzept und Faltungskernen, die ausschließlich Oberflächenmonteure sind.
Q-Learning-Komponenten, auf Aufmerksamkeit basierende Komponenten und Komponenten des Langzeit-Kurzzeitgedächtnisses sind ebenfalls ausschließlich Oberflächenmonteure, jedoch nur, indem die Definition der Oberflächenanpassung erheblich erweitert wird. Sie haben adaptive Eigenschaften und Zustände in Echtzeit, so dass sie vollständig sein können.
Fuzzy-Logik-Container, regelbasierte Systeme, Algorithmen mit Markovian-Eigenschaften und viele andere Komponententypen spielen ebenfalls ihre Rolle und sind überhaupt keine Oberflächenmonteure.
Zusammenfassend gibt es Punkte, die nicht nur auf Plausibilität oder einer ansprechenden intuitiven Qualität beruhen. Viele dieser Autoren bieten jedoch keinen mathematischen Rahmen mit Definitionen, Anwendungen, Lemmas, Theoremen, Beweisen oder sogar Gedankenexperimenten auf formelle Weise geprüft.
quelle
Es ist ein Paradoxon, aber eine Deep-Learning-Maschine (definiert als NeuralNet-Variante) kann nichts lernen. Es ist eine flexible und konfigurierbare Hardware- / Softwarearchitektur, die parametrisiert werden kann, um viele Probleme zu lösen. Die optimalen Parameter zur Lösung eines Problems werden jedoch von einem externen System erhalten, dh einem Rückausbreitungsalgorithmus.
Das Back-Propagation-Subsystem verwendet herkömmliche Programmierparadigmen, es ist kein neuronales Netz. Diese Tatsache steht in absolutem Gegensatz zum menschlichen Verstand, wo das Lernen und der Gebrauch von Wissen von demselben System (dem Verstand) durchgeführt werden.
Wenn alle wirklich interessanten Dinge außerhalb des NN erledigt werden, ist es schwierig zu behaupten, dass sich ein NN (in jeder Variante) in einem AGI entwickeln kann.
Es ist auch möglich, weitere Unterschiede zu finden. Neuronale Netze sind in ihrer Schnittstelle und ihren Interna stark numerisch. Unter diesem Gesichtspunkt handelt es sich um eine Weiterentwicklung von Support-Vektor-Maschinen.
Zu viele Unterschiede und Einschränkungen, um einen AGI zu erwarten.
Hinweis: Ich bin mit der in der ursprünglichen Frage enthaltenen Auslosung überhaupt nicht einverstanden. "Sehen", "Tun", "Bildgebung" sind absolut falsche Werte. Grundlegende und gebräuchliche Softwarekonzepte werden als "Abstraktion" oder "Programmzustand" (in Turing-Worten) ignoriert. angewandte KI als "vorausgesehen"; und AGI als "freier Wille", "Ziele und Gefühle", ...
quelle