In einem kürzlich erschienenen Artikel im Wall Street Journal gibt Yann LeCunn folgende Erklärung ab:
Der nächste Schritt zur Erreichung der menschlichen Ebene ist die Schaffung intelligenter, aber nicht autonomer Maschinen. Das KI-System in Ihrem Auto bringt Sie sicher nach Hause, wählt jedoch kein anderes Ziel, wenn Sie erst einmal hineingegangen sind. Von dort aus werden wir grundlegende Antriebe hinzufügen, zusammen mit Emotionen und moralischen Werten. Wenn wir Maschinen erschaffen, die genauso lernen wie unser Gehirn, können wir uns leicht vorstellen, dass sie menschenähnliche Eigenschaften und Fehler erben.
Persönlich habe ich allgemein die Position vertreten, dass es dumm ist, über Emotionen für künstliche Intelligenz zu sprechen, weil es keinen Grund gibt , KI zu schaffen, die Emotionen erfahren. Offensichtlich ist Yann anderer Meinung. Die Frage ist also: Welchem Zweck würde dies dienen? Haben eine AI Notwendigkeit Emotionen als ein nützliches Werkzeug zu dienen?
quelle
Antworten:
Die Antwort auf diese Frage ist, anders als bei vielen anderen in diesem Forum, definitiv. Nein , wir nicht brauchen KI Gefühl zu haben , um nützlich zu sein, wie wir durch die zahlreichen Menge von AI sehen kann? Wir haben bereits die nützlich sind.
Aber um die Frage weiter anzusprechen, können wir KIs Emotionen nicht wirklich vermitteln. Ich denke, der nächste Schritt wäre: Können wir diese KI so machen, wie es ein Mensch tun würde, wenn dieser Mensch es wäre
insert emotion
? Ich denke , in gewisser Hinsicht, dass sie Emotionen zu haben, aber das ist eine ganz andere Diskussion.Und zu welchem Zweck? Der einzige unmittelbare Grund, der in den Sinn käme, wäre, realistischere Begleiter oder Interaktionen für Videospiele oder andere Unterhaltungszwecke zu schaffen. Ein faires Ziel,
aber alles andere als notwendig. Selbst wenn wir einen von KI durchdrungenen Begrüßungsroboter in der Lobby eines Gebäudes in Betracht ziehen, möchten wir wahrscheinlich immer nur, dass er sich freundlich verhält.
Yann sagt, dass hochentwickelte KI zu menschlicheren Qualitäten und Fehlern führen würde. Ich denke, es ist eher so, als würde es der KI menschlichere Eigenschaften verleihen oder mit anderen Worten, Fehler. Menschen neigen dazu, irrational zu handeln, wenn sie traurig oder wütend sind, und zum größten Teil wollen wir nur eine rationale KI.
Irren ist menschlich, wie man sagt.
Der Zweck von KI und Lernalgorithmen ist es, Systeme zu schaffen, die sich wie Menschen verhalten oder "denken", aber besser. Systeme, die sich anpassen oder weiterentwickeln können und dabei so wenig wie möglich durcheinander bringen. Emotionale KI hat Nutzen, ist aber sicherlich keine Voraussetzung für ein nützliches System.
quelle
Ich denke, die grundlegende Frage ist: Warum sollte man überhaupt versuchen, eine KI zu bauen? Wenn dieses Ziel klar ist, gibt es Klarheit darüber, ob ein emotionaler Quotient in der KI sinnvoll ist oder nicht. Einige Versuche wie "Paro", die aus therapeutischen Gründen entwickelt wurden, setzen voraus, dass sie menschliche Emotionen aufweisen. Beachten Sie erneut, dass das "Anzeigen" von Emotionen und das "Fühlen" von Emotionen zwei völlig verschiedene Dinge sind.
Sie können so etwas wie Paro programmieren, um die Stimmlaute oder Gesichtszuckungen zu modulieren, um Sympathie, Zuneigung, Kameradschaft oder was auch immer auszudrücken - aber während dies geschieht, kann sich ein Paro NICHT in seinen Besitzer einfühlen - es täuscht es einfach vor, indem es die physischen Manifestationen durchführt einer Emotion. Es "fühlt" nie etwas, das dem, was diese Emotion im menschlichen Gehirn hervorruft, ein Stück näher ist.
Diese Unterscheidung ist also wirklich wichtig. Damit Sie etwas fühlen können, muss es ein unabhängiges autonomes Subjekt geben, das die Fähigkeit hat, zu fühlen. Das Gefühl kann nicht von einem externen menschlichen Agenten auferlegt werden.
Kehren wir also zu der Frage zurück, welchen Zweck es löst - Antwort ist wirklich - es kommt darauf an. Und das Meiste, was wir mit silikonbasierten KIs jemals erreichen werden, bleibt meiner Meinung nach die Domäne nur der physischen Repräsentation von Emotionen.
quelle
Ich denke, Emotionen sind nicht notwendig, damit ein KI-Agent nützlich ist. Aber ich denke auch, dass sie die Zusammenarbeit mit dem Agenten VIEL angenehmer machen könnten. Wenn der Bot, mit dem Sie sprechen, Ihre Emotionen lesen und konstruktiv reagieren kann, ist die Erfahrung der Interaktion mit ihm enorm angenehmer, vielleicht sogar spektakulärer.
Stellen Sie sich vor, Sie wenden sich noch heute mit einer Beschwerde über Ihre Rechnung oder ein Produkt an einen Mitarbeiter des Human Call Centers. Sie antizipieren Konflikte. Vielleicht haben Sie sogar beschlossen, NICHT anzurufen, weil Sie wissen, dass diese Erfahrung schmerzhaft sein wird, entweder kämpferisch oder frustrierend, da jemand falsch versteht, was Sie sagen, oder feindselig oder dumm antwortet.
Stellen Sie sich nun vor, Sie rufen die netteste und klügste Kundensupportperson an, die Sie jemals getroffen haben - Commander Data -, deren einziger Grund es ist, diesen Anruf für Sie so angenehm und produktiv wie möglich zu gestalten. Eine große Verbesserung gegenüber den meisten Anrufern, ja? Stellen Sie sich vor, wenn Call Rep Data auch Ihre Stimmung antizipieren und angemessen auf Ihre Beschwerden reagieren könnte, um Ihren emotionalen Zustand zu entschärfen ... Sie würden diesen Kerl heiraten wollen. Sie können jederzeit Call-Rep-Daten abrufen, wenn Sie sich blau oder gelangweilt fühlen oder sich über Neuigkeiten freuen möchten. Dieser Typ würde über Nacht Ihr bester Freund werden - buchstäblich beim ersten Anruf lieben.
Ich bin überzeugt, dass dieses Szenario gültig ist. Ich habe in mir eine überraschende Anziehungskraft auf Charaktere wie Data oder Sonny von "I Robot" festgestellt. Die Stimme ist sehr beruhigend und beruhigt mich sofort. Wenn der Bot auch sehr klug, geduldig, kenntnisreich und verständnisvoll wäre ... Ich denke wirklich, dass ein solcher Bot, eingebettet in eine gesunde Dosis emotionaler Intelligenz, eine äußerst angenehme Interaktion sein könnte. Viel lohnender als jeder andere Mensch, den ich kenne. Und ich denke, das gilt nicht nur für mich.
Ja, ich denke, es ist sehr wertvoll, die Persönlichkeit eines Roboters mithilfe von Emotionen und emotionalem Bewusstsein zu optimieren.
quelle
Emotionen in einer KI sind nützlich, aber abhängig von Ihrem Ziel nicht erforderlich (in den meisten Fällen ist dies nicht der Fall).
Insbesondere Emotionserkennung / -analyse ist sehr weit fortgeschritten und wird in einer Vielzahl von Anwendungen sehr erfolgreich eingesetzt, von Roboterlehrern für autistische Kinder (siehe Entwicklungsrobotik) über Glücksspiele (Poker) bis hin zu persönlichen Agenten und der Analyse politischer Gefühle / Lügen.
Emotional Erkenntnis , die Erfahrung von Emotionen für einen Roboter, ist viel weniger entwickelt, aber es gibt sehr interessante Forschungen (siehe Affektheuristik , Lovotics der probabilistische Liebe Versammlung und andere ...). In der Tat kann ich nicht verstehen, warum wir Emotionen wie nicht modellieren konnten Liebe da es sich nur um Signale handelt, die bereits im menschlichen Gehirn geschnitten werden können (siehe Brian D. Earp-Artikel) . Es ist schwierig, aber nicht unmöglich, und tatsächlich gibt es mehrere Roboter, die teilweise emotionale Wahrnehmung reproduzieren.
Ich bin der Meinung, dass die Behauptung "Roboter können nur simulieren, aber nicht fühlen" nur eine Frage der Semantik und nicht der objektiven Kapazität ist: Schwimmt beispielsweise ein U-Boot wie ein Fisch? Flugzeuge fliegen jedoch, aber überhaupt nicht wie Vögel. Kommt es am Ende wirklich auf das technische Mittel an, wenn wir am Ende das gleiche Verhalten haben? Können wir wirklich sagen, dass ein Roboter wie Chappie , falls er jemals hergestellt wird, nichts wie ein einfacher Thermostat empfindet?
Was würde die emotionale Wahrnehmung für eine KI bedeuten? Diese Frage ist immer noch in großen Debatten, aber ich werde es wagen, meine eigenen Einsichten anzubieten:
Es ist bekannt, dass Emotionen bei Menschen (und Tieren!) Erinnerungen beeinflussen. In der Neurowissenschaft sind sie mittlerweile als zusätzliche Modalitäten oder Metadaten für Langzeitgedächtnisse bekannt: Sie ermöglichen es, zu modulieren, wie das Gedächtnis gespeichert ist, wie es mit anderen Erinnerungen in Verbindung gebracht wird und wie es abgerufen wird .
Insofern können wir davon ausgehen, dass die Hauptaufgabe von Emotionen darin besteht, den Erinnerungen zusätzliche Metainformationen hinzuzufügen, um die heuristische Inferenz / Suche zu unterstützen. In der Tat sind unsere Erinnerungen riesig, es gibt eine Menge Informationen, die wir während unseres Lebens speichern, sodass Emotionen möglicherweise als "Labels" verwendet werden können, um die relevanten Erinnerungen schneller wiederzufinden.
Ähnliche "Labels" lassen sich leichter miteinander verknüpfen (Erinnerungen an beängstigende Ereignisse zusammen, Erinnerungen an glückliche Ereignisse zusammen usw.). Als solche können sie zum Überleben beitragen, indem sie schnell reagieren und bekannte Strategien anwenden (Flucht vor gruseligen Strategien!) Oder das Beste aus vorteilhaften Situationen herausholen (glückliche Ereignisse, essen so viel Sie können, helfen später zu überleben!). Tatsächlich haben neurowissenschaftliche Studien herausgefunden, dass es bestimmte Pfade für angstauslösende sensorische Reize gibt, so dass sie schneller zu den Aktoren gelangen (Sie fliehen lassen), als wenn sie wie alle anderen Reize den üblichen gesamten somatosensorischen Kreislauf durchlaufen. Diese Art des assoziativen Denkens könnte auch zu Lösungen und Schlussfolgerungen führen, die sonst nicht erreicht werden könnten.
Durch Empathie könnte dies die Interaktion zwischen Robotern und Menschen erleichtern (z. B. Drohnen, die Opfern katastrophaler Ereignisse helfen).
Ein virtuelles Modell einer KI mit Emotionen könnte für die Neurowissenschaften und die medizinische Forschung zu emotionalen Störungen nützlich sein, um die zugrunde liegenden Parameter zu verstehen und / oder daraus abzuleiten (dies wird beispielsweise häufig bei Alzheimer und anderen neurodegenerativen Erkrankungen durchgeführt, ich bin es jedoch nicht sicher, ob es jemals für emotionale Störungen getan wurde, da sie im DSM ziemlich neu sind).
Also ja, "kalte" KI ist bereits nützlich, aber emotionale KI könnte sicherlich auf neue Bereiche angewendet werden, die mit kalter KI allein nicht erkundet werden könnten. Es wird sicherlich auch helfen, unser eigenes Gehirn zu verstehen, da Emotionen ein wesentlicher Bestandteil sind.
quelle
Ich denke, das hängt von der Anwendung der KI ab. Wenn ich eine KI entwickle, deren Zweck eindeutig darin besteht, bestimmte Aufgaben unter der Aufsicht von Menschen zu erledigen, sind natürlich keine Emotionen erforderlich. Aber wenn die KI die Aufgabe autonom erledigen soll, können Emotionen oder Empathie nützlich sein. Denken Sie beispielsweise an eine KI, die im medizinischen Bereich arbeitet. Hier kann es für eine KI vorteilhaft sein, eine Art Einfühlungsvermögen zu haben, nur um es den Patienten bequemer zu machen. Oder stellen Sie sich als weiteres Beispiel einen Roboter vor, der als Kindermädchen dient. Wiederum ist es offensichtlich, dass Emotionen und Empathie vorteilhaft und wünschenswert wären. Selbst für ein assistierendes AI-Programm (Stichwort Smart Home) können Emotionen und Empathie wünschenswert sein, um den Menschen mehr Komfort zu bieten.
Wenn die KI hingegen nur am Fließband arbeitet, sind Emotionen und Empathie offensichtlich nicht erforderlich (im Gegenteil, in diesem Fall ist dies möglicherweise unrentabel).
quelle
Starke AIs
Für eine starke KI lautet die kurze Antwort, um Hilfe zu rufen, wenn sie nicht einmal wissen, was die angebliche Hilfe sein könnte.
Es hängt davon ab, was die KI tun würde. Wenn es eine einfache Aufgabe perfekt und professionell lösen soll, wären Emotionen sicher nicht sehr nützlich. Aber wenn es zufällige neue Dinge lernen soll, gibt es einen Punkt, an dem es auf etwas stößt, mit dem es nicht umgehen kann.
In Lee Sedol gegen AlphaGo Match 4 äußerte sich ein Profi, der gesagt hat, dass Computer vorher keine Emotionen haben, dazu, dass AlphaGo vielleicht auch Emotionen hat und stärker als Menschen. In diesem Fall wissen wir, dass das verrückte Verhalten von AlphaGo nicht durch absichtlich hinzugefügte Dinge verursacht wird, die als "Emotionen" bezeichnet werden, sondern durch einen Fehler im Algorithmus. Aber es verhält sich genauso, als wäre es in Panik geraten.
Wenn dies für eine KI häufig vorkommt. Es könnte Vorteile geben, wenn es dies selbst weiß und zweimal überlegt, wenn es passiert. Wenn AlphaGo das Problem erkennen und seine Strategie ändern könnte, könnte es besser oder schlechter spielen. Es ist nicht unwahrscheinlich, dass es schlechter wird, wenn überhaupt keine Berechnungen für andere Ansätze durchgeführt werden. Im Falle, dass es schlechter wird, könnte man sagen, dass es unter "Emotionen" leidet, und dies könnte der Grund sein, warum manche Leute glauben, dass Emotionen ein Fehler des Menschen sein könnten. Aber das wäre nicht die wahre Ursache des Problems. Die wahre Ursache ist, dass es einfach keine Ansätze kennt, um das Gewinnen zu garantieren, und die Änderung der Strategie ist nur ein Versuch, das Problem zu beheben. Kommentatoren denken, dass es bessere Wege gibt (die auch nicht garantieren, dass sie gewinnen, aber mehr Chancen hatten), aber ihr Algorithmus ist nicht nicht in der Lage, in dieser Situation herauszufinden. Sogar für den Menschen ist es unwahrscheinlich, dass die Lösung für irgendetwas, das mit Emotionen zu tun hat, Emotionen beseitigt, aber ein gewisses Training, um sicherzustellen, dass Sie die Situation so gut verstehen, dass Sie ruhig handeln können.
Dann muss sich jemand darüber streiten, ob dies eine Art Emotion ist oder nicht. Wir sagen normalerweise nicht, dass kleine Insekten menschenähnliche Gefühle haben, weil wir sie nicht verstehen und nicht bereit sind, ihnen zu helfen. Aber es ist leicht zu wissen, dass einige von ihnen in verzweifelten Situationen in Panik geraten können, so wie es AlphaGo tat. Ich würde sagen, diese Reaktionen basieren auf der gleichen Logik und sind zumindest der Grund, warum menschenähnliche Emotionen möglicherweise nützlich sein können. Sie werden einfach nicht auf vom Menschen verständliche Weise ausgedrückt, da sie nicht beabsichtigten, einen Menschen um Hilfe zu rufen.
Wenn sie versuchen, ihr eigenes Verhalten zu verstehen oder jemanden um Hilfe zu rufen, ist es möglicherweise gut, genau menschlich zu sein. Einige Haustiere können menschliche Emotionen spüren und bis zu einem gewissen Grad menschlich verständliche Emotionen ausdrücken. Der Zweck ist es, mit Menschen zu interagieren. Sie entwickelten sich zu dieser Fähigkeit, weil sie sie irgendwann brauchten. Es ist wahrscheinlich, dass eine voll starke KI es auch brauchen würde. Beachten Sie auch, dass das Gegenteil von vollen Emotionen verrückt werden kann.
Es ist wahrscheinlich ein schneller Weg, das Vertrauen zu verlieren, wenn man Emotionen, die Menschen imitieren, nur mit wenig Verständnis gleich in den ersten Generationen einsetzt.
Schwache AIs
Aber gibt es einen Grund, warum sie Emotionen haben sollten, bevor jemand eine starke KI haben wollte? Ich würde nein sagen, es gibt keine inhärenten Gründe, warum sie Emotionen haben müssen. Aber zwangsläufig wird jemand sowieso nachgeahmte Emotionen implementieren wollen. Ob "wir" sie brauchen, um Emotionen zu haben, ist Unsinn.
Tatsache ist sogar, dass einige Programme ohne Intelligenz einige "emotionale" Elemente in ihren Benutzeroberflächen enthielten. Sie sehen vielleicht unprofessionell aus, aber nicht jede Aufgabe erfordert Professionalität, sodass sie durchaus akzeptabel sein können. Sie sind genau wie die Emotionen in Musik und Kunst. Jemand wird auch seine schwache KI auf diese Weise entwerfen. Aber sie sind nicht wirklich die Emotionen der AIs, sondern die ihrer Schöpfer. Wenn Sie sich aufgrund ihrer Emotionen besser oder schlechter fühlen, werden Sie einzelne AIs nicht so unterschiedlich behandeln, sondern dieses Modell oder diese Marke als Ganzes.
Alternativ könnte jemand dort einige Persönlichkeiten wie in einem Rollenspiel einsetzen. Auch hier gibt es keinen Grund, warum sie das haben müssen, aber zwangsläufig wird es jemand tun, weil sie offensichtlich einen Markt hatten, wenn ein Rollenspiel dies tut.
In beiden Fällen stammen die Emotionen nicht wirklich von der KI selbst. Und es wäre einfach zu implementieren, da ein Mensch nicht erwartet, dass sie genau wie ein Mensch sind, sondern versucht zu verstehen, was sie bedeuten sollen. Es könnte viel einfacher sein, diese Emotionen zu akzeptieren, die dies erkennen.
Aspekte von Emotionen
Es tut uns leid, dass Sie hier einige Originalrecherchen veröffentlicht haben. Ich habe 2012 eine Liste von Emotionen erstellt, aus der ich 4 Aspekte von Emotionen ersehen kann. Wenn sie alle umgesetzt werden, würde ich sagen, dass sie genau die gleichen Emotionen haben wie Menschen. Sie scheinen nicht real zu sein, wenn nur einige von ihnen implementiert sind, aber das bedeutet nicht, dass sie völlig falsch sind.
Wenn also starke AIs möglich werden, ist keines davon nicht mehr erreichbar, obwohl möglicherweise eine Menge Arbeit erforderlich ist, um die Verbindungen herzustellen. Ich würde also sagen, wenn starke AIs nötig wären, hätten sie absolut Emotionen.
quelle
Mit Emotionen meint er nicht, einer KI alle möglichen Emotionen hinzuzufügen. Er meinte nur diejenigen, die für wichtige Entscheidungen hilfreich sind. Betrachten Sie diesen Vorfall für eine Sekunde:
Angenommen, ein KI-Auto mit Selbstantrieb fährt über die Autobahn. Die Person, die drinnen sitzt, ist der CEO eines Unternehmens, und er läuft sehr pünktlich hinterher. Wenn er nicht pünktlich ist, werden Millionen von Dollar verloren gehen. Der KI im Auto wurde befohlen, so schnell wie möglich zu fahren und das Ziel zu erreichen. Und jetzt kommt ein Kaninchen (oder ein anderes Tier) in den Weg. Wenn das Auto jetzt notbremst, werden die Passagiere ernsthaft verletzt und es wird einen Verlust von Millionen geben, da der CEO nicht in der Lage ist, an der Besprechung teilzunehmen.
Was wird die KI nun tun? Utility-Funktion
Denn für eine KI basieren ihre Entscheidungen nur auf ihren . Wenn Sie das Kaninchen treffen und weitermachen, ist dies logischerweise die bessere Option. Aber sollte die KI diese Entscheidung treffen?
Es gibt viele Fragen wie diese, bei denen eine KI in eine Situation geraten könnte, in der moralische Entscheidungen eine entscheidende Rolle spielen.
Das obige Szenario dient nur als Beispiel.
quelle
Theorie des Geistes
Wenn wir wollen, dass eine starke allgemeine KI in einer Umgebung, die aus Menschen besteht, gut funktioniert, wäre es sehr nützlich, eine gute Theorie des Verstandes zu haben , die dem tatsächlichen Verhalten der Menschen entspricht. Diese Theorie des Geistes muss menschenähnliche Emotionen beinhalten, sonst passt sie nicht zur Realität dieser Umgebung.
Eine häufig verwendete Abkürzung lautet für uns explizit: "Was hätte ich in dieser Situation getan?" "Welches Ereignis hätte mich motivieren können , das zu tun, was sie gerade getan haben?" "wie würde ich mich fühlen, wenn mir das passiert wäre ?" Wir möchten, dass eine KI in der Lage ist, solche Überlegungen anzustellen. Sie ist praktisch und nützlich und ermöglicht bessere Vorhersagen über zukünftige und effektivere Aktionen.
Auch wenn es besser wäre, wenn die KI nicht von diesen exakten Emotionen getrieben würde (vielleicht wäre etwas in diese Richtung nützlich, aber wahrscheinlich nicht genau dasselbe), ändert dies alles, anstatt zu denken, "was ich fühlen würde". es sollte in der Lage sein, zu hypothetisieren, was ein generischer Mensch fühlen würde. Dies erfordert die Implementierung eines Subsystems, das in der Lage ist, menschliche Emotionen genau zu modellieren.
quelle
Vorsichtig! Ihre Frage besteht aus zwei Teilen. Kombinieren Sie keine Bedeutungen mit Ihren Fragen, sonst wissen Sie nicht genau, welchen Teil Sie beantworten.
Es scheint keinen klaren Grund dafür zu geben, warum wir das wollen. Hypothetisch könnten wir nur etwas haben, das funktionell nicht von Emotionen zu unterscheiden ist, aber keine qualitative Erfahrung in Bezug auf die AGI hat. Wir sind jedoch nicht in einer wissenschaftlichen Position, in der wir überhaupt anfangen können, Fragen zu den Ursprüngen der qualitativen Erfahrung zu beantworten, weshalb ich nicht näher auf diese Frage eingehen werde.
IMHO ja. Man kann sich zwar vorstellen, dass eine KI ohne Emotionen alles tut, was man möchte, aber wir möchten, dass sich die KI in die menschlichen Werte und Emotionen einfügt, was das Problem der Ausrichtung ist. Es erscheint daher naheliegend, anzunehmen, dass jeder gut ausgerichtete AGI Emotionen ähnelt, wenn er sich gut in den Menschen integriert hat.
ABER ohne eine klare Theorie des Verstandes macht es nicht einmal Sinn zu fragen: "Sollte unser AGI Emotionen haben?" Vielleicht haben unsere Emotionen etwas Kritisches, das uns zu produktiven kognitiven Agenten macht, die auch jeder AGI benötigen würde.
In der Tat sind Emotionen oft ein übersehener Aspekt der Erkenntnis. Die Leute denken irgendwie, dass emotionslose Spock-ähnliche Charaktere der Inbegriff menschlicher Intelligenz sind. Aber Emotionen sind tatsächlich ein entscheidender Aspekt bei der Entscheidungsfindung, siehe diesen Artikel ein Beispiel für die Probleme mit "Intelligenz ohne Emotionen".
Die Folgefrage wäre: "Welche Art von Emotionen würde der AGI entwickeln?", Aber auch hier sind wir (noch) nicht in der Lage, dies zu beantworten.
quelle
Jedes komplexe Problem mit menschlichen Emotionen, bei dem die Lösung des Problems die Fähigkeit erfordert, mit den emotionalen Zuständen der Menschen zu sympathisieren, wird am effizientesten von einem Agenten bedient, der dies kann mit menschlichen Emotionen sympathisieren.
Politik. Regierung. Politik und Planung. Solange das Ding die menschliche Erfahrung nicht genau kennt, wird es keine endgültigen Antworten auf alle Probleme geben können, auf die wir in unserer menschlichen Erfahrung stoßen.
quelle
Menschliche Emotionen sind eng mit menschlichen Werten und unserer Fähigkeit zur Zusammenarbeit und Bildung von Gesellschaften verbunden.
Nur um ein einfaches Beispiel zu nennen: Sie begegnen einem Fremden, der Hilfe benötigt, und fühlen Empathie . Dies zwingt Sie, ihm auf eigene Kosten zu helfen. Nehmen wir an, Sie brauchen etwas, wenn Sie ihn das nächste Mal treffen. Nehmen wir auch an, er hilft dir nicht, du wirst Ärger empfinden . Diese Emotion zwingt dich, ihn zu bestrafen, und das zu deinem eigenen Preis. Er auf der anderen Seite, wenn er Ihnen nicht helfen, fühlt Scham . Dies zwingt ihn, Ihnen tatsächlich zu helfen, Ihre Wut zu vermeiden und Ihre anfängliche Investition lohnenswert zu machen. Sie beide profitieren davon.
Diese drei Emotionen bilden also einen Kreis gegenseitiger Hilfe. Einfühlungsvermögen, Ärger, um Überläufer zu bestrafen, und Scham, um Ärger zu vermeiden. Dies führt auch zu einem Konzept der Gerechtigkeit.
Angesichts der Tatsache, dass die Wertegleichheit eines der großen Probleme bei AGI ist, empfinde ich menschenähnliche Emotionen als eine gute Herangehensweise an KIs, die unsere Werte tatsächlich teilen und sich nahtlos in unsere Gesellschaft integrieren.
quelle