Es hat sich in den letzten Interesse uptick gewesen in e X plainable A Syntetisch I ntelligence (XAI). Hier ist die Mission von XAI, wie auf der DARPA-Seite angegeben :
Das Explainable AI (XAI) -Programm zielt darauf ab, eine Reihe von Techniken des maschinellen Lernens zu erstellen, die:
- Erstellen Sie erklärbarere Modelle unter Beibehaltung einer hohen Lernleistung (Vorhersagegenauigkeit). und
- Ermöglichen Sie menschlichen Benutzern, die aufstrebende Generation künstlich intelligenter Partner zu verstehen, angemessen zu vertrauen und effektiv zu verwalten.
Der Artikel der New York Times Kann man KI lehren, sich selbst zu erklären? leistet gute Arbeit darin, die Notwendigkeit von XAI aus Sicht des menschlichen Interesses zu erklären und einen Blick auf die Techniken zu werfen, die für diese entwickelt werden. Die Kraft hinter der XAI-Bewegung scheint sich auf das (aufstrebende?) Konzept des Rechts auf Erklärung zu konzentrieren , dh auf die Anforderung, dass KI-Anwendungen, die über ihre Entscheidungen das menschliche Leben erheblich beeinflussen, den Stakeholdern die Faktoren / Gründe erklären können, die dazu führen zu dieser Entscheidung.
Wie ist das Recht auf Erklärung angesichts der aktuellen Standards, nach denen wir uns gegenseitig zur Rechenschaft ziehen, angemessen?
quelle
Antworten:
Kurz gesagt, es ist durchaus vernünftig.
Insbesondere erscheint es vernünftig, AI zur Rechenschaft zu ziehen und für die Erklärung der Entscheidung verantwortlich zu sein, weil
Der Mensch (in diesem Fall DARPA) hat sich entschieden, KI mit dem Geld der Steuerzahler zu schaffen, zu erheben und weiterzuentwickeln . Auch in unserer Gesellschaft werden Verantwortlichkeit und Verantwortung übernommen und zugewiesen, wenn Menschen zu einem bestimmten Zweck zusammenkommen (eine formelle Vereinbarung wie die Regierung oder auf andere Weise). Die Erwartung, dass die KI (die in unserem Namen Entscheidungen treffen wird) ihre Entscheidungen erklärt, scheint daher nur eine natürliche Erweiterung der derzeitigen Funktionsweise von Menschen zu sein .
Menschen haben ( zumindest im Allgemeinen ) keine Supermacht oder Ressourcen, um den Rest der Bevölkerung zu kontrollieren und zu manipulieren . Aber wenn sie es tun (wie unsere politischen Führer ), wollen wir, dass sie rechenschaftspflichtig sind.
In seltenen Fällen werden mächtige Menschen aufgrund von Dingen, die für jedermann zugänglich sind, mächtig , während die Supermacht der KI dies nicht sein wird. Unsere Zivilisation würde sich also sicherer und damit weniger unsicher fühlen, wenn eine KI die Tür nicht im Gesicht schließt, wenn Fragen gestellt werden.
Weitere Vorteile der KI, die eine Erklärung dafür liefern, wie eine Entscheidung getroffen wird
Viel einfacher zu debuggen und in der frühen Phase zu verbessern.
Kann weiter (und auf dem Weg) angepasst werden, um bestimmte Aspekte wie Sozialhilfe über Rentabilität usw. zu verbessern.
quelle
In der Arbeit Slave to the Algorithm? Warum ein "Recht auf Erklärung" wahrscheinlich nicht das Mittel ist, nach dem Sie suchen , behaupten die Autoren, dass das "Recht auf Erklärung" aus mindestens zwei Gründen wahrscheinlich kein vollständiges Mittel gegen algorithmische Schäden darstellt
Es ist unklar, wann ein erklärungsbezogenes Recht ausgelöst werden kann
Die gesetzlich vorgeschriebenen Erklärungen "aussagekräftige Informationen über die Logik der Verarbeitung" werden möglicherweise nicht von aktuellen (erklärbaren) KI-Methoden geliefert
Die Autoren kommen dann zu dem Schluss, dass das "Recht auf Erklärung" ablenkt , andere Gesetze der Allgemeinen Datenschutzverordnung der Europäischen Union, wie z
könnte die Mängel des "Erklärungsrechts" ausgleichen.
Zusammenfassend ist das "Recht auf Erklärung" ein Versuch, die Bürger vor den möglichen unerwünschten Folgen des Einsatzes von KI-Methoden zu schützen. Es ist jedoch nicht fehlerfrei und es müssen möglicherweise klarere Rechte verkündet werden.
quelle