Warum ist Ethik nicht stärker in aktuelle KI-Systeme integriert?

9

Ich bin ein Doktorand in Informatik und erstelle derzeit einen Überblick über Anwendungen auf dem neuesten Stand der Technik in der Maschinenethik (ein multidisziplinäres Feld, das Philosophie und KI kombiniert und sich mit der Erstellung expliziter ethischer Programme oder Agenten befasst). Es scheint, dass das Gebiet hauptsächlich theoretische Argumente enthält und es relativ wenig Implementierungen gibt, obwohl es viele Leute mit einem technischen Hintergrund auf dem Gebiet gibt.

Ich verstehe, dass es keine Grundwahrheit gibt, weil Ethik involviert ist, und da dies Teil der Philosophie ist, kann man sich darin verlieren, darüber zu streiten, welche Art von Ethik umgesetzt werden sollte und wie dies am besten getan werden kann. In der Informatik ist es jedoch üblich, sogar eine einfache Implementierung zu versuchen, um die Möglichkeiten oder Grenzen Ihres Ansatzes aufzuzeigen.

Was sind die möglichen Gründe, warum es so wenig getan wird, Ethik explizit in KI umzusetzen und damit zu experimentieren?

Suzanne
quelle
2
Beispiele für Ansätze finden Sie in diesem und diesem Übersichtsartikel.
Suzanne

Antworten:

2

Dies ist notwendigerweise eine Antwort auf hoher Ebene und höchst spekulativ, aber ich habe über diese Frage nachgedacht, und hier sind meine Gedanken:

  • Die Implementierung ethischer Algorithmen erfordert eine mathematische Grundlage für die Philosophie, da Computer Differenz-Engines sind

Nach dem berühmten Scheitern von Russell & Whitehead und dem Unvollständigkeitssatz von Gödel scheint dies problematisch zu sein.

  • KI ist ein hoch angewandtes Gebiet, insbesondere heute, da Deep Learning kontinuierlich validiert wird, und kein Unternehmen möchte sich dem Thema Ethik nähern, es sei denn, es ist dazu gezwungen

Sie sehen es also in selbstfahrenden Autos, weil die Ingenieure keine andere Wahl haben, als sich mit dem Problem auseinanderzusetzen. Im Gegensatz dazu glaube ich nicht, dass Sie viele algorithmische Aktienhandelsunternehmen sehen werden, bei denen das Geschäft auf Pareto-Effizienz ausgerichtet ist und die sich über die ethischen oder sozialen Auswirkungen von Finanzspekulationen Sorgen machen. (Die Lösung für "Flash-Abstürze" scheinen Regeln für die vorübergehende Unterbrechung des Handels gewesen zu sein, anstatt den sozialen Wert des hochfrequenten algorithmischen Handels zu berücksichtigen.) Ein offensichtlicheres Beispiel sind Social-Media-Unternehmen, die den extremen Informationsmissbrauch (Desinformation) ignorieren und Fehlinformationen) auf ihren Websites veröffentlicht werden und sich auf Unwissenheit berufen, was sehr verdächtig ist, dass die durch Informationsmissbrauch hervorgerufene Aktivität sich positiv auf ihr Endergebnis auswirkt.

  • Angewandte Bereiche sind in der Regel gewinnorientiert

Die Hauptanweisung von Unternehmen besteht darin, den Anlegern einen Gewinn zurückzugeben. Es ist nicht ungewöhnlich, dass Unternehmen gegen das Gesetz verstoßen, wenn die Geldstrafen und Strafen voraussichtlich geringer sind als der Gewinn, der durch illegale Aktivitäten erzielt wird. (Es gibt das Konzept der Ethik in der Wirtschaft, aber die Kultur im Allgemeinen scheint Menschen und Unternehmen danach zu beurteilen, wie viel Geld sie verdienen, unabhängig von den Mitteln.)

  • Die Umsetzung der Maschinenethik wird in Bereichen untersucht, in denen sie für den Verkauf des Produkts erforderlich sind, an anderer Stelle ist sie jedoch noch weitgehend hypothetisch

Wenn sich Superintelligenzen entwickeln und die Menschheit auslöschen (wie uns einige sehr kluge Leute mit überlegenen mathematischen Fähigkeiten warnen), ist dies meines Erachtens eine Funktion der Natur, bei der die uneingeschränkte Entwicklung dieser Algorithmen auf wirtschaftliche Treiber zurückzuführen ist, die sich auf Hyper konzentrieren -parteiliche Automaten in Branchen wie Finanzspekulation und autonome Kriegsführung. Im Wesentlichen um jeden Preis Gewinne zu verfolgen, unabhängig von den Auswirkungen.

DukeZhou
quelle
Interessante Aufnahme, der Gewinnaspekt! Ich hatte nicht daran gedacht, da ich mich so auf die Forschungsgründe konzentriert hatte, aber es macht Sinn, dass die Industrie auch keinen Druck auf die Forschung ausübt, sie weiter zu verfolgen.
Suzanne
@SuzanneTolmeijer Danke. Ich beschäftige mich seit einigen Jahren mit der Verbindung von Spieltheorie und Ethik. (Meist frühe Philosophie, in der beispielsweise "Gleichgewicht" als "gut" bezeichnet wurde - Gleichgewicht ist eine Gleichgewichtsfunktion und kann präzise mathematisch definiert werden. Sie bezieht sich auf die Wirtschaftlichkeit, da Stabilität im Allgemeinen als optimal verstanden wird, wo Instabilität ist potenziell katastrophal.) Aber ich bin nicht der einzige KI-Mitarbeiter, der die wirtschaftlichen Treiber in diesem Bereich und die potenziellen Gefahren dessen, was ich als "hyperparteiliche KI" bezeichne, angesprochen hat.
DukeZhou
1

Ich bin der Meinung, dass ein Teil des Problems, warum ethische Implementierungen von AI / ML-Technologien nur sehr wenig möglich sind, einfach darin besteht, dass die theoretischen Rahmenbedingungen nicht erforderlich oder nicht ordnungsgemäß angewendet werden.

Damit meine ich, dass es keine wesentlichen Möglichkeiten gibt, dieses Verständnis auf Algorithmen und Modelle anzuwenden, die nicht auf sinnvolle Weise interagieren können. Wir haben einen so großen theoretischen Rahmen für KI-Sicherheit / Ethik, weil dies äußerst wichtig ist. Wir müssen sichere Richtlinien für die Implementierung einer starken KI entwickeln, bevor sie erstellt wird.

Einige sehr fokussierte Artikel haben begonnen, die Probleme bei der Schaffung ethischer / sicherer KI-Systeme einzugrenzen. Siehe Konkrete Probleme in der KI-Sicherheit

hisairnessag3
quelle
Es scheint ein Bedarf an expliziter Ethik zu bestehen, zumindest fordern viele Forscher die Weiterentwicklung der expliziten Ethik (z . B. Moor 2006 ). In Bezug auf die ordnungsgemäße Anwendung theoretischer Rahmenbedingungen haben Sie möglicherweise Recht: Die Implementierung erfordert in einigen Fällen eine Interpretation, die sich als schwierig erweisen kann. Sie stimmen jedoch zu, dass sichere Richtlinien für die KI wichtig sind. Dies bedeutet praktische Richtlinien für das, was wir für unsere Maschinen als „richtig“ oder „ethisch“ erachten. Diese Richtlinien implizieren, wie Ethik auf irgendeine Weise in Maschinen implementiert werden kann.
Suzanne
1

Mit der Nachahmungsmethode kann das am besten geeignete Verhalten in die künstliche Intelligenz integriert werden. Künstliche Intelligenz kann umgestaltet werden, wenn sich die ethische Position ändert. Es wird zu ideologischen Zwecken oder zum Sammeln von Informationen verwendet. Es ist nicht klar, was der Roboter ist.

Azad İrven
quelle
1

Wir können das Fehlermodell berücksichtigen. Das Erkennen von Verzerrungen und Abweichungen zwischen der Leistung unter neuronalen Netzen kann ein erster Schritt sein. Und dann können wir diskutieren, ob eine solche Leistung zulässig ist. Soweit wir wissen, erfordert das Praktizieren von Ethnie empirische Untersuchungen und Feldstudien. Wir können nicht einfach Rationalisierungen und Papieraufsätze verwenden, um festzustellen, ob die Handlungen gelernter Maschinen falsch sind oder nicht. Es kann weiter unterteilt werden in Unfälle, Fehler oder sogar Fehler, die von den Entwicklern erstellt wurden.

Raju yourPepe
quelle
Ein interessanter Punkt, den Sie hier ansprechen, ist im Grunde, welche Maßnahmen zum Testen des Systems verwendet werden können und wie Sie feststellen, ob das System genau funktioniert. Dies ist etwas, das auf dem Gebiet fehlt, und ich denke, es ist in der Tat ein Teil des Problems: Wie kann man sein System ohne Grundwahrheit testen? Welche (Dimensionen in) Maßnahmen sind im Kontext expliziter ethischer Algorithmen sinnvoll? Ohne das haben Sie keine Möglichkeit, Systeme zu vergleichen, was den Fortschritt vor Ort einschränkt.
Suzanne
1

Intuitiv gesehen scheint es so zu sein, dass wenig über die Umsetzung der KI-Ethik geforscht wird, weil:

  1. Die Gesellschaft als Ganzes scheint sich einig zu sein, dass der gegenwärtige Zustand der maschinellen Intelligenz nicht stark genug ist, um als bewusst oder empfindungsfähig angesehen zu werden. Daher müssen wir ihm (noch) keine ethischen Rechte einräumen.

  2. Die Implementierung von ethischem Verhalten in ein Programm erfordert eine Methode, mit der Computer "Bedeutung" interpretieren können, was wir noch nicht wissen.

kc sayz 'kc sayz'
quelle