Ich bin ein Doktorand in Informatik und erstelle derzeit einen Überblick über Anwendungen auf dem neuesten Stand der Technik in der Maschinenethik (ein multidisziplinäres Feld, das Philosophie und KI kombiniert und sich mit der Erstellung expliziter ethischer Programme oder Agenten befasst). Es scheint, dass das Gebiet hauptsächlich theoretische Argumente enthält und es relativ wenig Implementierungen gibt, obwohl es viele Leute mit einem technischen Hintergrund auf dem Gebiet gibt.
Ich verstehe, dass es keine Grundwahrheit gibt, weil Ethik involviert ist, und da dies Teil der Philosophie ist, kann man sich darin verlieren, darüber zu streiten, welche Art von Ethik umgesetzt werden sollte und wie dies am besten getan werden kann. In der Informatik ist es jedoch üblich, sogar eine einfache Implementierung zu versuchen, um die Möglichkeiten oder Grenzen Ihres Ansatzes aufzuzeigen.
Was sind die möglichen Gründe, warum es so wenig getan wird, Ethik explizit in KI umzusetzen und damit zu experimentieren?
quelle
Antworten:
Dies ist notwendigerweise eine Antwort auf hoher Ebene und höchst spekulativ, aber ich habe über diese Frage nachgedacht, und hier sind meine Gedanken:
Nach dem berühmten Scheitern von Russell & Whitehead und dem Unvollständigkeitssatz von Gödel scheint dies problematisch zu sein.
Sie sehen es also in selbstfahrenden Autos, weil die Ingenieure keine andere Wahl haben, als sich mit dem Problem auseinanderzusetzen. Im Gegensatz dazu glaube ich nicht, dass Sie viele algorithmische Aktienhandelsunternehmen sehen werden, bei denen das Geschäft auf Pareto-Effizienz ausgerichtet ist und die sich über die ethischen oder sozialen Auswirkungen von Finanzspekulationen Sorgen machen. (Die Lösung für "Flash-Abstürze" scheinen Regeln für die vorübergehende Unterbrechung des Handels gewesen zu sein, anstatt den sozialen Wert des hochfrequenten algorithmischen Handels zu berücksichtigen.) Ein offensichtlicheres Beispiel sind Social-Media-Unternehmen, die den extremen Informationsmissbrauch (Desinformation) ignorieren und Fehlinformationen) auf ihren Websites veröffentlicht werden und sich auf Unwissenheit berufen, was sehr verdächtig ist, dass die durch Informationsmissbrauch hervorgerufene Aktivität sich positiv auf ihr Endergebnis auswirkt.
Die Hauptanweisung von Unternehmen besteht darin, den Anlegern einen Gewinn zurückzugeben. Es ist nicht ungewöhnlich, dass Unternehmen gegen das Gesetz verstoßen, wenn die Geldstrafen und Strafen voraussichtlich geringer sind als der Gewinn, der durch illegale Aktivitäten erzielt wird. (Es gibt das Konzept der Ethik in der Wirtschaft, aber die Kultur im Allgemeinen scheint Menschen und Unternehmen danach zu beurteilen, wie viel Geld sie verdienen, unabhängig von den Mitteln.)
Wenn sich Superintelligenzen entwickeln und die Menschheit auslöschen (wie uns einige sehr kluge Leute mit überlegenen mathematischen Fähigkeiten warnen), ist dies meines Erachtens eine Funktion der Natur, bei der die uneingeschränkte Entwicklung dieser Algorithmen auf wirtschaftliche Treiber zurückzuführen ist, die sich auf Hyper konzentrieren -parteiliche Automaten in Branchen wie Finanzspekulation und autonome Kriegsführung. Im Wesentlichen um jeden Preis Gewinne zu verfolgen, unabhängig von den Auswirkungen.
quelle
Ich bin der Meinung, dass ein Teil des Problems, warum ethische Implementierungen von AI / ML-Technologien nur sehr wenig möglich sind, einfach darin besteht, dass die theoretischen Rahmenbedingungen nicht erforderlich oder nicht ordnungsgemäß angewendet werden.
Damit meine ich, dass es keine wesentlichen Möglichkeiten gibt, dieses Verständnis auf Algorithmen und Modelle anzuwenden, die nicht auf sinnvolle Weise interagieren können. Wir haben einen so großen theoretischen Rahmen für KI-Sicherheit / Ethik, weil dies äußerst wichtig ist. Wir müssen sichere Richtlinien für die Implementierung einer starken KI entwickeln, bevor sie erstellt wird.
Einige sehr fokussierte Artikel haben begonnen, die Probleme bei der Schaffung ethischer / sicherer KI-Systeme einzugrenzen. Siehe Konkrete Probleme in der KI-Sicherheit
quelle
Mit der Nachahmungsmethode kann das am besten geeignete Verhalten in die künstliche Intelligenz integriert werden. Künstliche Intelligenz kann umgestaltet werden, wenn sich die ethische Position ändert. Es wird zu ideologischen Zwecken oder zum Sammeln von Informationen verwendet. Es ist nicht klar, was der Roboter ist.
quelle
Wir können das Fehlermodell berücksichtigen. Das Erkennen von Verzerrungen und Abweichungen zwischen der Leistung unter neuronalen Netzen kann ein erster Schritt sein. Und dann können wir diskutieren, ob eine solche Leistung zulässig ist. Soweit wir wissen, erfordert das Praktizieren von Ethnie empirische Untersuchungen und Feldstudien. Wir können nicht einfach Rationalisierungen und Papieraufsätze verwenden, um festzustellen, ob die Handlungen gelernter Maschinen falsch sind oder nicht. Es kann weiter unterteilt werden in Unfälle, Fehler oder sogar Fehler, die von den Entwicklern erstellt wurden.
quelle
Intuitiv gesehen scheint es so zu sein, dass wenig über die Umsetzung der KI-Ethik geforscht wird, weil:
Die Gesellschaft als Ganzes scheint sich einig zu sein, dass der gegenwärtige Zustand der maschinellen Intelligenz nicht stark genug ist, um als bewusst oder empfindungsfähig angesehen zu werden. Daher müssen wir ihm (noch) keine ethischen Rechte einräumen.
Die Implementierung von ethischem Verhalten in ein Programm erfordert eine Methode, mit der Computer "Bedeutung" interpretieren können, was wir noch nicht wissen.
quelle