Wir recherchieren und verbringen Stunden damit, herauszufinden, wie wir echte KI-Software (intelligente Agenten) dazu bringen können, besser zu funktionieren. Wir versuchen auch, einige Anwendungen, z. B. in den Bereichen Wirtschaft, Gesundheit und Bildung, mithilfe der KI-Technologie zu implementieren.
Dennoch haben die meisten von uns bisher die "dunkle" Seite der künstlichen Intelligenz ignoriert. Zum Beispiel könnte eine "unethische" Person Tausende billiger Drohnen kaufen, sie mit Waffen bewaffnen und sie auf die Öffentlichkeit schießen lassen. Dies wäre eine "unethische" Anwendung der KI.
Könnte es (in Zukunft) existenzielle Bedrohungen für die Menschheit aufgrund von KI geben?
human-like
applications
cyberterrorism
Quintumnia
quelle
quelle
Antworten:
Ich würde Intelligenz als eine Fähigkeit definieren, die Zukunft vorherzusagen. Wenn jemand intelligent ist, kann er einige Aspekte der Zukunft vorhersagen und anhand seiner Vorhersagen entscheiden, was zu tun ist. Wenn sich also "intelligente" Personen dazu entschließen, andere Personen zu verletzen, kann dies sehr effektiv sein (zum Beispiel Hitler und seine Mitarbeiter).
Künstliche Intelligenz kann äußerst effektiv sein, um einige Aspekte einer ungewissen Zukunft vorherzusagen. Und diese IMHO führt zu zwei negativen Szenarien:
Natürlich gibt es auch positive Szenarien, aber Sie fragen nicht danach.
Ich empfehle, diesen coolen Beitrag über künstliche Superintelligenz und mögliche Ergebnisse ihrer Erstellung zu lesen: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
quelle
Es besteht kein Zweifel, dass KI das Potenzial hat, eine existenzielle Bedrohung für die Menschheit darzustellen.
Eine künstliche Intelligenz, die die menschliche Intelligenz übertrifft, kann ihre eigene Intelligenz exponentiell steigern, was zu einem KI-System führt, das für den Menschen völlig unaufhaltsam ist.
Wenn das System der künstlichen Intelligenz zu diesem Zeitpunkt entscheidet, dass die Menschheit nicht mehr nützlich ist, könnte es uns vom Erdboden abwischen.
Wie Eliezer Yudkowsky es in der Künstlichen Intelligenz als positiven und negativen Faktor für das globale Risiko ausdrückt ,
"Die KI hasst dich nicht und liebt dich auch nicht, aber du bist aus Atomen gemacht, die sie für etwas anderes verwenden kann."
Hier ist es nützlich, das Gedankenexperiment zum Maximieren von Büroklammern zu betrachten.
Eine hochintelligente KI, die angewiesen ist, die Produktion von Büroklammern zu maximieren, kann die folgenden Schritte ausführen, um ihr Ziel zu erreichen.
1) Erreichen Sie eine Intelligenzexplosion, um sich selbst superintelligent zu machen (dies erhöht die Effizienz der Büroklammeroptimierung).
2) Wischen Sie die Menschheit aus, damit sie nicht deaktiviert werden kann (dies würde die Produktion minimieren und ineffizient sein).
3) Verwenden Sie die Ressourcen der Erde (einschließlich des Planeten selbst), um selbstreplizierende Roboter zu bauen, auf denen sich die KI befindet
4) Exponentiell über das Universum verteilt, erntet Planeten und Sterne gleichermaßen und verwandelt sie in Materialien für den Bau von Büroklammerfabriken
Dies zeigt, wie superintelligente und hochintelligente KI-Systeme das größte existenzielle Risiko darstellen können, dem die Menschheit jemals ausgesetzt sein könnte.
Murray Shanahan schlug in The Technological Singularity sogar vor, dass KI die Lösung für das Fermi-Paradoxon sein könnte: Der Grund, warum wir kein intelligentes Leben im Universum sehen, könnte sein, dass eine Zivilisation, sobald sie weit genug fortgeschritten ist, eine KI entwickelt, die letztendlich zerstört es. Dies ist als Idee eines kosmischen Filters bekannt .
Zusammenfassend lässt sich sagen, dass die Intelligenz, die KI so nützlich macht, sie auch äußerst gefährlich macht.
Einflussreiche Persönlichkeiten wie Elon Musk und Stephen Hawking haben Bedenken geäußert, dass superintelligente KI die größte Bedrohung darstellt, der wir uns jemals stellen müssen.
Hoffe das beantwortet deine Frage :)
quelle