Die technologische Singularität ist ein theoretischer Zeitpunkt, zu dem eine sich selbst verbessernde künstliche allgemeine Intelligenz in der Lage ist, Konzepte außerhalb der Reichweite des menschlichen Gehirns zu verstehen und zu manipulieren. t.
Die Unschärfe der Singularität beruht auf der Tatsache, dass die Geschichte von der Singularität an praktisch unvorhersehbar ist. Die Menschheit wäre nicht in der Lage, zukünftige Ereignisse vorherzusagen oder gegenwärtige Ereignisse zu erklären, da die Wissenschaft selbst nicht in der Lage ist, von Maschinen ausgelöste Ereignisse zu beschreiben. Grundsätzlich würden Maschinen uns genauso sehen wie Ameisen. Somit können wir keine Vorhersagen über die Singularität hinaus treffen. Als logische Konsequenz wäre es uns außerdem nicht möglich, den Punkt zu definieren, an dem die Singularität überhaupt auftreten kann, oder sie sogar zu erkennen, wenn sie auftritt.
Damit die Singularität jedoch stattfinden kann, muss die AGI entwickelt werden, und ob dies möglich ist, ist eine ziemlich heiße Debattejetzt sofort. Außerdem müsste ein Algorithmus entworfen werden, der übermenschliche Intelligenz aus Bits und Bytes erzeugt. Per Definition wäre ein menschlicher Programmierer nicht in der Lage, so etwas zu tun, da sein Gehirn in der Lage sein müsste, Konzepte zu verstehen, die über seine Reichweite hinausgehen. Es gibt auch das Argument, dass eine Intelligenzexplosion (der Mechanismus, durch den sich theoretisch eine technologische Singularität bilden würde) unmöglich wäre, da es schwierig ist, sich selbst intelligenter zu machen, proportional zu seiner Intelligenz größer zu werden, und die Schwierigkeit der Entwurf selbst kann die Intelligenz überholen, die zur Lösung dieser Herausforderung erforderlich ist (letzter Verdienst des Gottes der Lamas in den Kommentaren).
Es gibt auch verwandte Theorien, in denen Maschinen die Menschheit übernehmen und all diese Science-Fiction-Erzählungen. Dies ist jedoch unwahrscheinlich, wenn die Gesetze von Asimov ordnungsgemäß befolgt werden. Selbst wenn die Gesetze von Asimov nicht ausreichen würden, wären dennoch eine Reihe von Einschränkungen erforderlich, um den Missbrauch von AGI durch absichtslose Personen zu vermeiden, und die Gesetze von Asimov sind die nächsten, die wir dazu haben.
Das Konzept der "Singularität" ist, wenn Maschinen den Menschen überlisten. Obwohl Stephen Hawking der Meinung ist, dass diese Situation unvermeidlich ist, denke ich, dass es sehr schwierig sein wird, diesen Punkt zu erreichen, da jeder KI-Algorithmus von Menschen programmiert werden muss, daher wäre er immer begrenzter als sein Schöpfer.
Wir würden wahrscheinlich wissen, wann der Zeitpunkt gekommen ist, an dem die Menschheit die Kontrolle über künstliche Intelligenz verlieren wird, an dem superschicke KI im Wettbewerb mit Menschen stehen und möglicherweise intelligentere Wesen entstehen, aber derzeit ähnelt es eher Science-Fiction (auch bekannt als Terminators Skynet ).
Das Risiko könnte Leute (wie selbstfliegenden Krieg verwickeln zu töten Drohnen , die ihre eigene Entscheidung), zu zerstören Länder oder sogar den ganzen Planeten (wie AI mit den Kernwaffen (aka WarGames Film), aber es beweist nicht den Punkt , dass die Maschinen wären schlauer als Menschen.
quelle
Die Singularität im Kontext der KI ist ein theoretisches Ereignis, bei dem ein intelligentes System mit den folgenden Kriterien eingesetzt wird.
Durch Induktion sagt die Theorie dann voraus, dass eine Sequenz von Ereignissen mit einer potenziellen Geschwindigkeit der Intelligenzsteigerung erzeugt wird, die die potenzielle Geschwindigkeit der Gehirnentwicklung bei weitem übersteigen kann.
Wie verpflichtet diese sich selbst verbessernde Entität oder Population von gebildeten Entitäten wäre, menschliches Leben und Freiheit zu bewahren, ist unbestimmt. Die Vorstellung, dass eine solche Verpflichtung Teil eines unwiderruflichen Softwarevertrags sein kann, ist angesichts der Art der Fähigkeiten, die an die vorstehenden Kriterien (1) bis (4) gebunden sind, naiv. Wie bei anderen leistungsstarken Technologien sind die Risiken ebenso zahlreich und weitreichend wie die potenziellen Vorteile.
Risiken für die Menschheit erfordern keine Intelligenz. Es gibt andere Zusammenhänge, in denen der Begriff Singularität verwendet wird, die jedoch außerhalb des Anwendungsbereichs dieses AI-Forums liegen, aus Gründen der Klarheit möglicherweise eine kurze Erwähnung wert sind. Gentechnik, Nukleartechnik, Globalisierung und der Aufbau einer internationalen Wirtschaft auf der Grundlage einer endlichen Energiequelle, die tausende Male schneller verbraucht wird als auf der Erde - dies sind weitere Beispiele für risikoreiche Technologien und Massentrends, die sowohl Risiken als auch Vorteile mit sich bringen für die Menschheit.
Zurück zur KI: Die größte Einschränkung in der Singularitätstheorie besteht darin, dass die Wahrscheinlichkeit nicht berücksichtigt wird. Obwohl es möglich sein mag, eine Entität zu entwickeln, die den obigen Kriterien (1) bis (4) entspricht, ist es möglicherweise unwahrscheinlich genug, dass das erste Ereignis eintritt, lange nachdem alle derzeit auf der Erde gesprochenen Sprachen tot sind.
Auf der anderen Seite der Wahrscheinlichkeitsverteilung könnte man leicht argumentieren, dass es eine Wahrscheinlichkeit ungleich Null gibt, dass das erste Ereignis bereits eingetreten ist.
In diesem Sinne, wenn eine intelligentere Präsenz im Internet bereits vorhanden wäre, wie wahrscheinlich wäre es, dass sie es in ihrem besten Interesse finden würde, sich den niederen Menschen zu offenbaren. Stellen wir uns einer vorbeiziehenden Made vor?
quelle
Die "Singularität" bezieht sich eng betrachtet auf einen Punkt, an dem das Wirtschaftswachstum so schnell ist, dass wir keine nützlichen Vorhersagen darüber treffen können, wie die Zukunft nach diesem Punkt aussehen wird.
Es wird oft synonym mit "Intelligenzexplosion" verwendet, wenn wir eine so genannte starke KI erhalten, die intelligent genug ist, um sich selbst zu verstehen und zu verbessern. Es ist zu erwarten, dass die Explosion der Nachrichtendienste sofort zu einer wirtschaftlichen Singularität führen würde, aber das Gegenteil ist nicht unbedingt der Fall.
quelle