Wird der KI-Effekt durch schlechte Intelligenztests verursacht?

8

Laut Wikipedia ...

Der KI-Effekt tritt auf, wenn Zuschauer das Verhalten eines Programms für künstliche Intelligenz ignorieren, indem sie argumentieren, dass es sich nicht um echte Intelligenz handelt.

Pamela McCorduck schreibt: "Es ist Teil der Geschichte des Gebiets der künstlichen Intelligenz, dass jedes Mal, wenn jemand herausfand, wie man einen Computer dazu bringt, etwas zu tun - gute Kontrolleure zu spielen, einfache, aber relativ informelle Probleme zu lösen -, gab es einen Chor von Kritikern zu sagen:" das denkt nicht '. "[1] Der KI-Forscher Rodney Brooks beschwert sich." Jedes Mal, wenn wir ein Stück davon herausfinden, hört es auf, magisch zu sein. Wir sagen:' Oh, das ist nur eine Berechnung. '"[2]

Die Wikipedia-Seite schlägt dann verschiedene Gründe vor, die erklären könnten, warum Zuschauer KI-Programme "rabattieren" könnten. Diese Gründe scheinen jedoch zu implizieren, dass die Menschen einen Fehler machen, wenn sie das Verhalten von KI-Programmen "diskontieren" ... und dass diese KI-Programme tatsächlich intelligent sein könnten. Ich möchte ein alternatives Argument vorbringen, bei dem die Menschen einen Fehler machen, aber nicht das Verhalten von KI-Programmen "diskontieren".

Betrachten Sie die folgende Situation. Ich möchte eine Maschine bauen, die X kann (wobei X ein Merkmal ist, wie Intelligenz). Ich kann intuitiv beurteilen, ob eine Maschine diese X-Kriterien hat. Aber ich habe keine gute Definition dessen, was X eigentlich ist . Ich kann nur feststellen, ob etwas X hat oder nicht.

Ich denke jedoch, dass Leute mit X Y können. Wenn ich also eine Maschine baue, die Y kann, dann habe ich sicherlich eine Maschine mit X gebaut.

Nachdem ich die Maschine gebaut habe, die Y kann, überprüfe ich sie, um festzustellen, ob meine Maschine X hat. Und das tut sie nicht. Meiner Maschine fehlt also X. Und während eine Maschine, die Y kann, cool ist, möchte ich wirklich eine Maschine mit X. Ich gehe zurück zum Zeichenbrett und denke über eine neue Idee nach, um X zu erreichen.

Nachdem ich ein paar Stunden auf das Whiteboard geschrieben habe, stelle ich fest, dass Leute mit X Z können. Natürlich! Ich versuche eine neue Maschine zu bauen, die Z kann, ja, wenn sie Z kann, muss sie X haben.

Nachdem ich die Maschine gebaut habe, die Z kann, überprüfe ich, ob sie X hat. Dies ist nicht der Fall. Und so kehre ich zum Zeichenbrett zurück und der Zyklus wiederholt sich und wiederholt sich ...

Im Wesentlichen versuchen Menschen über Proxy-Messungen festzustellen, ob eine Entität über Intelligenz verfügt, aber diese Proxy-Messungen sind möglicherweise fehlerhaft (da es möglich ist, diese Proxy-Messungen zu erfüllen, ohne jemals tatsächlich über Intelligenz zu verfügen). Bis wir wissen, wie man Intelligenz definiert und einen Test entwirft, der sie genau messen kann, ist es sehr unwahrscheinlich, dass wir eine Maschine mit Intelligenz bauen. Der KI-Effekt tritt also auf, weil Menschen nicht wissen, wie man "Intelligenz" definiert, und nicht, weil Leute Programme als nicht "intelligent" abtun.

Ist dieses Argument gültig oder richtig? Und wenn nicht, warum nicht?

Linke SE Ein 10_6_19
quelle

Antworten:

7

Ich denke es ist meistens richtig. Aber nicht, dass Intelligenz schwer zu definieren ist. Meiner Meinung nach ist es einfach: A ist intelligenter als B, wenn A in weniger Schritten als B einen Zweck erreicht. Es ist funktionale / algorithmische Effizienz.

Was schwer zu definieren ist, ist die menschliche Intelligenz.

Aber wenn jemand sagt: "Nein, X ist keine echte Intelligenz", bedeutet dies, dass es nicht das erfüllt, was wir als echte menschliche Intelligenz betrachten würden .

Wenn Menschen neue und erstaunliche Entdeckungen in der maschinellen Intelligenz ignorieren, dann nicht, weil sie auf ihre eigene Weise nicht erstaunlich sind, sondern weil diese Entdeckungen, während sie Intelligenz zeigen, tatsächlich keine menschliche Intelligenz replizieren - was viele Menschen tatsächlich meinen, wenn sie es tun sag "das Ding ist nicht wirklich intelligent."

In Wahrheit sind wir in der Wissenschaft der künstlichen Intelligenz algorithmisch gesehen sehr weit von einer künstlichen menschlichen Intelligenz (AHI) entfernt.

Zusätzlicher Hinweis: Was lustig ist, ist, dass wir die Wissenschaft der künstlichen Intelligenz nicht nur "die Wissenschaft der Intelligenz" nennen. Dass wir das "künstliche" Qualifikationsmerkmal notwendigerweise hinzufügen, hängt die Wissenschaft von dem ab, was die Künstlichkeit implizit nachahmt: der menschlichen Intelligenz. Mit anderen Worten, "künstliche Intelligenz" muss per Definition spezifischer für das sein, was sie angeblich künstlich macht, als eine allgemeinere Wissenschaft von nur "Intelligenz".

Doxosophoi
quelle