Immer wenn ein Problem von einem Computer gelöst werden kann, wird argumentiert, dass hierfür keine Intelligenz erforderlich ist. John McCarthy wird oft zitiert: "Sobald es funktioniert, nennt es keiner mehr KI" ( in CACM referenziert ).
Einer meiner Hochschullehrer sagte, dass in den 1950er Jahren ein Professor gefragt wurde, was er für eine Maschine für intelligent hält. Der Professor hat angeblich geantwortet, dass es intelligent wäre, wenn ihm ein Verkaufsautomat das richtige Wechselgeld geben würde.
Später galt Schachspielen als intelligent. Computer können jetzt jedoch Großmeister im Schach besiegen, und die Leute sagen nicht mehr, dass es sich um eine Form der Intelligenz handelt.
Jetzt haben wir OCR. In einer anderen Antwort heißt es bereits, dass unsere Methoden nicht über die Erkennungsmöglichkeiten eines 5-Jährigen verfügen. Sobald dies erreicht ist, werden die Leute sagen "meh, das ist keine Intelligenz, ein 5-Jähriger kann das!"
Eine psychologische Voreingenommenheit, das Bedürfnis zu behaupten, dass wir Maschinen in irgendeiner Weise überlegen sind, ist die Grundlage dafür.
SL Barth - Wiedereinsetzung von Monica
quelle
Obwohl OCR mittlerweile eine Mainstream-Technologie ist, hat keine unserer Methoden wirklich die Erkennungsmöglichkeiten eines 5-Jährigen (trotz behaupteten Erfolgs mit CAPTCHAs). Wir wissen nicht, wie wir dies mit gut verstandenen Techniken erreichen können, daher sollte OCR zu Recht als AI-Problem betrachtet werden.
Um zu sehen, warum dies so sein könnte, ist es aufschlussreich, den Aufsatz "Über das Sehen von As und das Sehen von AS" von Douglas Hofstadter zu lesen .
In Bezug auf einen Punkt, der in einer anderen Antwort gemacht wurde, ist das Agent-Framing insofern nützlich, als es den Erfolg in immer komplexeren Umgebungen motiviert. Es gibt jedoch viele schwierige Probleme (z. B. Bongard), die nicht so angegeben werden müssen.
quelle
Ich bin nicht sicher, ob die Vorhersage von MNIST wirklich als AI-Aufgabe angesehen werden kann. KI-Probleme können normalerweise im Kontext eines Agenten auftreten, der in einer Umgebung agiert. Neuronale Netze und Techniken des maschinellen Lernens müssen sich im Allgemeinen nicht mit dieser Rahmung befassen. Klassifikatoren lernen beispielsweise eine Zuordnung zwischen zwei Räumen. Obwohl man argumentieren könnte, dass Sie die OCR- / Bildklassifizierung als AI-Problem einrahmen können - der Klassifizierer ist der Agent, jede Vorhersage ist eine Aktion und er erhält Belohnungen basierend auf seiner Klassifizierungsgenauigkeit -, ist dies eher unnatürlich und unterscheidet sich von den Problemen, die auftreten werden allgemein als AI-Probleme angesehen.
quelle