1) Die meisten neuronalen Netze können keine Multiplikationen durchführen. Sie können nur Summen berechnen (die dann einzeln über eine Aktivierungsfunktion durchgereicht werden ). Sie müssen diese Multiplikationen stattdessen schätzen, wenn sie wichtig sind, was viele Neuronen erfordert, insbesondere wenn die Faktoren große Bereiche umfassen können.
Wenn sich herausstellen würde, dass das Hausgebiet tatsächlich ein wichtiges Merkmal ist, helfen Sie dem Netzwerk, wenn Sie es mit dem Gebiet versorgen, da es dann die Neuronen verwenden kann, die es benötigt hätte, um die Multiplikation der Breite und der Länge abzuschätzen andere Dinge zu tun.
Daher kann das Einbeziehen von Polynommerkmalen in einigen Fällen für das Netzwerk von Vorteil sein, hat in anderen Fällen jedoch keine signifikante Auswirkung. Darüber hinaus sind Polynommerkmale nur eine Art von abgeleiteten Merkmalen, die für das Netzwerk hilfreich sein können. Eine andere Art von abgeleitetem Merkmal, das sich als hilfreich herausstellen kann, sind beispielsweise die Logarithmen der Eingangsvariablen (die als positiv angesehen werden), die das Netzwerk ebenfalls schätzen muss, um sie zu erhalten.
Eine Idee wäre, dem Netzwerk zu erlauben, mehr Operationen zwischen Zahlen als nur Additionen durchzuführen, um es zu ermöglichen, effizient Dinge wie Polynommerkmale selbst zu berechnen, aber es ist nicht klar, wie das funktionieren würde. Eine Architektur, die ähnlich aussieht, ist das Summenproduktnetzwerk .
2) Abgesehen von den von John erwähnten Berechnungskosten erhöht die Erhöhung der Anzahl der Parameter im Modell, die unvermeidlich ist, wenn Sie mehr Eingaben vornehmen , auch das Risiko einer Überanpassung des Netzwerks , insbesondere wenn Sie nur wenige Trainingsdaten haben.
Dies kann jedoch zu einem viel geringeren Problem gemacht werden, wenn eine gute Regularisierungsmethode verwendet wird. (Dropout scheint dafür sehr gut zu funktionieren) Theoretisch sollte eine Überanpassung mit einer ausreichend guten Regularisierungsmethode überhaupt kein Problem sein. Wie Hinton hervorhebt, hat ein Mensch in der Größenordnung von 10 ^ 14 Synapsen im Gehirn (entsprechend den Verbindungen im neuronalen Netz), lebt aber nur in der Größenordnung von 10 ^ 9 Sekunden, aber wir scheinen immer noch dazu in der Lage zu sein verallgemeinern ganz gut. Es ist also klar, dass es nur von Vorteil ist, wenn mit dem richtigen Algorithmus viele Parameter eingestellt werden können.