Ihre Frage ist sinnvoll. Die Art und Weise, wie die posteriore Wahrscheinlichkeit im klassischen Naive Bayes-Klassifikator (in sklearn) berechnet wird, entspricht der Summierung der bedingten Wahrscheinlichkeiten aller Merkmale im Datensatz. Obwohl die Features als bedingt unabhängig behandelt werden, werden zum Erlernen der Klassifizierungswahrscheinlichkeit immer alle Features in diesem Setup verwendet. Sobald das Modell gelernt wurde, haben Sie noch alle diese Funktionen, um den Seitenzahn für eine neue Beobachtung zu berechnen. Die bedingte Unabhängigkeit ist nur eine Annahme, die getroffen wird, damit Statistik und Mathematik den Regeln und der Arbeit entsprechen.
Wenn Sie jedoch die Art und Weise, wie der Posterior berechnet wird, leicht ändern, können Sie den Bayes'schen Ansatz verwenden, um Vorhersagen zu treffen, auch wenn bestimmte Merkmale fehlen. Die Verwendung des Bayes'schen Ansatzes zur Vorhersage ohne bestimmte Merkmale ist noch nicht abgeschlossen. Vielleicht möchten Sie einen Blick auf dieses Papier werfen , in dem der Bayes'sche Ansatz auf die Astronomie angewendet wird, um eine Klassifizierung mit fehlenden Werten durchzuführen.
Naive Bayes können leicht in Python implementiert werden, da es sich um eine einfache Berechnung handelt. Das sklearn Naive Bayes unterstützt keine Vorhersagen mit fehlenden Werten und kann schwierig zu implementieren sein, was Sie denken. Vielleicht wäre es besser, einen eigenen Code zu schreiben :)