Ist es richtig, bedingte Wahrscheinlichkeiten wie die Formulare anzuzeigen:
P (a | c)
P (a | c, d)
P (a, b | c, d)
... und so weiter als Tensoren?
Wenn ja, kennt jemand einen anständigen Einführungstext (Online-Tutorial, Workshop-Artikel, Buch usw.), der Tensoren in diesem Sinne für Informatiker / Praktiker des maschinellen Lernens entwickelt?
Ich habe eine Reihe von Artikeln gefunden, aber diejenigen, die auf einer Einführungsstufe geschrieben wurden, sind für Physiker geschrieben, und diejenigen, die für Informatiker geschrieben wurden, sind ziemlich fortgeschritten.
Antworten:
Dies ist definitiv möglich, obwohl der Tensor natürlich bestimmte zusätzliche Strukturen (Einschränkungen) aufweist.
Wenn Sie die folgende Bedingung berücksichtigen, die für eine kategoriale Antwort definiert istY. auf kategoriale Prädiktoren X.ich ::
dies entspricht einem bedingten Wahrscheinlichkeitstensor der Größed0⋅d1⋅ … ⋅dn . HierY. (als kategorische Antwort) nimmt d0 Ebenen.
In erster Linie müssen die Elemente des Tensors jeweils nicht negativ sein.
Hierzu finden Sie Artikel, z. B. "Bayesian Conditional Tensor Factorizations for High-Dimensional Classification" von Yang und Dunson ( pdf, arxiv ).
Wenn es sich bei den betreffenden Zufallsvariablen nicht um kategoriale Variablen handelt, sondern entweder um kontinuierliche Zufallsvariablen oder um eine unendliche Anzahl von Werten (oder beides), ist die Zuordnung zu endlichen Tensoren natürlich nicht so trivial. Sie benötigen so etwas wie einen unendlichen Tensor (als Erweiterung einer unendlichen Matrix).
quelle