Ich arbeite an einem Modell, das auf einer hässlichen parametrisierten Funktion beruht, die als Kalibrierungsfunktion für einen Teil des Modells fungiert. Bei Verwendung einer Bayes'schen Einstellung muss ich nicht informative Prioritäten für die Parameter erhalten, die meine Funktion beschreiben. Ich weiß, dass ich im Idealfall Referenz- oder zumindest Jeffreys-Prioritäten ableiten sollte, aber die Funktion ist sehr hässlich, hat viele Parameter und ich bin pessimistisch in Bezug auf die Möglichkeit, tatsächlich ein Ergebnis zu erzielen. Deshalb habe ich mich entschlossen, diese Möglichkeit fallen zu lassen und meine Prioren empirisch auszuwählen, damit sie nicht informativ sind. Hier sind meine zwei Fragen.
Kann ich mehr als nur neugierig machen und aus Inferenzergebnissen Einblicke in ihre Nichtinformativität geben? Bearbeiten: Ich denke, dass das Zeichnen von posterioren Vs vor ein erster Punkt wäre. Vielleicht könnte der Vergleich von MAP- und ML-Schätzungen ein zweites Argument sein?
Ist dies darüber hinaus sinnvoll, um einen Aspekt der Auswahl aus einer "Dimensionsanalyse" zu rechtfertigen? Wenn ich als Beispiel eine Wahrscheinlichkeitsstruktur des Formulars betrachte (in einer einfachen Regressionseinstellung): Glaubst du, ich kann jede "Struktur" für den Prior auf a und b erraten,basierend auf der Tatsache, dass einer x wiegt,während der andere e x wiegt?