Ich bewerte zwei (2) Kältemittel (Gase), die im selben Kühlsystem verwendet wurden. Ich habe gesättigte Saugtemperatur ( ), Kondensationstemperatur ( D ) und Stromstärke ( Y ) für die Auswertung. Es gibt zwei (2) Datensätze; 1. Kältemittel ( R 1 ) & 2. Kältemittel ( R 2 ). Ich verwende ein lineares, multivariates ( S & D ) Polynommodell 3. Ordnung für die Regressionsanalysen. Ich möchte bestimmen, wie viel weniger / mehr Stromstärke (oder eine ähnliche Metrik als Leistungsvergleich) im Durchschnitt als Prozentsatz vom zweiten Kältemittel verbraucht wird.
Mein erster Gedanke war:
- Bestimmen Sie das zu verwendende Modell:
- Leiten Sie die Koeffizienten ( ) aus den Basisdaten ( R 1 ) ab.
- Unter Verwendung dieser Koeffizienten für jedes & D in der R 2 Datensatz berechnen jeden erwarteten amp Draw ( Y ) , und dann Durchschnitt.
- Vergleichen des Y Durchschnitt des tatsächlichen durchschnittlichen amp draw ( Y 2 ) der R 2 Daten.
Da das 2. Kältemittel jedoch leicht unterschiedliche thermische Eigenschaften aufweist und kleine Änderungen am Kühlsystem vorgenommen wurden (TXV- und Überhitzungseinstellungen), glaube ich nicht, dass diese „Basislinienvergleichsmethode“ korrekt ist.
Mein nächster Gedanke war, zwei (2) separate Regressionsanalysen durchzuführen:
und dann für die gesättigte Saugtemperatur ( ) die Koeffizienten ( a 1 gegen b 1 ) wie folgt vergleichen : % change = b 1 - a 1
Diese Koeffizienten sollten jedoch wiederum unterschiedlich gewichtet werden. Daher würden die Ergebnisse verzerrt sein.
Ich glaube, ich könnte einen Z-Test verwenden, um festzustellen, wie unterschiedlich gewichtet die Koeffizienten sind, aber ich bin nicht sicher, ob ich die Bedeutung der Ausgabe vollständig verstehe:
quelle
Antworten:
Aus dem idealen Gasgesetz hier ,P.V.= n R. T. und schlägt ein proportionales Modell vor. Stellen Sie sicher, dass Ihre Geräte die absolute Temperatur haben. Das Anfordern eines proportionalen Ergebnisses würde ein proportionales Fehlermodell implizieren. Überlegen Sie vielleichtY.= a D.bS.c , dann kann man für multiple lineare Regression verwenden ln( Y.) = ln( a ) + b ln( D ) + c ln( S.) indem Sie die Logarithmen der Y-, D- und S-Werte nehmen, so dass dies dann aussieht Y.l= al+ b D.l+cSl , where the l subscripts mean "logarithm of." Now, this may work better than the linear model you are using, and, the answers are then relative error type.
To verify what type of model to use try one and check if the residuals are homoscedastic. If they are not then you have a biased model, then do something else like model the logarithms, as above, one or more reciprocals of x or y data, square roots, squaring, exponentiation and so forth until the residuals are homoscedastic. If the model cannot yield homoscedastic residuals then use multiple linear Theil regression, with censoring if needed.
How normally the data is distributed on the y axis is not required, but, outliers can and often do distort the regression parameter results markedly. If homoscedasticity cannot be found then ordinary least squares should not be used and some other type of regression needs to be performed, e.g. weighted regression, Theil regression, least squares in x, Deming regression and so forth. Also, the errors should not be serially correlated.
The meaning of the output:z=(a1−b1)/SE2a1+SE2b1)−−−−−−−−−−−√ , may or may not be relevant. This assumes that the total variance is the sum of two independent variances. To put this another way, independence is orthogonality (perpendicularity) on an x,y plot. That is, the total variability (variance) then follows Pythagorean theorem, H=+A2+O2−−−−−−−√ , which may or may not be the case for your data. If that is the case, then the z -statistic is a relative distance, i.e., a difference of means (a distance), divided by Pythagorean, A.K.A. vector, addition of standard error (SE), which are standard deviations (SDs) divided by N−−√ , where SEs are themselves distances. Dividing one distance by the other then normalizes them, i.e., the difference in means divided by the total (standard) error, which is then in a form so that one can apply ND(0,1) to find a probability.
Now, what happens if the measures are not independent, and how can one test for it? You may remember from geometry that triangles that are not right angled add their sides asC2=A2+B2−2ABcos(θ),θ=∠(A,B) , if not refresh your memory here. That is, when there is something other than a 90-degree angle between the axes, we have to include what that angle is in the calculation of total distance. First recall what correlation is, standardized covariance. This for total distance σT and correlation ρA,B becomes σ2T=σ2A+σ2B−2σAσBρA,B . In other words, if your standard deviations are correlated (e.g., pairwise), they are not independent.
quelle