Ich bin dabei, die normale Standardtabelle in meiner Einführungsstatistikklasse einzuführen, und das hat mich gefragt: Wer hat die erste normale Standardtabelle erstellt? Wie haben sie es gemacht, bevor Computer kamen? Ich schaudere, wenn ich an jemanden denke, der tausend Riemann-Summen von Hand berechnet.
normal-distribution
algorithms
history
tables
Daniel Smolkin
quelle
quelle
Antworten:
Laplace erkannte als erster die Notwendigkeit einer Tabellierung und kam auf die Annäherung:
Die erste moderne Tabelle der Normalverteilung wurde später von dem französischen Astronomen Christian Kramp in Analyse der Reflexionen der Astronomie und des Territoriums erstellt . Aus Tabellen, die sich auf die Normalverteilung beziehen: Eine kurze Geschichte Autor (en): Herbert A. David Quelle: The American Statistician, Vol. 59, Nr. 4 (November 2005), S. 309-311 :
Aber ... wie genau könnte er sein? OK, nehmen wir als Beispiel2.97 :
Tolle!
Kommen wir zum modernen (normalisierten) Ausdruck des Gaußschen PDF:
Außerdem hat Christian Kramp nicht normalisiert, daher müssen wir die Ergebnisse von R entsprechend korrigieren und mit multiplizieren2π−−√
Fantastisch!
So nah...
Die Sache ist ... wie nah genau? Nach all den positiven Stimmen konnte ich die eigentliche Antwort nicht hängen lassen. Das Problem war, dass alle Anwendungen zur optischen Zeichenerkennung (OCR), die ich ausprobiert habe, unglaublich deaktiviert waren - nicht überraschend, wenn Sie sich das Original angesehen haben. So lernte ich Christian Kramp für die Hartnäckigkeit seiner Arbeit zu schätzen, als ich persönlich jede Ziffer in die erste Spalte seiner Table Première eintippte .
Nach einiger wertvoller Hilfe von @Glen_b kann es nun sehr genau sein und es kann kopiert und in die R-Konsole in diesem GitHub-Link eingefügt werden .
Hier ist eine Analyse der Genauigkeit seiner Berechnungen. Mach dich bereit ...
mean(abs(difference))
mitdifference = R - kramp
:Bei der Eingabe, bei der seine Berechnungen im Vergleich zu [R] am abweichendsten waren, befand sich der erste unterschiedliche Dezimalstellenwert auf der achten Position (Hundertmillionstel). Im Durchschnitt (Median) lag sein erster "Fehler" in der zehnten Dezimalstelle (zehntes Milliardstel!). Und obwohl er mit [R] in keinem Fall völlig einverstanden war, divergiert der nächste Eintrag erst mit dem dreizehn digitalen Eintrag.
mean(abs(R - kramp)) / mean(R)
(identisch mitall.equal(R[,2], kramp[,2], tolerance = 0)
):sqrt(mean(difference^2))
:Wenn Sie ein Bild oder Porträt von Chistian Kramp finden, bearbeiten Sie diesen Beitrag und platzieren Sie ihn hier.
quelle
Laut HA David [1] erkannte Laplace die Notwendigkeit für Tabellen der Normalverteilung "bereits 1783" und die erste Normaltabelle wurde 1799 von Kramp hergestellt.
Kramp verwendete diese Laplace-Serien jedoch nicht, da es eine Lücke in den Intervallen gab, für die sie sinnvoll angewendet werden konnten.
Um genau zu sein, zitieren Sie die relevanten Satzpaare:
David gibt an, dass die Tabellen weit verbreitet waren.
Anstelle von Tausenden von Riemann-Summen waren es also Hunderte von Taylor-Erweiterungen.
Im Übrigen habe ich zur Not (nur mit einem Taschenrechner und ein paar gespeicherten Werten aus der normalen Tabelle) die Simpson-Regel (und verwandte Regeln für die numerische Integration) ziemlich erfolgreich angewendet, um eine gute Annäherung an andere Werte zu erhalten. es ist nicht alles , dass mühsam eine gekürzte Tabelle * auf ein paar Zahlen von Genauigkeit zu erzeugen. [Es wäre allerdings eine ziemlich große Aufgabe, Tabellen mit dem Maßstab und der Genauigkeit von Kramps zu erstellen, selbst wenn er eine schlauere Methode anwendet, als er.]
* Mit einer abgekürzten Tabelle meine ich eine, bei der Sie im Grunde mit der Interpolation zwischen tabellarischen Werten davonkommen können, ohne zu viel Genauigkeit zu verlieren. Wenn Sie nur etwa 3 Figur Genauigkeit sagen wollen Sie wirklich brauchen nicht zu berechnen alle , dass viele Werte. Ich habe effektiv die Polynominterpolation (genauer gesagt, angewandte Finite-Differenzen-Techniken) verwendet, die eine Tabelle mit weniger Werten als die lineare Interpolation ermöglicht - wenn auch mit etwas mehr Aufwand beim Interpolationsschritt - und auch eine Interpolation mit einer Logit-Transformation durchgeführt macht die lineare Interpolation wesentlich effektiver, nützt aber nur viel, wenn Sie einen guten Taschenrechner haben).
[1] Herbert A. David (2005),
"die Normalverteilung Verwandte Tabellen: Eine kurze Geschichte"
The American Statistician , Vol. 59, Nr. 4 (Nov.), S. 309-311
[2] Kramp (1799),
Analyse der Reflexionen Astronomiques et Terrestres,
Leipzig: Schwikkert
quelle
Interessantes Thema! Ich denke, die erste Idee ist nicht durch die Integration komplexer Formeln entstanden. vielmehr das Ergebnis der Anwendung der Asymptotika in der Kombinatorik. Die Stift- und Papiermethode kann mehrere Wochen dauern. Für Karl Gauß nicht so schwer im Vergleich zur Kuchenberechnung für seine Vorgänger. Ich denke, Gauß 'Idee war mutig; Berechnung war einfach für ihn.
Beispiel für die Erstellung einer Standard-Z-Tabelle von Grund auf:
1. Nehmen Sie eine Grundgesamtheit von n (n ist 20) Zahlen und listen Sie daraus alle möglichen Stichproben der Größe r (r ist 5) auf.
2. Berechnen Sie den Mittelwert der Stichprobe. Sie erhalten einen nCr-Mittelwert (hier bedeutet 20c5 = 15504).
3. Ihr Mittelwert entspricht dem Bevölkerungsmittelwert. Finden Sie den Standardwert der Probe.
4. Ermitteln Sie die z-Werte der Stichprobenmittelwerte mit dem Pop-Mittelwert und dem Standardwert der Stichprobenmittelwerte.
5. Sortieren Sie z in aufsteigender Reihenfolge und finden Sie die Wahrscheinlichkeit, dass z in einem Bereich Ihrer nCr z -Werte liegt.
6. Vergleichen Sie die Werte mit normalen Tabellen. Ein kleineres n ist gut für Handberechnungen. Ein größeres n führt näher an die normalen Tabellenwerte heran.
Der folgende Code ist in r:
Wahrscheinlichkeit, dass z zwischen 0 und einem positiven Wert q darunter liegt; Vergleiche mit einer bekannten Tabelle. Manipuliere q unten zwischen 0 und 3,5, um zu vergleichen.
quelle