Es scheint universell, dass demografische Statistiken in Bezug auf 100.000 Einwohner pro Jahr angegeben werden. Zum Beispiel Selbstmordraten, Mordraten, behinderungsbereinigtes Lebensjahr, die Liste geht weiter. Warum?
Wenn wir über Chemie sprechen, sind Teile pro Million (ppm) üblich. Warum wird das Zählen von Menschen grundlegend anders betrachtet? Die Zahl von 100.000 hat keine Basis im SI-System, und soweit ich das beurteilen kann, hat sie überhaupt keine empirische Basis, außer einem schwachen Verhältnis zu einem Prozentsatz. Eine Zählung pro 100.000 könnte als Mili-Prozent, m% ausgelegt werden. Ich dachte, das könnte ein Stöhnen bekommen.
Ist das ein historisches Artefakt? Oder gibt es ein Argument, um die Einheit zu verteidigen?
demography
units
AlanSE
quelle
quelle
Antworten:
Eine kleine Untersuchung zeigt zunächst, dass Demografen (und andere, wie Epidemiologen, die über Ereignisraten in menschlichen Populationen berichten) 100.000 nicht "universell" als Nenner verwenden. In der Tat scheint das Googeln von "Demografie 100000" oder verwandten Suchanfragen so viele Dokumente zu ergeben, dass 1000 für den Nenner verwendet werden, wie 100.000. Ein Beispiel ist das Glossar des Bevölkerungsreferenzbüros für demografische Begriffe , in dem konsequent 1000 verwendet werden.
Ein Blick in die Schriften früher Epidemiologen und Demografen zeigt, dass die frühen (wie John Graunt und William Petty, die an den frühen Londoner Gesetzentwürfen von 1662 mitwirkten ) ihre Statistiken nicht einmal normalisierten: Sie berichteten über Rohzahlen innerhalb bestimmter Verwaltungseinheiten (wie die Stadt London) in bestimmten Zeiträumen (wie ein Jahr oder sieben Jahre).
Der wegweisende Epidemiologe John Snow (1853) erstellte Tabellen, die auf 100.000 normalisiert waren , diskutierte jedoch die Raten pro 10.000. Dies deutet darauf hin, dass der Nenner in den Tabellen entsprechend der Anzahl der verfügbaren signifikanten Zahlen ausgewählt und angepasst wurde, um alle Einträge ganzheitlich zu machen.
Solche Konventionen waren in mathematischen Tabellen üblich, die mindestens bis zu John Napiers Logarithmenbuch (ca. 1600) zurückreichen , in dem die Werte pro 10.000.000 ausgedrückt wurden, um eine siebenstellige Genauigkeit für Werte im Bereich . (Die Dezimalschreibweise war anscheinend so neu, dass er sich verpflichtet fühlte, seine Notation im Buch zu erläutern!) Daher würde man erwarten, dass typische Nenner ausgewählt wurden, um die Genauigkeit der Berichterstattung widerzuspiegeln und Dezimalstellen zu vermeiden.[0,1]
Ein modernes Beispiel für die konsequente Verwendung der Neuskalierung durch Zehnerpotenzen zur Erzielung überschaubarer Integralwerte in Datensätzen ist John Tukeys klassischer Text EDA (1977). Er betont, dass Datenanalysten sich frei fühlen sollten, Daten neu zu skalieren (und im Allgemeinen nichtlinear neu auszudrücken), um sie für die Analyse besser geeignet und einfacher zu verwalten.
Ich bezweifle daher Spekulationen, wie natürlich und ansprechend sie auch sein mögen, dass ein Nenner von 100.000 historisch aus einem bestimmten menschlichen Maßstab stammt, wie beispielsweise einer "kleinen bis mittleren Stadt" (die vor dem 20. Jahrhundert ohnehin und weit weniger als 10.000 Menschen gehabt hätte weniger als 100.000).
quelle
Ich erinnere mich an einen Kurs zur Bevölkerungsgeographie vor einigen Jahrzehnten. Unsere Ausbilderin (Professorin Brigette Waldorf, jetzt an der Purdue University) sagte [etwas in diesem Sinne], dass wir die Anzahl der Vorkommen (z. B. Todesfälle, Geburten) pro 100.000 ausdrücken, weil Selbst wenn es nur 30 oder 50 Vorkommen gibt, müssen wir nicht auf lästige Prozentsätze zurückgreifen. Intuitiv ist es für die meisten Menschen (obwohl sie wahrscheinlich keine Leser dieses angesehenen Forums sind) sinnvoller zu sagen, dass die Sterblichkeitsrate durch Schlangenbiss bei Männern im Alter von 35 bis 39 Jahren im Jahr 2010 13 pro 100.000 Einwohner betrug. Es macht es einfach, die Raten über Standorte und Kohorten hinweg zu vergleichen (allerdings auch die Prozentsätze).
Obwohl ich kein Demograf bin, habe ich noch nie gehört, dass jemand auf das mittelgroße Stadtargument Bezug genommen hat, obwohl es vernünftig klingt. Es ist nur so, dass ich in ungefähr 20 Jahren des Umgangs mit Geographen und verwandten Sozialwissenschaftlern als Student, Doktorand und jetzt Fakultätsmitglied diese spezielle Erklärung über die Größe der Stadt noch nie gehört habe. Bis jetzt.
quelle
Im Allgemeinen versuchen wir, Informationen an tatsächliche Personen weiterzugeben. Daher ist es nützlich, eine Zahl zu verwenden, die für Personen von Bedeutung ist. 100.000 Menschen sind so groß wie eine kleine bis mittlere Stadt, über die man leicht nachdenken kann.
quelle
Es gibt keinen intelligenten oder rationalen Grund, auf 100.000 umzurechnen.
Es ändert nur die Einheiten eines Verhältnisses.
Das größere Problem ist, dass die meisten Leute die falsche Domain verwenden, wenn sie auf 100.000 umsteigen
Es gibt einfach keinen guten Grund dafür.
quelle