Fazit : Je mehr ich über Statistik lerne, desto weniger vertraue ich veröffentlichten Artikeln in meinem Bereich. Ich glaube einfach, dass Forscher ihre Statistiken nicht gut genug machen.
Ich bin sozusagen ein Laie. Ich bin in Biologie ausgebildet, aber ich habe keine formale Ausbildung in Statistik oder Mathematik. Ich mag R und bemühe mich oft, einige der theoretischen Grundlagen der Methoden zu lesen (und zu verstehen ...), die ich bei der Forschung anwende. Es würde mich nicht überraschen, wenn die Mehrheit der Menschen, die heute Analysen durchführen, nicht offiziell geschult ist. Ich habe ungefähr 20 Originalarbeiten veröffentlicht, von denen einige von anerkannten Fachzeitschriften akzeptiert wurden, und Statistiker waren häufig an dem Überprüfungsprozess beteiligt. Meine Analysen umfassen üblicherweise Überlebensanalysen, lineare Regression, logistische Regression und gemischte Modelle. Noch nie hat ein Prüfer nach Modellannahmen, -anpassungen oder -bewertungen gefragt.
Daher habe ich mich nie zu sehr mit Modellannahmen, -anpassung und -bewertung befasst. Ich beginne mit einer Hypothese, führe die Regression durch und präsentiere dann die Ergebnisse. In einigen Fällen habe ich mich bemüht, diese Dinge zu bewerten, aber ich habe immer " gut, es hat nicht alle Annahmen erfüllt, aber ich vertraue den Ergebnissen (" Fachwissen ") und sie sind plausibel, also ist es in Ordnung " und " gut " Wenn sie einen Statistiker konsultierten, schienen sie immer einer Meinung zu sein.
Jetzt habe ich mit anderen Statistikern und Nicht-Statistikern (Chemikern, Ärzten und Biologen) gesprochen, die selbst Analysen durchführen. Es scheint, dass sich die Leute nicht allzu sehr um all diese Annahmen und formalen Bewertungen kümmern. Aber hier im CV gibt es eine Fülle von Leuten, die nach Residuen, Modellanpassung, Auswertungsmöglichkeiten, Eigenwerten, Vektoren und der Liste fragen. Lassen Sie es mich so sagen, wenn lme4 vor großen Eigenwerten warnt, bezweifle ich wirklich, dass viele seiner Benutzer sich darum bemühen, dies zu beheben ...
Lohnt sich der zusätzliche Aufwand? Ist es nicht wahrscheinlich, dass die Mehrheit aller veröffentlichten Ergebnisse diese Annahmen nicht respektiert und sie möglicherweise nicht einmal bewertet hat? Dies ist wahrscheinlich ein wachsendes Problem, da die Datenbanken von Tag zu Tag größer werden und die Annahme und Bewertung umso weniger wichtig ist, je größer die Daten sind.
Ich könnte absolut falsch liegen, aber so habe ich das wahrgenommen.
Update: Zitat von StasK (unten): http://www.nature.com/news/science-joins-push-to-screen-statistics-in-papers-1.15509
quelle
Antworten:
Ich bin gelernter Statistiker, kein Biologe oder Arzt. Aber ich mache einiges an medizinischer Forschung (in Zusammenarbeit mit Biologen und Ärzten). Als Teil meiner Forschung habe ich einiges über die Behandlung verschiedener Krankheiten gelernt. Bedeutet dies, dass wenn ein Freund mich nach einer von mir erforschten Krankheit fragt, ich ihm einfach ein Rezept für ein Medikament schreiben kann, von dem ich weiß, dass es häufig für diese bestimmte Krankheit angewendet wird? Wenn ich dies tun würde (ich nicht), dann würde es in vielen Fällen wahrscheinlich in Ordnung sein (da ein Arzt nur das gleiche Medikament verschrieben hätte), aber es besteht immer die Möglichkeit, dass sie eine Allergie / Droge haben Interaktion / Sonstiges, über das ein Arzt wissen würde, dass ich es nicht tue und das am Ende viel mehr Schaden als Nutzen anrichtet.
Wenn Sie Statistiken erstellen, ohne zu verstehen, was Sie vermuten und was schief gehen könnte (oder wenn Sie sich auf dem Weg dahin an einen Statistiker wenden, der nach solchen Dingen sucht), dann üben Sie statistische Verfehlungen. Meistens wird es wahrscheinlich in Ordnung sein, aber was ist mit der Gelegenheit, in der eine wichtige Annahme nicht zutrifft, aber Sie ignorieren sie einfach?
Ich arbeite mit einigen Ärzten zusammen, die einigermaßen statistisch kompetent sind und einen Großteil ihrer eigenen Analyse durchführen können, aber sie werden mich trotzdem überholen. Oft bestätige ich, dass sie das Richtige getan haben und dass sie die Analyse selbst durchführen können (und sie sind im Allgemeinen dankbar für die Bestätigung), aber gelegentlich werden sie etwas komplexeres tun, und wenn ich einen besseren Ansatz erwähne, werden sie die Analyse normalerweise umdrehen für mich oder mein Team oder zumindest für eine aktivere Rolle.
Meine Antwort auf Ihre Titelfrage lautet daher "Nein". Wir übertreiben nicht, sondern sollten einige Dinge stärker betonen, damit Laien ihre Verfahren / Ergebnisse mit größerer Wahrscheinlichkeit mindestens noch einmal mit einem Statistiker überprüfen.
Bearbeiten
Dies ist eine Ergänzung, die auf Adams Kommentar basiert (wird für einen weiteren Kommentar etwas lang sein).
Adam, Danke für deinen Kommentar. Die kurze Antwort lautet "Ich weiß nicht". Ich denke, dass Fortschritte bei der Verbesserung der statistischen Qualität von Artikeln erzielt werden, aber die Dinge haben sich in vielerlei Hinsicht so schnell entwickelt, dass es eine Weile dauern wird, die Qualität nachzuholen und zu garantieren. Ein Teil der Lösung konzentriert sich auf die Annahmen und Konsequenzen der Verstöße in den Einführungskursen. Dies ist wahrscheinlicher, wenn die Klassen von Statistikern unterrichtet werden, muss jedoch in allen Klassen geschehen.
Einige Zeitschriften schneiden besser ab, aber ich würde es begrüßen, wenn ein bestimmter Statistikprüfer zum Standard wird. Vor ein paar Jahren gab es einen Artikel (leider habe ich die Referenz nicht zur Hand, aber er war entweder in JAMA oder im New England Journal of Medicine), der eine höhere Wahrscheinlichkeit der Veröffentlichung aufwies (wenn auch keinen so großen Unterschied, wie er sollte) be) in JAMA oder NEJM, wenn ein Biostatistiker oder Epidemiologe einer der Mitautoren war.
Ein interessanter Artikel, der kürzlich veröffentlicht wurde, ist: http://www.nature.com/news/statistics-p-values-are-just-the-tip-of-the-iceberg-1.17412, in dem einige der gleichen Themen behandelt werden.
quelle
Nun ja, Annahmen spielen eine Rolle - wenn sie überhaupt keine Rolle spielen würden, müssten wir sie nicht machen, oder?
Die Frage ist, wie wichtig sie sind - dies variiert je nach Verfahren und Annahmen und was Sie über Ihre Ergebnisse behaupten möchten (und auch, wie tolerant Ihre Zielgruppe bei solchen Behauptungen in etwa ist - auch wenn sie ungenau sind).
Betrachten Sie als Beispiel für eine Situation, in der eine Annahme kritisch ist, die Normalitätsannahme in einem F-Test von Varianzen. Selbst relativ bescheidene Änderungen in der Verteilung können sich dramatisch auf die Eigenschaften (tatsächliches Signifikanzniveau und -stärke) des Verfahrens auswirken. Wenn Sie behaupten, dass Sie einen Test mit 5% durchführen, obwohl dieser tatsächlich bei 28% liegt, tun Sie in gewisser Weise das Gleiche, als würden Sie darüber lügen, wie Sie Ihre Experimente durchgeführt haben. Wenn Sie solche statistischen Probleme nicht für wichtig halten, führen Sie Argumente an, die sich nicht auf sie stützen. Wenn Sie andererseits die statistischen Informationen als Unterstützung verwenden möchten, können Sie diese Unterstützung nicht falsch darstellen.
In anderen Fällen sind bestimmte Annahmen möglicherweise weniger kritisch. Wenn Sie den Koeffizienten in einer linearen Regression schätzen und es Ihnen egal ist, ob er statistisch signifikant ist, und Sie sich nicht um die Effizienz kümmern, spielt es keine Rolle, ob die Annahme der Homoskedastizität zutrifft. Aber wenn Sie sagen möchten, dass es statistisch signifikant ist oder ein Konfidenzintervall aufweist, kann dies sicherlich eine Rolle spielen.
quelle
Während Glen_b eine großartige Antwort gab , möchte ich dem ein paar Cent hinzufügen.
Eine Überlegung ist, ob Sie wirklich die wissenschaftliche Wahrheit erfahren möchten, die es erforderlich macht, Ihre Ergebnisse zu polieren und alle Details darüber herauszufinden, ob Ihr Ansatz vertretbar ist. Modus. Mit anderen Worten, Sie müssen Ihr inneres berufliches Gewissen fragen, ob Sie den bestmöglichen Job machen. Der Hinweis auf die geringe statistische Kompetenz und die nachlässigen statistischen Praktiken in Ihrer Disziplin ist kein überzeugendes Argument. Gutachter sind oft nur halb hilfreich, wenn sie aus derselben Disziplin wie diese laxen Standards stammen, obwohl einige Top-Outlets explizite Initiativen haben , um statistisches Fachwissen in den Gutachterprozess einzubeziehen.
Aber selbst wenn Sie ein zynischer "Publish-or-Perish" -Salami-Slicer sind, ist die andere Überlegung im Grunde die Sicherheit Ihres Forschungsrufs. Wenn Ihr Modell versagt und Sie es nicht wissen, setzen Sie sich dem Risiko einer Widerlegung durch diejenigen aus, die die Axt mit verfeinerten Instrumenten in die Ritzen der Modellprüfungen treiben können. Zugegeben, die Wahrscheinlichkeit dafür scheint gering zu sein, da die Wissenschaftsgemeinschaft trotz der nominalen philosophischen Anforderungen an Reputation und Reproduzierbarkeit selten versucht, die Forschung eines anderen zu reproduzieren. (Ich war daran beteiligt, ein paar Artikel zu schreiben, die im Grunde mit folgendem anfingen: "Oh mein Gott, haben sie es wirklich getan ?Schreiben Sie das? "und kritisierten und verfeinerten einen von Fachleuten geprüften, veröffentlichten, halbstatistischen Ansatz.) Wenn statistische Analysen jedoch aufgedeckt werden , verursachen sie häufig große und unangenehme Spritzer.
quelle
Die Art von Verstößen gegen Annahmen kann ein wichtiger Hinweis für die zukünftige Forschung sein. Beispielsweise könnte eine Verletzung der Proportional-Hazard-Annahme in der Cox-Überlebensanalyse auf eine Variable zurückzuführen sein, die einen großen Einfluss auf das kurzfristige Überleben hat, auf längere Sicht jedoch nur einen geringen Einfluss. Dies ist die Art unerwarteter, aber möglicherweise wichtiger Informationen, die Sie erhalten, wenn Sie die Gültigkeit Ihrer Annahmen in einem statistischen Test überprüfen.
Sie tun sich also selbst, nicht nur die Literatur, einen potenziellen Nachteil zu, wenn Sie die zugrunde liegenden Annahmen nicht testen. Wenn hochwertige Journale immer anspruchsvollerer statistischer Überprüfungen bedürfen, werden Sie häufiger dazu aufgefordert. Sie möchten sich nicht in einer Position befinden, in der ein von einem statistischen Gutachter geforderter Test das untergräbt, was Ihrer Meinung nach ein zentraler Punkt Ihrer Arbeit war.
quelle
Ich werde aus einer Zwischenperspektive antworten. Ich bin kein Statistiker, ich bin Chemiker. In den letzten 10 Jahren habe ich mich jedoch auf Chemometrie = statistische Datenanalyse für chemiebezogene Daten spezialisiert.
Das ist wahrscheinlich der Fall.
Kurzfassung:
Nun zu den Annahmen. Meiner Meinung nach ist die Situation hier viel zu heterogen, um sie in einer Aussage zu behandeln. Um beurteilen zu können, ob der Verstoß harmlos oder kritisch ist, ist es erforderlich zu wissen, wofür genau die Annahme erforderlich ist und auf welche Weise wahrscheinlich ein Verstoß von der Anwendung ausgeht. Und dazu braucht es sowohl die Statistik als auch das Anwendungswissen.
Als Praktiker, der mit unerfüllbaren Annahmen konfrontiert ist, brauche ich aber noch etwas anderes: Ich hätte gerne eine "2. Verteidigungslinie", mit der ich beispielsweise beurteilen kann, ob der Verstoß tatsächlich Probleme verursacht oder harmlos ist.
Lange Version:
Aus praktischer Sicht werden einige typische Annahmen so gut wie nie getroffen. Manchmal kann ich sinnvolle Annahmen über die Daten formulieren, aber oft werden die Probleme dann aus statistischer Sicht so kompliziert, dass Lösungen noch nicht bekannt sind. Inzwischen glaube ich, dass Wissenschaft bedeutet, dass Sie an die Grenzen dessen stoßen, was wahrscheinlich nicht nur in Ihrer speziellen Disziplin, sondern auch in anderen Disziplinen (hier: angewandte Statistik) bekannt ist.
Es gibt andere Situationen, in denen bestimmte Verstöße normalerweise harmlos sind - z. B. die multivariate Normalität mit gleicher Kovarianz für LDA, um zu zeigen, dass LDA optimal ist. Es ist jedoch bekannt, dass die Projektion einer Heuristik folgt, die häufig auch dann eine gute Leistung erbringt, wenn Annahme ist nicht erfüllt. Und welche Verstöße können zu Problemen führen? Es ist auch bekannt, dass schwere Verteilungsschwänze in der Praxis zu Problemen mit der LDA führen.
Leider schafft es ein solches Wissen nur selten in die verdichtete Schrift eines Papiers, sodass der Leser keine Ahnung hat, ob sich die Autoren nach sorgfältiger Prüfung der Eigenschaften der Anwendung und des Modells für ihr Modell entschieden haben oder ob sie einfach ein beliebiges Modell ausgewählt haben sie kamen rüber.
Manchmal entwickeln sich praktische Ansätze (Heuristiken), die sich aus praktischer Sicht als sehr nützlich erweisen, auch wenn es Jahrzehnte dauert, bis ihre statistischen Eigenschaften verstanden sind (ich denke an PLS).
Das andere, was passiert (und was noch passieren sollte), ist, dass die möglichen Folgen des Verstoßes überwacht (gemessen) werden können, um zu entscheiden, ob es ein Problem gibt oder nicht. Für die Anwendung ist es mir vielleicht egal, ob mein Modell optimal ist, solange es ausreichend gut ist.
In der Chemometrie konzentrieren wir uns stark auf die Vorhersage. Und dies bietet einen sehr schönen Ausweg für den Fall, dass die Modellierungsannahmen nicht erfüllt werden: Unabhängig von diesen Annahmen können wir messen, ob das Modell gut funktioniert. Aus Sicht eines Praktikers würde ich sagen, dass Sie während des Modellierens alles tun dürfen, was Sie möchten, wenn Sie eine ehrliche, hochmoderne Validierung durchführen und melden.
Für die chemometrische Analyse von spektroskopischen Daten sind wir an einem Punkt angelangt, an dem wir keine Residuen mehr betrachten, da wir wissen, dass die Modelle leicht überanpassbar sind. Stattdessen betrachten wir die Leistung der Testdaten (und möglicherweise den Unterschied zur Leistung der Vorhersage von Trainingsdaten).
Es gibt andere Situationen, in denen wir zwar nicht genau vorhersagen können, inwieweit ein Verstoß gegen welche Annahme zu einem Zusammenbruch des Modells führt, aber die Folgen schwerwiegender Verstöße gegen die Annahme eher direkt messen können.
Nächstes Beispiel: Die Studiendaten, mit denen ich mich in der Regel befasse, liegen um Größenordnungen unter den Stichprobengrößen, die die statistischen Faustregeln für Fälle pro Variation empfehlen (um stabile Schätzungen zu gewährleisten). In den Statistikbüchern spielt es jedoch normalerweise keine Rolle, was in der Praxis zu tun ist, wenn diese Annahme nicht erfüllt werden kann. Sie können auch nicht messen, ob Sie in dieser Hinsicht tatsächlich in Schwierigkeiten sind. Aber: Solche Fragen werden in den eher angewandten Disziplinen behandelt. Es stellt sich heraus, dass es oft recht einfach ist, die Modellstabilität direkt zu messen oder zumindest, ob Ihre Vorhersagen instabil sind (lesen Sie hier den Lebenslauf zur Validierung von Resampling und zur Modellstabilität). Und es gibt Möglichkeiten, instabile Modelle zu stabilisieren (z. B. Absacken).
Als Beispiel für die "2. Verteidigungslinie" sollte die Validierung des Resamplings in Betracht gezogen werden. Die übliche und stärkste Annahme ist, dass alle Ersatzmodelle einem Modell entsprechen, das für den gesamten Datensatz trainiert wurde. Wenn diese Annahme verletzt wird, erhalten wir die bekannte pessimistische Tendenz. Die zweite Zeile besagt, dass zumindest die Ersatzmodelle einander äquivalent sind, sodass wir die Testergebnisse bündeln können.
Zu guter Letzt möchte ich die "Kundenwissenschaftler" und die Statistiker ermutigen, mehr miteinander zu sprechen . Die statistische Datenanalyse IMHO kann nicht in eine Richtung durchgeführt werden. Irgendwann muss sich jede Seite etwas Wissen über die andere Seite aneignen. Ich helfe manchmal beim "Übersetzen" zwischen Statistikern, Chemikern und Biologen. Ein Statistiker kann wissen, dass das Modell einer Regularisierung bedarf. Um beispielsweise zwischen LASSO und einem Grat zu wählen, müssen sie die Eigenschaften der Daten kennen, die nur der Chemiker, Physiker oder Biologe kennen kann.
quelle
Angesichts der Tatsache, dass der Lebenslauf von Statistikern und Personen ausgefüllt wird, die auf Statistiken neugierig, wenn nicht sogar kompetent sind, wundert es mich nicht, dass alle Antworten die Notwendigkeit betonen, die Annahmen zu verstehen. Auch diesen Antworten stimme ich grundsätzlich zu.
Unter Berücksichtigung des Veröffentlichungsdrucks und der geringen statistischen Integrität muss ich jedoch sagen, dass diese Antworten recht naiv sind. Wir können die Leute sagen , was sie den ganzen Tag tun sollten , lang (dh überprüfen Sie Ihre Annahme), aber was sie werden tun , hängt allein von den institutionellen Anreize. Das OP selbst gibt an, dass es ihm gelingt, 20 Artikel zu veröffentlichen, ohne die Annahme des Modells zu verstehen. Aufgrund meiner eigenen Erfahrung fällt es mir nicht schwer, das zu glauben.
Ich möchte also den Anwalt des Teufels spielen und die Frage von OP direkt beantworten. Dies ist keineswegs eine Antwort, die für "gute Praxis" wirbt, sondern eine, die widerspiegelt, wie Dinge mit einem Hauch von Satire geübt werden.
Nein, wenn das Ziel die Veröffentlichung ist, lohnt es sich nicht, die ganze Zeit damit zu verbringen, das Modell zu verstehen. Folgen Sie einfach dem vorherrschenden Modell in der Literatur. Auf diese Weise 1) besteht Ihre Arbeit leichter Überprüfungen und 2) ist das Risiko einer Gefährdung durch "statistische Inkompetenz" gering, da Sie das gesamte Feld, einschließlich vieler älterer Personen, aussetzen müssen.
Ja, es ist wahrscheinlich, dass die meisten veröffentlichten Ergebnisse nicht wahr sind. Je mehr ich in die Forschung involviert bin, desto wahrscheinlicher erscheint es mir.
quelle
Die kurze Antwort lautet "nein". Statistische Methoden wurden unter einer Reihe von Annahmen entwickelt, die erfüllt sein sollten, damit die Ergebnisse gültig sind. Es liegt also nahe, dass die Ergebnisse möglicherweise nicht gültig sind, wenn die Annahmen nicht erfüllt werden. Natürlich können einige Schätzungen trotz Verstößen gegen Modellannahmen immer noch robust sein. Zum Beispiel scheint die multinomiale Protokollierung trotz Verstößen gegen die IIA-Annahme eine gute Leistung zu erbringen (siehe die Dissertation von Kropko (2011) in der nachstehenden Referenz).
Als Wissenschaftler sind wir verpflichtet, sicherzustellen, dass die von uns veröffentlichten Ergebnisse gültig sind, auch wenn es den Fachleuten egal ist, ob die Annahmen erfüllt wurden. Dies liegt daran, dass die Wissenschaft von der Annahme ausgeht, dass die Wissenschaftler die Dinge bei der Verfolgung der Tatsachen auf die richtige Art und Weise tun. Wir vertrauen darauf, dass unsere Kollegen ihre Arbeit überprüfen, bevor sie an die Zeitschriften gesendet wird. Wir vertrauen darauf, dass die Schiedsrichter ein Manuskript kompetent prüfen, bevor es veröffentlicht wird. Wir nehmen andass sowohl die Forscher als auch die Schiedsrichter wissen, was sie tun, damit die Ergebnisse von Arbeiten, die in von Experten begutachteten Fachzeitschriften veröffentlicht werden, als vertrauenswürdig eingestuft werden können. Wir wissen, dass dies in der realen Welt nicht immer zutrifft, basierend auf der Fülle von Artikeln in der Literatur, in denen Sie am Ende den Kopf schütteln und die Augen verdrehen, wenn Sie die offensichtlich von Kirschen gepflückten Ergebnisse in angesehenen Journalen sehen (" Jama hat dieses Papier veröffentlicht ?! ").
Nein, die Wichtigkeit kann nicht genug betont werden, zumal die Leute darauf vertrauen, dass Sie - der Experte - Ihre Due Diligence durchgeführt haben. Das Mindeste, was Sie tun können, ist, über diese Verstöße im Abschnitt "Einschränkungen" Ihres Dokuments zu sprechen, um den Leuten dabei zu helfen, die Gültigkeit Ihrer Ergebnisse zu interpretieren.
Referenz
Kropko, J. 2011. Neue Ansätze zur diskreten Auswahl und Zeitreihenquerschnittsmethodik für die politische Forschung (Dissertation). UNC-Chapel Hill, Chapel Hill, NC.
quelle
Wenn Sie sehr fortgeschrittene Statistiken benötigen, ist dies höchstwahrscheinlich darauf zurückzuführen, dass Ihre Daten ein Chaos sind, wie es in den meisten Sozialwissenschaften der Fall ist, ganz zu schweigen von der Psychologie. In den Bereichen, in denen Sie gute Daten haben, benötigen Sie nur sehr wenige Statistiken. Die Physik ist ein sehr gutes Beispiel.
Betrachten Sie dieses Zitat von Galileo über sein berühmtes Gravitationsbeschleunigungsexperiment:
Beachten Sie den von mir hervorgehobenen Text. Das sind gute Daten. Es stammt aus einem gut geplanten Experiment, das auf einer guten Theorie basiert. Sie benötigen keine Statistiken, um das zu extrahieren, woran Sie interessiert sind. Zu diesem Zeitpunkt gab es keine Statistiken und es gab auch keine Computer. Das Ergebnis? Eine ziemlich fundamentale Beziehung, die immer noch Bestand hat und von einem sechsten Schüler zu Hause getestet werden kann.
Ich habe das Zitat von dieser fantastischen Seite gestohlen .
UPDATE: Um @Silverfish zu kommentieren, hier ein Beispiel für Statistiken in der experimentellen Teilchenphysik. Ziemlich einfach, oder? Kaum über dem MBA-Niveau. Beachte, wie sie lieben :) Nimm das, Statistiker!χ2
quelle
Diese Frage scheint ein Fall von beruflicher Integrität zu sein.
Das Problem scheint zu sein, dass entweder: (a) die statistische Analyse durch Laien nicht ausreichend kritisch bewertet wird oder (b) ein allgemein bekannter Fall nicht ausreicht, um statistische Fehler zu identifizieren (wie ein Fehler vom Typ 2)?
Ich weiß genug über mein Fachgebiet, um einen Expertenbeitrag anzufordern, wenn ich mich der Grenze dieses Fachgebiets nähere. Ich habe Leute gesehen, die Dinge wie den F-Test (und das R-Quadrat in Excel) ohne ausreichende Kenntnisse verwendet haben.
Meiner Erfahrung nach haben die Bildungssysteme in unserem Bestreben, Statistiken zu fördern, die Instrumente zu stark vereinfacht und die Risiken / Grenzen unterschätzt. Ist dies ein gemeinsames Thema, das andere erlebt haben und das die Situation erklären würde?
quelle