Mo - Fr: 9:00 - 18:00

Sa - So geschlossen

+43 664 423 36 24

Mobil

Lilienthalgasse 14

8020 Graz

Grundlagen der Biostatistik

1) Was bedeutet biologische Variabilität? Welche Folgerungen ergeben sich daraus?

Definition:
Biologische Variabilität bezieht sich auf die Unterschiede zwischen Individuen derselben Art. Diese Unterschiede können geringfügig oder bedeutend sein und sind in der Evolutionsbiologie besonders wichtig, da sie die Grundlage für die Weiterentwicklung einer Art bilden. Variabilität tritt sowohl zeitlich als auch räumlich auf und kann statistisch durch Maße wie die Varianz erfasst werden.

Folgerungen:
- Unterschiede zwischen Individuen: Biologische Daten zeigen, dass Beobachtungen an lebenden Organismen nie identische Ergebnisse liefern. Jeder Versuch ist mit einer gewissen Variabilität verbunden.
- Unsicherheit bei Verallgemeinerungen: Aufgrund der Variabilität sind allgemeine Aussagen immer mit einer gewissen Unsicherheit oder einem Risiko behaftet.
- Evolutive Bedeutung: Die Variabilität ist ein entscheidender Faktor für die evolutionäre Entwicklung von Arten.

 

2) Erklären Sie den Begriff Biostatistik

Definition:
Biostatistik befasst sich mit der Anwendung statistischer Methoden auf biologische und medizinische Daten. Sie umfasst die Planung und Durchführung wissenschaftlicher Studien, die Datenanalyse sowie die Interpretation der Ergebnisse.

Kernbereiche der Biostatistik:
- Studienplanung: Entwicklung von Methoden zur Erhebung adäquater Daten.
- Datenanalyse: Anwendung statistischer Tests zur Auswertung der erhobenen Daten.
- Ergebnisinterpretation: Deutung der Studienergebnisse unter Berücksichtigung der statistischen Methoden.

Wichtige Konzepte:
- Arbeitshypothesen: Biostatistiker legen großen Wert auf die genaue Definition von Hypothesen. Oft wird eine Primärvariable festgelegt, die für die konfirmatorische Analyse verwendet wird.
- Hypothesentests: Tests der Nullhypothese (kein Unterschied zwischen Gruppen) gegenüber der Alternativhypothese (ein Unterschied existiert).

 

3) Auf was muss bei der Auswahl einer Stichprobe geachtet werden (Stichprobenauswahl und Samplingverfahren)?

Wichtige Aspekte:
Die Wahl der Stichprobe und des Samplingverfahrens ist entscheidend für die Repräsentativität und Gültigkeit einer Umfrage.

Begriffe:
- Stichprobe (Sample): Ein ausgewählter Teil der interessierenden Bevölkerung, der befragt wird.
- Samplingverfahren (Sampling): Methoden zur Auswahl der Personen aus der Gesamtbevölkerung.
- Repräsentativität: Eine Stichprobe ist repräsentativ, wenn sie die Grundgesamtheit in ihrer sozialen Verteilung widerspiegelt.

Zentrale Schritte:
- Definition der Untersuchungspopulation: Klare Festlegung, wer befragt werden soll.
- Wahl der Stichprobengröße: Bestimmung der Anzahl der zu befragenden Personen.
- Auswahl der Samplingstrategie: Bestimmung des geeigneten Auswahlverfahrens.

Samplingverfahren:
- Einfache Zufallsstichprobe: Jede Person hat die gleiche Chance, ausgewählt zu werden.
- Systematische Zufallsstichprobe: Auswahl jeder x-ten Person aus einer Liste.
- Geschichtete Stichprobe: Schichtung nach bedeutsamen Merkmalen (z.B. Geschlecht, Alter) zur Verringerung des Stichprobenfehlers.
- Klumpen- und Mehrstufenverfahren: Auswahl von Gruppen (Klumpen) und Untergruppen innerhalb dieser.
- Pragmatische Auswahl: Befragung der Personen, die gerade verfügbar sind.
- Gesteuerte Auswahl: Auswahl bestimmter Personen, die für die Studie relevant sind.
- Quotensampling: Auswahl von Personen nach vorgegebenen Quotenmerkmalen.

Berücksichtigte Faktoren:
- Theoretisch-statistische Aspekte: Zufallsauswahl und Repräsentativität.
- Praktisch-pragmatische Aspekte: Verfügbarkeit von Ressourcen, Zeit und aktuellen Adressen.

 

4) Frage wurde entfernt

 

5) Skalenniveaus und grafische Darstellungsformen

Theorie und Empirie Verknüpfung:
Zur Verknüpfung von Theorie und Empirie werden Messmodelle abgeleitet. Dies bezeichnet man als "Operationalisierung" oder "Überbrückungsproblem" (Steyer und Eid, 2001). Dabei wird geprüft, ob Relationen zwischen Objekten (empirisches Relativ) exakt in Zahlen (numerisches Relativ) umgesetzt werden können. Dies wird durch das Skalenniveau systematisiert (Bort & Döring, 2002, S. 68ff). Sechs Skalenniveaus werden beschrieben:

1. Nominalskala:
- Beschreibung: Ausprägungen von Untersuchungseinheiten oder Antwortformate, die nur die Zuordnung zu wertfreien Kategorien erfordern. Die Objekte unterscheiden sich oder nicht.
- Beispiele: Geschlecht, Haarfarbe, Geburtsort, Blutgruppe, Antwortformat Ja/Nein.
- Eigenschaften: Aussagen über Gleichheit/Ungleichheit.

2. Ordinalskala:
- Beschreibung: Daten, die vergleichende Aussagen (größer/kleiner, besser/schlechter) zulassen und eine eindeutige Rangordnung haben.
- Beispiele: Schulnoten, Schmerz-Score, Rangplätze bei Autorennen.
- Eigenschaften: Aussagen über Reihenfolge, nicht über Abstände.

3. Intervallskala:
- Beschreibung: Daten, die Differenzbildung und Aussagen über Unterschiede zulassen. Abstände zwischen Ausprägungen sind gleich.
- Beispiele: Temperatur in Grad Celsius.
- Eigenschaften: Kein natürlicher Nullpunkt, Verhältnisbildung nicht sinnvoll.

4. Differenzskala:
- Beschreibung: Daten wie bei der Intervallskala, jedoch mit einem künstlichen Nullpunkt. Auch negative Werte möglich.
- Beispiele: Fähigkeits- oder Eigenschaftsausprägungen in bestimmten Modellen.
- Eigenschaften: Künstlicher Nullpunkt.

5. Verhältnisskala:
- Beschreibung: Daten, bei denen auch Verhältnisse sinnvoll interpretierbar sind. Natürlicher Nullpunkt vorhanden.
- Beispiele: Gewicht, Länge, Blutdruck.
- Eigenschaften: Natürlicher Nullpunkt, Verhältnisbildung möglich.

6. Absolutskala:
- Beschreibung: Skalen mit einer festen Einheit, die nicht verändert werden darf. Häufigkeiten sind ein Beispiel.
- Beispiele: Anzahl von Verhalten, diskrete Häufigkeiten.
- Eigenschaften: Feste, unveränderliche Einheit.

Grafische Darstellungsformen:
- Stab- oder Säulendiagramm
- Kreis- oder Tortendiagramm
- Histogramm
- Box-and-Whisker Plot / Boxplot
- Streudiagramm
- Überlebenskurve

 

6) Lagemaße: Mittelwert, Median, Quantile, Modalwert

1. Mittelwert (arithmetisches Mittel):
- Berechnung: Summe aller Stichprobenwerte geteilt durch den Stichprobenumfang \( n \).
- Verwendung: Quantitative Merkmale, symmetrische, eingipfelige Verteilungen.

2. Median (Zentralwert):
- Berechnung: Mittlere Beobachtung der der Größe nach sortierten Daten.
- Verwendung: Ordinal skalierte Maße, robust gegenüber Ausreißern.

3. Quantile:
- Beschreibung: Auf Rangordnung der Daten basierend. \( \alpha \)-Quantil ist so definiert, dass mindestens \( \alpha \)% der Messwerte kleiner oder gleich diesem Wert sind.
- Beispiele: 1. Quartil (\(\alpha = 0,25\)), Median (2. Quartil, \(\alpha = 0,5\)), 3. Quartil (\(\alpha = 0,75\)).

4. Modalwert:
- Beschreibung: Wert mit der größten Häufigkeit.
- Verwendung: Alle Skalenniveaus.

 

7) Streuungsmaße: Spannweite, Varianz und Standardabweichung, Quartilsabstand, Variationskoeffizient

1. Spannweite:
- Berechnung: Differenz zwischen Maximum und Minimum.
- Eigenschaften: Stark von Ausreißern beeinflusst.

2. Varianz:
- Beschreibung: Durchschnittliche quadrierte Abweichung der Messwerte vom arithmetischen Mittel.

3. Standardabweichung:
- Beschreibung: Wurzel aus der Varianz, Maßeinheit wie die Daten.
- Verwendung: Quantitative Merkmale, Maß für Homogenität/Heterogenität.

4. Quartilsabstand:
- Beschreibung: Länge des Interquartilsbereichs (zwischen 1. und 3. Quartil), mittlere 50% der Stichprobenwerte.

5. Variationskoeffizient:
- Berechnung: Standardabweichung geteilt durch den Mittelwert.
- Eigenschaften: Dimensionsloses Maß.

 

8) Ziel und Aufgabe der induktiven Statistik

Definition:
Induktive Statistik (auch schließende, analytische, konfirmatorische oder Inferenz-Statistik) schließt von Stichprobenergebnissen auf die gesamte Population. Grundlage ist die Wahrscheinlichkeitstheorie.

Ziel:
Mit Ergebnissen einer Stichprobe auf die unbekannte „Wahrheit“ in der Population schließen.

Typische Aufgabenstellungen:
- Schätzen von Parametern, Angabe von Konfidenzintervallen
- Testen von Hypothesen

 

9) Wieso müssen Schätzungen von Parametern abgegeben werden?

Begründung:
Da in der Regel nur Stichproben untersucht werden, müssen Schätzungen für Populationsparameter angegeben werden. Statistische Kennzahlen aus Stichproben (z.B. Mittelwert, Varianz) sind Schätzwerte für die entsprechenden Populationsparameter.

Beispiele:
- Arithmetisches Mittel und Stichprobenvarianz als Schätzwerte für den Erwartungswert \( \mu \) und die Varianz der Population.

 

10) Welche Art von Größe ergeben Zufallsstichproben?

Kenngrößen:
- Arithmetisches Mittel \( \overline{x} \)
- Standardabweichung \( s \)

Beispiel:
Bei 40 Körpergrößen ergibt sich ein Mittelwert von 174,6 cm und eine Standardabweichung von 5,64 cm. Diese sind Schätzwerte für den Mittelwert \( \mu \) und die Standardabweichung \( \sigma \) der Grundgesamtheit.

 

11) Was ist der Standardfehler des Mittelwertes?

Definition:
Standardabweichung der Mittelwerte von gleich großen Zufallsstichproben einer Population. Er verringert sich mit zunehmendem Stichprobenumfang.

Eigenschaften:
- Präzisere Schätzung des Populationsparameters bei kleinerem Standardfehler.

 

12) Konfidenzintervall

Definition:
Bereich um den Mittelwert der Stichprobe, in dem der wahre Mittelwert der Grundgesamtheit mit einer bestimmten Wahrscheinlichkeit liegt (z.B. 95% Konfidenzintervall).

Eigenschaften:
Je größer die Stichprobe, desto kleiner und genauer das Konfidenzintervall.

 

13) Überprüfung von Hypothesen

Definition:
Hypothesentests prüfen Annahmen über die Grundgesamtheit anhand von Stichprobendaten. Das Standardschema umfasst fünf Schritte:

1. Aufstellung von Nullhypothese (H0) und Alternativhypothese (H1) sowie Festlegung des Signifikanzniveaus.
2. Festlegung einer Prüfgröße und Bestimmung ihrer Testverteilung.
3. Berechnung eines kritischen Wertes der Prüfgröße.
4. Berechnung des empirischen Wertes der Prüfgröße.
5. Entscheidung über Annahme oder Ablehnung der Nullhypothese.

Fehlerarten:
- Fehler 1. Art (falsch-positiv): Ablehnung der Nullhypothese, obwohl sie wahr ist.
- Fehler 2. Art (falsch-negativ): Nicht-Ablehnung der Nullhypothese, obwohl sie falsch ist.

 

14) Zufallsvariable und Wahrscheinlichkeitsverteilungen

Zufallsvariable:
Eine Funktion, die Ergebnissen eines Zufallsexperiments Werte zuordnet. Sie stellt die Verbindung zwischen dem Resultat eines Zufallsexperiments und seiner mathematischen Darstellung her.

Wahrscheinlichkeitsverteilung:
Quantitative Erfassung des Zufalls in einem stochastischen Vorgang. Sie stellt das theoretische Gegenstück zur empirischen Häufigkeitsverteilung dar.

 

15) Anwendungsgebiete und Testverfahren

a) Binomialverteilung
- Anwendungsgebiet: Diskrete Wahrscheinlichkeitsverteilung für Ereignisse mit zwei möglichen Ausgängen (Erfolg/Misserfolg) bei n unabhängigen Versuchen.
- Beispiele: Bestimmung der Wahrscheinlichkeit k Erfolge in n Versuchen zu haben (z.B. Münzwürfe, Qualitätskontrollen).
- Anwendung: Wird genutzt, wenn die Ergebnisse von n gleichartigen Versuchen mit Erfolgschance p analysiert werden sollen, und die Versuche unabhängig sind und mit Zurücklegen durchgeführt werden.

b) Normalverteilung
- Anwendungsgebiet: Kontinuierliche Wahrscheinlichkeitsverteilung für viele natürliche Phänomene aufgrund des zentralen Grenzwertsatzes.
- Beispiele: Messfehler, Produktionsabweichungen, biologische Merkmale wie Körpergröße.
- Anwendung: Beschreibt die Verteilung von Zufallsvariablen, die durch die Summe vieler unabhängiger Einflüsse entstehen. Hilfreich für die Approximation der Verteilung von Daten, wenn die Anzahl der Beobachtungen groß ist.

c) T-Test
- Anwendungsgebiet: Hypothesentest zur Überprüfung von Mittelwertunterschieden bei kleinen Stichproben.
- Beispiele: Vergleich der mittleren Blutdruckwerte vor und nach einer Behandlung.
- Anwendung: Einstichproben-T-Test prüft, ob der Mittelwert einer Stichprobe von einem bekannten Mittelwert abweicht; Zweistichproben-T-Test vergleicht die Mittelwerte zweier unabhängiger Stichproben. Voraussetzung: Annähernd normalverteilte Daten und homogene Varianzen.

d) Mann-Whitney U-Test
- Anwendungsgebiet: Nicht-parametrischer Test zur Überprüfung der Unterschiede zwischen zwei unabhängigen Stichproben.
- Beispiele: Vergleich der Wirksamkeit zweier Medikamente anhand von Rängen der Heilungszeiten.
- Anwendung: Wird verwendet, wenn die Daten nicht normalverteilt sind und ordinal oder kontinuierlich skaliert sind. Vergleicht die Ränge der Werte zwischen zwei Gruppen, um Unterschiede in der zentralen Tendenz zu testen.

e) Chi-Quadrat-Test
- Anwendungsgebiet: Test zur Untersuchung der Verteilung von Häufigkeiten und Unabhängigkeit von Kategorien.
- Beispiele: Untersuchung des Zusammenhangs zwischen Rauchen und Lungenkrebs.
- Anwendung: Geeignet für kategoriale Daten, um zu testen, ob beobachtete Häufigkeiten von erwarteten Häufigkeiten abweichen oder ob zwei kategoriale Variablen unabhängig sind.

 

17) Risikoschätzung und Relatives Risiko

- Risikoschätzung: Bestimmt die Wahrscheinlichkeit, dass ein bestimmtes Ereignis innerhalb eines definierten Zeitraums auftritt.
- Risikovergleich: Vergleich von Risiken zwischen exponierten und nicht-exponierten Gruppen zur Bewertung möglicher Krankheitsursachen.
- Relatives Risiko (RR):
- Definition: Verhältnis des Erkrankungsrisikos der Exponierten zum Erkrankungsrisiko der Nicht-Exponierten.
- Berechnung: RR = (a/(a+b)) / (c/(c+d)), wobei a und b die Anzahl der Exponierten und c und d die Anzahl der Nicht-Exponierten repräsentieren.
- Interpretation:
- RR = 1: Kein Zusammenhang zwischen Exposition und Krankheit.
- RR > 1: Erhöhtes Risiko bei Exponierten.
- RR < 1: Reduziertes Risiko bei Exponierten.

 

18) Vergleich der Risikomaße

- Relatives Risiko (RR):
- Anwendbar bei prospektiven Kohortenstudien.
- Direkte Bewertung der Risikoerhöhung oder -senkung durch Exposition.
- Odds Ratio (OR):
- Anwendbar bei Fall-Kontroll-Studien.
- Schätzung des RR bei seltenen Erkrankungen.
- OR kann unter bestimmten Bedingungen das RR approximieren, wenn die Krankheit selten ist und die Stichproben repräsentativ sind.
- Attributables Risiko: Anteil des Risikos, der einer bestimmten Exposition zugeschrieben wird.

 

19) Fehler bei Testentscheidungen

- Fehler 1. Art (Alpha-Fehler): Fälschliche Ablehnung der Nullhypothese.
- Fehler 2. Art (Beta-Fehler): Fälschliches Beibehalten der Nullhypothese.
- Kontrollierbarkeit: Beide Fehlerarten können nicht gleichzeitig minimiert werden; in der Regel wird der Alpha-Fehler kontrolliert, da er quantifizierbar ist.

 

20) Korrelationsanalyse

- Ziel: Untersuchung des Zusammenhangs zwischen zwei Zufallsvariablen.
- Korrelationskoeffizient (r): Maß für die Stärke und Richtung des linearen Zusammenhangs.
- Voraussetzungen:
- Beide Variablen sind metrisch skaliert und stetig.
- Linearer Zusammenhang zwischen den Variablen.
- Unabhängigkeit der Beobachtungseinheiten.

 

21) Fehler bei der Interpretation eines Korrelationskoeffizienten

- Formale Korrelation: Rechnerische, aber nicht kausale Korrelation.
- Selektionskorrelation: Verzerrung durch selektive Stichproben.
- Inhomogenitätskorrelation: Verzerrung durch Ausreißer oder inhomogene Gruppen.
- Gemeinsamkeitskorrelation: Beide Variablen sind mit einer dritten, nicht berücksichtigten Variable korreliert.

 

22) Regressionsanalyse

- Definition: Statistische Methode zur Untersuchung der Beziehung zwischen einer abhängigen und einer oder mehreren unabhängigen Variablen.
- Ziel: Vorhersage und Erklärung von Zusammenhängen.
- Methode: Minimierung der Summe der Abweichungsquadrate zur Bestimmung der Regressionsgeraden.
- Bestandteile:
- Abhängige Variable (Y): Variable, die vorhergesagt werden soll.
- Unabhängige Variable (X): Variable, die zur Vorhersage verwendet wird.

 

23) Voraussetzungen und Bestimmtheitsmaß der Regressionsanalyse

- Voraussetzungen:
- Normalverteilung der abhängigen Variablen für jeden Wert der unabhängigen Variablen.
- Homogenität der Varianz (Varianzhomogenität).
- Linearer Zusammenhang zwischen X und Y.
- Bestimmtheitsmaß (R²): Anteil der Varianz der abhängigen Variable, der durch die unabhängigen Variablen erklärt wird.

 

24) Unterschied zwischen Korrelation und Regression

- Korrelation:
- Maß für die Stärke und Richtung des linearen Zusammenhangs zwischen zwei Variablen.
- Beide Variablen sind gleichwertig und unabhängig.
- Regression:
- Untersuchung der Ursache-Wirkungs-Beziehung zwischen abhängiger und unabhängiger Variable.
- Vorhersage der abhängigen Variable basierend auf der unabhängigen Variable.
- Minimierung der Summe der Abweichungsquadrate zur Bestimmung der Regressionsgeraden.

 

Hinweis:

Diese Inhalte werden nicht aktualisiert und können daher unter Umständen nicht mehr den aktuellen Gegebenheiten entsprechen.

Ursprünglich wurden diese Inhalte zur Selbstüberprüfung im Zuge meines Studiums von StudentenInnen erarbeitet - nachdem das Copyright (Urheberschaft der Texte) daher nicht klar war, wurden alle Fragen mittels CHATGPT 4.0 nachbearbeitet.

 

Nimm Kontakt auf

Alexander Riegler, MPH, EMPH, BSc.

 

Lilienthalgasse 14/1

8020 Graz

Tel.: +43 664 423 36 24

Email: office@alexanderriegler.at

Qualitätsauszeichnungen

Die Qualität der angebotenen Informationen ist mir wichtig, diese unabhängigen Organisationen bestätigen dieses Vorhaben.

Support

Medizinische Anfragen

Es werden keine medizinschen Ratschläge gegeben. Wenden Sie sich bitte immer an den Arzt Ihres Vertrauens.

KI-Einsatz bei Texten

Texte auf dieser Webseite wurden teilweise mit KI erstellt, überarbeitet oder geprüft. Bitte prüfen Sie bei Unsicherheiten zusätzliche Quellen.