IIIIIIIIIIIIIIIIIIIII - PDF Free Download (2024)

Transkript

1 Biometrische Analyse von Stichproben IIIIIIIIIIIIIIIIIIIII Handbuch Version 11 Hanns Ackermann

2 Copyright Das Programm "BiAS. für Windows" und dessen Handbücher sind gemäß UrhG urheberrechtlich geschützt. Sowohl unbefugte Vervielfältigungen als auch unbefugter Vertrieb des Programms bzw. der Handbücher oder Teilen davon sind somit illegal und werden straf- und zivilrechtlich geahndet. Alle Rechte an dem Softwareprodukt BiAS. inclusive Handbücher liegen ausschließlich beim Autor. Der rechtmäßige Erwerb der Programm-CD bzw. des Original-Downloads und des Handbuches gestattet die Nutzung des Programms BiAS. analog zur Benutzung eines Buches. Entsprechend der Unmöglichkeit, dass ein Buch gleichzeitig von verschiedenen Personen an verschiedenen Orten gelesen wird, so darf eine lizenzierte Kopie des Softwareprodukts BiAS. nicht von mehreren Personen an unterschiedlichen Orten bzw. auf unterschiedlichen Geräten gleichzeitig benutzt werden. Kopien der Original-CD bzw. des Original-Downloads dürfen ausschließlich nur zum Zweck der Datensicherung angefertigt werden. Gewährleistung Für die Richtigkeit des Inhaltes dieses Handbuches und des Softwareprodukts BiAS. wird keine Garantie übernommen. Der Autor, der Vertriebsbeauftragte und der Verlag haften deshalb nicht für eventuell enthaltene Fehler, noch für Neben- und Folgeschäden, die in Verbindung mit der Benutzung dieses Materials entstehen. Sollten sich einzelne Text- oder Programmteile als fehlerhaft herausstellen, so wird dies nach Maßgabe des Autors auf der Homepage des Programms bekannt gegeben. Gegebenenfalls modifizierte Updates stehen lizenzierten Benutzern per Download zur Verfügung. Autor Dr. Hanns Ackermann Klinikum der Universität Theodor Stern - Kai Frankfurt am Main Homepage Verlag Version 01.0: 1989 Version 10.0: 2012 Version 11.0: 2015 epsilon-verlag GbR Hochheim Darmstadt ISBN BiAS. für Windows Programmversion 11 epsilon-verlag Seite 002 von 241

3 Inhalt Vorab Wichtige Informationen zum ersten Start Struktur des Programms Daten, Dateneditor und das Datenbankmodul XTab Import und Export von Dateien und Microsoft s Excel Exemplarischer Aufruf einer Funktion Graphische Ausgabe Installation des Programms Validierung des Programms Das Leistungsspektrum im Überblick 043 A. Anhang: Validierung und Beispiele 049 A.1 Deskriptive Statistik 049 A.2 Konfidenzintervalle 057 A.3 Vierfelder-Tafeln, Binomial- und Poisson-Tests 060 A.4 Kontingenztafeln 069 A.5 Konfigurationsfrequenzanalyse (KFA) 074 A.6 Tests auf Gauß-Verteilung 078 A.7 Regression und Korrelation 083 A.8 Parametrische Statistik 106 A.9 Nicht-parametrische Statistik 121 A.10 Überlebenszeitanalyse ( Survival-Analyse ) 138 A.11 Clusteranalyse 149 A.12 Diskriminanzanalyse 153 A.13 Zeitreihenanalyse 161 A.14 Faktorenanalyse 170 A.15 Reliabilitätsanalyse 173 A.16 Toleranzbereiche und Qualitätssicherung 177 A.17 Pharmakokinetische Parameter und Bioäquivalenz 182 A.18 Methodenvergleiche und Diagnostische Tests 187 A.19 Epidemiologie und Evidence Based Medicine 197 A.20 Multiples Testen von Nullhypothesen 199 A.21 Meta-Analyse mit p-werten 200 A.22 Interims-Analyse: Zwischenauswertungen 203 A.23 Fallzahl- und Powerberechnungen 205 A.24 Randomisierung 221 A.25 Dichte- und Verteilungsfunktionen 223 Literatur 227 Übersicht 240 Dieses Handbuch steht einschließlich Anhang ( Beispiele zur Validierung ) bis Windows XP als Help- Hypertext-Handbuch zur Verfügung: Zum Aufruf (und zur optionalen Nachinstallation ab Vista!) vgl. Abbildung 1. Abbildung 28 in Kapitel 4 zeigt für Windows-Versionen bis XP den Programm-Aufruf der in BiAS. verfügbaren Methoden. Ein Überblick über BiAS. Leistungsspektrum findet sich auf der letzten Seite dieses ebooks, detaillierter im 8. Kapitel und im Internet unter BiAS. für Windows Programmversion 11 epsilon-verlag Seite 003 von 241

4 Vorab BiAS. ist ein biometrisches Programmpaket, das an der Goethe-Universität Frankfurt am Main speziell für Mediziner und für Humanwissenschaftler aus dem Umfeld der Medizin entwickelt wurde. BiAS. bietet ein umfassendes, an den konkreten Fragestellungen der aktuellen medizinisch-biologischen Forschung orientiertes Spektrum von statistischen und biometrischen Methoden. BiAS. ist ein Akronym für "Biometrische Analyse von Stichproben". BiAS.' Methodenspektrum beinhaltet neben "konventionellen" statistischen Methoden auch viele weitere Verfahren, die in der Medizin und deren assoziierten Fachgebieten zwar von grundlegender Bedeutung, aber in anderen Programmen nicht unbedingt verfügbar sind. Das Programm ist somit besonders für Mediziner und Pharmakologen, aber auch für Biologen und Psychologen im Studium und in der wissenschaftlichen Praxis von Interesse: Das Anwenderspektrum reicht von Studenten, Diplomanden und Doktoranden bis hin zu professionellen universitären und industriellen Wissenschaftlern. Statistik-Programme werden vielfach benutzt wie Programme zur Textverarbeitung. Textverarbeitungsprogramme setzen bei ihren Benutzern eine gewisse natürliche Intelligenz und gelegentlich Grundkenntnisse der Orthographie voraus, Statistik- Programme dagegen beruhen einerseits auf einem ausgedehnten Teilgebiet der Mathematik (Maß- und Wahrscheinlichkeitstheorie, Mathematische Statistik) und andererseits auf eher anwendungsorientierten Fachgebieten wie zum Beispiel der Biometrie. Der Autor rät deshalb davon ab, BiAS. ohne adäquate Vorkenntnisse oder vor Lektüre wenigstens eines adäquaten Lehrbuches zu starten. Die Verfügbarkeit über ein wissenschaftliches Programmpaket bedeutet nicht die Verfügbarkeit über dessen wissenschaftliche Inhalte. Erfahrungsgemäß erlernen die meisten Benutzer die Bedienung eines für sie neuen Programms exemplarisch anhand von speziellen Beispielen, so dass in diesem Handbuch lediglich - aber dafür sehr ausführlich! - die Anwendung des bekannten U- Tests von Wilcoxon, Mann und Whitney beschrieben wird. Die Bedienung der übrigen Module ergibt sich damit: Zur Unterstützung der informatischen Intuition der Benutzer/innen dient der Validierungsteil des Handbuches, womit alle Eingaben und Datenformate am praktischen Beispiel ersichtlich sind. Der Autor hofft, dass dieser vielleicht etwas ungewöhnliche Weg einen leichteren Zugang zu der Materie verschafft als eine sich mehrfach wiederholende Aneinanderreihung von technischen Details. Das Handbuch liegt mit gleichen Inhalten sowohl als Hypertext- als auch als ebook-dokument vor und ist, wie Abbildung 1 unter XP zeigt, im Hauptmenü des Programms per Buch-Icon verfügbar. Falls die Hypertext-Version unter Ihrer aktuellern Installation nicht vorhanden ist, kann diese optional nachträglich eingerichtet werden: Mehr dazu finden Sie am Ende dieses Abschnitts. Der zweite Teil des Handbuchs befasst sich mit der bereits erwähnten Validierung des Programms (Näheres dazu in Kapitel 7!). Alle zur Validierung des Programms verwendeten Datensätze sind im Programm-Unterverzeichnis "..\Valide" enthalten. Beide Teile dieses Handbuchs werden bis Windows XP vom Programm wahlweise als Hypertext-Handbuch oder als ebook aufgerufen. Falls das Hypertext-Handbuch in Ihrem OS nicht verfügbar ist, wird ohne Abfrage direkt das ebook aufgerufen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 004 von 241

5 BiAS. erste Programmversion erschien 1989 unter DOS. Eine vorläufige Portierung nach Windows 95/NT unter C++ und PB/DLL wurde im Jahre 1996 von Herrn Dipl.- Ing. Michael Stotz und mit selbstloser Unterstützung durch Professor Gerd Küveler vorgenommen, Herr Dipl.-Math. Georg Zelmer übernahm dabei die Programmierung des Dateneditors. Bei den späteren Implementierungen haben mir viele Mitglieder des PowerBasic-Forums, insbesondere Chris Boss, Lance Edmonds, Ian McAllister, sem*n Matusovski, Dave Navarro und Eric Pearson unter anderem bei Fragen zur Windows-API und -GDI sehr geholfen. Don Dickinson schrieb die Druckroutinen für die Graphik-Ausgabe, Edwin Knoppert den Import aus Excel und Børje Hagsten das Pause-Spiel. James Klutho ist Autor des aktuellen Dateneditors, Jørgen Ibsen hat seinen im Ausgabe-Editor optimal lesbaren Font Dina zur freien Verfügung gestellt. Frau Professor Eva Herrmann hat mit großem Engagement, sachkundiger Kritik, vielen konstruktiven Vorschlägen und eigenem Quellcode (Valz-Algorithmus, Kernschätzer!) zu der aktuellen Version beigetragen. Frau Dipl.-Math. Dimitra Bon, Frau Dr. Tje Lin Chung, Frau Dr. Natalie Filmann, Frau Dr. Julia Rey, Frau Aksana Käfer B.Sc., Frau Julia Kawerin B.Sc., Herr Yusuke Asai M.Sc.,M.Sc. und Dr. Felix Kawerin haben die aktuelle Programmversion einer erneuten kritischen Überprüfung unterzogen und auf die eine oder andere Ecke und Kante hingewiesen. Allen genannten, aber auch vielen hier namentlich nicht genannten Beteiligten schulde ich für ihre stets bereitwillige und immer kompetente Hilfe und für ihre zahlreichen wertvollen Beiträge meinen ganz herzlichen Dank! Hanns Ackermann Abbildung 1: XP-Handbücher optional ab Windows Vista, hier unter Windows 10 Das bis Windows XP verwendete WinHelp-Handbuch können Sie optional auch unter allen aktuelleren Windows-Versionen zusätzlich zu diesem ebook verwenden, wenn Sie auf Microsoft s Homepage die Datei WinHlp32.exe downloaden und installieren. (Links dazu unten, ein Kopieren von WinHlp32.exe aus XP in BiAS. Programmverzeichnis (!!) ist ebenfalls möglich, von MS aber nicht erwünscht.) BiAS. erkennt jede Installation und stellt die XP-Handbücher gemäß Abbildung 1 zu Verfügung. Aufschluss über Windows Installationsstatus und Wahlmöglichkeiten gibt das Menü Hilfe: Welches Handbuch? BiAS. für Windows Programmversion 11 epsilon-verlag Seite 005 von 241

6 0. Wichtige Informationen zum 1. Start Bitte nehmen Sie sich jetzt zwei Minuten Zeit, die folgenden Informationen aufmerksam durchzulesen. Diese ganz kurze Einführung in die Bedienung des Programms erleichtert Ihnen die ersten "Gehversuche" mit BiAS. sicher ganz erheblich. Eine Lektüre der folgenden Kapitel kann aber vielleicht auch ganz nützlich sein! Das vermutlich schwierigste Problem bei der ersten Benutzung eines neuen Programms ist die korrekte Eingabe von Daten: Als Benutzer von Word, Excel oder auch von anderen Programmen unter Windows ist Ihnen geläufig, dass die unterschiedlichen Programme in der Regel ganz unterschiedliche Datenformate verwenden: BiAS. verwendet seinerseits ein spezielles Dateiformat mit der Datei-Extension "DAT". Im zweiten Kapitel finden Sie exemplarisch die Standard-Testdatei Test.DAT, die in vielen Beispielen des Handbuches verwendet wird. Wichtig: BiAS. verwendet zwecks Kompatibilität mit anderen Programmen für alle Berechnungen ausschließlich numerische Daten, niemals Textangaben! Dies betrifft speziell die Bezeichnungen von beispielsweise Diagnosen, Therapien etc., wie ebenfalls in Kapitel 2 erläutert wird. Ihre eigenen Daten können Sie über BiAS. Daten-Editor eingeben. Der Editor wird in BiAS. Toolbar per "Leeres Blatt bzw. Datei öffnen aufgerufen, Einzelheiten finden Sie im 2. Kapitel. Wichtig: Nach Öffnen einer bereits vorhandenen Datei erscheint das Datengrid des Editors und im Status-Fenster (ganz unten!) wird der Name der geöffneten Datei angegeben. Beachten Sie bitte das Handbuch zur Bedienung des Editors, speziell das Rechtsclick-Menü. Eine Alternative zur Dateneingabe per Editor ist die Schnelleingabe von Daten, die ebenfalls in BiAS. Toolbar aufgerufen werden kann ("Blitz-Icon", unten). Ein Import und Export von Dateien unterschiedlicher Formate ist ebenfalls vorgesehen, insbesondere eine Übertragung von Daten aus Excel über die Zwischenablage. Einzelheiten dazu finden Sie in Kapitel 3. Nachdem Ihnen der Umgang mit Dateien etwas vertraut geworden ist, sollten Sie einen ersten Aufruf einer Funktion versuchen. Die zweite wesentliche Hürde bei der ersten Benutzung eines Programms ist der Aufruf einer der angebotenen Funktionen: Für erste Versuche - auch ohne eine eigene Dateneingabe - können Sie BiAS. Test- Datei Test.DAT verwenden, die bereits oben erwähnt wurde. Die Datei ist in BiAS. Programm-Verzeichnis enthalten und wird in Kapitel 2 kommentiert. Vor Verwendung muss die Datei natürlich via Datei öffnen geöffnet werden. Wichtig: Nach Datei Öffnen wird der Name der "aktiven Datei" in der Statuszeile angezeigt (ganz unten im Fenster!). Eine Modifikation der Daten erfolgt über das Rechtsclick-Menü des Editors. Nützlich: Das beim ersten Öffnen verwendete Verzeichnis kann per Icon auf unterschiedliche Weisen voreingestellt werden (Icon Startverzeichnis, dazu weiter unten): Bitte lesen Sie dazu auch die entsprechenden Erläuterungen zum Arbeitsverzeichnis. Sicher ist Ihnen der bekannte Zwei-Stichproben-t-Test oder auch der U-Test von Wilcoxon, Mann und Whitney geläufig: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 006 von 241

7 Eine exemplarische Anleitung zum Aufruf dieser statistischen Tests finden Sie in Kapitel 4. Versuche mit anderen Tests oder Graphiken werden Ihnen zeigen, dass die Bedienung des Programms grundsätzlich immer nach dem gleichen Muster der genannten beiden Tests verläuft. Nach Lektüre dieser kurzen Einführung sind Sie sicher in der Lage, mit eigenen Daten die ersten Auswertungen mit BiAS. vorzunehmen. Bitte beachten Sie dazu noch die abschließenden Hinweise: BiAS. wurde speziell für die Anwendung im medizinischen Bereich entwickelt, und deshalb finden Sie hier sehr viele Methoden, die in anderen Programmpaketen nicht oder nicht ohne weiteres verfügbar sind; einen ersten Eindruck können Sie sich mit BiAS. Menü oder mit Hilfe der Kapitel 7 und 8 verschaffen. Das Pfeil- und Fragezeichen-Icon (Symbol unten) in BiAS. Toolbar zeigt Ihnen zu allen Methoden überschaubare Anwendungsbeispiele aus Medizin und Biologie zur Auffrischung bereits vorhandenen Wissens. In diesem Handbuch (speziell im Anhang: Beispiele zur Validierung ) finden sich ebenfalls zahlreiche Beispiele zu den verfügbaren statistischen Verfahren. Die Help- Hypertext-Version des Handbuchs als Windows-Hilfe-Datei kann bis WinXP auch per Buch-und-Fragezeichen-Icon (unten) aufgerufen werden. Ab Windows Vista liegt das Handbuch ausschließlich im vorliegenden ebook-format vor, es sei denn: Vielleicht noch interessant: Die ab Windows-Vista verfügbare Handbuchversion kann optional durch die - inhaltlich äquivalente - frühere XP-WinHelp-Version ergänzt werden, wozu in der Regel eine einfache Nachinstallation der Windows-Hilfe erforderlich ist. Einzelheiten zur Installation finden Sie gegebenenfalls im Abschnitt Vorab auf Seite 5 dieses Handbuchs, Aufschluss über Windows Installationsstatus gibt - vgl. Abbildung 2 - das Menü Hilfe: Welches Handbuch benutzen?. BiAS. kann - wie alle anderen Statistik-Programme auch - kein Lehrbuch ersetzen: Auf in anderen Programmen gelegentlich vorhandene, wissenschaftlichen Fragestellungen jedoch unangemessene Handlungsanleitungen im Sinne von was tun wenn wurde somit explizit verzichtet. Bitte greifen Sie bei allen fachspezifischen Fragen auf die angegebene Literatur zurück: Hinweise dazu finden Sie bitte im Literaturverzeichnis. Angesprochene Toolbar-Icons: Schnelleingabe von Daten Neue Datei öffnen Vorhandene Datei öffnen Startverzeichnis/Arbeitsverzeichnis einstellen Pfeil- und Fragezeichen : Anwendungsbeispiele Buch und Fragezeichen : Handbuch BiAS. für Windows Programmversion 11 epsilon-verlag Seite 007 von 241

8 1. Struktur des Programms Die ersten Versionen des Programms wurden in der Jahren unter dem Betriebssystem MS-DOS mit Hilfe der Sprachen PowerBasic3, C und Assembler entwickelt (und sind unverändert lauffähig unter Windows7/8!). Die Nachfolgerversionen - als erste die Version 5 für Windows 3.x - waren ebenfalls ohne besondere Anforderungen an die Hardware ab 8086/88 mit CGA-Graphik und 460 Kb RAM lauffähig, ebenfalls eine Programmversion für das Betriebssystem OS/2 von IBM. BiAS. aktuelle Windows-Version 11 erfordert minimal Windows 95/NT oder optimal nachfolgende Versionen, einen Prozessor ab 486 und VGA-Graphik und ist unter allen Windows-32/64bit-Betriebssystemen lauffähig. Das Programm wurde fast vollständig mit Hilfe von PowerBASIC, der nativen Windows-API/GDI und marginal mit Delphi, Fortran und Assembler implementiert. Dank des exzellenten PowerBASIC- Compilers beansprucht das Programm trotz seines Leistungsumfangs nur kaum mehr als 20Mb der Festplatte und bietet optimale Laufzeiten: PowerBASIC ist ein Produkt von Bob Zale s PowerBASIC Inc., mehr dazu unter Nach Start des Programms per Windows Explorer, dort Ausführen oder natürlich optimal per Icon erscheint als erstes der Eingangsbildschirm des Programms bzw. das Hauptmenü, das einen Überblick über die implementierten Verfahren gibt: Beispiele dazu finden sich in Abbildungen 2 und 3. Jeder Punkt des Haupt-Menüs führt zu einem oder zu mehreren Untermenüs, wie im Folgenden exemplarisch erläutert wird. Einige wichtige Informationen zu BiAS. - zum Beispiel bezüglich der verwendeten Dateistruktur - gibt das Menü Hilfe (aber auch dieses Handbuch!): Abbildung 2: BiAS. Hauptmenü und das Pulldown-Menü Hilfe Alle Menüs des Programms können optimal mit Hilfe der Maus oder alternativ per Shortcuts bedient werden; wie üblich, erfolgt die gewünschte Menü-Auswahl mit der linken Maustaste. Alle Eingabedialoge, Auswahlfenster, Buttons etc. sind nach Windows-Standard ebenfalls per Maus und gegebenenfalls per Shortcuts bedienbar. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 008 von 241

9 Alle statistischen Methoden - mit Ausnahme der Fallzahl- und Power-Berechnungen, der Randomisierungen und des Zufallszahlengenerators, diese finden sich im Menü Studienplanung - sind unter den beiden Menüpunkten Methoden und Marginalien zusammengefasst. Die am häufigsten verwendeten Methoden der Teststatistik (t- Tests, Varianzanalyse, Regression, Wilcoxon-Tests, Kruskal-Wallis-Test, Tests auf Gauß-Verteilung etc.) finden sich im ersten Untermenü Methoden, die Cluster- und Diskriminanzanalyse, die Survival-Analyse und viele andere Verfahren mehr im zweiten Untermenü Marginalien. Die nächste Abbildung 3 zeigt die sukzessive Auswahl einer Methode - hier des Grubbs-Ausreißer-Tests - durch die hierarchischen Menüs: Abbildung 3: Beispiel für BiAS. Menüführung Am Ende jeder Programmeinheit wird ein Ausgabe-Fenster aufgerufen, das alle Rechenergebnisse und Literaturhinweise enthält. Abbildung 4 zeigt einen Auszug dieses Fenster nach Durchführung des Fisher-Tests: Abbildung 4: BiAS. Ausgabe-Editor am Beispiel von Fisher s Exact Test BiAS. für Windows Programmversion 11 epsilon-verlag Seite 009 von 241

10 Das Drucker-Icon im Menü des Ausgabe-Fensters eröffnet den üblichen Drucker- Dialog. Eine Einstellung des Druckers ist in der Menü-Leiste des Ausgabe-Editors unter Datei: Drucker einrichten vorgesehen. Alle anderen Funktionen entnehmen Sie bitte ebenfalls der Menü-Leiste in Abbildung 4: Die Einstellung der Schrift (im Menü und per Icon AA ) bezieht sich stets auf die Bildschirm- und auf die Druckausgabe. Es kann die Monotype-Schrift Dina von Jørgen Ibsen als draft/bold (im Druck: Courier-New draft/bold) und alternativ die zwar kompaktere, aber schlechter lesbare Windows-Systemschrift gewählt werden. Mit Hilfe der einfachen Diskette speichert man den kompletten aktuellen Inhalt des Ausgabe-Editors in eine Datei mit frei zu wählendem Namen. Mit Hilfe der Doppel- Diskette wird - nach Eingabe eines frei wählbaren Dateinamens - die aktuelle Ausgabe zunächst wie bei der einfachen Diskette gespeichert. Bei einem erneuten Aufruf dieser Funktion wird jedoch kein neuer Datei-Name mehr erfragt, sondern die aktuelle Ausgabe den früheren Ausgaben hinzugefügt. Durch dieses kumulative Speichern können alle Ausgaben eines Laufes in einem Protokoll gesammelt und später bearbeitet und/oder ausgedruckt werden. Den kompletten Text des Ausgabefensters kann man mit Hilfe des MS-Word- Symbols W zur weiteren Verarbeitung (zum Beispiel mit MS-Word oder mit anderen Textprogrammen) in die Zwischenablage kopieren. Dies ist - ohne Markierung! - nur für die komplette Ausgabe vorgesehen, markierte Teile der Ausgabe kopiert man via Kopieren: Die Funktionen Ausschneiden, Kopieren, Einfügen und Wiederherstellen entsprechen den üblichen, zum Beispiel in MS-Word verwendeten Windows-Funktionen zum Editieren und behandeln immer nur Teile der Ausgabe. Bei einer Ausgabe auf den Drucker wird bei markierten Textteilen ungeachtet anderer Einstellungen nicht der gesamte Text, sondern nur die markierte Textpassage ausgedruckt. Das Buch-und-Fragezeichen-Icon beantwortet eventuelle Fragen zur Druckausgabe. Das Kreuz-Icon beendet den Ausgabe-Editor, worauf wieder BiAS. zuletzt aktiver Eingabe-Dialog erscheint. Von einigem Interesse ist vielleicht auch BiAS. Hilfefunktion, die explizit mit Hilfe des Pfeil-und-Fragezeichen-Icons aufgerufen werden kann: Abbildung 5: Aufruf der Hilfe-Funktion: Biometrische Beispiele Die Hilfefunktion ist Bestandteil eines zweiteiligen Hilfesystems: Die Hilfefunktion erläutert an Hand von Beispielen die biometrischen Inhalte aller Verfahren, der zweite Teil des Hilfesystems ist in den Menüs über die Wahlmöglichkeit Hinweise verfügbar und beschäftigt sich in der Hauptsache mit programmtechnischen Details, weiterführenden Erläuterungen und Hinweisen. Nach Aufruf meldet sich BiAS. Hilfesystem mit einem Eröffnungsbildschirm, die Bedienung erfolgt mit Auswahlbuttons: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 010 von 241

11 Abbildung 6: Eröffnungsbildschirm der Hilfefunktion Benutzt man jetzt nach <Weiter> das Hauptmenü in gewohnter Weise, so erscheinen in einem Fenster an Stelle der gewählten Funktion Hinweise und speziell einfache Beispiele zu der angewählten Methode. Abbildung 7 zeigt dazu ein Beispiel anhand des Kaplan-Meier-Schätzers: Abbildung 7: Beispiel für BiAS. Hilfetext Der Autor verfolgt mit diesen Hilfetexten ausdrücklich nicht die Absicht, ein statistisches Lehrbuch zu ersetzen, vielmehr sind die Hilfe-Texte lediglich dazu geeignet, vielleicht irgendwann vorhandenes Wissen wieder zu aktivieren: In der Einleitung wurde bereits darauf hingewiesen, dass BiAS. - wie alle anderen statistischen Programmpakete auch - erst nach Lektüre eines einschlägigen Lehrbuches verwendet werden sollte. Im Abschnitt Literatur finden sich dazu einige grundlegende Lehrbücher und weitere Literaturhinweise zu allen im Programm angebotenen Verfahren. Zum raschen Nachschlagen empfiehlt sich Sachs ( ) bzw. die Nachfolgewerke von Sachs und Hedderich (2006,2009) und von Hedderich und Sachs (2015). BiAS. für Windows Programmversion 11 epsilon-verlag Seite 011 von 241

12 Mit Hilfe des Buch-und-Fragezeichen-Icons kann man bis Windows XP die Validierungs- und Bedienungsbeispiele des 7. Handbuch-Kapitels aufrufen (bitte dazu die Bemerkungen in der Einleitung beachten!!). Auf dem gleichen Wege kann auch, ebenfalls bis Windows XP, die im Programm implementierte Hypertext-Version dieses Handbuches aufgerufen werden. Für Windows ab Vista bzw. für aktuellere Windows-Versionen steht primär dieses Pdf-Handbuch zur Verfügung. Abbildung 8: Eingabe einer aktiven Datei im Menü Datei bzw. per Icon Per Datei öffnen wird, wie üblich, eine Eingabedatei zur weiteren Verarbeitung ausgewählt. Die Struktur einer Eingabedatei wird im nächsten Kapitel oder auch im Menü Infos beschrieben und ergibt sich zwangsläufig bei Verwendung des Editors (Neue Datei eingeben). BiAS. Dateien entsprechen den SDF-Standard-Dateien und können in dbaseiii- und in Text-Dateien (Windows, Excel) exportiert werden; vgl. dazu den Import und Export von Dateien im zweiten Kapitel. BiAS. merkt sich einen eingegebenen Dateinamen für den Bereich des gesamten Programms, wobei spätere Modifikationen natürlich möglich sind. Abbildung 8 zeigt die Eingabe einer Aktiven Datei, die im Anschluss für die weitere Verwendung zur Verfügung steht. Die nächste Abbildung zeigt den Aufruf für die Einstellung des Standard-Arbeitsverzeichnisses. Nach der ersten Installation des Programms wird das Verzeichnis, in dem Sie BiAS. installiert haben, als Standard verwendet: Modifikationen sind hier möglich. BiAS. liest Daten mit einer einfachen Genauigkeit (d.h. auf 6 Dezimalstellen genau); sodass möglichst nur Eingabewerte zum Beispiel X < (ohne Nachkommastellen) oder zum Beispiel X < (2 Vor- und 4 Nachkommastellen) verwendet werden sollten. Andere Eingaben können zu entsprechenden Rundungsfehlern etwa bei der Berechnung von arithmetischem Mittelwert oder von Streuungskomponenten führen. Ungeachtet dieser Festlegung führt BiAS. fast alle Berechnungen intern in doppelt- oder dreifachgenauer Darstellung aus (d.h. auf 16- bzw. 18 Dezimalstellen genau), worauf weiter unten noch ausführlicher eingegangen wird. Vorsicht: BiAS. fragt die Beträge von Eingabedaten nicht explizit ab, eine Überprüfung ist lediglich im Modul Import-Export möglich ( Format einer importierten Datei prüfen ). BiAS. für Windows Programmversion 11 epsilon-verlag Seite 012 von 241

13 Abbildung 9: Festlegung des Standard-Arbeitsverzeichnisses Bei der Eingabe von negativen Zahlen müssen negative Vorzeichen ohne Zwischenraum vor dem Betrag der einzugebenden Zahl stehen, da ansonsten das Programm den Wert 0 als Eingabe erkennt. (Also z.b. nicht - 1, sondern -1 eingeben!) Die oben erwähnte Import-Prüfung von Dateien stellt diesen Fehler ebenfalls fest. BiAS. verwendet aus systematischen Gründen grundsätzlich nur natürliche Zahlen, also ganze Zahlen größer als Null (die obere Grenze beträgt 1000) als Gruppennummern; andere Werte können unter Umständen zu Fehlern führen. Nicht zulässige Gruppennummern - zum Beispiel aus Fremddateien sollten deshalb gegebenenfalls umbenannt werden. Das Procedere zeigt Abbildung 12 im 2. Kapitel. BiAS. arbeitet mit formatierten numerischen ASCII-Dateien, die im nächsten Kapitel ( Editor ) näher beschrieben werden; vgl. auch Menü Infos, Wie ist eine Datei aufgebaut?. BiAS. Dateien entsprechen im Wesentlichen dem Standard-Dateiformat SDF und können auch als dbaseiii-, SPSS- und Windows- bzw. Excel-Text- Dateien (*.DBF, *.SAV, *.TXT, *.CSV) importiert und exportiert werden. Eine Datenmatrix bzw. eine Eingabe-Datei enthält zeilenweise die Beobachtungseinheiten (das sind Probanden, Patienten etc.) und spaltenweise die Werte von Merkmalen (Messwerte, z.b. Laborwerte eines Patienten) resp. die Werte einer Variablen an verschiedenen Zeitpunkten. Als weitere Variablen kommen noch eventuell Gruppierungsvariablen hinzu, die, z.b. für eine Varianzanalyse, die Gruppenzugehörigkeit der Daten zu Behandlungsgruppen bzw. Bedingungen kennzeichnen. BiAS. erlaubt grundsätzlich eine beliebige Anzahl von Zeilen (also Beobachtungseinheiten wie Patienten, Probanden o.ä.), jedoch maximal 200 Variablen pro Zeile. Die verschiedenen Verfahren gestatten jeweils eine Auswahl von Variablen/Spalten bzw. gewisser Teilstichproben/Gruppen. Der Stichprobenumfang ist, von einigen Ausnahmen abgesehen, auf maximal n=2000 Werte pro Gruppe bzw. in Abhängigkeit von der Gruppenzahl durch den vorgesehenen Speicherplatz beschränkt. Eine Ausnahme bilden z.b. die Datenbankbefehle in XTab, die diesen Beschränkungen nicht unterworfen sind oder einige regressions- und korrelationsanalytische Methoden, die mit n Werten durchgeführt werden können. Auf alle eventuellen speziellen Beschränkungen wird in den entsprechenden Moduln hingewiesen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 013 von 241

14 Merkmalsträger mit fehlenden Werten in mindestens einer Komponente, die für eine konkrete uni- oder multivariate Fragestellung relevant ist, werden von BiAS. bei der Auswertung ignoriert. Fehlende Werte in einer Datenstruktur werden - wie üblich - einfach nicht eingetragen und die Felder sind somit leer : Keinesfalls darf ein Dezimalpunkt o.ä. verwendet werden, da Letzteres unweigerlich zu Fehlern führt! Kritische Berechnungen werden von BiAS. in dreifachgenauer Darstellung (18 Stellen) vorgenommen: Dies betrifft die Parametrische Statistik, speziell etwa die Berechnung von Streuungskomponenten und den Bereich der Regressions- und Korrelationsrechnung. BiAS. genügt somit den aktuellen Anforderungen an die Rechengenauigkeit der verwendeten Algorithmen, die sich wie Two-Pass-Algorithmen verhalten; vgl. dazu etwa Berk (Amer. Statist. 41, 3, 1987, pp ) oder Dallal (Amer. Statist. 42, 3, 1988, pp ). Von wenigen Ausnahmen abgesehen, werden die Berechnungen in allen anderen Fällen mit doppelter Genauigkeit (16 Stellen) durchgeführt. Alle Rangordnungen in BiAS. werden mit einem schnellen, das heißt O(n logn)- Assembler-Algorithmus vorgenommen, wodurch auch bei nicht-parametrischen Verfahren zufriedenstellende Rechenzeiten erzielt werden können. Ein eventuell vorhandener Coprozessor wird von BiAS. erkannt und gegebenenfalls auch verwendet. Eine besondere Einstellung ist dazu nicht erforderlich. Zu allen nicht-parametrischen Testverfahren gibt BiAS. sowohl approximative als auch exakte Prüfgrößen einschließlich deren Überschreitungswahrscheinlichkeiten p ( p-werte ) an; dies gilt natürlich auch für alle parametrischen Verfahren. Speziell im relevanten Fall von kleinen Stichprobenumfängen kann die Prüfung einer Nullhypothese somit ohne Verwendung von Tabellen nicht nur approximativ, sondern auch anhand der exakten Nullverteilung eines statistischen Testes erfolgen. (Unter einer Überschreitungswahrscheinlichkeit versteht man die Wahrscheinlichkeit, dass - bei Gültigkeit der Nullhypothese - die vorliegende oder eine extremere Stichprobensituation eintritt. Bei exakt errechneten p-werten speziell in der parametrischen Statistik, aber auch in der nicht-parametrischen Statistik etwa zum U- Test oder zu Fisher s exaktem Test ist die Schreibweise p=p errechnet angemessen, wogegen bei nicht-parametrischen Tests mit tabellenorientierten p-werten in der Regel p p Tabelle verwendet werden sollte. BiAS. verwendet in Abhängigkeit von der Sachlage das Gleichheitszeichen oder die -Relation.) BiAS. bestimmt zu allen Graphiken die Skalierungen der Koordinatenachsen durch einen speziellen Algorithmus, so dass sich stets sinnvolle und sinnvoll gerundete Werte ergeben. Umständliche Eingaben seitens des Benutzers bzw. unhandliche Intervallskalierungen durch das Programm entfallen damit. Trotzdem gibt BiAS. optional Gelegenheit zur Modifikation der vorgegebenen Skalierung, zum Beispiel um verschiedene Grafiken mit der gleichen Skalierung zu versehen. Die Kopfzeile einer Graphik und deren Achsenbeschriftung kann optional überschrieben und die Größe der Achsenbeschriftungen kann verändert werden. Hardcopies von Graphiken sind im Graphik-Editor (vgl. Kapitel 5) oder nach Abschluss der Graphik via Letzte Graphik zeigen vom Hauptmenü aus möglich. Im Abschnitt Graphische Ausgabe findet sich dazu ein Beispiel; vgl. Sie dazu das Dialogfeld Graphik-Einstellungen in Abbildung 31 des 5. Kapitels. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 014 von 241

15 2. Daten, Editor und XTab BiAS. Editor wird vom Hauptmenü aus aufgerufen und arbeitet mit formatierten numerischen ASCII-Dateien. Jeder Datei - in diesem Handbuch gelegentlich auch als Datenmatrix oder als Tabelle bezeichnet - sind die Namen der Variablen bzw. Spalten vorangestellt; die Namen sollten aus Kompatibilitätsgründen nicht länger als 8 Zeichen sein. BiAS. Dateneditor ist in Abbildung 10 mit einem Popup-Menü dargestellt, das per Rechtsclick auf die Namenzeile geöffnet wird und, von wenigen Zusatzfunktionen im Menü Editor abgesehen, alle Elemente des Editors enthält: Abbildung 10: BiAS. Editor mit Popup-Menü Bei Rechtsclick auf ein aktiviertes Edit-Fenster (fetter Rand!) erscheint das übliche Menü mit Cut-Copy-Paste-Undo. Eine Datei-Übertragung z.b. aus Excel erfolgt ausschließlich über den rechten Excel-Button der Toolbar, mehr dazu weiter unten. BiAS. Editor gestattet die Neugenerierung von Dateien, verschiedene Korrekturund Ergänzungsmöglichkeiten bereits vorhandener Dateien, beliebige Datentransformationen (u.a. via Formelinterpreter) und natürlich eine klartextliche Bezeichnung von Variablen; Namen und Formate können zu einem späteren Zeitpunkt geändert werden. Alle Funktionen erklären sich nach Aufruf selbst und werden - mit Ausnahme des Formelinterpreters - deshalb nicht im Einzelnen erläutert. Eine Datei kann prinzipiell beliebig viele Zeilen ( Merkmalsträger, also Patienten, Probanden etc.) und maximal 200 Spalten ( Variablen bzw. Parameter ) umfassen. Alle Werte, die einem Merkmalsträger (d.h., Patient/Proband o.ä.) zugeordnet sind, werden in BiAS. stets in genau einer Zeile angeordnet. Somit entspricht eine Zeile genau einem Merkmalsträger und eine Spalte genau einem Merkmal (Variable). Merkmalsträger können zu Gruppen ( Stichproben, z.b. Therapien oder Diagnosen) zusammengefasst werden. Variablen, die Gruppen kennzeichnen, werden in BiAS. stets als Gruppenvariablen bezeichnet, im Beispiel etwa ist dies die dritte Variable BiAS. für Windows Programmversion 11 epsilon-verlag Seite 015 von 241

16 GruppNum. Gruppen werden immer mit Zahlen 1,2,...,1000 bezeichnet, Gruppennummer 0 ist nicht zulässig. Dazu ein Beispiel im geöffneten Editor: Abbildung 11: BiAS. Test-Datei Test.DAT Die fehlende Angabe in der ersten Zeile/Spalte bedeutet einen fehlenden Wert, eine spezielle Symbolik ist in solchen Fällen also nicht erforderlich. Alle eventuell vorhandenen Textangaben werden ebenfalls als fehlend interpretiert. Im Beispiel existiert nur die Gruppenvariable GruppNum. Prinzipiell dürfen beliebig viele Gruppenvariablen verwendet werden, die ganzzahlige Werte von 1 bis 1000 annehmen können. Die Verwendung von Gruppenvariablen ist nicht obligat. Gruppennummern können im Programm mit der Funktion Gruppennummern ändern (im Editor-Menü) sehr einfach verändert werden: Abbildung 12: Gruppennummern ändern Für jeden Merkmalsträger, also pro Zeile der Datenmatrix, können bis zu 200 Variablen eingegeben werden. Eine Zeile darf inclusive Trennzeichen (blanks, Leerzeichen ) bis zu Zeichen lang sein. Bei Neueingabe einer Datei (nächste Abbildung!) und analog bei späterem Ergänzen von Spalten (also von Variablen, nach Rechtsclick) ist für jede Spalte eine klartextliche Bezeichnung (Namen optimal nicht länger als 8 Zeichen!), die Typ-Angabe und eine Angabe des Spalten-Formats erforderlich: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 016 von 241

17 Abbildung 13a: Neue Daten eingeben bzw. Spalte einfügen In BiAS. Editor können vier verschiedene Datentypen verwendet werden: Typ Dezimalzahl: Dies sind Zahlen mit Dezimalstellen ( Numerisch mit Nachkomma ). Bei der Definition einer Spalte muss dieser oder ein anderer Typ (dazu weiter unten) angegeben werden. Typ Ganzzahl: Dies sind ganzzahlige Variablen ( Numerisch ohne Nachkomma ). Bei Definition einer Spalte sollte dieser Variablentyp zum Beispiel für Gruppenvariablen verwendet werden (die immer ganzzahlig und positiv sein müssen). Typ Datum: Datumsvariablen werden immer im Standard-Format TT.MM.JJJJ - z.b. also eingegeben. Datumsvariablen können nur in Transformationen, nicht aber für allgemeine Berechnungen verwendet werden. Typ Text: Textvariablen dienen nur zur Information und können niemals für Berechnungen o.ä. verwendet werden! BiAS. verwendet für alle Berechnungen ausschließlich numerische Daten, keine Textvariablen! Die Verwendung von Textvariablen dient nur zur Information, die Werte insbesondere von Gruppenvariablen müssen also immer Zahlenwerte sein, keine textlichen Bezeichnungen. Die Darstellung von Zahlen beträgt 8 Stellen. Abbildung 13b: Spalteneigenschaften ändern Die Spaltenbezeichnungen, der Datentyp und das zunächst intern festgelegte Datenformat können im Rechtsclick-Menü des Dateneditors per Spalteneigenschaften jederzeit geändert werden. Letzteres ist in praxi jedoch nur bei eventuell gewünschter Reduktion der Nachkommastellen einer Dezimalzahl von Belang, ansonsten eher gegenstandslos. Falls größere als die vorläufig vorgesehenen Werte eingegeben werden, ändert der Editor selbständig die Formatierung, Entsprechendes gilt auch für eine eventuell größere Anzahl von Nachkommastellen von Dezimalzahlen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 017 von 241

18 Bitte beachten Sie bei der Dateneingabe und -korrektur die übliche <Enter>- Konvention zur fortschreitenden Eingabe und Korrektur der Zellen der Datenmatrix. Bei Eingabe von Daten wird via <Enter> in der letzten Zelle einer Zeile automatisch eine neue Zeile erzeugt und der Eingabefocus auf die erste Zelle der neuen Zeile gesetzt. <Tab> führt die Eingabe nur in der aktuellen Zeile fort. Bei Erstellung einer Datei werden die Eigenschaften (d.h. Namen und Typ) jeder Spalte gemäß Konvention separat abgefragt (Abbildung 13). Nach der Definition einer Spalte wählt man per Rechts-Click die Funktion Spalte einfügen, um der Datei eine weitere Spalte hinzuzufügen (dazu die Abbildungen 10 und 13a). Nach Abschluss der Dateneingabe, Korrektur oder einer Modifikation wählen Sie - in Abweichung von vielen Microsoft-Programmen - immer Datei speichern (per R-Click oder per Toolbar), um Ihre Eingaben zu sichern. Damit wird einem unbeabsichtigten Verlust Ihrer Daten vorgebeugt. Ihre neue bzw. modifizierte Datei können Sie wie gewohnt vom Hauptmenü aus via Datei öffnen für die Benutzung in BiAS. öffnen. In BiAS.' Editor stehen einige Funktionen zum Ergänzen und Löschen von Zeilen und Spalten zur Verfügung (vgl. Rechtsclick-Menü in Abbildung 10: Zeilen ergänzen oder löschen, Spalten löschen, einfügen und anhängen). Bezug ist jeweils diejenige Zeile bzw. Spalte, die den Eingabe-Focus besitzt: Ein Feld dieser Zeile bzw. Spalte ist mit einem etwas dickeren Rand versehen. Das Kopieren von Spalten erfolgt im Rechtsclick-Menü per Spalte kopieren. Die Spalte mit dem Edit-Focus wird - nach Abfrage eines neuen Namens - identisch vor der aktuellen Spalte eingefügt, eine Verschiebung von Spalten erfolgt im Editor per Rechtsclick und Wahl der Zielposition der Spalte. Analoge Operationen mit Zeilenblöcken sind ebenfalls möglich: Ein Zeilenblock wird per linker Maustaste in der Spalte der Zeilenheader markiert (und dadurch farblich hinterlegt) und per Rechtsclick-Menü die gewünschte Operation ausgeführt, mehrere Leerzeilen können nach Markierung leerer Zeilen am Ende des Datengrids und Markierung der Zielposition per R-Click-Menü eingefügt werden. In BiAS.' Editor wird die Einstellung des Arbeitsverzeichnisses grundsätzlich nicht geändert. Öffnen Sie dagegen eine neu erzeugte oder mit Speichern unter gespeicherte Datei per Icon vom Hauptmenü aus, so wird dort gleichzeitig das Arbeitsverzeichnis als Default auf das Verzeichnis der eben geöffneten Datei eingestellt. Eine Datei kann prinzipiell beliebig viele Zeilen ( Merkmalsträger, also Patienten, Probanden) und maximal 200 Spalten ( Variablen, zum Beispiel medizinische Parameter) umfassen. Fehlende Werte in einer Datenstruktur werden, wie auch an anderer Stelle erwähnt, ihrer Natur folgend einfach nicht eingetragen, das entsprechende Feld bleibt also ohne einen Eintrag leer. Erwähnenswert ist die Backup-Funktion des Editor-Moduls (nur in BiAS. Hauptmenü): Einerseits kann man, wie üblich, vollständige Kopien einer vorhandenen Datei herstellen, andererseits können auch eingeschränkte Kopien einer Datei erzeugt werden, wobei die erste und die letzte Zeilennummer angegeben wird. BiAS. akzeptiert auch lange Dateinamen. Aus Kompatibilitätsgründen ist es jedoch günstig, trotzdem nur Dateinamen mit maximal 8 Zeichen zu verwenden. Dies wird im Editor bei Eingabe abgefragt. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 018 von 241

19 Neben der Dateneingabe über den Editor sind zwei weitere Varianten denkbar: Die erste Variante besteht in einem Import (Export ist auch möglich: Kapitel 3!) von Dateien. Dieser erfolgt nicht im Rahmen des Editors, sondern in BiAS. Hauptmenü. Speziell Excel-Dateien können auch über die Zwischenablage (per Shortcuts bzw. via Strg-<C> und Strg-<V>) importiert bzw. exportiert werden. Die zweite Variante besteht in der Schnelleingabe von Daten (im Editor-Modul via Hauptmenü erreichbar, Blitz-Icon), womit BiAS. Editor und dessen Formatspezifikationen umgangen werden kann. Eine Modifikation der auf die Schnelle eingelesenen Daten ist nur über BiAS. Editor möglich. Häufig genügt es, Daten ohne eine präzise Definition der Datenmatrix (vgl. dazu BiAS. Editor) einzugeben. BiAS. Schnelleingabe verwendet Windows Zwischenablage und wird per Blitz-Icon in der Toolbar oder im Editor-Modul des Hauptmenüs aufgerufen; eine Sicherung der eingegebenen Daten in BiAS. Dat-Format ist vorgesehen. Zur Trennung der Daten wird im Fenster der Schnelleingabe ein Semikolon verwendet; äquivalent dazu kann stattdessen auch ein (nicht sichtbares!) <Tab> eingegeben werden: Abbildung 14: Schnelleingabe von Daten BiAS.' Test-Daten (Abbildung 11: "Test.DAT", steht in BiAS.' Verzeichnis!) können via Schnelleingabe auch gemäß der Abbildung 14 eingegeben werden, die im Daten- Editor obligatorische Definition der Spalten ist hier nicht erforderlich. Bitte beachten Sie den fehlenden Wert in der zweiten Zeile in Abbildung 14: Vor dem ersten Semikolon wurde kein Wert angegeben! Einige Tips zur Dateneingabe - zum Beispiel bezüglich der Nachkommastellen - finden Sie weiter unten. Die Kopfzeile mit den Spaltennamen wird obligat als erste Zeile eingegeben, in den nächsten Zeilen folgen die numerischen (!) Daten. Als Trennzeichen zur Abgrenzung von Spaltennamen in der ersten bzw. von Daten in den folgenden Zeilen wird das Semikolon oder äquivalent ein "<Tab>" verwendet. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 019 von 241

20 Nach Abschluss der Dateneingabe übertragen Sie die Daten mit Hilfe der Blitz-Taste in eine BiAS.-Datei, deren Datei-Name abgefragt wird. Das Fenster in Abbildung 15 dient der Bestätigung, ob die erste Zeile aus Spaltennamen oder - entgegen der Empfehlung - bereits aus Daten besteht: Abbildung 15: Schnelleingabe von Daten: Abspeichern BiAS. erlaubt beliebige Transformationen von Daten: Über BiAS. Hauptmenü (dort: Editor, dann Transformationen) können beliebige Transformationen von Dateien durchgeführt werden. (Für Kenner der DOS-Version: Der Interpreter BiAS. BASIC der früheren DOS-Version ist unter Windows nicht mehr verfügbar!) Fehlende Werte in einer Datenstruktur werden, wie bereits erwähnt, ihrer Natur folgend einfach nicht eingetragen, das entsprechende Feld bleibt also leer. Das Transformationsmodul (siehe Abbildung 16) interpretiert diese Daten in entsprechender Weise als fehlend. BiAS. erfragt nach Wahl des Moduls eine Ein- und eine Ausgabedatei. Falls die Ausgabedatei bereits existiert, so wird dies reklamiert und BiAS. gibt Gelegenheit zur Korrektur bzw. zur Bestätigung des gewählten Programmnamens. Grundsätzlich können die Ein- und Ausgabedatei identisch sein, auch wenn sich ein Überschreiben der Eingabedatei nicht unbedingt empfiehlt. Abbildung 16 gibt einen Überblick über die Eingabemöglichkeiten. Die Eingabe erfolgt grundsätzlich in genau einer Zeile, die in konventioneller BASIC- Notation zu formulieren ist. Stößt der Formelinterpreter bei der Berechung auf einen fehlenden Wert, so wird auch die Zielvariable (links vom Gleichheitszeichen) undefiniert. Prinzipiell wählt man Variablen in der List-Box aus, drückt In die Formel (oder schreibt gleich z.b. X1 für die erste Variable) und definiert gemäß der Hinweise in Abbildung 16 eine Transformation: Zum Beispiel erreicht man mit X6=X1+X2, dass die 6. Spalte einer Datenmatrix durch die Summe der ersten beiden Spalten ersetzt wird. Weitere Einzelheiten und Beispiele entnehmen Sie bitte den im Programm verfügbaren Hinweisen zum Formelinterpreter und auch der Abbildung 16: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 020 von 241

21 Abbildung 16: Dialogfeld Transformationen Als Ergänzung zum Dateneditor besitzt BiAS. ein Datenbankmodul ( XTab ) zur Bearbeitung und Verknüpfung von Dateien: BiAS. bietet im Modul XTab ein eingeschränktes Datenbankmodul zur Unterstützung des Editors. XTab sieht Selektionen von Zeilen einer Datei gemäß benutzerdefinierter Kriterien vor und erlaubt neben vielfältigen Verknüpfungen von Dateien auch das Auszählen von Daten nach Definition von Bedingungen bzw. gemäß logischer Kontruktionen. Wie in vielen anderen Moduln des Programms gibt darüber auch BiAS. technisches Hilfesystem Aufschluss (Hinweise). Es empfiehlt sich, die Funktionen des Editors und des Menüs XTab anhand des Test-Datensatzes Test.Dat (Abbildung 11, steht auch in BiAS. Verzeichnis!) ausführlich auszuprobieren. Nach Aufruf des Datenbankmoduls XTab erscheint das Menü in Abbildung 17, dessen Funktionen anschließend kurz erläutert werden: Abbildung 17: Menü des Datenbankmoduls XTab BiAS. für Windows Programmversion 11 epsilon-verlag Seite 021 von 241

22 Selektieren: Per frei definierbarem Selektionskriterium (vgl. auch die ausführliche Beschreibung am Ende dieses Kapitels) oder per Zeilennummern können Zeilen (die Daten von Merkmalsträgern, zum Beispiel von Patienten) einer Datei ausgewählt und in eine neue Datei geschrieben werden. Beispiel: Wähle alle Zeilen aus, die in Variable 3 größer sind als 100. Proji*zieren: Eine Projektion bedeutet eine Auswahl von Variablen (Spalten bzw. Merkmale ) einer Datei, die in eine neue Datei geschrieben werden. Relationieren: Im Gegensatz zur Projektion werden hier zwei Eingabedateien verwendet, aus denen ebenfalls Spalten ausgewählt und in eine gemeinsame Ausgabedatei geschrieben werden. BiAS. Relationierung setzt - im Gegensatz zu der üblichen Definition bei Relationalen Datenbanksystemen - Dateien voraus, die zeilenweise identische Merkmalsträger beinhalten. Vorsicht: Das Programm reklamiert lediglich Dateien mit unterschiedlicher Zeilenzahl, prüft die Merkmalsträger jedoch nicht auf Identität! Addieren: Zwei Dateien werden hintereinander in eine neue Ausgabedatei geschrieben. Vorausgesetzt sind dabei zwei Dateien, in denen jeder Merkmalsträger in nur genau einer Datei enthalten ist und beide Dateien jeweils spaltenweise identische und identisch formatierte Variablen (Spalten) enthalten. BiAS. überprüft dies lediglich via Namen und Anzahl, prüft jedoch nicht, ob in den beiden Dateien Markmalsträger mehrfach vorkommen! Sortieren: Das Modul sortiert Dateien gemäß einer zu wählenden Variablen (das heißt, Spalte). Die in früheren Versionen vorhandene Beschränkung auf Dateigrößen von 64Kb wurde aufgehoben, dies unter Umständen mit dem Nachteil eines ungünstigeren Laufzeitverhaltens. Zählen: Das Modul dient der Ermittlung von Klassenhäufigkeiten für eine Variable (Spalte), dies wahlweise für diskrete oder stetige Daten. Es kann ein Selektionskriterium verwendet werden, so dass bei der Auszählung gegebenenfalls nur diejenigen Zeilen berücksichtigt werden, für die das Selektionskriterium zutrifft. Klassifizieren: Das Modul ermittelt eine bivariate Häufigkeitstafel für zwei Variablen, das heißt, es werden die Häufigkeiten der gewünschten Felder ausgezählt, wozu bei stetigen Variablen Klassengrenzen vorgegeben werden können. Weiterhin kann ein Selektionskriterium angewendet werden, um die Auszählung zum Beispiel auf eine bestimmte Teilstichprobe (vielleicht auf eine Gruppe wie Geschlecht o.ä.) zu beschränken. Die Ausgabe des Moduls besteht aus einer Häufigkeitstabelle. Das Selektionskriterium wird, wie oben beschrieben, in verschiedenen Funktionen des Programms verwendet. Die folgende Beschreibung bezieht sich auf das Selektieren von Zeilen in Selektieren, die Verwendung in den Moduln Klassifizieren und Auszählen erfolgt analog. Der Benutzer kann entscheiden, ob die Ausgabe dieser Programmeinheit nicht nur in das Ausgabefenster, sondern auch in eine neu zu generierende Ausgabe-Datei erfolgen soll. Letzteres kann in vielfältiger Weise von Nutzen sein, zum Beispiel um Teilstichproben (Strata, Subgruppen) zu selektieren. Das Dialogfeld des Selektionskriteriums fordert Sie zur Definition eines logischen Ausdruckes auf, der algebraische Bedingungen für eine oder mehrere Variablen verknüpft; dazu die nächste Abbildung 18: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 022 von 241

23 Abbildung 18: Dialogfeld zum Selektionskriterium Die erste Eingabeaufforderung Nächste Aktion zur Eingabe einer ersten Variablen auf (in der Listbox auswählen und <Variable eingeben>). Anschließend erscheint die nächste Kommentarzeile Nächste Aktion: Relation eingeben, wonach mit Hilfe der Funktionstasten unter Relation eine der sechs Relationen gewählt werden kann. Die nächste Kommentarzeile Nächste Aktion: Zahlenwert eingeben schließt die Bedingung für die erste gewählte Selektionsvariable ab. Zur Fortsetzung der Definition des Selektionskriteriums muss eine logische Verknüpfung angegeben werden, die nach der Kommentarzeile Nächste Aktion: Verknüpfung angeben gewählt wird. An dieser Stelle kann auch die Definition per <Ende> abgeschlossen werden. Ein Selektionskriterium könnte entsprechend Abbildung 18 bespielsweise lauten: VarEins = 1 oder VarZwei >= 5. Es ist zu beachten, dass die Verknüpfung und im Sinne einer Klammerung bei algebraischen Operationen stärker bindet als oder. Bei Eingabe von und bzw. oder erscheint wieder der Text Nächste Aktion: Variable auswählen und die Definition des Selektionskriteriums ist wie beschrieben fortzusetzen. Beispielsweise möchte man alle Zeilen der Datei Test.Dat (steht in BiAS. Verzeichnis!) ermitteln, die in Gruppe 1 enthalten sind und für die die erste Variable größer als 2, aber kleiner als 5 ist. Dazu definiert das Selektionskriterium mit GruppNum=1 und VarEins>2 und VarEins<5. BiAS. schreibt die vierte Zeile der Datei Test.Dat in eine Ausgabe-Datei (z.b. Test.Sel) und in das Ausgabefenster; die Variablennamen aus Test.Dat werden in die Ausgabe-Datei Test.Sel übernommen. Die Ausgabe wird durch den Text Die Bedingung wird von 1 Zeile erfüllt. Wegen fehlender Werte wurde 1 Zeile nicht berücksichtigt abgeschlossen: Nur die zweite Zeile ( ) der Datei Test.Dat erfüllt das Kriterium, der letzte Kommentar ist durch den fehlenden Wert der ersten Variablen der ersten Zeile bedingt. Das Selektionskriterium spielt - optional - zum Beispiel auch im Modul Klassifizieren eine Rolle, da man sich unter Umständen auf das Auszählen von Teilkollektiven beschränken möchte. Die Eingabe von Selektionskriterien ist im Modul Klassifizieren die gleiche wie oben beschrieben: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 023 von 241

24 Abbildung 19: Dialogfeld zur Kreuzklassifikation Man wählt in den Auswahlfeldern (Combo-Boxen) in offensichtlicher Weise die beiden Variablen X und Y (als horizontale und vertikale Variable der Kreuzklassifikation) und definiert für beide Variablen Intervallgrenzen. Nach Eingabe der jeweils unteren Grenze gibt man alle relevanten oberen Intervallgrenzen ein: Abschluss dieser Eingabe ist die <Eingabetaste> ohne Werteingabe! Wie erwähnt, kann das optionale Selektionskriterium das Auszählen auf Schichten bzw. Subgruppen beschränken. Viele Anwender benutzen das Tabellenkalkulationsprogramm Excel von Microsoft zur Eingabe und Verwaltung ihrer Daten. Excel ist dafür sicher hervorragend geeignet und gestattet eine außerordentlich flexible Behandlung der Datenstrukturen, zum Beispiel können auch mehrere Dateien nebeneinander bearbeitet werden. Abbildung 21 zeigt die Test-Datei Test.DAT im Excel-Fenster. Vor Start eines Projektes sollten Sie sich über das für Sie günstigste Vorgehen einigen und klären, ob Sie Ihre Daten in BiAS. mit Hilfe des Editors etc. eingeben oder ob Sie den flexiblen Excel-Editor verwenden wollen. Im zweiten Fall können Sie Ihre Daten per Zwischenablage in BiAS. importieren, wie im nächsten Kapitel ausführlich dargestellt wird. Unabhängig von Ihrer Entscheidung sollten Sie Ihre Daten stets in nur genau einer Datei verwalten: Ein paralleles Ergänzen und Modifizieren in einer BiAS.-Datei einerseits und in einer Excel-Datei andererseits ist nicht nur mühsam, sondern führt früher oder später mit Sicherheit zu Problemen! Bitte beachten Sie, dass Excel zwar als Tabellenkalkulationsprogramm hervorragende Dienste leistet, aber kein Statistik-Programm darstellt. Die wenigen, zum Teil statistisch unbefriedigend implementierten Methoden sind für wissenschaftliche Auswertungen in der Regel nicht ausreichend, wenn man sich nicht nur auf triviale Methoden beschränken möchte. Einige Ansichten dazu finden sich im Internet, entsprechende Urls finden Sie auf BiAS. Homepage BiAS. für Windows Programmversion 11 epsilon-verlag Seite 024 von 241

25 3. Import, Export und Excel Fast alle unter Windows lauffähigen Programme verwenden interne Datenformate, die in aller Regel anderen Programmen nicht zugänglich sind. Zum Datenaustausch besteht aber praktisch immer die Möglichkeit des Exports und des Imports von Text - Dateien (*.TXT und *.CSV), sehr viele Programme können auch dbaseiii-dbf- oder Standard-Dateien (*.SDF) lesen und schreiben oder sind wenigstens über die Zwischenablage zugänglich. BiAS. gestattet den Import- und Export von Excel-XLS-, Windows CSV- und TXT- Dateien, dbaseiii-dateien (DBF), Plain-Text-Dateien (SDF, formatiert!), SPSS und BiAS.-Dateien früherer DOS-Versionen, außerdem ist ein Transfer via Zwischenablage möglich. Über die vorhandenen Import-Varianten (Export ist analog) gibt die nächste Abbildung Aufschluss. Bitte beachten Sie, dass der Import und Export nicht vom Editor, sondern immer über das Menü Datei:Import/Export vorgenommen wird. Abbildung 20: Untermenü Import im Pulldown-Menü Datei Grundsätzlich muss man nur den Namen incl. Pfad der zu importierenden bzw. zu exportierenden Datei und wie in Abb. 8 den Namen incl. Pfad der Zieldatei angeben. Vorsicht: Die Extensionen TXT, CSV etc. sind üblich, aber nicht verbindlich und werden von manchen Autoren auch vertauscht (TXT ist konventionell TAB-delimited, CSV ist (semi)colon-delimited!). Bei Transferproblemen hilft sehr oft eine einfache Anpassung an die Namenskonvention des Zielprogramms. Vorsicht: Der Import und Export erfolgt nicht über BiAS. Editor, sondern stets über die Funktionen der oben in Abbildung 20 dargestellten Module Import und Export! Vorsicht: Natürlich muss man auch beim Import BiAS. Datenformat beachten! Der Import aus Excel ist auch für Excel-Dateien mit mehreren Tabellen möglich, da gegebenenfalls im Programm über ein Dialogfeld eine der Tabellen zum Import ausgewählt werden kann. Bitte beachten Sie in Excel unbedingt, dass die Namen der BiAS. für Windows Programmversion 11 epsilon-verlag Seite 025 von 241

26 Spalten nur in der ersten Zeile der Datei stehen dürfen und die Zellen unterhalb der ersten Zeile ( Datenmatrix, pro Merkmalsträger/Patient eine Zeile!) formatiert sein müssen: Dazu werden in Excel die gewünschten Zellen markiert und (vgl. Excel- Menü!) via Format-Zellen mit dem korrekten Format versehen. Die Einstellung Standardformat führt unter Umständen zu Fehlern! Eine unproblematische Alternative ist der Import über die Zwischenablage: BiAS. verarbeitet Excel-XLS-Dateien - wie oben beschrieben - direkt, über den Import und Export anderer Standard-Dateiformate wie zum Beispiel CSV/Excel oder DBF/ dbaseiii oder ganz einfach über Windows Zwischenablage ( Clipboard ). Natürlich muss man auch beim Import über die Zwischenablage BiAS. Datenformat beachten. Zum Clipboard-Import von Daten markiert man zunächst in Excel die relevanten Daten und kopiert diese mit <Strg>-C in die Zwischenablage (nächste Abbildung). Bitte markieren Sie in Excel nach Möglichkeit auch die Spaltenbezeichnungen (Variablennamen), um diese für BiAS. zur Verfügung zu stellen: Abbildung 21: Datei Test.Dat in Excel Bitte beachten Sie, dass Spalten-Namen nur in der ersten Zeile der Datei stehen dürfen und die Zellen unterhalb der ersten Zeile (also die Datenmatrix ) formatiert sein sollten! Nach Wechsel zu BiAS. betätigt man in der Toolbar das rechte Excel-Icon (alternativ <Strg>-V) für den Import der in Excel beschriebenen Zwischenablage: Abbildung 22: BiAS. Toolbar-Funktionen Excel-Import und -Export BiAS. für Windows Programmversion 11 epsilon-verlag Seite 026 von 241

27 Beim Daten-Import aus Excel fragt BiAS. - analog zur Schnelleingabe in Kapitel 2, Abbildung 15 - ab, ob die in Excel markierten Daten in der ersten Zeile (wie in Abbildung 21!) Namen resp. Bezeichnungen der Spalten (d.h. Variablennamen ) enthalten: Im Beispiel von Abbildung 21 ist dies mit Namen zu beantworten: Abbildung 23: Excel-Zwischenablage importieren Die danach importierte Datei steht jetzt für BiAS. zur Verfügung. Optional können die importierten Daten als BiAS.-DAT-Datei abgespeichert (<Speichern> nach Wahl eines Datei-Namens) oder aber temporär als Clipboard-Datei (<Abbruch>) verwendet werden. Die importierte Excel-Datei (als DAT-Datei oder in der Zwischenablage) ist automatisch die Aktive Datei und wird somit beim nächsten Aufruf zum Beispiel eines statistischen Tests verwendet. Abbildung 24: Abfrage eines Dateinamens zur optionalen Speicherung Der Export für Excel erfolgt analog, vergleichen Sie bitte das oben abgebildete Icon in Abbildung 22 bzw. die Toolbar-Funktion Datei für Excel ins Clipboard. Nach Betätigen des linken Icons (Export!) wechselt man zu Excel und kann dort die Daten via <Strg>-V in Excel einlesen. Zum Nachvollziehen des Imports und Exports stehen die verwendeten Daten als Dateien in BiAS. Verzeichnis zur Verfügung: Dies sind die beiden Dateien Test.XLS und Test.DAT. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 027 von 241

28 4. Aufruf einer Funktion Die Datei Test.DAT (Abbildung 11, steht auch in BiAS. Verzeichnis) beinhaltet Daten, die hier zur exemplarischen Demonstration eines Aufrufs einer Funktion - im aufgeführten Beispiel des Wilcoxon-Mann-Whitney-U-Tests - benutzt werden. Im Hauptmenü (obere Menüleiste) wählt man Methoden, im anschließend erscheinenden Menü Nicht-parametrische Verfahren und zuletzt endlich den Wilcoxon- Mann-Whitney-U-Test. Der Bildschirm zeigt vor dem Maus-Klick bzw. vor <Eingabetaste> das Bild der nächsten Abbildung 25: Abbildung 25: Menü-Auswahl des Wilcoxon-Mann-Whitney-Tests Die im Beispiel dieses Kapitels verwendete Test-Datei umfasst 12 Zeilen ( Patienten ) bzw. 3 Spalten ( Merkmale ). Das erste und das zweite Merkmal erhielten bereits bei der Dateneingabe die klartextlichen Namen VarEins und VarZwei. Die dritte Variable=Spalte erhielt den Namen GruppNum und kennzeichnet die Gruppenzugehörigkeit der Zeilen bzw. der Merkmalsträger; GruppNum nimmt im Beispiel die Werte 1, 2 und 3 an (drei Gruppen). Diese Gruppenzugehörigkeit kann beispielsweise durch verschiedene Behandlungen, Diagnosen oder auch durch andere Kriterien 1, 2 und 3 definiert sein. Die erste Eingabe ist die Gruppierungsvariable (die hier obligat angegeben werden muss, denn es handelt sich bei dem gewählten U-Test um den Vergleich zweier Gruppen!); diese wird im Beispiel, wie Abbildung 26 zeigt, im ersten Auswahlfeld (Combo-Box, in der Abbildung nicht aufgeklappt ) mit GruppNum definiert. Die Frage des Programms Welche Variable testen? beantwortet man mit dem Namen der Zielgröße, auszuwählen in der zweiten Combo-Box (in der Abbildung 26 ebenfalls nicht aufgeklappt ) mit z.b. VarEins, also der ersten Spalte der Eingabedatei. (Betrachtet man drei Medikationen zur Behandlung der Hypertonie, so könnte die Variable VarEins die Blutdrucksenkung nach Medikation darstellen.) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 028 von 241

29 Abbildung 26: Dialogfeld zum Wilcoxon-Mann-Whitney-Test Zum Abschluss gibt man in dem Dialogfeld die beiden testrelevanten Gruppen (Behandlungen, im Beispiel: Gruppennummern 1 und 3 ) bekannt, die man gemäß der Nullhypothese vergleichen möchte. Diese Gruppennummern sind im Beispiel Werte der Gruppierungsvariablen GruppNum der 3. Spalte (im Hypertoniebeispiel z.b. die Medikationen 1 und 3 ; Vorsicht: Gruppennummern sind immer >0!). Abbildung 27: Ergebnis der Rechnung im Ausgabe-Editor Die Ausgabe - als Ergebnis des Wilcoxon-Mann-Whitney-U-Tests - erfolgt in ein Ausgabefenster, das in Abbildung 27 wiedergegeben wird. Im Ausgabefenster kann beliebig geblättert werden, bei Bedarf kann das Ergebnis der Berechnung auf den Drucker ausgegeben werden oder aber zwecks Dokumentation oder späterer Verwendung gespeichert werden (Disketten-Icons, kumulativ oder pro Test). BiAS. für Windows Programmversion 11 epsilon-verlag Seite 029 von 241

30 Eine biometrisch-statistische Bewertung des Ergebnisses wird hier nicht vorgenommen. Bitte bedenken Sie, dass eine inhaltliche Analyse von Programmergebnissen nur mit Vorkenntnissen bzw. nach Lektüre einschlägiger statistischer Lehrbücher möglich ist; Hinweise finden sich reichlich in den Literaturangaben. Am Ende jeder Ausgabe gibt BiAS. Literaturhinweise, die eine Lektüre oder ein Zitieren der verwendeten Methoden erleichtern. Nach dem ersten Ausprobieren des Programms anhand des Wilcoxon-Mann-Whitney-U-Tests ist Ihnen BiAS. Bedienungssystematik bereits (fast) vertraut und es sollte Ihnen - wie dem Autor zahlreiche Anwender des Programms bestätigt haben! - möglich sein, auch andere Testverfahren oder auch deskriptive Methoden des Programms erfolgreich zu benutzen. Als Hilfestellung für weitere Versuche dient Ihnen Kapitel 7, das bis WinXP nur im Programm als Validierung verfügbar ist: Abbildung 28: Hilfethemen in der Validierung (Programmaufruf unter WinXP) Unter XP gelangt man über das Buch-Icon (zum Beispiel Abbildung 5) zum Validierungsteil (dieser entspricht Kapitel 7 dieses ebooks!), dessen Hilfethemen ebenfalls einen Überblick über die implementierten Methoden geben. (Bei Bedarf bitte die Bemerkungen in der Einleitung zur Verfügbarkeit der Hypertexte beachten!!) BiAS.' Methodenspektrum beinhaltet neben den "üblichen" statistischen Methoden auch zahlreiche weitere Verfahren, die im medizinischen Bereich zwar von grundlegender Bedeutung, aber in anderen Programmen nicht oder nur selten verfügbar sind. Einen Überblick über den Leistungsumfang gibt die letzte Seite, BiAS. Homepage oder in vollem Umfang die Demoversion des Programms, die unter der genannten Adresse verfügbar ist. Insgesamt stehen mehr als 400 implementierte Verfahren zur Verfügung. BiAS. entstand im medizinischen Bereich und ist, wie das Methodenspektrum zeigt, somit besonders für Mediziner und Pharmakologen, aber auch für Biologen und Psychologen im Studium und in der wissenschaftlichen Praxis von Interesse: Das Anwenderspektrum reicht von Studenten, Diplomanden und Doktoranden bis hin zu professionellen universitären und industriellen Wissenschaftlern. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 030 von 241

31 5. Graphische Ausgabe BiAS. sieht zahlreiche graphische Ausgaben vor; einen Überblick dazu gibt die letzte Seite. Als Beispiel zeigt Abbildung 30 eine graphische Darstellung einer Kaplan- Meier-Überlebenszeitschätzung zusammen mit Konfidenzintervallen nach Hall und Wellner (Gruppe 2 der Datei Armitage.Dat, steht in BiAS. Verzeichnis). Die erforderlichen Eingaben werden im Dialogfeld der Abbildung 29 dargestellt. BiAS. enthält mehr als 60 verschiedene graphische Darstellungsmöglichkeiten, die alle (Kreisdiagramme ausgeschlossen) in analoger Weise behandelt werden können. Nach Speicherung einer Graphik kann diese im Hauptmenü wieder eingelesen werden (Tool-Icon Letzte Graphik ), um via MS-Paint weitere Modifikationen (z.b. Änderungen der Beschriftung, zusätzliche Beschriftungen o.ä.) vornehmen zu können. Vorsicht: MS-Paint liest je nach Version nur BMP-Graphiken ( Bitmaps ). Abbildung 29: Dialogfeld zum Kaplan-Meier-Schätzer Die Funktion wird unter Marginalien/Survivalanalyse aufgerufen und man erhält im Beispiel nach Wahl der Gruppe 2 die Graphik in Abbildung 30. Diese Graphik kann nach Abfrage in eine BMP, GIF, JPG oder PCX-Graphik-Datei geschrieben werden, die wiederum in ein beliebiges Textprogramm wie zum Beispiel MS-Word eingelesen werden kann. Auf diesem Wege können BiAS. Graphiken auch an anderer Stelle weiterverarbeitet werden, z. B. in Microsoft s Paintbrush oder in PowerPoint. Das Menü des Graphik-Editors (nächste Abbildung 30) sieht einige Graphik-Optionen vor: Bearbeiten beinhaltet zahlreiche Graphikeinstellungen (dazu Abbildung 31) und ist auch per Rechtsclick aufrufbar, an Stelle von Drucken und Kopieren (ins Clipboard) kann man auch kürzer <Strg>-P und <Strg>-C verwenden. Speichern speichert, wie erwähnt, die Graphik alternativ in eine Datei. Mit Kopieren wird die Graphik - zum Beispiel für MS-Word - in die Zwischenablage kopiert. Bitte beachten Sie, dass BMP-Color-Dateien ca. 600Kb umfassen, die anderen Formate - speziell GIF- Dateien - dagegen deutlich weniger. Die Option Größe gestattet eine pixelgenaue Modifikation der Graphikgröße, Zoom verändert die Größe in nur zwei Stufen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 031 von 241

32 Abbildung 30: Überlebenszeitschätzung nach Kaplan und Meier Im Kapitel Struktur wurde bereits auf die automatische, aber modifizierbare Skalierung und Beschriftung der Graphiken hingewiesen. Weitere Optionen sind vorgesehen (z.b. Ein- und Ausblenden des Koordinatengitters per Netzgitter, Modifizierung der Skalierung per Skalierung), wie das Dialogfeld des Graphik-Editors (aufgerufen via Bearbeiten bzw. per Rechtsclick) in Abbildung 31 zeigt: Wichtig: Alle Modifikationen der Voreinstellung können dauerhaft (also auch für Neustarts!) im Menü Fix des Graphik-Menüs (2. Menüpunkt von links) festgelegt werden, um eine individuell fixierte Gestaltung der Graphiken zu ermöglichen. Abbildung 31: Dialogfeld Graphik-Einstellungen Bei nominaler Abszisse (also bei Gruppen, Box-Plots, Zeitverläufen etc.) wird diese textlich skaliert, so dass das Dialogfeld zwecks beliebiger Veränderung der Beschriftung in modifizierter Darstellung angezeigt wird: Weitere Einzelheiten dazu finden sich unter Hilfe im Menü. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 032 von 241

33 Die im Programm verwendeten Standardfarben sind nach Installation vorgegeben und aus Abbildung 33 ersichtlich. Die Farben sind auf zweierlei Weise modifizierbar: Nach Doppelklick auf z.b. die Farbe der jeweils ersten Säule erscheint der bekannte Windows-Dialog zur Farbwahl, im Beispiel der Abbildung 32 mit der Farbe grün. Nach Anpassung und Ok wird die Farbe in der Graphik geändert. Jede Farbwahl bleibt während der Bearbeitung einer Graphik erhalten, bei einem erneuten Aufruf oder bei Aufruf einer anderen Graphik wird wieder die Standardpalette verwendet. Alle neuen Farben können aber im Menü per Fix permanent gespeichert werden. Abbildung 32: Dialogfeld Farbauswahl nach Doppelklick auf eine Farbe Eine zweite Variante der Farbwahl ist über das Graphikmenü per Farben verfügbar. Der entsprechende Dialog findet sich in der nächsten Abbildung 33: Abbildung 33: Dialogfeld Farbauswahl nach Wahl von Farben im Menü Per Fix oder auch im Dialog kann die modifizierte Farbpalette wie oben permanent und wie oben auch für erneute Programmaufrufe! fixiert und gespeichert werden. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 033 von 241

34 Abbildung 34: Beispiele einiger Graphiken in optionaler Grauwert-Darstellung Im Anhang finden sich im Zusammenhang mit speziellen Verfahren (zum Beispiel Lin s CC und viele andere) circa 60 weitere, hier nicht aufgeführte Graphiken. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 034 von 241

35 6. Installation BiAS. Installation erfolgt durch Starten entweder der Setup-Datei DemoBiAS.EXE oder der Datei BiAS11.EXE, die Sie von BiAS. Homepage bias-online.de heruntergeladen haben (bei Erhalt einer Original-CD: Setup.exe starten!). Prinzipiell ist nur der Pfad des Zielverzeichnisses anzugeben, in dem BiAS. Installiert werden soll: Abbildung 35: Installation des Programms Abbildung 36 zeigt die drei in BiAS. verfügbaren Varianten zum Festlegen des Verzeichnisses, das jeweils nach Programmstart und bei erneutem Datei öffnen als Standardverzeichnis verwendet werden soll. Voreinstellung nach Installation ist das Verzeichnis (vgl. Abb. 36!), das im jeweils vorgängigen Öffnen-Dialog gewählt wurde: Abbildung 36: Auswahl des Standard-Startverzeichnisses bei Datei öffnen Handbuch: Bis WinXP werden BiAS. WinHelp-Handbücher während des Setups installiert und sind im Programm aufrufbar. Ab Vista wird das vorliegende ebook installiert, das ebenfalls in BiAS. Toolbar per Buch-Icon verfügbar ist. Die XP-Handbücher können bei vorhandenem WinHlp32 optional zusätzlich verwendet werden: Einzelheiten ergeben sich aus Abbildung 1 und dem Kommentar dazu auf Seite 5. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 035 von 241

36 7. Validierung BiAS. wurde nach bestem Wissen und Gewissen geplant, entworfen, programmiert und ausführlich getestet. Zur Validierung der Software wurden alle Programmteile, soweit in anderen Programmen verfügbar, anhand der Ergebnisse der vorhandenen Standardsoftware überprüft. In allen anderen Fällen wurden durchgerechnete Beispiele aus der Literatur mit den von BiAS. errechneten Ergebnissen verglichen oder mit Bleistift und Papier errechnete Ergebnisse herangezogen. Erfahrungsgemäß lassen sich trotzdem Fehler nur selten vermeiden. Der Autor übernimmt deshalb weder eine Garantie für die Korrektheit des Programms BiAS. und des Handbuchs noch eine Haftung für mögliche Folgeschäden, ist aber für Hinweise und Verbesserungsvorschläge stets dankbar. Abbildung 37: Validierungsteil des Handbuchs: XP-Hypertext-Version In der vorliegenden Zusammenstellung der Validierung (siehe Anhang, unter XP auch als Hypertext-Handbuch gemäß Abbildung 37 verfügbar) finden sich fast ausschließlich Beispiele und Ergebnisse aus bekannten und allgemein verfügbaren Lehrbüchern: Mit der Validierung des Programms wurde versucht, alle Rechenergebnisse überprüfbar und nachvollziehbar zu machen, so dass hier weitgehend auf Lehrbuchbeispiele hingewiesen wird; wenige Ausnahmen beziehen sich auf Beispiele aus Originalarbeiten und auf Ergebnisse der Standardprogramme SPSS, SAS, Testimate und SYSTAT. Dabei ist leider als Nachteil in Kauf zu nehmen, dass die durchgerechneten Beispiele der Lehrbücher häufig nur mit geringer Rechengenauigkeit bzw. mit Rundungsfehlern angegeben werden, so dass mitunter Abweichungen bereits in der 3. oder 4. Stelle der Ergebnisse vorhanden sind. Auf solche Abweichungen wird im Folgenden hingewiesen, auffällige Abweichungen von den Ergebnissen der Lehrbuchbeispiele wurden nach Möglichkeit durch Per-Hand- Berechnungen überprüft und können in allen Fällen erklärt werden. Mit BiAS. Validierung und den Beispielen zur Bedienung erübrigt sich nach Ansicht des Autors eine Aufstellung der verwendeten Formeln: Einerseits besteht nicht die BiAS. für Windows Programmversion 11 epsilon-verlag Seite 036 von 241

37 Absicht, mit BiAS. Handbuch einschlägige Lehrbücher oder eine einschlägige Vorbildung zu ersetzen, andererseits kann das erforderliche biometrische Basiswissen bzw. die zugrunde gelegten Formeln etc. ohne weiteres der zitierten Literatur entnommen werden. Die durchgerechneten Beispiele des Validierungsteils sind durch die Verwendung von Hyperlinks als Hypertext-Handbuch leichter zu lesen und einfacher zu finden als in einem gedruckten Handbuch: Zum Aufruf per Icon vergleichen Sie bitte die Abbildung 36 im vorhergehenden Kapitel 6. Der Text des Hypertext-Handbuchs entspricht vollständig dem Text des Anhangs. Falls Sie auch ab Windows Vista das Hypertext-Handbuch verwenden möchten, installieren Sie wie auf Seite 5 ausführlich beschrieben nachträglich die Datei WinHlp32.exe. Das Programm erkennt die Installation und stellt zusätzlich die vor Vista verwendete Hypertext- Version des Handbuchs bereit! Für alle in BiAS. implementierten Verfahren findet sich jeweils eine vollständige Einund Ausgabe des Programms. Die Eingabedaten zu den gerechneten Beispielen werden ebenfalls angegeben; alle Eingabedateien wurden mit den Autorennamen bezeichnet, die Extension einer Datei entspricht der Seitennummer des zitierten Lehrbuches bzw. der Originalarbeit (vgl. Literaturangaben). Die Beispiele dienen einerseits der Validierung des Programms, andererseits kann man aber auch in Zweifelsfällen an den Beispielen die Bedienung des Programms einfach nachvollziehen. Aus diesem Grund wurde in den ersten Kapiteln eine nur exemplarische Einweisung in die Bedienung vorgenommen und auf detailliertere Darstellung verzichtet. Die Reihenfolge der Validierungsbeispiele ist die gleiche wie die der Literaturzitate im letzten Kapitel. Zu jedem dieser Beispiele findet sich eine kurze Erläuterung und, etwas eingerückt, die vollständige Ausgabe des Programms einschließlich Literaturhinweisen. In Kapitel 1 ( Struktur des Programms ) wurde BiAS. Hilfesystem beschrieben (vergleichen Sie dazu auch bitte die Abbildungen 5 und 6). In BiAS. Hilfemodus werden die angewählten Funktionen nicht ausgeführt, sondern es werden zu allen Menüpunkten einfache medizinische und biologische Beispiele in einem Fenster gezeigt. Dieser biometrisch orientierte Teil des Hilfesystems kann somit als eine schnelle Ergänzung zu den Validierungsbeispielen dieses Kapitels verwendet werden, soll aber keinesfalls die Lektüre eines Lehrbuches ersetzen. Alle graphischen Methoden wurden im Anhang exemplarisch reproduziert; aus Platzgründen können jedoch nicht alle Optionen dargestellt werden. In Kapitel 4 findet sich eine Graphik aus dem Bereich der Survival-Analyse; diese kann mit Hilfe der Datei Armitage.Dat (steht in BiAS. Verzeichnis!) nachvollzogen werden. BiAS. sieht mehr als 80 verschiedene Graphiken vor, die sachlich den jeweiligen Moduln des Menüs zugeordnet sind. Zum Verständnis der Bedienung empfiehlt es sich, das Beispiel der Überlebenskurve nachzuvollziehen (5. Kapitel, Abbildungen 29-31!). Alle anderen verfügbaren Graphiken, auch die in Abbildung 34, folgen im Wesentlichen diesem Beispiel. Eine explizite Validierung der Graphiken wurde somit nicht vorgenommen und erscheint einerseits nicht sinnvoll und andererseits auch nicht möglich. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 037 von 241

38 Im Folgenden finden Sie alle Details zur Validierung der Rechenergebnisse des Programms. Zu jedem Test bzw. zu jeder Methode wird jeweils die entsprechende Quelle zur Überprüfung der Resultate angegeben. Falls eine entsprechende Referenz nicht existierte, wurden ausführliche per-hand-berechnungen durchgeführt. Eine Überprüfung der Graphiken ergab sich vollständig durch ausführliche per-hand- Berechnungen und, sofern möglich, mit anschliessenden Vergleichen mit anderen Programmpaketen. Details werden in der weiteren Aufstellung nicht aufgeführt. Deskriptive Statistik Schätzgrößen mit den Daten Graf et al. (1987, p.379): Das Beispiel wurde gerechnet mit den Faktoren 1, und , bis auf Darstellungsgenauigkeit mit identischen Ergebnissen. Weitere Überprüfung durch Addition einer Konstanten (c=1000) und mit großen Stichproben (n 1000) unterschiedlicher Größenordnung. Box-Plot, Bar-Plot, Quartilen, Perzentilen, Histogramm, Scattergramm: Daten aus Graf et al. (1987, p.379, interpolierte Werte der Quartilen wurden per Hand gerechnet: P(0.25)=1.4275, P(0.75)=1.5850, Median=1.52. Die interpolierten Percentilen und Quartilen können mit Lienert (1973, p. 42) überprüft werden. BiAS. benutzt bei der Berechnung Tukey s statistisch äquivalente Blöcke, vgl. dazu auch Beran und Hall (1993). Konfidenzintervalle Konfidenzintervall für µ: vgl. t-test. Konfidenzintervall für Median: Gemäß Tabellen Sachs (1992, pp Poisson-Konfidenzintervall: Sachs (1992, p.292) Binomial-Konfidenzintervall: Sachs (1992, p.436) Konfidenzintervall für mittleren Korrelationskoeffizienten: Sachs (1999, Kap. 552) Die übrigen Konfidenzintervalle werden (Hinweise!) im Zusammenhang mit analogen Testverfahren überprüft. Vierfelder-Tafel χ²-test (Yates-korrigiert): Walter (1980, p.122, pp.140-1), Ackermann (1977, p. 75), Zahlreiche Per-Hand-Berechnungen Fisher-Test: Büning und Trenkler (1978, p. 247), Sachs (1992, p. 478), Hartung (1982, p.414) McNemar-Test: Approximativ: Fleiss (1973, p.74), Walter (1980, p.124). Exakt: Binomial-Tabellen Median-Test: Sachs (1992, p.390), auch mit χ²- und Fisher-Test überprüfbar. Cohen s Kappa: Fleiss (1973, pp.143ff), Bortz- Lienert-Boehnke (1990, pp ) (Vorsicht Rechengenauigkeit!) Pearson s Kontingenzkoeffizient: Sachs (1992, p.476), CC ohne Yates-Korrektur. Gart s Cross-Over- Analyse: Gart (1969, pp.75ff), Bortz et al.(1990, p.165-5) Konfidenzintervall für µ1-µ2: Armitage (1988, p.123ff) Äquivalenztest: R. Johnson (1988, pp.907ff) Beurteilung diagnostischer Test: Per-Hand-Berechnungen Epidemiologie: Sachs (1992, pp ). Kontingenztafel χ²-test: Armitage (1988, p.373), Sachs (1992, p.591), Sachs (1992, p.604/6 (Abweichung in Gesamt-χ², Korrekter Wert Sachs (1992, p.595!). Sachs (1992, p.595), Sachs (1992, p.588) Yates und Cochran s Trend-Test: Armitage (1988, p.373), Sachs (1992, p.604/6 (Gesamtχ² vgl. χ²-test), Sachs (1992, p.591) Mantel-Haenszel-Test: De Jonge (1983, pp.155ff): p= , χ²= Cohen s Kappa: Fleiss (1973, p.143ff), Bortz (1984/89, p.459) Pearson s Kontingenzkoeffizient: Sachs (1992, p.476), CC ohne Yates-Korrektur. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 038 von 241

39 Konfigurationsfrequenzanalyse Einstichproben-KFA: Bortz (1984/89, p.200), Bortz et al. (1990, p.156), Krauth-Lienert (1973, p.34) Lehmacher (1981) Mehrstichproben-KFA: Bortz et al. (1990, p.158), Krauth- Lienert (1973). Haf et al. (1985, pp.70-1) Clusterung binärer und/oder kategorialer Daten: Lautsch, E., G.A. Lienert (1993) Test auf Gauß-Verteilung χ²-anpassungstest: Per-Hand-Berechnungen; BiAS. berechnet die Intervallbreiten gemäß Sturges, so dass Lehrbuchbeispiele i.a. nicht reproduziert werden. Shapiro-Wilk-Test: Graf et al. (1987, p.393) Kolmogoroff-Smirnoff-Lilliefors-Test: Graf et al. (1987, p.393) (Präzision!) David-Test: Sachs (1992, p.424), Per-Hand-Berechnungen Grubbs-Test: Graf et al. (1987, p.391,393) Regression und Korrelation Pearson-Regression: Armitage (1988, p.148), Sachs (1992, p.521, p.522), Ackermann (1977, p.91) Vertrauensbereich Sachs (1992, pp.552-3) Polynomiale Regression: Sachs (1992, p.561), Armitage (1988, pp.148,266), Hartung (1982, pp.592-4), Per-Hand- Berechnungen auch mit Perfect-Fit-Daten Multiple Regression: Sachs (1992, p.561), Armitage (1982, pp.148,266), Hartung (1982, pp (es ist t=sqr(f) für df=1!), Longley- Daten Vergleich von Regressionskoeffizienten: Sachs (1992, p.554), Linder/Berchtold (1982, p.191ff) Hahn-Prognoseintervalle: Per-Hand-Berechnungen gemäß Sachs (1992, p.557) auf Grund der (überprüften) Resultate Pearson-Korrelation: Sachs (1992, p.521), Sachs (1992, p.522), Hartung (1992, p.547), Ackermann (1977, p.94) Partielle Korrelation: Per-Hand-Berechnungen gemäß Sachs (1992, pp.570-3) auf Grund der verifizierten Korrelationskoeffizienten, analog Hartung (1982, p. 562) Multiple Korrelation: Per-Hand- Berechnungen gemäß Sachs (1992, pp.570-3) auf Grund der verifizierten Korrelationskoeffizienten, analog Hartung (1982, p.564), Bortz (1984/89, pp ) (F wg. Rundung von R ungenau, F=24.24, vgl. Multiple Regression) Rang-Korrelation: Lienert (1973, p.685-7) Spearman s Rangkorrelation: Sachs (1992, p.513, p.522) Abbauverfahren Multiple Regression: Flury-Riedwyl (1983) Fisher-Verlag. Vergleich von Korrelationskoeffizienten Sachs (1999, Kap. 552) Logistische Regression: Hosmer/Lemeshow (2000) Zirkuläre Regression: Batschelet (1981) Kapitel 8 und 9. Parametrische Statistik Einstichproben-t-Test und Konfidenzintervalle: Graf et al. (1987, p.399ff), Walter (1980, pp.127ff), Ackermann (1977, p.84) Zweistichproben-t-Test und Konfidenzintervalle: Graf et al. (1987, p.397ff), Lorenz (1992, pp.170ff), Walter (1980, p.126) Kolmogoroff-Smirnoff- Test (Lilliefors-Variante) in t-tests & Varianzanalyse: Identisch mit Test in Prüfung auf Gauß-Verteilung F-Test (Varianzhom*ogenität) in t-tests und Varianzanalyse: Identisch mit Test in Prüfung auf Gauß-Verteilung Welch-Test: Sachs (1990, p.356), Lorenz (1992, p.175) F-Test: Sachs (1992, p.348), Lorenz (1992, p.178) (Exakte Berechnung von s² mit z.b. Zweistichproben-t-Test, Lorenz gibt nur 4 Dezimalstellen genau an!) Zur Varianz- und Kovarianzanalyse: BiAS. rechnet grundsätzlich mit a posteriori-vergleichen, bitte beim Vergleich der Ergebnisse beachten! Einweg-Varianzanalyse: Freund/Littel bzw. SAS, incl. Scheffe-Tests, Datensatz aus Freund/Littel, Bortz (1984/89, pp.458ff, 300ff, 325ff, 329ff), Ackermann (1977, p.96) Zweiweg-Varianzanalyse: Bortz (1984/89, 355ff), Weitere Prüfung der Scheffe-Vergleiche: Vergleich mit Einweg-Varianzanalyse mit vernachlässigtem zweiten Faktor Lineare Kontraste: Bortz (1984/89, 325ff) Vorsicht: Als a posteriori-vergleich besitzt der Zähler df=2, also F=58.17(9) Orthogonale Polynome: Prüfung Koeffizienten BiAS. für Windows Programmversion 11 epsilon-verlag Seite 039 von 241

40 Ackermann (1979, p.604) Einweg-Kovarianzanalyse (reduziertes Modell): Freund/ Littel bzw. SAS, inclusive Scheffe-Tests, Datensatz aus Freund/Littel, Bortz (1984, p.458ff) Zweiweg-Kovarianzanalyse: Bortz (1984/89, 479ff), Vorsicht: Fehler in Einzelvergleiche 2) und 3) : n=6, nicht n=3! Weitere Validierungen der Scheffe-Vergleiche: Einweg- Kovarianzanalyse mit vernachlässigtem zweiten Faktor, Vergleich mit Zweiweg-Varianzanalyse mit vernachlässigter Kovariablen. Bartlett-Test: Sachs (1992, p.617), Bortz (1984/89, pp.329,345) (Rechengenauigkeit!) Einstichproben-Hotelling s Test: Kramer (1972, p.51, p.54) (Vorsicht: Kramer prüft in diesen Beispielen Ho(µ1=15, µ2=6, µ3=2.85) für p.51, für p.54 Ho(µ1=553, µ2=635, µ3=532, µ4=613); die Daten der Beispiele wurden deshalb vor Berechnung via BiAS. BASIC transformiert (x i=xi-µi). Die Ergebnisse bei Kramer sind - vermutlich wegen der Matrizeninversion - relativ ungenau: Beispiel p.51: T2= , p.54: T2= ) Zweistichproben-Hotelling s Test: Kramer (1972, p.73 (dort T2=23.891, vgl. Bemerkung zu Einstichproben-Hotelling-Test) Cross-Over-Analyse: Daten Grizzle (1965), Abt (1985). Nicht-parametrische Statistik Die Berechnung der exakten p-werte für die beiden Wilcoxon-Tests wurde mit allgemein verfügbarer Tabellen überprüft (u.a. exakte Werte bei Siegel (1956, pp.271, Tab. J), ebenfalls die exakten p-werte für Binomial-basierte Tests (z.b. McNemar-Test, Vergleich Häufigkeiten etc.) Alle Tests werden bei Bindungen ausnahmslos mit Tie-Korrektur berechnet! Wilcoxon-matched-pairs-Test: Hollander-Wolfe (1973, p.30) (Daten p.29), Graf et al. (1987, p.399ff), Hodges-Lehmann-Schätzer, Tukey-Konfidenzintervall: Hollander-Wolfe (1973, pp.50-52, pp.29-36) Wilcoxon-Mann-Whitney-Test: Graf et al. (1987, p.399), Ackermann (1977, p.87), Hodges-Lehmann-Schätzer und Moses-Konfidenzintervall: Hollander-Wolfe (1973, pp.69,75,79) Kolmogoroff-Smirnoff-Test: Hartung (1982, pp.519, 523) Kruskal-Wallis-Test: Daten Sachs (1992, p.394, Vorsicht: Sachs berechnet die Prüfgröße H^ ohne Tie-Korrektur! Büning et al. (1978, p.201,206) Dunn-Test: Dunn (1964, pp.241ff) Friedman-Test: Daten Klotz (1980), zwei fehlende Werte ersetzt durch Zeilenmedian, viele Bindungen (!), Ergebnis ist identisch mit Klotz, Sachs (1992, pp.669,671) Test nach Rijkoort & Wise (Vorsicht: 2. Freiheitsgrad bei Sachs (1992, p.667) muss korrekt lauten (c-1)(r-1)), Conover (1980, p.301) Wilcoxon-Wilcox-Test: Sachs (1992, p.675) Dixon und Mood s Vorzeichentest: Tabellen der Binomial-Verteilung mit p=0.5. (Es wird nur die exakte Version berechnet.) Cochran s Q-Test: Büning et al. (1978, pp.227-8) Vergleich zweier Häufigkeiten/Poisson-Verteilungen: Approximativ: Sachs (1992, p.297, kontinuitätskorrigiert, für df=1 ist z²=χ². Exakt: Tabellen der Binomial-Verteilung mit p=0.5 Cross-Over-Analyse nach Koch: Daten Grizzle (1965), Abt (1985), Daten Koch (1972): Prüfung der Rangsummen R1,R2, Prüfgröße U=Min(U1,U2) mit per-hand-berechnungen. Survival-Analyse Kaplan-Meier-Schätzungen: Armitage et al. (1988, pp.431-2), Harms (1988, p.182) Gehan- Wilcoxon-Test: Daten Peto-Pike (1977, p.31, Stratum Normale Nierenfunktion, identische Ergebnisse mit Testimate (IDV München) Log-Rank-Tests Peto-Pike und Cox-Mantel: Daten Peto und Pike (1977, p.31), Stratum Normale Nierenfunktion, identische Ergebnisse mit Testimate (IDV München), Harms (1988, p.185), Armitage (1988, pp.430-2) Stratifizierter Test: Daten Peto und Pike (1977, p.31), identische Ergebnisse mit Testimate. Zwei Gruppen: Programm WinStat 3.1 (Vorsicht: WinStat 3.1 ist in bestimmten Situationen problematisch!!) Hall-Wellner-Konfidenzintervalle: Harris und Albert (1991, pp.17,41) Hazard-Raten: Harris und Albert (1991, pp.17,41) und dazu ausführliche per-hand- Berechnung. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 040 von 241

41 Cluster-Analyse Mc-Queen-Rubin: Deichsel und Trampisch (1985, pp.3-4) Single Linkage: Alle Verfahren (Distanzen) wurden durch per-hand-berechnungen verifiziert. Deichsel und Trampisch (1985, pp.3-4). KFA-Clusterung binärer und/oder kategorialer Daten: Lautsch, E., G.A. Lienert (1993) Diskriminanzanalyse Lineare DA: Deichsel und Trampisch (1985, pp.86-7), Graham (19xx, pp.115ff), geringe Abweichungen der Trenngeraden evtl. durch zwei Wertepaare fraglicher Korrektheit erklärbar. Verifizierung durch Per-Hand-Berechnungen. Quadratische DA: Programm nach Inst. of Math. Stat. (ed., 1989), Discriminant Analysis and Clustering. Stat. Science Vol. 4, No. 1, p Verifiziert mit Linearer DA. Box-Test in Quadratischer DA: Bortz (1984/89, pp.440-2) Stoller s nicht-parametrische DA: Stoller (1954, pp.770ff), per-hand-gerechnete Beispiele. KFA-Diskrimination binärer/kategorialer Daten: Lautsch, E., G.A. Lienert (1993), Krauth (1993). Zeitreihenanalyse Varianzanalyse mit Messwiederholungen: Bortz (1984/89, p.412) (Rechengenauigkeit des F- Wertes, beide MQ stimmen überein!) Box-Test in ANOVA: Bortz (1984/89, pp.440-2) Mann-Test: Hartung (1982, p ), Koziol et al. (1978, pp.753ff) Box-Plots: Daten Graf et al. (1987, p.379), vgl. Bemerkungen zur Deskriptiven Statistik. Faktorenanalyse Korrelationsmatrizen nach Pearson und Spearman: Bortz p.638, Modul Regression und Korrelation Explorative FA: Haf et al. (1985, pp.90-96), Bortz (1984/89, p.638) (Vorsicht: in Bortz (1979) wird eine Hauptkomponentenanalyse durchgeführt, deren Ergebnisse hier gut mit BiAS. Centroid-Methode übereinstimmen.) Konfirmatorische Faktorenanalyse:: Haf et al. (1985, pp.101/2), Bortz (1984/89, p.638) (Vgl. Bemerkung zur Explorativen Faktorenanalyse.) Toleranzbereiche Parametrisch: Per-Hand-Berechnungen gemäß Walter (1980, p.117) Nicht-parametrisch: Überprüfung an Hand Tabellen aus Ackermann (1985), zahlreiche Per-Hand-Berechnungen (vgl. auch Perzentilen) Perzentilen, Quartilen: Daten Graf et al. (1987, p.379 (vgl. Deskriptive Statistik ), zahlreiche Per-Hand-Berechnungen. Pharmakokinetische Parameter und Bioäquivalenz Berechnung von u.a. AUC, Cmax, Tmax, T1/2: per Hand, T1/2 gemäß TopFit (Fa. Gödecke et al.), Algorithmus 2.1. Parametrisches Intervall für A/B: Wie Konfidenzintervall für µ Parametrisches Intervall für ln(a/b): Wie Konfidenzintervall für µ Nicht-parametrisches Intervall für A/B, ln(a/b): Wie nicht-parametrisches Konfidenzintervall für Median Nichtparametrisches Tukey-Intervall für ln(a/b): Hauschke (1990) Nicht-parametrisches Moses- Intervall für A/B, ln(a/b): Hauschke (1990). BiAS. für Windows Programmversion 11 epsilon-verlag Seite 041 von 241

42 Methodenvergleiche und Diagnostischer Test Bland- und Altman s Methodenvergleich: Bland und Altman, Lancet 1986, Ackermann 1997 Cohen s Kappa wie zur Vierfeldertafel Beurteilung diagnostischer Tests: R.S. Galen, S.R. Gambino (1979) Fischer Stuttgart, Binomial-Konfidenzintervalle mit BiAS. Methoden, Abel (1993), Hippokrates Stuttgart. ROC-Kurven: Per-Hand-Berechnungen, Abel (1993) und Campbell (1994). Mehrere Nullhypothesen und Interimsanalyse Multiple Tests: Zahlreiche per-hand-berechnungen, Holm (1979, pp.65ff), Rüger (1978, pp.591ff), Simes (1986, pp.751ff), Hommel (1988, pp.383ff) Meta-Analyse, Einseitige Alternative: Zahlreiche Per-Hand-Berechnungen nach den zitierten Arbeiten. Fisher (1971, pp ), Koziol et al. (1978, pp.753ff), Winer (1971) Meta-Analyse, Zweiseitige Alternative: Per-Hand-Berechnungen nach den zitierten Arbeiten. Winer (1971), Koziol et al. (1978, pp.753ff) Zwischenauswertungen: Poco*ck (1977), Bauer und Köhne (1994). Fallzahlen und Power BiAS. rundet bei Fallzahlschätzungen grundsätzlich auf. Dadurch ergeben sich gelegentlich Abweichungen von der Referenzliteratur. Konfidenzintervall für µ: Per-Hand- Berechnungen Schätzung von Wahrscheinlichkeiten: Mace (1964, p.63) Vergleich binomialverteilter Größen: Schouten (1982) und Scheidermann (1964) Äquivalenz binomialverteilter Größen: Blackwelder (1982), Machin und Campbell (1987) Tab. 4.1 χ²- Test mit Yates-Korrektur: Casagrande (1978) Länge eines Konfidenzintervalls: Bristol (1989), Per-Hand-Berechnung Korrelationskoeffizient: Machin und Campbell (1987, pp.92ff) Tab. 8.1 Einstichproben-t-Test: Machin und Campbell (1987) Tab. 7.1 (Vorsicht: BiAS. rechnet nicht mit z-approximation, sondern via t-verteilung, wodurch gelegentlich größere (exaktere) Werte resultieren) Zweistichproben-t-Test: Werner (1984, p.247-9), Bratcher et al.(1970), Machin und Campbell (1987) Tab. 7.2 (vgl. auch Bemerkung zum Einstichproben-Test) Varianzanalyse: Werner (1984, p.247-9), Bratcher et al. (1970). Nachtests Abt (1985/87), handgerechnete Beispiele. Cross-Over-Analyse: Per-Hand- Berechnungen nach Zimmermann und Rahlfs (1980) Log-Rank-Test: Machin und Campbell (1987, pp.98ff,115ff)+tab. 9.2, Freedman (1982) Vorzeichen- und Wilcoxon- Test: Noether (1987, p.646) Epidemiologie: Lemeshow (1988, pp.759ff) Many-one- Vergleiche: Horn und Vollandt (1995). Bauer-Köhne-Design: Bauer und Köhne (1994). Verteilungen Alle Verteilungen wurden an Hand einschlägiger Tabellen überprüft. In der Regel ergaben sich Übereinstimmungen in mind. 4 Stellen (soweit vorhanden). Gelegentlich verwendete Tabellenwerte (z.b. Shapiro-Wilk-Test) wurden ebenfalls mehrfach und unabhängig überprüft. Eine Überprüfung der exakten p-werte zum Wilcoxon-Test ist mit Hilfe der Tabelle J aus Siegel (1956) möglich. Des Weiteren wurden zum Vergleich einschlägige Programme herangezogen. Die verwendeten Validierungsdaten finden Sie im Unterverzeichnis..\Valide des Verzeichnisses, in dem das Programm installiert wurde. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 042 von 241

43 8. Leistungsspektrum Studienplanung und -design Vollständige Randomisierung Randomisierung in Blöcken Randomisierung im Cross-Over-Design Uni- und bivariate Zufallszahlen Lateinische Quadrate Gruppensequentielle und Adaptive Designs Fallzahl-Berechnungen Konfidenzintervall für Ein- und Zweistichproben-t-Test Varianzanalyse (Anova) Studentized Range (Anova) Einstichproben-t-Test auf Äquivalenz Zweistichproben-t-Test auf Äquivalenz Test auf Therapeutische Äquivalenz Einfache lineare Regressions- und Korrelationskoeffizienten Multiple Regressions- und Korrelationskoeffizienten, Omnibus-Tests t-test: Many-One-Vergleiche Cross-Over-Analyse im Grizzle-Modell Bland-Altman-Vergleich (Unterschied und Äquivalenz) Wahrscheinlichkeit schätzen Binomialen Anteil testen Vergleich binomialer Grössen χ²-vierfeldertafel-test Äquivalenz binomial-verteilter Grössen Dixon-Mood's Vorzeichen-Test McNemar-Test Cohen s Kappa-Koeffizient Wilcoxon-matched-pairs-Test Wilcoxon-Mann-Whitney-U-Test Rangkorrelation: Spearman s rho und Kendall s tau U-Test: Many-One-Vergleiche Log-Rank-Test Relatives Risiko und Odds-Ratio Fallzahlen zum Bauer-Köhne-Design Fallzahlen für gruppensequentielle Designs Fallzahlen für clusterrandomisierte Studien Power-Berechnungen Ein- und Zweistichproben-t-Test Varianzanalyse (Anova) Einfache lineare Regressions- und Korrelationskoeffizienten Multiple Regressions- und Korrelationskoeffizienten, Omnibus-Tests Cross-Over-Analyse im Grizzle-Modell Binomialen Anteil testen und Vergleich binomialer Grössen Poisson-Häufigkeit testen und Vergleich von Poisson-Häufigkeiten BiAS. für Windows Programmversion 11 epsilon-verlag Seite 043 von 241

44 χ²-vierfeldertafel-test Äquivalenz binomial-verteilter Grössen Einstichproben- und Zweistichproben-t-Test auf Äquivalenz Test auf Therapeutische Äquivalenz Dixon-Mood's Vorzeichen-Test McNemar-Test Cohen s Kappa-Koeffizient Wilcoxon-matched-pairs-Test Wilcoxon-Mann-Whitney-U-Test Rangkorrelation: Spearman s rho und Kendall s tau Log-Rank-Test (Survival-Analyse) Bland-Altman's Methodenvergleich Deskriptive Statistik: Numerische Methoden Durchschnitt und Standardabweichung Median und Quartilen Q 1 und Q 3 Percentilen und Quantilen Variationskoeffizienten CV und CV[%] Alle Parameter auch für Zeitreihen Uni- und bivariate Häufigkeitstabellen Deskriptive Statistik: Graphische Methoden Diverse stetige und diskrete Histogramme Histogramme für Nominaldaten Vergleichende Histogramme Kumulative Häufigkeiten Kreisdiagramm Pareto-Diagramm Box- und Bar-Plots (auch gruppiert) Scattergram Ladder-Plots Gruppierte und nicht-gruppierte Box- und Bar-Plots für Zeitverläufe Gruppierte und nicht-gruppierte Einzeldarstellung für Zeitverläufe ROC-Kurven einschließlich Konfidenzband und Test Kaplan-Meier-Kurven Bland-Altman-, Passing-Bablok- und Lin-Plots Weitere spezielle Graphiken, zum Beispiel in der Regressionsrechnung Konfidenzintervalle finden sich zum Teil explizit, aber auch zu fast allen Testverfahren und werden hier nicht im Einzelnen aufgeführt. Tests auf Gauß-Verteilung χ²-anpassungstest mit Graphik Kolmogoroff-Smirnoff-Lilliefors-Test (auch für bekannte µ und σ), mit Graphik Wilk-Shapiro-Test Wilk-Shapiro-Royston-Test Grubbs' Ausreißer-Test David-Hartley-Pearson's Ausreißer-Test David's multipler Test auf Ausreißer Mudholkar's multivariater Test auf Gauß-Verteilung BiAS. für Windows Programmversion 11 epsilon-verlag Seite 044 von 241

45 Vierfelder-Tafeln χ²-vierfelder-test mit/ohne Yates-Korrektur χ²-test nach Klassifikation Fisher's Exact Test McNemar-χ²-Test McNemar-Binomial-Test Cohen's Kappa Mantel-Haenszel-Test Median-Test Äquivalenztest Diagnostische Tests Gart's Cross-Over-Analyse Kontingenztafeln χ²-kontingenztafel-test Haldane-Dawson- und Craddock-Flood-Test Yates-Cochran-Test auf Trend Mantel-Haenszel-Zimmermann-Test Pearson's Kontingenzkoeffizient Terwilliger-Ott's Symmetrie-Test Bowker's Felder-Symmetrie-Test Cohen's Kappa für k Ratern und s Stufen, auch gewichtet Vergleich von k 2 Kontingenztafeln χ²-test nach 2-Weg-Klassifikation Mehrdimensionale Kontingenztafeln Analyse einzelner Felder per KFA Regressions- und Korrelation Lineare Regression mit Konfidenzintervall und Graphik Polynomiale Regression mit Abbau und Graphik Multiple Regression mit Abbau Logistische Regression mit Abbau Vergleich von Regressionsgeraden Hahn-Prognose-Intervall mit Graphik Lineare Korrelation Multiple und Partielle Korrelation Zirkuläre Regression und Korrelation Vergleich von Korrelationskoeffizienten Korrelationsmatrizen Rang-Regression Spearman's Rang-Korrelation Intra-Cluster-Korrelation Intraclass-Korrelation Parametrische Methoden Einstichproben-t-Test Zweistichproben-t-Test Welch's modifizierter t-test Varianzengleichheit: F-Test, Bartlett's Test und Box-Test Varianzanalyse (ANOVA) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 045 von 241

46 Kovarianzanalyse (COVAR) Bifaktorielle ANOVA und COVAR ANOVA für Messwiederholungen Orthogonale Polynome in der ANOVA Lineare Kontraste in der ANOVA ANOVA-Trend-Tests Multiple Vergleiche nach Scheffé Grizzle's Cross-Over-Analyse Multivariate Ein- und Zweistichproben-Hotelling's T²-Tests Simultane Konfidenzintervalle zu beiden Hotelling-Tests Äquivalenz-Tests Einstichproben-t-Test auf Äquivalenz Zweistichproben-t-Test auf Äquivalenz Test auf Therapeutische Äquivalenz ( Nicht-Unterlegenheit ) Bland-Altman-Vergleich auf Äquivalenz Äquivalenz binomial-verteilter Grössen Diverse Bioäquivalenz-Prüfungen im Cross-Over Äquivalenz-Tests mit Konfidenzintervallen sind nicht explizit aufgeführt, zum Beispiel zum U-Test u.v.a. Survival-Analyse Kaplan-Meier-Schätzer mit Graphik Hall-Wellner-Konfidenzintervalle Log-Rank-Test, auch für k>2 Gruppen Stratifizierter Log-Rank-Test Peto-Pike-Test Cox-Mantel-Test Gehan-Wilcoxon-Test Relative Hazards für k 2 Gruppen mit Konfidenzintervallen Nicht-parametrische Methoden Wilcoxon-matched-pairs-Test Wilcoxon-Mann-Whitney-U-Test Hodges-Lehmann-Schätzer mit Konfidenzintervall Mann-Whitney-Schätzer mit Konfidenzintervall Kolmogoroff-Smirnoff-Test Mantel-Haenszel-Test für k 2 Gruppen Koch's Nonparametrische Cross-Over-Analyse Gart's Dichotome Cross-Over-Analyse Page-Test auf Trend Friedman-Test mit Wilcoxon-Wilcox-Test als multipler post-hoc-test Multiple Schaich-Hamerle- und Conover-Tests Kendall und Babington-Smith's W-Koeffizient Kruskal-Wallis-Test mit u.a. Dunn-Holm-Vergleichen als post-hoc-tests Nemenyi's multiple Vergleiche Multiple Conover-Iman-Tests Cochrans Q-Test Anpassungstests, u.a. Test auf Gleichverteilung Vergleich von Häufigkeiten BiAS. für Windows Programmversion 11 epsilon-verlag Seite 046 von 241

47 Diverse Äquivalenztests, auch mit Konfidenzintervallen Exakte nonparametrische p-werte zu (fast) allen Verfahren Binomial- und Poisson-Tests Diverse Binomial-Tests Test für den Binomial-Parameter Test und Binomial-Konfidenzintervalle für, 1-2 und 1 2 Poisson-Konfidenzintervall für λ Vergleich vom Poisson-Häufigkeiten Cluster-Analyse Cluster-Analysen mit Datenstandardisierungen und mehreren Metriken: L1-Norm, City-Block, Canberra-Metrik, Tanimoto-Distanz, Simple-Matching Single-Linkage-Clusterung mit diesen Metriken und Euklidischer Distanz Kmeans-Verfahren mit Euklidische Distanz Dichotome Cluster-Analyse gemäß KFA Diskriminanzanalyse Lineare Diskriminanzanalyse Quadratische Diskriminanzanalyse Abbaumodell der Diskriminanzanalyse Dichotome Diskriminanzanalyse gemäß KFA Stoller's nonparametrische Diskriminanzanalyse Faktorenanalyse Explorative Faktorenanalyse Konfirmatorische Faktorenanalyse Reliabilitätsanalyse Intraclass-Korrelation incl. Konfidenzintervall Cronbach s alpha incl. Konfidenzintervall Cohen s kappa incl. Konfidenzintervall, auch als weighted kappa Zeitreihen-Analyse Deskriptive Statistiken im Zeitverlauf Box- & Bar-Plots im Zeitverlauf, auch gruppiert Graphik der Einzelverläufe, auch gruppiert ANOVA für Messwiederholungen Mann-Test Simultane Konfidenzintervalle Hotelling's Test Page's Trend-Test Yates-Cochran-Test auf Trend Wallis-Moore's Phasentest Wald-Wolfowitz' Iterationstest Cochran's Niveau-Konstanz-Test Konfigurationsfrequenzanalyse (KFA) χ²-, Binomial- und Lehmacher-Test KFA für mehrere Stichproben Dichotome KFA-Cluster- & Diskriminanzanalyse BiAS. für Windows Programmversion 11 epsilon-verlag Seite 047 von 241

48 Norm- und Toleranzbereiche Uni- und bivariate Toleranzbereiche Parametrische und Nichtparametrische Toleranzbereiche Box-Cox-transformierte Toleranzbereiche Pharmakokinetische Methoden Parameter: AUC, T 1/2, λ, C min, C max, T max, C av, PTF, PTS, HVD, MRT und AUCM Diverse Bioäquivalenz-Prüfungen im Cross-Over Moses- und Tukey-Konfidenzintervalle für Bioäquivalenz Epidemiologische Methoden Odds-Ratio und Relatives Risiko mit Konfidenzintervallen Mantel-Haenszel-Test Diagnostische Tests Sensitivität, Spezifität, Effizienz, Prädiktive Werte Youden-Index Likelihood-Ratios mit Konfidenzintervallen Vergleich von Likelihood-Ratios, paired und unpaired Vergleich von Prädiktiven Werten, paired und unpaired Cohen's Kappa (gewichtet und ungewichtet) Konfidenzintervalle zu allen Parametern Diverse Symmetrietests ROC-Analyse und ROC-Vergleiche, paired und unpaired Methodenvergleiche Bland-Altman-Verfahren mit Graphik Passing-Bablok-Regression mit Graphik Lin s Konkordanz-Korrelation Mc-Nemar s Symmetrietest Bowker s Symmetrietest Terwilliger und Ott s Test Cohen s Kappa-Koeffizient, auch als weighted kappa Interimsanalyse: Zwischenauswertungen Analyse nach Poco*ck und nach O'Brien & Fleming Adaptives Bauer-Köhne-Design Mehrere Nullhypothesen Multiple Tests Adjustierungen (Bonferroni, Holm. Hommel, Simes und Rüger) Abschlusstests bei hierarchisch geordneten Hypothesen Benjamini-Hochberg s False Discovery Rate FDR Meta-Analyse mit p-werten Diverse ein- und zweiseitige Methoden, Verfahren nach Fisher, Tippet, Mudholkar-George und mit inverser Gauß-Verteilung Evidence Based Medicine (EBM) Parameter CER, EER, ARR, RRR und NNT mit Konfidenzintervallen Test zum Risikovergleich Likelihood-Ratio positiv und negativ mit KI s BiAS. für Windows Programmversion 11 epsilon-verlag Seite 048 von 241

49 Anhang: Validierung und Beispiele Wegen Überschneidung der Themenbereiche wurden in vielen Abschnitten Links eingefügt, die jeweils mit blau unterlegt und unterstrichen gekennzeichnet wurden. Die blauen Pfeile am Seitenrand, ebenfalls Links, führen zurück zum Abschnittsanfang. A.1 Deskriptive Statistik Schätzgrößen Durchschnitt x, Median, SD, Quartilen, CV etc. Deskriptive Größen in der Zeitreihenanalyse (A.13) Graphiken (Hier nur teilweise aufgeführt, mehr dazu im Programm): Histogramm für stetige Größen (eine oder zwei Gruppe) Histogramm für diskrete Größen Histogramm für nominale Größen Kumulatives Histogramm Kumulative Klassenhäufigkeiten Kreisdiagramm Pareto-Diagramm Ladder-Plots Dot-Plots (Einzelwerte) Scattergram (Streudiagramm, Punktwolke) Box- und Bar-Plots Box- und Bar-Plots für Zeitverläufe (A.13) Einzelverläufe bei Zeitreihen (A.13) Angepasste Gauß-Verteilung (Histogramm und kumulativ) (A.6) Regressionsgerade (A.7) Prognoseintervall (A.7) Polynomiale Regression (A.7) Cluster-Analyse (A.11) Diskriminanzanalyse (A.12) Schätzgrößen: Graf et al. (1987, p. 379) geben ein Beispiel zur Berechnung von Durchschnitt x, Standardabweichung s, Streuung s², Median, Spannweite, Variationskoeffizient und Quartilen an. Die erste Spalte der hier verwendeten Daten entstammt Graf et al., die beiden nächsten Spalten entstanden durch Multiplikation der ersten Spalte mit und 1/10000, die letzte durch Addition der Konstanten x=1000. Vorsicht: BiAS. verwendet für die Ein- und Ausgabe die einfache Darstellungsgenauigkeit, also 6 Stellen. Die Funktion "Schätzgrößen" besitzt keine Möglichkeit der Ausgabe eingelesener Daten; diese wird hier über den Editor vorgenommen: Editor: Ausdrucken Die Datei Graf.379 umfasst 4 Spalten bzw. 10 Zeilen (0.3Kb) Var: : : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 049 von 241

50 3: : : : : : : : Die nächste Ausgabe erfolgte via "Schätzgrößen" im Menü "Methoden : Schätzgrößen Eingabedatei ist Graf379.DAT Nr. Variable n miss Xquer s Median Minimum Maximum SEM CV CV(%) Range 1.Quartil 3.Quartil 1 Asche Asche*X Asche/X E E E Asche+X E Literatur: L. Sachs (1992) Angewandte Statistik, Springer Kap.314 B.L. van der Waerden (1957) Math. Statistik, Springer S.345 Stetiges Histogramm (Graphik eine Gruppe): Zur einfachen Nachvollziehbarkeit werden die Daten aus BiAS. Testdatei Armitage.DAT verwendet (alle Überlebenszeiten ungeachtet der Gruppeneinteilung). Ein diskretes oder kumuliertes Histogramm dazu ist ebenfalls möglich, außerdem eine vereinigte Darstellung des stetigen und kumulativen Histogramms. Stetiges Histogramm (Graphik zwei Gruppen): Zum Nachvollziehen werden die Daten aus BiAS. Testdatei Armitage.DAT verwendet. Nach oben ist Gruppe 1, nach unten ist Gruppe 2 des Datensatzes aufgetragen. Vgl. auch Graphik zu Kaplan-Meier-Schätzer. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 050 von 241

51 Diskretes Histogramm (Graphik eine Gruppe): Zur einfachen Nachvollziehbarkeit werden die Daten aus BiAS. Testdatei Armitage.DAT verwendet (alle Überlebenszeiten). Ein stetiges Histogramm oder ein kumuliertes Histogramm dazu ist ebenfalls möglich, außerdem eine vereinigte Darstellung des stetigen und kumulativen Histogramms. Analog zum vergleichenden Histogramm für zwei Gruppen bei stetiger Skala ist auch für diskrete Skalen eine vergleichende Darstellung von Gruppen möglich, in diesem Anhang aber nicht enthalten. Bitte beachten Sie die unterschiedlichen Größen der Skalierungen: In Kapitel 5 wurde BiAS. Graphik- Menü (Abbildung 31) beschrieben, das viele Möglichkeiten zur Modifikation der Graphiken vorsieht. Diese Modifikationsmöglichkeiten betreffen speziell die Sklaierung, die Beschriftung, eine Verwendung des Netzgitters (hier in allen Graphiken vorhanden) und die Darstellung einer Randlinie. Nominales Histogramm (nur Graphik): Zur einfachen Nachvollziehbarkeit werden die Daten aus BiAS. Standard-Testdatei Test.DAT verwendet, davon GruppNum. Nominale Histogramme können auch als Kreisdiagramme ( Torten ) dargestellt werden. Vgl. Sie bitte auch die Pareto- Diagramme. Die Skalierung kann freitextlich via Dialogfeld Bearbeiten modifiziert werden. Pareto-Diagramm: Welche (möglichst wenigen!) Substanz-Klassen kommen mit einer gewissen (möglichst großen!) Häufigkeit vor? Die nominalen Kategorien sind im Pareto-Diagramm ihrer Häufigkeit nach geordnet: Bitte vergleichen Sie dazu auch die Nominal-Histogramme. Auch hier kann die Skalierung freitextlich bearbeitet werden. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 051 von 241

52 Kreisdiagramm (nur Graphik): Zur einfachen Nachvollziehbarkeit werden die Daten aus BiAS. Standard-Testdatei Test.DAT verwendet, davon Variable VarZwei. Kreisdiagramme (sog. Torten ) können auch als Nominale Histogramme dargestellt werden. Optional können die Kategorien geordnet werden. Vgl. Sie bitte dazu auch die Pareto-Diagramme. Alle Graphiken mit nominaler Skalierung wie zum Beispiel das Pareto-Diagramm oder das Histogramm für Nominal-Klassen (oben) oder weiter unten gruppierte und ungruppierte Box- und Bar-Plots und einige andere gestatten auch eine textliche Skalierung/Beschriftung auf der Abszisse. Kumulatives Histogramm (nur Graphik): Zur einfachen Nachvollziehbarkeit werden die Daten aus BiAS. Standard-Testdatei Armitage.DAT verwendet, davon Variable ÜbLeZeit. Vergleichen Sie dazu auch stetige Histogramme und diskrete Histogramme, außerdem die vereinigte Darstellung des stetigen und kumulativen Histogramms. Kumulative Klassenhäufigkeiten: Zur einfachen Nachvollziehbarkeit werden die Daten aus BiAS. Standard-Testdatei Armitage.DAT verwendet, davon Variable ÜbLeZeit. Das Diagramm vereinigt ein stetiges Histogramm und ein kumulatives Histogramm in einer gemeinsamen Abbildung. Bitte beachten Sie, dass die Darstellung - im Gegensatz zu nominalen Pareto-Diagrammen - die Häufigkeiten gemäß ihrer quantitativ gegebenen Ordnung wiedergibt. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 052 von 241

53 Box-Plot (nur Graphik): Box-Plots können mit Median & Quartilen oder mit Durchschnitt & Standardabweichung dargestellt werden. Hier wird die Variable Cal aus Calcium.DAT verwendet, optional auch inclusive der Einzelwerte darstellbar. Eine Alternative zu Box-Plots sind Bar-Plots. Box: Quartilen Q 1 und Q 3 - Dicker Strich: Median - Antennen: Extremwerte Gruppierte Darstellungen (hier mit anderen Daten) sind ebenfalls möglich: Box-Plot (alle Optionen): Box-Plots können in BiAS. mit Median & Quartilen und/oder (optional) mit Durchschnitt & Standardabweichung dargestellt werden, gegebenenfalls auch beide in einer gemeinsamen Graphik und, wie hier, optional mit allen Einzelwerten (aus Calcium.DAT): Breite Box: Quartilen Q 1 und Q 3 - Dicker Strich: Median - Antennen : Minimum bzw. Maximum Dünne Box: Durchschnitt x ± Standardabweichung s - Dünner Strich: Durchschnitt x Alle Graphiken werden hier nur mit einer geringen Auflösung von ca. 400x200 Pixel dargestellt, die Auflösung im Programm hängt von Ihrer Bildschirm-Einstellung ab. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 053 von 241

54 Bar-Plot (nur Graphik): Bar-Plots stellen den Durchschnitt x als Säule mit aufgesetzter Standardabweichung s dar. Die Darstellung verwendet die Variable Cal aus der Datei Calcium.DAT. Die Einzelwerte können - optional - zusätzlich dargestellt werden. Alternative: Box-Plots. Gruppierte Darstellungen (hier mit anderen Daten) sind ebenfalls möglich: Säule: Durchschnitt x - Antenne: Durchschnitt x + Standardabweichung Scattergram (nur Graphik): Vergleich zweier Messgeräte; es wurden die Daten in Meter.DAT verwendet. Bei identischen Werten kann BiAS. diese - optional - verwackeln, um alle Werte sichtbar zu machen. Vgl. auch das Bland-Altman-Verfahren und Passing-Bablok s Regression. Scattergrams bzw. Punktwolken werden auch in der Regressionsrechnung verwendet, dies im Zusammenhang mit der Darstellung von Regressionsgeraden oder angepasster Polynome. Bitte beachten Sie die unten aufgeführten Optionen zur Darstellung, mit denen u.a. die Beschriftung geändert werden kann oder z.b. das Netzgitter ein- und ausgeblendet werden kann. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 054 von 241

55 Dot-Plots (nur Graphik): Gruppierte oder ungruppierte Darstellung von Einzelwerten, dies analog zu Box- und Barplots. Bei identischen Werten kann BiAS. diese - optional - verwackeln, um alle Werte sichtbar zu machen. Es können vier verschiedene Dots ausgewählt werden. Zur Darstellung wird wieder die Testdatei..\Valide\Test.DAT verwendet: Die Daten können auch gruppiert dargestellt werden. In der nächsten Abbildung wurden die Gruppen gruppiert, alternativ können auch die Variablen gruppiert werden: Ladder-Plots (nur Graphik): Darstellung von gepaarten Einzelwerten beispielsweise zum Vergleich prä vs. post zum der Einstichproben-t-Test. Zur Darstellung wird die Testdatei Test.DAT verwendet. Die dickere Linie kennzeichnet den Verlauf der Mittelwerte: Weitere im Programm verfügbare Graphiken: Die oben dargestellten Graphiken sind alle über das Menü Deskriptive Statistik zu erhalten. Weitere Graphiken sind im Zusammenhang mit Methoden anderer Menüs verfügbar. Dies sind die Menüs Regression & Korrelation Test auf Gauß-Verteilung Überlebenszeitanalyse Zeitreihenanalyse Toleranzbereiche Methodenvergleiche Diagnostische Tests Clusteranalyse Diskriminanzanalyse Die insgesamt etwa 50 Graphiken stehen alle im Zusammenhang mit den Beispielen der entsprechenden Menüs und können wie die oben abgebildeten im Graphik-Editor bearbeitet werden. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 055 von 241

56 Optionen in BiAS. Graphiken: Hier wie an vielen anderen Stellen dieser Dokumentation werden nicht alle im Programm vorgesehenen Graphik-Optionen explizit aufgeführt: Zum Beispiel können Box- und Bar-Plots optional in unterschiedlicher Weise, gegebenenfalls auch mit Einzelwerten, dargestellt werden. Bei identischen Werten kann BiAS. diese - ebenfalls optional - verwackeln, um alle Werte sichtbar zu machen; diese Möglichkeit besteht auch in vielen anderen Graphiken. Für Bland-und Altman s Verfahren etwa kann man optional die Regressionsgerade incl. Konfidenzgrenzen eintragen, ähnliches gilt auch in der Regressionsrechnung. Die Liste der Beispiele lässt sich fortsetzen: Da hier natürlich nicht alle Graphik-Varianten und -Optionen aufgeführt werden können, wurden alle relevanten Validierungsdateien in einem Unterverzeichnis von BiAS. (..\Valide, in der Download- Version in der Datei Valide.Zip) zugänglich gemacht. Mit Hilfe dieser Daten können Sie alle Optionen ausführlich ausprobieren! In BiAS. Graphik-Editor gibt das Menü Einstellungen einen Überblick über die Standard-Optionen (Gitter, Skalierung, Beschriftung, Schriftart, identische Punkte verwackeln, Dateiausgabe in Bitmapoder PCX-Datei u.v.a.m.). Bitte vergleichen Sie dazu auch BiAS. Handbuch (Kapitel 5, Graphische Ausgabe )! Eine Darstellung des Dialogfeldes Einstellungen im Graphik-Editor finden Sie im unteren Bereich des Dialogs in Abbildung 38 und analog in Abbildung 31, in deren Zusammenhang alle Einstellungen etc. ausführlicher beschrieben werden; weiteres dazu in Kapitel 5. Abbildung 38: Dialogfeld Graphik bearbeiten Das Dialogfeld Einstellungen ist kontextsensitiv : Es werden bei allen Graphiken nur die relevanten, modifizierbaren Einstellungen angezeigt und die oben dargestellten Positionen gegebenenfalls verändert, wie dies zum Beispiel bei Box-Plots der Fall ist. Näheres dazu, wie erwähnt, in Kapitel 5. Bitte beachten Sie, dass Farben nur im Graphik-Menü verändert werden können, äquivalent kann der aus Windows bekannte Dialog zur Farbmodifikation durch Doppelklick auf die entsprechende Farbe aufgerufen werden: Vergleichen Sie dazu bitte den Abschnitt 5 ( Graphische Ausgabe ). Die Auswahl der Farbe(n) kann für spätere Verwendungen fixiert werden: Klicken Sie dazu im Menü des Graphik-Editors auf die Auswahl Fix im Graphikmenü (Abbildungen 30 bis 33); Näheres dazu wieder in Abschnitt 5. Falls eine Farbe nicht veränderbar ist zum Beispiel bei Koordinatenachsen erscheint der Hinweis Keine Farbe. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 056 von 241

57 A.2 Konfidenzintervalle Konfidenzintervall für den Erwartungswert µ Konfidenzintervall für den Median Konfidenzintervall für den Binomialparameter θ Konfidenzintervall für θ 1 -θ 2 ( paired und unpaired ) Konfidenzintervall für θ 1 /θ 2 ( paired und unpaired ) Poisson-Konfidenzintervall für den Parameter λ Poisson-Konfidenzintervall für die Differenz λ 1 λ 2 Sonstige, in anderen Moduln enthaltene Konfidenzintervalle: Tukey-Konfidenzintervalle für den Median (A.9) Moses-Konfidenzintervalle für den Median (A.9) Konfidenzintervall für Paardifferenzen (A.8) Konfidenzintervall für Mittelwertsdifferenzen (A.8) Konfidenzintervalle für Binomial-Differenzen (A.3) Konfidenzintervall für die Steigung einer Regressionsgeraden (A.7) Konfidenzintervall für Differenzen von Steigungen (A.7) Konfidenzintervall für Differenzen von Achsenabschnitten (A.7) Graphische Konfidenzintervalle für die Regression (A.7) Konfidenzintervall für den Korrelationskoeffizienten (A.7) Konfidenzintervall für mittleren Korrelationskoeffizienten (A.7) Simultane Konfidenzintervalle (eine Stichprobe) (A.8) Simultane Konfidenzintervalle (zwei Stichproben) (A.8) Konfidenzintervalle für Kaplan-Meier-Überlebenszeitkurven (A.13) Graphisches Konfidenzintervall für eine Kaplan-Meier-Kurve (A.13) Konfidenzintervalle für das Relative Risiko und das Odds-Ratio (A.19) Konfidenzintervalle zur Beurteilung diagnostischer Test (A.18) Konfidenzintervall für den Youden-Index(A.18) Konfidenzintervalle für Likelihood-Ratios (A.18 und A.19) Konfidenzintervalle zum Vergleich von Likelihood-Ratios (A.18) Konfidenzintervalle zum Vergleich von Prädiktiven Werten (A.18) Konfidenzintervalle für Epidemiologische und EbM-Parameter (A.19) Es werden nicht zu allen Konfidenzintervallen Validierungsbespiele angegeben, da die oben aufgeführten Methoden weitgehend nicht explizit, sondern im Zusammenhang mit den entsprechenden Testverfahren aufgeführt werden. Konfidenzintervall für den Erwartungswert Mit den gleichen Daten wie in "Schätzgrößen" (Datei Graf.379) wird für jede Variable ein Konfidenzintervall für den Erwartungswert berechnet (Einstichproben-Situation), eine Kontrolle ist wieder durch die 2., 3. und 4. Spalte gegeben: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 057 von 241

58 Konfidenzintervalle für den Erwartungswert µ Eingabedatei ist Graf379.DAT Var. n P t X-quer s Li.Grenze Re.Grenze E Literatur: L. Sachs (1992) Angewandte Statistik, Springer. Kap.31ff Konfidenzintervall für den Median: Die Konfidenzintervalle werden wieder für die gleichen Daten wie in "Schätzgrößen" berechnet (Datei Graf.379, Einstichproben-Situation). Konfidenzintervalle für den Median Eingabedatei ist Graf379.DAT Var. n P Min Max Median Li.Grenze Re.Grenze Literatur: L. Sachs (1992) Angew. Statistik Kap. 314ff, Springer. Binomial-Konfidenzintervall für In 20 gleichartigen Versuchen mit den möglichen Ergebnissen A und B wird 7 mal A bzw. 13 mal B beobachtet. Gewünscht ist ein 95%-Vertrauensbereich für den Parameter einer Binomialverteilung aufgrund von p^=7/20=0.35 (Sachs (1996, p. 436)): Konfidenzintervall für theta einer Binomial-Verteilung Konfidenz P: Realisationen n: 20 Erfolge k: 7 Parameter θ^: Untere Grenze: Obere Grenze: Literatur: L. Sachs (1992) Angew. Statistik Kap. 45, Springer. Konfidenzintervall für ( unpaired ): In einem klinischen Versuch wird eine alte mit einer neuen Behandlung verglichen (Zeilen). Von 257 Patienten mit Behandlung A sterben 41, von 244 Patienten unter B sterben 64. Berechnet wird ein 95%-Konfidenzintervall für die Differenz der Überlebensraten (Armitage und Berry (1988, p.124)): P 100%-Konfidenzintervalle und Test für delta = theta1 theta2 Eingegebene Tafel: Erwartete Häufigkeiten Phi(i,j): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 058 von 241

59 Schätzungen für Theta1 und Theta2 der Zeilen: P1 = ; P2 = Konfidenzintervalle für Delta=Theta1-Theta2 ohne Yates-Korrektur: mit Yates-Lorrektur: P=90%: ( , ) ( , ) P=95%: ( , ) ( , ) P=99%: ( , ) ( , ) BEMERKUNG: Für n<60 nur die kontinuitätskorrigierten Intervalle verwenden! P. Armitage, G. Berry (1987) Statistical Methods, Blackwell Sci.Pub. S.123 J.L. Fleiss (1981) Stat. Methods for Rates and Proportions. Wiley NY, p.29 Konfidenzintervall für ( paired ): Konfidenzintervall für die Differenz θ1-θ2 zweier abhängiger binomialer Größen (beide Merkmale am gleichen Patienten!). Ein Beispiel findet sich im Zusammenhang mit dem McNemar-Test in Anhang 3. Konfidenzintervall für 1/2 ( unpaired bzw. paired ): Die Fragestellung ist analog zu der der Differenz θ 1 -θ 2, so dass auf die entsprechenden Beispiele hingewiesen wird. Die Validierung für paired erfolgte gemäß Bonett und Price (2006), für unpaired gemäß Koopman (1984). Poisson-Konfidenzintervall für λ: Auf Grund von x=10 Beobachtungen in einem bestimmten Zeitraum soll ein 95%-Vertrauensbereich für den Parameter λ der Poisson-Verteilung berechnet werden (Sachs 1992, p. 292). In Anhang 3 kann auch zusätzlich eine Nullhypothese geprüft werden: Konfidenzintervall für λ einer Poisson-Verteilung Eingegebene Häufigkeit: n = 10 95%-Konfidenzintervall für λ: [ ; ] Konfidenz nach Wahl! Literatur: L. Sachs (1992) Angew. Statistik, Kap Springer. Poisson-Konfidenzintervall für die Differenz λ 1 λ 2 : Bei zwei Buchhaltern werden beim Schreiben von je 250 Rechnungen bei einem 6, beim anderen 16 Fehler entdeckt (Sachs 1992,p.297). In Anhang 3 kann auch zusätzlich eine Nullhypothese geprüft werden: Vergleich zweier Häufigkeiten Erste Häufigkeit: n1 = 6 ; Zweite Häufigkeit: n2 = 16 95%-Konfidenzintervall für λ1-λ2: [ ; 0.19 ] Konfidenz nach Wahl! Literatur: L. Sachs (1992) Angewandte Statistik. Springer-Verlag. Beispiel S Sonstige Konfidenzintervalle: In anderen Moduln finden sich weitere Konfidenzintervalle. Dies sind zum Beispiel Konfidenzintervalle für Konfidenzintervalle für die Regressions- und Korrelationsrechnung, für den Median (Tukeyund Moses-Intervalle), in der Survival-Analyse (Hall-Wellner-Konfidenzbereiche), Simultane Konfidenzintervalle in der multivariaten Situation und Konfidenzintervalle für das Relative Risiko und Odds-Ratio. Diese Konfidenzintervalle werden im Zusammenhang mit den korrespondierenden Testverfahren behandelt und finden sich einschließlich Beispielen in den entsprechenden Moduln. Bitte beachten Sie, dass alle Konfidenzintervalle auch für teststatistische Fragestellungen, insbesondere auch für Äquivalenztests verwendet werden können, worauf im Einzelnen hingewiesen wird. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 059 von 241

60 A.3 Vierfeldertafeln, Binomial- und Poisson-Tests Pearson s χ²-vierfeldertafel-test Woolf s G-Test (Log-Likelihood) Fisher s exakter Test McNemar-Test Mood s Median-Test Cohen's Kappa Pearson's Kontingenzkoeffizient Gart's dichotome Cross-Over-Analyse Mantel-Haenszel-Test Stratifizierter Mantel-Haenszel-Test Test und Konfidenzintervall für θ 1 -θ 2 ( paired und unpaired ) Test und Konfidenzintervall für θ 1 /θ 2 ( paired und unpaired ) Äquivalenztest für θ 1 und θ 2 Binomial-Wahrscheinlichkeit θ testen, mit Konfidenzintervall Poisson-Erwartungswert λ testen, mit Konfidenzintervall Vergleich zweier Häufigkeiten / Poisson-Verteilungen Beurteilung diagnostischer Tests (Spezifität, Sensitivität etc.) (A.18) Test und Konfidenzintervall zum Vergleich zweier Likelihood-Ratios (A.18) Test und Konfidenzintervall zum Vergleich zweier Prädiktiver Werte (A.18) Epidemiologie (Relatives Risiko und Odds-Ratio) χ²-vierfelder-test: Es wird untersucht, ob der Rhesusfaktor (Spalten) in irgendeiner Form vom Geschlecht (Zeilen) der Merkmalsträger abhängt Ackermann (1977, p.75). Die Nullhypothese lautet: "Es besteht kein Zusammenhang zwischen dem Rhesusfaktor und dem Geschlecht des Merkmalsträgers." Eine Modifikation des Tests ohne Yates-Korrektur ist über die Kontingenztafelanalyse möglich, aber nicht empfehlenswert. Die Validierung des G-Tests erfolgte mit elem.com/~btilly/effective-ab-testing/g-test-calculator.html. χ²-vierfeldertafel-test und Woolf s G-Test Eingegebene Tafel aus Sachs (2003) Erwartete Häufigkeiten ϕij: Chi²-Vierfeldertafel-Test (Pearson): Chi² = (p = , zweiseitig, Yates-korrigiert, stets für n<=60) Chi² = (p = , zweiseitig, nicht korrigiert, auch falls n>60) G-Test (Woolf, Log-Likelihood-Test): Chi² = (p = , zweiseitig, Yates-korrigiert, stets für n<=30) Chi² = (p = , zweiseitig, nicht korrigiert, auch falls n>30) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 060 von 241

61 95%-Konfidenzintervall für Delta=Theta1-Theta2 (Anteile "positiv" der Zeilen): Yates-korrigiert: [ , ] ::: unkorrigiert: [ , ] Schätzwerte: Theta1^=16/20=0.8000, Theta2^=25/40=0.6250, Delta^= Pearson's Assoziationskoeffizient phi= mit p= (zweiseitig) >> phi liegt analog zu Pearson's Korrelationskoeffizient zwischen -1 und 1. >> Cohen's Empfehlung: phi=0.1 "small", phi=0.3 "medium", phi=0.5 "large" Literatur: L. Sachs (2003) Angewandte Statistik, Springer, Kap.62ff B. Woolf (1957) The log likelihood ratio test. Ann. Hum. Gen. 21, pp J.H. McDonald (2014) Handbook of Biol. Statistics. Sparky House Publ. Baltimore Fisher-Test: Der exakte Test von Fisher behandelt speziell bei kleinen Fallzahlen analoge Fragestellungen wie der χ²-vierfelder-test. Die zweiseitige Berechnung des p-wertes erfolgt ab Version 9.12 konventionell gemäß Summiere die Wahrscheinlichkeit p o der vorliegenden und die Wahrscheinlichkeiten p i :p i p o aller bei den gegebenen Randhäufigkeiten möglichen Tafeln (Agresti (1992, 2.1b)) und optional wie bis 9.11 gemäß 2.1c per Erwartungswerte, womit gelegentliche Abweichungen von Programmen bei zweiseitigen p-werten erklärbar sind. Ein Beispiel aus Sachs (1992), Seite 478: Fisher-Test Eingegebene Tafel aus Sachs p. 478: Fisher's p = (exakt, ein!seitig) Fisher's p = (exakt, zweiseitig) Literatur: J. Bortz, G.A. Lienert, K. Boehnke (2008) Verteilungsfreie Verfahren in der Biostatistik. Springer Medizin-Verlag Heidelberg. A. Agresti (1992) Exact Inference for Contingency Tables. Statistical Science Vol. 7, No. 1, pp (Methode 2.1(a), 2.1(b) (konventionell) und 2.1(c)). McNemar-Test: Ein Arzt behandelt 38 Patienten zweimal im Abstand von einem Monat mit Aktiv und mit Placebo (Walter (1980, p.124)). Die Beurteilung der Wirkungen erfolgt anhand der Skala "stark/ gering", Eingänge sind die Behandlungen. Vgl. auch Gart's Cross-Over-Analyse und Bowker s Test. Bitte beachten Sie, dass es sich hier, im Gegensatz zum χ²-test, um eine paired Situation handelt. Ausführliche Konfidenzintervalle werden weiter unten angegeben! Mc-Nemar-Test Eingegebene Tafel: Diskordante Beurteilungen: Beobachtete absolute Häufigkeiten n21=4 und n12=15, Differenz=-11 Geschätzte Wahrscheinlichkeiten h21= und h12=0.3947, Differenz= BiAS. für Windows Programmversion 11 epsilon-verlag Seite 061 von 241

62 Test der Nullhypothese Ho("Differenz diskordanter Paare ist Null"): Approx. Test mit! Edwards-Korrektur: Chi²=5.26 mit p= (zweiseitig) Approx. Test ohne Edwards-Korrektur: Chi²=6.37 mit p= (zweiseitig) Exakter Binomial-Test: p= (ein!seitig) und p= (zweiseitig) >> Vorzugsweise sollte der exakte Binomial-Test verwendet werden. Zimmermann's Effektstärke w² = Chi²/n = (ohne Edwards-Korrektur), die Gesamtfallzahl n = 38 wird dabei berücksichtigt: >> Bewertung der "praktischen Relevanz" der Effektstärke w² (nach Cohen): >> w²=0.01 "geringe", w²=0.10 "mittlere" und w²=0.25 "große prakt. Relevanz" Chinn's Effektstärke f und Cohen's d nur bzgl. der Wechselfelder, die Gesamtfallzahl von n = 38 wird dabei n i c h t berücksichtigt: Chinn's f=ln(or)=ln(15/4)=1.322, ergibt Cohen's d=f/sqr(pi²/3)=0.729 >> Bewertung der Bedeutung der Effektstärken f und d nach Cohen: >> Cohen: d=0.2 "geringer", d=0.5 "mittlerer" und d=0.8 "großer Effekt" Approximative Konfidenzintervalle für die Differenz diskordanter Paare: P=0.90: [ , ] P=0.95: [ , ] P=0.98: [ , ] P=0.99: [ , ] Die Konfidenzintervalle sind aus dem Chi²-Test o h n e Edwards-Korrektur abgeleitet: Der unkorrigierte Test ergibt einen p-wert von p= Literatur: J.L. Fleiss (2003) Statistical Methods for Rates and Proportions, Wiley NY S. Chinn (2000) A simple method for converting an odds ratio to effect size for use in meta-analysis. Statistics in Medicine 19, pp J. Cohen (1977,1988) Statistical power analysis for the behavioral sciences. 1st ed. Academic Press New York, 2nd ed. Hillsdale New York, Erlbaum Assoc. H. Zimmermann (1984) Die praktische Relevanz des McNemar-Tests. Biometrical Journal 26, 2, pp Mood s Median-Test: Zwei Parallelgruppen werden in Bezug auf Leistung, Heilungserfolg o.ä. mit Hilfe eines Scores beurteilt (Sachs 1992, p. 390): Median-Test Eingabedatei ist \Valide\Sachs390.DAT davon Variable 1 (Tab109) und Gruppen-Var. 3 (Gruppe) = 1 2 Eingelesene Werte der Gruppe 1: Eingelesene Werte der Gruppe 2: Resultierende Tafel ( M = Median der gepoolten Stichproben = 19 ) < M > M Stichprobe 1: Stichprobe 2: Gesamt: Es sind keine Werte vorhanden, die gleich dem gepoolten Median M sind. >> Cave: Die Voraussetzungen für den asymptotischen Chi²-Test sind nicht erfüllt, >> eine Verifizierung ist per Fisher-Freeman-Halton's Test in "Tafeln" möglich: >> 100.0% der Erwartungshäufigkeiten sind < 5, vertretbar sind maximal 20%. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 062 von 241

63 Prüfgröße: Brandt und Snedecor's Chi²=2.250 mit df=1 und p= Die Prüfgröße verwendet für 2 Gruppen Yates' Kontinuitätskorrektur. Alternativ: Test mit Fisher's exaktem Test (zweiseitig): p= Literatur: A.M. Mood (1950) Introduction to the Theory of Statistics, McGraw-Hill G.W. Brown, A.M. Mood (1951) On Median Tests for Linear Hypotheses. Proc. of 2nd Berkeley Symposium on Math., Statist. and Prob., Univ. California. H. Büning, G. Trenkler (1978,1994) Nicht-parametrische Methoden, degruyter L. Sachs (2003) Angewandte Statistik, Springer-Verlag Kap. 392, 533. Cohen s Kappa: Zwei Beurteiler sind an Hand einer zweistufigen Skala in Bezug auf ihre Übereinstimmung zu überprüfen (Bortz et al. (1990, p.451)). (In BiAS. steht Cohen s Kappa auch für mehr als 2 Beurteiler und mehr als 2 Stufen zur Verfügung, vgl. Sie bitte BiAS. Menü.) Der horizontale Eingang entspricht Rater 1, der vertikale Rater 2; in 9 bzw. 4 Fälle stimmen die Beurteilungen überein: Cohen's Kappa-Koeffizient Bezeichnung: Bortz-Lienert-Boehnke p.451 Eingegebene Tafel: Cohen's Kappa = Prüfgröße Z = (p = ) Literatur: W.G.Cohen (1960) Errors of measurements. Technometrics 10, pp J.L.Fleiss (1973) Stat. Meth. for Rates & Propor. Wiley NY, pp Eine allgemeinere Variante von Cohen s Kappa findet sich im Modul Kontingenztafeln für den Fall von k>2 Ratern und/oder s>2 Stufen des Merkmals: Näheres in Anhang 4. Pearson's Kontingenzkoeffizient: Zwei Behandlungen (Zeilen) sind bezüglich des Therapieeffektes (Spalten) zu vergleichen (Sachs (1992, p.450)). Pearson's Kontingenzkoeffizient ist ein Maß für die Enge des Zusammenhanges der beiden kategorialen Merkmale: Pearson's Kontingenzkoeffizient Bezeichnung: Sachs pp. 450/476 Eingegebene Tafel: Erwartete Häufigkeiten ϕij : Chi² = (p = , zweiseitig) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 063 von 241

64 Pearson's Kontingenzkoeffizient C = (mit Yates-Korrektur) Pearson's Kontingenzkoeffizient C = (ohne Yates-Korrektur) Literatur: L. Sachs (1992) Angew. Statistik, Springer, Kap.466,621ff. Gart's Cross-Over-Analyse: Bortz et al. (1990, p.164): In einer Stichprobe von Patienten reagieren n=19 unterschiedlich auf zwei Präparate, davon Nvp=8 Patienten in der Behandlungsreihenfolge VP, Npv=11 in der Reihenfolge PV. In VP ist V achtmal, in PV ist V siebenmal und P viermal wirksam. Patienten, die auf beide Präparate gleich reagieren, gehen nicht in die Auswertung ein: Cross-Over-Analyse (Gart) Bezeichnung: Bortz-Lienert-Boehnke pp Reihenfolge 'AB' Reihenfolge 'BA' Zusammenfassung A A A B B B Exakter Test (Gart) Approximativer Test (Z (Gauß)) Haupteffekt: p = (ein!s.) p = (ein!s.) Z = 2.29 p = (zweis.) p = (zweis.) Z = 2.29 Periodeneffekt: p = (ein!s.) p = (ein!s.) Z = 1.31 p = (zweis.) p = (zweis.) Z = 1.31 Literatur: J.J. Gart (1969) An exact test for comparing matched proportions in crossover designs. Biometrika Vol. 56, pp Mantel-Haenszel-Test: Schuhmacher und Schulgen (2002, Seite 60) beschreiben den Vergleich zweier Behandlungen (Zeilen) bei Hinterwandinfarkt bzgl. Gestorben und Überlebt (Spalten). Die Daten für den Hinterwandinfarkt finden sich in der eingegebenen Tafel, die Ergebnisse können mit dem stratifizierten MH-Test bzw. mit SPSS verifiziert werden. Mantel-Haenszel-Test Eingegebene Tafel: Prüfgröße: Chi² = mit fg = 1 und p = Literatur: N. Mantel (1963) Chi²-tests with one degree of freedom: extensions of the Mantel-Haenszel procedure. JASA 58, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 064 von 241

65 Stratifizierter Mantel-Haenszel-Test: Schuhmacher und Schulgen (2002) beschreiben den Vergleich zweier Behandlungen, dies stratifiziert nach Hinterwandinfarkt und Vorderwandinfarkt. Die Daten können über eine Datei eingelesen werden und werden wegen des Umfangs (n=313 Patienten) hier nicht angegeben. Dieses Modul wurde anhand der Ergebnisse von Schuhmacher und Schulgen verifiziert (dort wird jedoch keine Stetigkeitskorrektur verwendet, die Resultate beim Konfidenzintervall weichen - vermutlich wegen Rundungsfehlern - geringfügig ab), ebenfalls mit SPSS, dessen Ergebnisse mit denen von BiAS. exakt übereinstimmen. Stratifizierter Mantel-Haenszel-Test Eingabedatei ist..\valide\schuhmacher.dat davon Variable 1 (Therapie) und Variable 2 (Erfolg) Stratifizierungsvariable Stratum = 1,2 (Infarktlokalisation) >> Der Wert x1=1 entspricht der ersten Zeile bzw. Spalte der Vierfeldertafel >> eines Stratums, der Wert x2=2 entspricht der zweiten Zeile bzw. Spalte. Strata-spezifische Vierfeldertafeln (Zeilen: Erfolg, Spalten: Therapie): Tafel 1: OR= p= Tafel 2: OR= p= DerSimonian-Laird-Test auf hom*ogenität der ORs: Chi²=1.77 (df=1): p= Breslow-Day-Test auf hom*ogenität der ORs: Chi²=1.83 (df=1): p= Tarone-Test auf hom*ogenität der ORs: Chi²=1.83 (df=1): p= Gemeinsames gewichtetes Odds-Ratio der Strata-spezifischen ORs: OR= %-Konfidenzintervall für das gemeinsame OR: CI = [ ; ] Prüfgröße Chi²=3.86 (df=1): p= (mit Kontinuitätskorrektur, empfohlen) Prüfgröße Chi²=4.67 (df=1): p= (ohne (!) Kontinuitätskorrektur) Literatur: N Mantel, W Haenszel (1959) Statistical aspects of the analysis of data from retrospective studies of disease. J. National Cancer Inst. 22, pp J Robins, S Greenland, NE Breslow (1986) A general estimator for the variance of the Mantel-Haenszel odds ratio. Amer. J. Epidemiol. 124, 5, pp R DerSimonian, N Laird (1986) Meta-analysis in clinical trials. Controlled Clinical Trials, 7, pp M Schuhmacher, G Schulgen (2002) Methodik klinischer Studien, Springer-Verlag Test und Konfidenzintervall für ( unpaired ): In einem klinischen Versuch wird eine alte mit einer neuen Behandlung verglichen (Zeilen). Von 257 Patienten mit Behandlung A sterben 41, von 244 Patienten unter B sterben 64. Berechnet wird ein 95%-Konfidenzintervall für die Differenz der beiden Überlebensraten (Armitage und Berry (1988, p.124)): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 065 von 241

66 P 100%-Konfidenzintervalle und Test für δ = θ1 - θ2 Bezeichnung: Armitage und Berry pp Eingegebene Tafel: Erwartete Häufigkeiten Phi(i,j): Prüfgrößen: Gauss' Z1 = Gauss' Z2 = (p = ) (ohne Yates-Korrektur) (p = ) (mit! Yates-Korrektur) Schätzungen für θ1 und θ2 der Zeilen: P1 = P2 = Konfidenzintervalle für δ = θ1 - θ2 : ohne Yates-Korrektur: mit Yates-Lorrektur: P=90%: ( , ) ( , ) P=95%: ( , ) ( , ) P=99%: ( , ) ( , ) BEMERKUNG: Die Tests können sich wegen abweichender Varianzen vom Test-Ergebnis per korrespondierendem Konfidenzintervall unterscheiden. Für die Ho-Prüfung bei n<60 immer nur den Test Z2 resp. das korrigierte Konfidenzintervall verwenden!! Literatur: L. Sachs (1997) Angewandte Statistik, Springer, Kap.62ff. P. Armitage, G. Berry (1987) Statistical Methods, Blackwell Sci.Pub. S.123 J.L. Fleiss (1981) Stat. Methods for Rates and Proportions. Wiley NY, p.29 Test für 1/2 ( unpaired ): Die Fragestellung ist analog zu der der Differenz θ 1 -θ 2 des obigen Beispiels und betrachtet die Relation der beiden ungepaarten Binomial-Parameter. Die Validerung erfolgte mit Hilfe eines Beispiels aus dem Artikel von Koopman (1984), beachten Sie dazu bitte auch das analoge Konfidenzintervall, das im Modul Konfidenzintervalle vefügbar ist. Tests für 1-2 und 1/2 ( paired ): Analog wie bei der Differenz und dem Quotienten für unpaired, jedoch mit jeweils zwei Binomial-Merkmalen am gleichen Patienten bzw. Merkmalsträger. Ein Validierungsbeispiel für die Differenz θ 1 -θ 2 findet sich weiter oben im Zusammenhang mit dem McNemar-Test, ein Validierungsbeispiel für die Relation θ 1 /θ 2 bei Bonett und Price (2006). Äquivalenztests können bei allen Fragestellungen mit Hilfe der Konfidenzintervalle nach der Intervall-Inklusions-Regel durchgeführt werden: Nach Definition eines Äquivalenzbereichs wird geprüft, ob das 90%(!)-Konfidenzintervall gänzlich im Äquivalenzbereich enthalten ist. Ist dies der Fall, so schließt man auf Äquivalenz zum Signifikanzniveau alpha=5%(!). Ein Äquivalenztest von θ 1 und θ 2 kann auch explizit durchgeführt werden: Äquivalenztest für und ( unpaired ): Vergleich von "Regular care" mit "Nurse- Practitioner" (Zeilen) bezüglich der Spalten "Adequate" und "Not adequate". Gewünscht ist ein Test auf Äquivalenz der Raten der Zeilen (Johnson (1988, p. 907)). Beim Vergleich der Ergebnisse ist die geringe Rechengenauigkeit bei Johnson zu beachten. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 066 von 241

67 Äuivalenztest für θ1 und θ2 Bezeichnung: Johnson p.907 (cave Rechengenauigkeit!) Eingegebene Tafel: Erwartete Häufigkeiten ϕij : Äquivalenzintervall (-φ,+φ): φ = Differenz δ=p1-p2= : δ = Äquivalenztest mit (1-2α)-Intervall: Ohne Kontinuitätskorrektur: p = (zweiseitig, nur n>60!) Mit! Kontinuitätskorrektur: p = (zweiseitig, auch n<60) Literatur: R.Johnson (1988) p-values in 2x2-tables. Biometrics Vol.44,3,pp Epidemiologie (Relatives Risiko und Odds-Ratio): Zur Beurteilung eines Risikofaktors sind zu berechnen: Inzidenzraten, Odds Ratio, Relatives Risiko, zugehörige Konfidenzintervalle, zuschreibbares Risiko und der Mantel-Haenszel-Test. Das folgende Beispiel entstammt Sachs (1992, p.312). Bemerkung: Ein in der Epidemiologie gelegentlich erforderlicher Test auf Äquivalenz kann einfach mit Hilfe der errechneten Konfidenzintervalle vor-genommen werden: Zum Niveau z.b. verwendet man ein 90%-Konfidenzintervall und entscheidet auf Äquivalenz, wenn das Intervall gänzlich im vorgegebenen Äquivalenzbereich (z.b. +-10%) liegt. Epidemiologie Bezeichnung: Sachs p. 314 Krankheit + Krankheit - Faktor Faktor Pearson-Mantel-Haenszel's Chi² = (p < ) Inzidenzrate positiv = Inzidenzrate negativ = Zuschreibbares Risiko = Relatives Risiko = 'Starker Schaden' Odds Ratio = 'Starker Schaden' Konfidenzintervalle: % % %----- Relatives Risiko: Odds Ratio: Literatur: L. Sachs (1992) Angewandte Statistik Kap.2, Springer-Verlag Binominal-Wahrscheinlichkeit θ testen: Die Wahrscheinlichkeit akuter Leukämien bei Kindern bis zu 4 Jahren wird in der BRD mit p= angegeben. Bei einer neueren epidemiologischen Untersuchung im Umkreis eines Atomkraftwerks stellte man fest, dass innerhalb eines Jahres dort k=3 von n=4000 exponierten Kindern im Alter von bis zu 4 Jahren erkrankten. Ist die Inzidenzrate p= damit zu vereinbaren? Da im Test P(k>=3)= ist, muss die Nullhypothese im einseitigen Test verworfen werden; vgl. dazu Ackermann ( ): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 067 von 241

68 Binomial-Wahrscheinlichkeit θ testen Stichwort: Atomkraftwerke - Leukämieinzidenz Anzahl Versuche n = 4000 Anzahl Erfolge k = 3 Hypothetischer Wert aus H0: theta0 = Errechnete relative Häufigkeit k/n = Einseitige Binomial-Tests der Nullhypothese H0(theta=theta0): Zur Alternative Ha(theta<theta0): P(k<=3) = p = Zur Alternative Ha(theta>theta0): P(k>=3) = p = Zweiseitiger Test der Nullhypothese H0(theta=theta0): Per Fisher's F mit Ablehnungsbereich p=2*(p/2): p = P*100%-Konfidenzintervalle für theta: P = 0.90: ( , ) P = 0.95: ( , ) P = 0.98: ( , ) P = 0.99: ( , ) Die 90%- und 98%-Konfidenzintervalle sind für Äquivalenztests mit den Irrtumswahrscheinlichkeiten alpha=0.05=5% und alpha=0.01=1% verwendbar! Literatur: L.Sachs (1999) Angewandte Statistik, 3. Auflage Springer. P.Armitage, G.Berry (1988) Stat. Methods in Medical Research, Blackwell. Poisson-Test für den Parameter λ: In einem Zeitraum wurden x=10 Ereignisse beobachtet. Die Hypothese lautet, dass im Mittel λ=15 Ereignisse eintreten. Zusätzlich zum Test wird ein 95%- Konfidenzintervall berechnet, beliebige Konfidenzintervalle in Anhang 2 (Sachs 1992, p. 292): Test des Parameters λ einer Poisson-Verteilung Nullhypothese Ho(λo=15) Beobachtete absolute Häufigkeit λ=10 Poisson-Test der Ho: p= ein!seitig und p= zweiseitig 95%-Konfidenzintervall: [ ; ] Literatur: L. Sachs (1992) Angew. Statistik, Kap Springer. Vergleich zweier Häufigkeiten/Poisson-Verteilungen: Bei zwei Buchhaltern werden beim Schreiben von je 250 Rechnungen bei einem 6, beim anderen 16 Fehler entdeckt. Unterscheiden sich die beiden Buchhalter "signifikant"? Sachs (1992, p.297): Vergleich zweier Häufigkeiten Erste Häufigkeit: n1 = 6 ; Zweite Häufigkeit: n2 = 16 95%-Konfidenzintervall für die Differenz n1-n2: [ ; 0.19 ] Prüfgröße Chi² = ( p = zweiseitig ) Exakter Binomial-Test: ( p = ein!seitig ) Exakter Binomial-Test: ( p = zweiseitig ) Literatur: L. Sachs (1992) Angewandte Statistik. Springer-Verlag. Beispiel S BiAS. für Windows Programmversion 11 epsilon-verlag Seite 068 von 241

69 A.4 Kontingenztafeln χ²-test für eine cxr-kontingenztafel Exakter Fisher-Freeman-Halton-Test Haldane-Dawson-Test Craddock-Flood-Test Yates-Cochran-Test auf Trend Mantel-Haenszel-Test Cohen s Kappa-Koeffizient (mehrere Stufen, 2 Rater) Cohen s Kappa-Koeffizient (mehrere Stufen, mehrere Rater) Pearson s Kontingenzkoeffizient Terwilliger und Ott s Marginal-Symmetrietest Bowker s Kontingenztafel-Symmetrietest χ²-test und Fisher-Freeman-Halton-Test für eine cxr-kontingenztafel: Vergleich von "Carriers" und "Non- Carriers" (Zeilen) von Streptococcus pyogenes, klassifiziert nach Größe der Tonsillen ("Vorhanden, nicht vergrößert", "vergrößert", "stark vergrößert" (Spalten)). Das Beispiel entstammt Armitage und Berry (1988, p.373): cxr-kontingenztafel mit Chi²-Test Eingegebene Tafel: Armitage und Berry Seite Prüfgrößen: Chi² = mit fg = 2 und p = Exakter Test und p-wert mit Valz und Thompson's Algorithmus: p = Literatur: L. Sachs (1992) Angew. Statistik, Springer 1992, Kap.62. Haldane-Dawson-Test: Der Test dient der Untersuchung von schwach besetzten Tafeln bei mehr als 5 Zeilen bzw. Spalten. Bortz, Lienert und Boehnke (1990, p.138) geben dazu ein Beispiel an: In einer Bibliothek für 6 verschiedene Studienrichtungen (Zeilen) befinden sich 8 Statistiklehrbücher (Spalten). Leihen bestimmte Fachrichtungen bestimmte Bücher häufiger aus als andere? Haldane und Dawson's Test Eingegebene Tafel: Bortz-Lienert-Boehnke Seite BiAS. für Windows Programmversion 11 epsilon-verlag Seite 069 von 241

70 Prüfgröße: Haldane-Dawson's U = p = (stets einseitig!) Literatur: J.S.B. Haldane (1940) The mean and variance of χ2, when used as a test of hom*ogeneity, when samples are small. Biometrika 31, pp Craddock-Flood-Test: Der Test dient der Untersuchung von schwach besetzten Tafeln bei Vorliegen von bis zu 5 Zeilen/Spalten (vgl. auch Haldane-Dawson-Test). Bortz, Lienert und Boehnke (1990, p.139) geben dazu ein Beispiel: Es soll überprüft werden, welche von 3 Futtermischungen von 4 untersuchten Hunderassen bevorzugt wird. (Hier wird nur Ho("kein Zusammenhang") geprüft. Einzelne Felder können mit Hilfe der Konfigurationsfrequenzanalyse untersucht werden!) Die eingegebene Tafel weist zu geringe Besetzungszahlen auf und und ist deshalb für eine Analyse mit dem χ²- Test ungeeignet. Craddock und Flood's Test Bezeichnung: Bortz-Lienert-Boehnke p.139 Eingegebene Tafel: Prüfgröße: Craddock-Flood's χ² = mit fg = 6, n = 29 und p(konservativ) = Falls nicht signifikant, bitte folgende Tabelle verwenden: n= ' ' α=0.050: α=0.010: α=0.001: Literatur: J.M. Craddock, C.R. Flood (1970) The distribution of χ2 statistic in small contingency tables. Applied Statistics, 19, pp Yates-Cochran-Test auf Trend: Vergleich dreier Therapieformen (Spalten: Symptomatisch, Spezifisch-Normaldosis, Spezifisch-Doppeldosis) bezgl. Therapeutischem Erfolg (Zeilen: Geheilt in x Wochen, geheilt in x+y Wochen, Gestorben). Weiterhin interessiert eine Prüfung auf Trend ("Korrelation"). Das Beispiel entstammt Sachs (1992, p.596): cxr-kontingenztafel mit Yates-Cochran-Test auf Trend Bezeichnung: Sachs pp. 595/606 Eingegebene Tafel: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 070 von 241

71 Zeilenscores: Spaltenscores: Folgende Felder (mehr als 1/5) haben Erwartungshäufigkeit ϕ<5: Feld Erwartete Häufigkeit ( 3, 1 ) 3.33 ( 3, 2 ) 3.33 ( 3, 3 ) 3.33 Variationsursache Chi-Quadrat fg p Lineare Regression Abweichung von der Regression Gesamtvariation Literatur: L. Sachs (1992) Angew. Statistik, Springer 1992, Kap.62 Mantel-Haenszel-Test: De Jonge (1983, p.155) beschreibt den Vergleich zweier z.b. Behandlungsgruppen mit ordinalskalierter Zielgröße, die nur wenige Stufen besitzt. In der nachfolgend angegebenen Tafel beziehen sich die Zeilen auf die beiden Behandlungsgruppen, die Spalten auf die 5 Stufen der Zielgröße. Die Daten der Tafel stellen die absoluten Häufigkeiten dar, die in der jeweiligen Behandlung-Merkmalsstufen-Kombination beobachtet wurden. Die Nullhypothese lautet "Die beiden Behandlungen/Bedingungen unterscheiden sich nicht in Bezug auf den Behandlungserfolg": Mantel-Haenszel-Test Bezeichnung: De Jonge p.155ff Eingegebene Tafel: Spaltenscores: Prüfgröße: χ² = mit fg=1 und p = Literatur: N. Mantel (1963) χ2-tests with one degree of freedom: extensions of the Mantel- Haenszel procedure. JASA 58, pp Cohen's Kappa-Koeffizient: Die Fragestellung lautet analog zum Vierfelder-Fall. Zwei Sozialarbeiter A und B beurteilen N=100 jugendpsychiatrische Patienten, ob deren Störung als "Verwahrlosung", "Neurose" oder "Psychose" einzustufen ist. Zu beurteilen ist die Übereinstimmung der beiden Sozialarbeiter A und B. (Bortz et al. (1990, p.459)); Cohen's Kappa ist ein standardisiertes Maß für die Übereinstimmung der beiden "Rater" und nimmt Werte zwischen 0 und 1 an; "1" bedeutet eine totale Übereinstimmung. (In BiAS. steht Cohen s Kappa auch für mehr als 2 Beurteiler zur Verfügung, vgl. Sie bitte BiAS. Menü.) Die Ausgabe des Weighted Kappa wurde hier nicht aufgenommen: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 071 von 241

72 cxr-kontingenztafel mit Cohen's Kappa-Koeffizient Bezeichnung: Bortz-Lienert-Boehnke pp Eingegebene Tafel: Cohen's Kappa = Prüfgröße Z = mit p = %-Konfidenzintervall für Kappa: [ ; ] 95%-Konfidenzintervall für Kappa: [ ; ] 99%-Konfidenzintervall für Kappa: [ ; ] Literatur: W.G. Cohen (1960) Errors of Measurement in Statistics. Technom. 10, pp J.L. Fleiss (1973) Stat. Methods for Rates and Proportions pp Wiley NY. Pearson's Kontingenzkoeffizient: Analog zum Vierfelder-Fall sind zwei oder mehr Behandlungen (Zeilen) bezüglich des Therapieeffektes (Spalten) zu vergleichen. Pearson's Kontingenzkoeffizient ist ein Maß für die Enge des Zusammenhanges der beiden kategorialen Merkmale. Das Beispiel entstammt Sachs (1992, p.476): cxr-kontingenztafel mit Pearson's Kontingenzkoeffizient Bezeichnung: Sachs p.476 Eingegebene Tafel: Prüfgröße: Chi² = mit fg=1 und p = Pearson's Kontingenzkoeffizient C = Literatur: L.Sachs (1992) Angewandte Statistik, Springer. Kap K. Pawlik (1959) Der maximale Kontingenzkoeffizient im Falle nicht-quadratischer Kontingenztafeln. Metrika 2, pp Terwilliger und Ott s Symmetrie-Test: Der Test prüft auf hom*ogenität bzw. Symmetrie der Marginalverteilungen zweier abhängiger Verteilungen und findet zum Beispiel in der Genetik häufig Anwendung. In Ermangelung eines Beispiels aus der Literatur wird hier ein per Hand gerechnetes Beispiel angegeben, die Daten entstammen Sachs (1999, p.607): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 072 von 241

73 Terwilliger-Ott-Marginalsymmetrie-Test Bezeichnung: Sachs p.607 Eingegebene Tafel: Prüfgröße: Chi² = mit fg = 3 und p = Literatur: J. Terwilliger, J. Ott (1992) A haplotype-based 'haplotype relative risk' approach to detecting allelic associations. Hum. Hered. 42, pp Bowker s Kontingenztafel-Symmetrietest: Analog zum McNemar-Test wird eine Kontingenztafel auf Symmetrie untersucht. Die verwendeten Daten entstammen Sachs (1999, p. 607): Bowker s Kontingenztafel-Symmetrietest Bezeichnung: Sachs p.607 Eingegebene Tafel: Prüfgröße für Diagonale 'links oben nach rechts unten': Chi² = , FG=6 und p = Prüfgröße für Diagonale 'links unten nach rechts oben': Chi² = , FG=6 und p = Literatur: A.H. Bowker (1948) A test for symmetry in contingency tables. J. Amer. Stat. Ass. 43, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 073 von 241

74 A.5 Konfigurationsfrequenzanalyse (KFA) Einstichproben-Konfigurationsfrequenzanalyse Mehrstichproben-Konfigurationsfrequenzanalyse KFA zur Clusteranalyse binärer und kategorialer Daten KFA zur Diskrimination binärer und kategorialer Daten Einstichproben-Konfigurationsfrequenzanalyse: N=570 Studenten werden nach ihrer Studienrichtung (1) und ihrer Einstellung zur Gentechnologie (2) befragt. Es fragt sich, ob typische Konfigurationen beobachtet werden können: Das Beispiel ist Bortz et al. (1990, p.155/6) entnommen. Die Eingabe der Daten erfolgt in Form der absoluten Häufigkeiten der Zellen der Tafel, die durch Angabe der Merkmale und deren Stufen definiert wird. Die Indizierung bei Eingabe der "Konfiguration..." bezieht sich auf die Stufen der gewählten Merkmale/Eingänge der Tafel; im Verlauf der Eingabe läuft der letzte Merkmalsstufenindex des zuletzt definierten Merkmals "am schnellsten", der des zuerst definierten Merkmals "am langsamsten". Dies entspricht der Ausgabe der Ergebnisse: Konfigurationsfrequenzanalyse KFA Konf Absol. Erwart. Prägn. Prägn. Typ Chi² p Chi²- p Binom. p Leh- 1 2 Häufigkeiten unkorr Betzin Test Test macher T A A T A T A T Sum ; fg = 3 >> Prägnanz unkorr: Unkorr. Werte Q der Prägnanz ("determination coefficient") >> Prägnanz Betzin: Maximum-korrigierte Werte Q'=Q/Qmax<=1 gemäß Betzin et al. >> Alle p-werte beziehen sich auf z w e i seitige Tests. >> Zur konfirmatorischen Analyse ist eine α-korrektur (z.b. Bonferroni, hier per >> α*=α/8 bzw. p =8*p) der p-werte durchzuführen! Literatur: J. Krauth, A. Lienert (1973) Die Konfigurationsfrequenzanalyse. Karl Alber Freiburg J. Bortz et al. (2008) Verteilungsfreie Methoden. 3. Aufl. Springer-Verlag W. Lehmacher (1981) Simultaneous test procedure in configural frequency analysis. Biom. J. 23, 5, pp J. Betzin, P. Bollmann-Sdorra (2003) On the determination coefficient in CFA. Psychology Science 45, 2, pp Vorsicht: Der Freiheitsgrad der Tafel wird bei Bortz et al. nicht korrekt angegeben; richtig ist hier der Freiheitsgrad df=(4-1) (2-1)=3. Zur Validierung des Lehmacher- und Binomial-Tests vgl. Lehmacher (1981) (im Test wurden Lehmachers Prüfgrößen Z ijk reproduziert, im Programm werden p-werte angegeben) und Krauth-Lienert (1973). In der angegebenen Tafel bedeutet ein Typ eine Zelle mit einer höheren beobachteten als erwarteten Häufigkeit, ein Antityp ist umgekehrt definiert als eine unterfrequentierte Zelle. Eine Beurteilung erfolgt optimal mit Hilfe des Lehmacher-Tests entsprechend der p-werte in der letzten Spalte (bitte aber auch BiAS. für Windows Programmversion 11 epsilon-verlag Seite 074 von 241

75 die Prägnanzmaße beachten!), wobei im Falle einer konfirmatorischen Analyse eine α-korrektur zum Beispiel nach Bonferroni oder günstiger nach Bonferroni-Holm durchgeführt werden sollte. Mehrstichproben-Konfigurationsfrequenzanalyse: Zwei Stichproben (hier Männer und Frauen) werden anhand der Merkmale Suizidmotivation (1) (Somatische Erkrankung, Psychische Erkrankung, Alkoholismus) und dem Suiziderfolg (2) klassifiziert. Nullhypothese ist, dass Männer und Frauen bezüglich der sechs Merkmals-kombinationen hom*ogen sind. Das Beispiel von Bortz et al. (1990, p.158) findet sich auch in dem Buch von Krauth und Lienert zur KFA. Die Dateneingabe (absolute Häufigkeiten der Zellen) entspricht der Einstichproben-KFA, wobei die Häufigkeiten der hier 2 Stichproben "nebeneinander" eingegeben werden: Konfigurationsfrequenzanalyse KFA Bezeichnung: Bortz-Lienert-Boehnke p. 158 Konf Absolute Häufigkeiten 1 2 Stichpr 1 Stichpr 2 Summe Sum Konf Erwartete Häufigkeiten 1 2 Stichpr 1 Stichpr 2 Summe Sum Konf Prüfgrößen χ² mit df=1 1 2 Stichpr 1 Stichpr 2 Summe Sum Prüfgröße χ² = mit df = 5 ( p = ) Konf p-werte zu Prüfgrößen χ² mit df=1 1 2 Stichpr 1 Stichpr 2 Summe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 075 von 241

76 Zur konfirmatorischen Analyse ist eine α-korrektur (z.b. Bonferroni, α*=α/6 für die Summe ) der p-werte zum Chi²-Test durchzuführen! Literatur: J. Bortz et al. (1990) Verteilungsfreie Methoden. Springer. J. Krauth, A. Lienert (1973) Die Konfigurationsfrequenzanalyse. Verlag Karl Alber Freiburg, München. Clusterung kategorialer und binärer Daten: Der Datensatz (Lautsch/Lienert 1993) gibt die beobachteten und die unter der Cluster-Nullhypothese erwarteten Häufigkeiten von Mustern aus t=5 Ja-Nein-Symptomen bei n=150 psychosomatisch Depressiven wieder. Die erwarteten Häufigkeiten errechnen sich mit e=n/2^t. Z.B. weist der erste p-wert des Musters ein Cluster von 12 Patienten aus, die an allen 5 Symptomen leiden. Clusterung kategorialer Daten Konf Absol. Erwart. Chi²- p Chi² Häufigkeiten Test Test * * * * * ** * * * ** Chi²-Werte heuristisch mit df=1 prüfen! Literatur: E. Lautsch, G.A. Lienert (1993) Binärdatenanalyse. Beltz-Verlag BiAS. für Windows Programmversion 11 epsilon-verlag Seite 076 von 241

77 Diskrimination kategorialer und binärer Daten: Der Datensatz (Krauth (1993, p. 127) gibt die beobachteten Häufigkeiten von Mustern aus t=5 Ja-Nein-Symptomen bei n1=6117 schwangeren und n2=7448 nicht-schwangeren Frauen. Es fragt sich, ob sich die beiden Gruppen bezüglich der 5 Symptome unterscheiden bzw. ob es für die eine und/oder die andere Gruppe typische sog. Diskriminanztypen gibt. Da es sich um ein exploratives Verfahren handelt, wurden die Fisher schen exakten p-werte keiner alpha-adjustierung (zum Beispiel nach Bonferroni-Holm) unterzogen, die aber - so bei Krauth (1993) - prinzipiell denkbar ist, um keine Artefakte von Diskriminanztypen zu erhalten. KFA: Diskriminanzanalyse binärer und kategorialer Daten Konfigurat Absolute Häufigkeiten Fisher's p Zuordnung zu Stichpr 1 Stichpr 2 (einseitig) Stichprobe ** * ** * * Sum Fisher's exact Test: *:p<0.05, **:p<0.01, :p<0.001 Es wurde k e i n e Alpha-Adjustierung durchgeführt! Literatur: E. Lautsch, S. von Weber (1995) Methoden und Anwendungen der KFA. Beltz. J. Krauth (1993) Einführung in die KFA. Beltz. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 077 von 241

78 A.6 Tests auf Gauß-Verteilung χ²-anpassungstest Shapiro-Wilk-Test Kolmogoroff-Smirnoff-Lilliefors-Test Mudholkar-Test (multivariat) David-Test ("Schnelltest") Grubbs-Test (Ausreißer-Test) Graphik zum χ²-anpassungstest Graphik zum Kolmogoroff-Smirnoff-Test Quantil-Quantil-Plot ( QQ-Plot ) χ²-anpassungstest: Es ist zu beurteilen, ob eine Stichprobe denkbarer Weise einer Gauß- Verteilung entstammt; der Test wird im Programm durch eine Graphik der Häufigkeiten ergänzt (Histogramm und angepasste Gauß-Verteilung). Zu den verwendeten Daten von Graf et al. (1987, p.393) ist zu bemerken, dass der χ²-test bei kleinen Stichproben an sich kontraindiziert ist; besser sollte in solchen Fällen Shapiro-Wilk's Test oder Kolmogoroff-Smirnoff's Test verwendet werden. χ²-anpassungstest Eingabedatei ist Graf393.DAT Untersucht wird Variable 1 Eingelesene Daten: Intervall Beobachtete Erwartete Häufigkeit Häufigkeit Prüfgröße Chi² = Freiheitsgrad fg = 2 und p = Literatur: L. Sachs (1992) Angew. Statistik, Springer-Verlag, Kap.43 Shapiro-Wilk-Test: Es ist zu beurteilen, ob eine Stichprobe denkbarer Weise einer Gauß-Verteilung entnommen ist. Der Shapiro-Wilk-Test ist der vermutlich günstigste Test für diese Fragestellung. Die Daten zum Test finden sind in Graf et al. (1987, p.393): Shapiro-Wilk-Test Eingabedatei ist Graf393.DAT Untersucht wird Variable 1 Eingelesene Daten: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 078 von 241

79 Shapiro-Wilk's Prüfgröße W = (p > exakter Wert (n 50)) Royston's Prüfgröße Z(W) = (p = approximativ (n 7)) Literatur: S.S. Shapiro, M.B. Wilk (1965) An analysis of variance test for normality (complete samples). Biometrika 52, pp J.P. Royston (1982) An extension of Shapiro and Wilk's test for normality to large samples. Appl. Stat. 31, 2, pp Kolmogoroff-Smirnoff-Lilliefors-Test: Es ist zu beurteilen, ob eine Stichprobe möglicherweise einer Gauß-Verteilung entstammt. Der Test wird im Programm durch eine testanaloge Graphik der kumulativen Häufigkeiten ergänzt. Ein Test für bekannte µ und σ² (die ursprüngliche Version von Kolmogoroff & Smirnoff) ist ebenfalls möglich. Hier ein Beispiel mit Daten aus Graf et al. (1987, p.393): Kolomogoroff-Smirnoff-Lilliefors-Test Eingabedatei ist Graf393.DAT Untersucht wird Variable 1 Eingelesene Daten: Berechnetes Arithmetisches Mittel Xquer = Berechnete Standardabweichung SD = s = Kolmogoroff-Smirnoff-Lilliefors' delta = : p > (tabellarisch) Dallal-Wilkinson-korrigierter p-wert zum KSL-Test : p = (empfohlen) Literatur: A. Kolmogoroff (1941) Confidence limits for an unknown distribution function. Ann. Math. Stat. 12, pp N. Smirnoff (1948) Tables for estimating the goodness of fit of empirical distributions. Ann. Math. Stat. 19, pp H.W. Lilliefors (1967) On the Kolmogoroff-Smirnoff test for normality with mean and variance unknown. J.Am.Stat.Ass. 62, pp G.E. Dallal, L. Wilkinson (1986) An Analytic Approximation to the Distribution of Lilliefors' Test Statistic for Normality. Am. Stat. 40,pp Mudholkar-Test: Es sollen 15 Studenten bezüglich 4 Variablen beurteilt werden. Zur Prüfung der Voraussetzung Gauß-Verteilung für den intendierten Hotelling's T²-Test (vgl. weiter unten) wird ein 4- variater Mudholkar-Test durchgeführt. Die Daten und die Fragestellung ist Kramer (1972, p.52) entnommen; es ist zu bemerken, dass die Zielgrößen in Kramer's Beispiel qualitativer Natur sind, so dass eher an eine Auswertung mit Friedman's Rang-Varianzanalyse gedacht werden sollte. Mudholkar-Test Eingabedatei ist Kramer54A.DAT davon Variablen 5(Verbal_0), 6(MathSAT0), 7(English0), 8(MathAch0) i Var. 5 Var. 6 Var. 7 Var BiAS. für Windows Programmversion 11 epsilon-verlag Seite 079 von 241

80 Mudholkar-Test auf 4-variate Gauß-Verteilung: Prüfgröße N = ( p = ) (Asymptotisch!) Marginalverteilungen (univariate Kolmogoroff-Smirnoff-Tests) 5: Kolmogoroff-Smirnoff's S = (p > 0.20 (Dallal-korrigiert)) 6: Kolmogoroff-Smirnoff's S = (p > 0.20 (Dallal-korrigiert)) 7: Kolmogoroff-Smirnoff's S = (p > 0.20 (Dallal-korrigiert)) 8: Kolmogoroff-Smirnoff's S = (p > 0.20 (Dallal-korrigiert)) Literatur: G.S. Mudholkar et al. (1992) A test of p-variate normality. Biometrika 79, 4, pp Der Originalartikel von Mudholkar et al. enthält kein Beispiel, so dass zur Überprüfung des Programms Per-Hand-Berechnungen durchgeführt wurden. David-Test: Es ist zu beurteilen, ob eine Stichprobe möglicherweise aus einer Gauß-Verteilung entnommen ist. Der David-Test wird in BiAS. zum raschen Überblick über die gesamte Datensituation einer Datei verwendet, bei speziellen Fragestellungen empfehlen sich eher andere Testverfahren, z.b. Shapiro-Wilk's Test oder Kolmogoroff-Smirnoff's Test. Der Datensatz des Beispiels von Graf et al. (1987, p.393) umfasst nur eine Variable, in umfangreicheren Datensätzen werden alle oder eine selektierte Anzahl von Variablen bzw. Spalten - auch unter Berücksichtigung vielleicht vorhandener Gruppierungsvariablen - getestet: David-Test Eingabedatei ist Graf393.DAT Untersucht wird Variable 1 Eingelesene Daten: Var. n David p >0.10 Literatur: H.A. David, H.O. Hartley, E.S. Pearson (1954) The distribution of the ratio, in a single normal sample, of range to standard deviation. Biometrika pp E.S. Pearson, M.A. Stephens (1964) The ratio of range to standardeviation in the same normal sample. Biometrika 51, pp Grubbs-Test: Es ist zu beurteilen, ob eine Stichprobe Ausreißerwerte enthält. Der Grubbs-Test kann versagen, wenn nicht nur ein Ausreißer, sondern eine Gruppe von Ausreißern existiert. In den Daten von Graf et al. (1987, p.391) wird der Wert x=527 als Ausreißer entdeckt: Grubbs-Test Eingabedatei ist Graf391.DAT Untersucht wird Variable 1 Bemerkung: Die Datei Graf391.DAT ist die gleiche Datei wie Graf393:dat (vgl. z.b. Wilk-Shapiro-Test), jedoch ergänzt durch den 4. Wert X=527 als Ausreißer! BiAS. für Windows Programmversion 11 epsilon-verlag Seite 080 von 241

81 1: 470 7: 464 2: 490 8: 448 3: 478 9: 473 4: : 453 5: : 453 6: : 461 Durchschnitt = Standardabweichung = Spannweite = Fallzahl n = 12 Nr. Wert Prüfgröße p (1s.) p (2s.) Minimum: Maximum: p(1s.): Einseitiger p-wert & p(2s.): Zweiseitiger p-wert Zweiseitiger Test: p = Minimum{p(2s.)} = Literatur: F.E. Grubbs, G. Beck (1972) Extension of sample sizes and percentage points for significance tests of outlying observations. Technom. 14, 4, pp Graphik angepasste Gauß-Verteilung: Es wurden die Daten aus der Datei Graf.393 verwendet (Berechnung vgl. Anpassungstest). Die Abweichungen der empirischen von der theoretischen Kurve bilden die Testgrundlage. (Vorsicht: möglichst große Fallzahlen verwenden!) Graphik angepasste Gauß-Verteilungsfunktion: Es wurden die Daten aus Datei Graf.393 verwendet. Die maximale Abweichung der Kurven entspricht der Prüfgröße des Kolmogoroff - Smirnoff - Tests (alle Berechnungsergebnisse in BiAS. via Lilliefors-Dallal-Wilkinson-Variante). Die Skalierungsintervalle speziell in der Darstellung der Dichtefunktion der Gauß-Verteilung können optional frei gewählt werden. In der Voreinstellung benutzt BiAS. die Sturges sche Regel zur Festlegung der Anzahl Intervalle. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 081 von 241

82 QQ-Plot zur Anpassung an eine Gauß-Verteilung: Das QQ-Plot kann zur graphischen Bewertung der Anpassung von Daten an eine Normal- oder - je nach Einstellung im Dialog, Radio- Buttons "Typ" - an eine Log-Normalverteilung verwendet werden. η² ( Eta² ) ist der Anteil der aufgeklärten Varianz an der Gesamtvarianz; zur Bewertung der Größenordnung von η² kann man die - wenn auch nur heuristisch begründete - Faustregel verwenden: "Mindestens 85% kann als "akzeptabel", mindestens 90% als "gut" und mindestens 95% als "sehr gut" bewertet werden. Optimal ist natürlich ein Wert von η² nahe bei dem Maximalwert von 1. Prinzipiell erscheint es sinnvoll zu sein, zur Entscheidungsfindung einen objektiven statistischen Test heranzuziehen: Im Programm ist dazu etwa der Kolmogoroff-Smirnoff-Lilliefors-Test verfügbar. Zur Quantil-Transformation können unterschiedliche Standardverfahren gewählt werden. Gängig sind die beiden Methoden "Rankit" und "Blom". Zur Verifikation wurde ein Beispiel von Persike (2010) verwendet, die Daten finden sich unten. Werte sind Persikes Testdaten, TrnWerte ist zur Überprüfung der Log-Normalverteilung exponentiell transformiert. Eine textliche Ausgabe ist nicht vorgesehen, eta² findet sich in der Graphik. Datei..\Valide\Persike.DAT Nr.: Werte TrnWerte 1: : : : : : : : : : : : Literatur: Persike, M. (2010) Vorlesung "Mathematische und statistische Methoden II" des Psychologischen Instituts der Universität Mainz. Gibbons, J., Chakraborti, S. (2010) Nonparametric statistical inference, 5th ed. CRC Press - A Chapman and Hall Book. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 082 von 241

83 A.7 Regressions- und Korrelationsrechnung Einfache lineare Regression mit Graphik Vergleich zweier Regressionsgeraden Hahn-Prognoseintervall mit Graphik Multiple Regression mit Abbau-Verfahren Multiple Regression mit additiven und multiplikativen Termen Logistische Regression mit Abbau-Verfahren Polynomiale Regression mit Graphik und Abbau-Verfahren Zirkuläre Regression und Korrelation mit Graphik Einfache lineare Korrelation Vergleich zweier unabhängiger Korrelationskoeffizienten Vergleich zweier abhängiger Korrelationskoeffizienten Trivariate Multiple Korrelation (quantitativ und ordinal) Trivariate Partielle Korrelation (quantitativ und ordinal) Rang-Regression (X:quantitativ, Y:ordinal) Rang-Korrelation: Spearman s rho und Kendall s tau Pearson-Korrelationsmatrix Spearman-Korrelationsmatrix Intracluster-Korrelation (quantitativ und dichotom) Intraclass-Korrelation (in A.15) Bland-Altman-Regression (in A.18) Passing-Bablok-Regression (in A.18) Lin's Konkordanz-Korrelation (in A.18) Cox-Regression (in A.10) Punktbiseriale Korrelation dichotom vs. quantitativ oder ordinal Einfache lineare Regression: Hängt die Gewichtszunahme (Y="IncrWeight") von Neugeborenen vom Geburtsgewicht (X="Birthweight") ab? Die Daten entstammen Armitage und Berry (1988, p.148), eine Graphik (weiter unten) ist möglich: Einfache lineare Regression Name der Eingabedatei: Armitage.148 Modell: Y=X2=ß(0)+ß(1) X1 Zielgröße Y = Variable 2 = IncreWei Einflussgröße X = Variable 1 = BirthWei Eingelesene Daten: i Y X BiAS. für Windows Programmversion 11 epsilon-verlag Seite 083 von 241

84 Anzahl fehlender Werte: 0 Regression Y auf X: Regressionskoeffizient b = Konstanter Achsenabschnitt c = Testgröße t der Regression t = Überschreitungswahrsch. p = Stichprobenumfang n = 32 Anzahl der Freiheitsgrade n-2 = 30 Konfidenzintervalle für ß1 (Steigung): P = 0.95: ( , ) P = 0.99: ( , ) Konfidenzintervalle für ß0 (Achsenabschnitt): P = 0.95: ( , ) P = 0.99: ( , ) Regression X auf Y: Regressionskoeffizient b = Konstanter Achsenabschnitt c = Testgröße t der Regression t = Überschreitungswahrsch. p = Stichprobenumfang n = 32 Anzahl der Freiheitsgrade n-2 = 30 Durchschnitte, Quadratsummen und Streuungen: Summe der Quadrate SQxx = Summe der Quadrate SQyy = Summe der Produkte SPxy = Durchschnitt Xquer = Durchschnitt Yquer = Streuung S²x = Streuung S²y = Kovarianz S²xy = Reststreuung S²x.y = Reststreuung S²y.x = Literatur: L. Sachs (1992) Angewandte Statistik. Springer, Kap. 51 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 084 von 241

85 Vergleich zweier Regressionskoeffizienten: Es wurde die Wirkung des Gonadotropingehaltes zweier Harnextrakte auf das Uterusgewicht von Mäusen untersucht (Linder und Berchtold (1982, p.191)). Da bei derartigen Versuchen die Wirkung in aller Regel linear mit dem Logarithmus der Dosis ansteigt, wird bei den folgenden Berechnungen der Logarithmus dualis verwendet. Die hier einzugebenden Kenngrößen wurden mit Hilfe der Regressionrechnung ermittelt; die zugehörigen Daten finden sich im Anschluss. Vergleich zweier Regressionskoeffizienten 1. Regression 2. Regression Stichprobenumfänge n: Steigungen b: Achsenabschnitte c: Durchschnitte Xquer: Durchschnitte Yquer: Streuungen S²x: Streuungen S²y: Reststreuungen S²(um R.): hom*ogenität der Varianzen (zweiseitig): Prüfgröße F = mit fg = ( 14, 14 ) ( p = ) Test von Ho(ß11=ß12) für die Steigungen ß1: Gleiche Restvarianzen: Prüfgröße t = mit fg = 26 ( p = ) Ungleiche Restvarianzen, n1,n2>20: Prüfgröße Z = ( p = ) Ungleiche Restvarianzen, n1<20 oder n2<20: Prüfgröße t = mit fg = 26 ( p = ) Falls parallel: Test von Ho(ß01=ß02) für die Achsenabschnitte ß0: Prüfgröße t = mit fg = 26 ( p = ) Konfidenzintervalle für ß11-ß12 (Steigungen): P = 0.95: ( , ) P = 0.99: ( , ) Falls parallel: Konfidenzintervalle für ß01-ß02 (Achsenabschnitte): P = 0.95: ( , ) P = 0.99: ( , ) Falls nicht parallel: Konfidenzintervalle für Schnittpunkt (Aszisse!): VORSICHT: Die Fieller-Konfidenzintervalle sind nur gültig, wenn der Schnittpunkt S= der Regressionsgeraden im Bereich des untersuchten Intervalls der Abszisse liegt. Zur Orientierung (Xquer,SD pooled): S = Xquer * SD (p < 1E-6!!) P = 0.95: ( , ) P = 0.99: ( , ) Literatur: L. Sachs (1992) Angewandte Statistik. Springer, Kap A.Linder, W. Berchtold (1982) Stat. Methoden, Birkhäuser, p.190ff. Daten zum Vergleich zweier Regressionsgeraden: Daten aus Linder und Berchtold (1982, p.191): Editor: Ausdrucken Die Datei Linder.191 umfasst 3 Spalten bzw. 30 Zeilen (.3Kb). Variablennamen der Datei Linder.191: 1:Dosis 2:Ld(Dosis) 3:Wirkung 4:Extrakt BiAS. für Windows Programmversion 11 epsilon-verlag Seite 085 von 241

86 Ausgabe der Datei Linder.191: Nr.: Nr.: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : Polynomiale Regression mit Abbau-Verfahren: In Hartung et al. (1982, p.592) wird die Wirkung einer Stimulanz (X) auf das Leistungsvermögen (Y) untersucht. Es wird im Ansatz ein kubischer, also polynomialer Zusammenhang unterstellt. Die angepasste Funktion kann optional nach Abfrage auch als Graphik dargestellt werden. Polynomiale Regression mit Abbau Eingabedatei ist Hartung592.DAT Zielgröße Y = Variable 2 = Leistung Einflussgröße X = Variable 1 = DosisSti Modell: Leistung = b(0) + b(1)*dosissti^1 + b(2)*dosissti^2 + b(3)*dosissti^3 i Y X Residuen-Ausreißer-Test (Grubbs/David): p>0.10: OK! Tabelle der Varianzanalyse (vollständiges Modell): SQ df S² F p Auf der Regression: E E E Um die Regression: E E-01 Total: E BiAS. für Windows Programmversion 11 epsilon-verlag Seite 086 von 241

87 Multiples Bestimmtheitsmaß B = Multipler Korrelationskoeffizient R = Prüfung der partiellen Regressionskoeffizienten b(i): i b(i) s(b(i)) F df1 df2 p E E E E E E Abbau des Modells: Vollständiger Abbau für alpha=0! Modellabbau: Die Einflussgröße Nr. 3 des Modells wird jetzt eliminiert: Multiples Bestimmtheitsmaß B = Multipler Korrelationskoeffizient R = Prüfung der partiellen Regressionskoeffizienten b(i): i b(i) s(b(i)) F df1 df2 p E E E E Abbau beendet: Noch vorhandene Variablen signifikant bei alpha=0.01! Achtung: Die Numerierung der Koeffizienten bezieht sich auf die Reihenfolge der Summanden im Modell, nicht auf die Numerierung in der Datei!! Literatur: M.M. Tatsuoka (1971) Multivariate Analysis. John Wiley. B. Flury, H. Riedwyl (1983) Angew. multivariate Statistik, Fischer. Multiple Regression: Hartung et al. (1982, p.599) untersuchen wird die Bearbeitungszeit (Y) eines Werkstückes in Abhängigkeit vom Durchmesser (X1) und der Länge (X2) der Werkstücke: Multiple Regression Name der Eingabedatei: Hartung.599 Modell: Y=X1=ß(0)+ß(1)*X2+ß(2)*X3 Zielgröße Y = Variable 1 = BearbZei Einflussgrößen X = Variable 2 = Durchmes Variable 3 = Länge i Y X X BiAS. für Windows Programmversion 11 epsilon-verlag Seite 087 von 241

88 Tabelle der Varianzanalyse: SQ df S² F p Auf der Regr.: E E E+01 p = Um die Regr.: E E Total: E+02 9 Bestimmtheitsmaß B = Prüfung der Koeffizienten b(i): i b(i) F df p E E Literatur: M.M. Tatsuoka (1971) Multivariate Analysis. John Wiley. Abbaumodell zur Regression: Flury und Riedwyl (Angew. Multivariate Statistik, Fischer 1983) betrachten die Abhängigkeit der entwickelten Wärme beim Härten von Zement in Abhängigkeit von der Materialzusammensetzung in Form von vier Parametern ( Hall-Daten ). Es ist die Frage, ob weniger als eben diese vier Parameter zur Erklärung der Wärmeentwicklung ausreichen. Als Abbruchkriterium wird die Signifikanzschwelle α=0.05 für die partiellen Regressionskoeffizienten verwendet: Multiple Regression: Abbauverfahren Eingabedatei ist Flury.Dat Zielgröße Y = Variable 1 = Y Einflussgrößen X = Variable 2 = X1 Variable 3 = X2 Variable 4 = X3 Variable 5 = X4 Modell: Y = b(0) + b(1)*x1 + b(2)*x2 + b(3)*x3 + b(4)*x4 Residuen-Ausreißer-Test (Grubbs/David): p>0.10: OK! Tabelle der Varianzanalyse (vollständiges Modell): SQ df S² F p Auf der Regression: E E E Um die Regression: E E+00 Total: E Multiples Bestimmtheitsmaß B = Multipler Korrelationskoeffizient R = Prüfung der partiellen Regressionskoeffizienten b(i): i b(i) s(b(i)) F df1 df2 p E E E E E E E E Abbau des Modells: Eliminationskriterium ist alpha=0.05! BiAS. für Windows Programmversion 11 epsilon-verlag Seite 088 von 241

89 Modellabbau: Die Einflussgröße Nr. 3 des Modells wird jetzt eliminiert: Multiples Bestimmtheitsmaß B = Multipler Korrelationskoeffizient R = Prüfung der partiellen Regressionskoeffizienten b(i): i b(i) s(b(i)) F df1 df2 p E E E E E E Modellabbau: Die Einflussgröße Nr. 4 des Modells wird jetzt eliminiert: Multiples Bestimmtheitsmaß B = Multipler Korrelationskoeffizient R = Prüfung der partiellen Regressionskoeffizienten b(i): i b(i) s(b(i)) F df1 df2 p E E E E Abbau beendet: Noch vorhandene Variablen signifikant bei alpha=0.05! Achtung: Die Numerierung der Koeffizienten bezieht sich auf die Reihenfolge der Summanden im Modell, nicht auf die Numerierung in der Datei!! Literatur: M.M. Tatsuoka (1971) Multivariate Analysis. John Wiley. B. Flury, H. Riedwyl (1983) Angew. multivariate Statistik, Fischer. Hahn-Prognoseintervall: Abhängigkeit der Gewichtszunahme ("IncreWei") vom Geburtsgewicht ("BirthWei") von Neugeborenen. Mit Hilfe der Hahn-Prognose-Intervalle lassen sich mit einer gewünschten Konfidenz P zu gegebenen Geburtsgewichten die zugehörigen Gewichtszunahmen prognostizieren (Armitage und Berry (1988, p.148)). Eine Graphik ist möglich. Hahn-Prognose-Intervall Name der Eingabedatei: Armitage.148 Modell: Y=X2=ß(0)+ß(1)*X1 Zielgröße Y = Variable 2 = IncreWei Einflussgröße X = Variable 1 = BirthWei Eingelesene Daten: i Y X BiAS. für Windows Programmversion 11 epsilon-verlag Seite 089 von 241

90 Regression Y auf X: Regressionskoeffizient b = Konstanter Achsenabschnitt c = Reststreuung S²y.x = Testgröße t der Regression t = Überschreitungswahrsch. p = Stichprobenumfang n = 32 Anzahl der Freiheitsgrade n-2 = 30 Konfidenzintervalle für ß1: P = 0.95: ( , ) P = 0.99: ( , ) Konfidenzintervalle für ß0: P = 0.95: ( , ) P = 0.99: ( , ) Durchschnitte und Quadratsummen: Summe der Quadrate SQxx = Summe der Quadrate SQyy = Summe der Produkte SPxy = Durchschnitt Xquer = Durchschnitt Yquer = Streuung S²x = Streuung S²y = Kovarianz S²xy = Hahn s 95%-Prognose-Intervall: X Y^ Untere Grenze Obere Grenze BiAS. für Windows Programmversion 11 epsilon-verlag Seite 090 von 241

91 Literatur: L. Sachs (1992) Angewandte Statistik. Springer, Kap. 51 G.J. Hahn (1972) Simultaneous prediction intervals for a regression model. Technometrics 14, pp Einfache lineare Korrelation: Untersucht wird der Zusammenhang zwischen zwei gleichberechtigten, quantitativen Größen X1 und X2. Sachs (1992, p.522) gibt dazu ein Beispiel an: Einfache lineare Korrelation Name der Eingabedatei: Sachs.522 Modell: Y=X1=ß(0)+ß(1)*X2 Zielgröße Y = Variable 1 Einflussgröße X = Variable 2 Eingelesene Daten: i Y X Anzahl fehlender Werte: miss=0 Korrelation: Korrelationskoeffizient r = Bestimmtheitmaß B = r² = Testgröße der Korrelation = Überschreitungswahrsch. p = Stichprobenumfang n = 7 Anzahl der Freiheitsgrade n-2 = 5 Konfidenzintervalle für rho: P = 0.95: ( , ) P = 0.99: ( , ) Durchschnitte und Quadratsummen: Summe der Quadrate SQxx = Summe der Quadrate SQyy = Summe der Produkte SPxy = Durchschnitt Xquer = Durchschnitt Yquer = Streuung S²x = Streuung S²y = Kovarianz S²xy = Literatur: L. Sachs (1992) Angewandte Statistik. Springer, Kap. 51 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 091 von 241

92 Vergleich zweier unabhängiger Korrelationskoeffizienten: Dieses Modul dient dem Vergleich zum Beispiel zweier Strata (zum Beispiel Frauen und Männer) bezüglich der Korrelation zweier Größen. Ist die Enge des Zusammenhanges in der einen Gruppe die gleiche wie in der anderen Gruppe? Sachs (1999, Kap. 5) gibt ein gerechnetes Beispiel dazu an. Falls die verglichenen Koeffizienten nicht signifikant verschieden sind, kann u.a. ein Konfidenzintervall für den mittleren Korrelationskoeffizienten angegeben werden. Vergleich zweier unabhängiger Korrelationskoeffizienten Stichwort: Sachs (1999, Kap.5/552) Korrelationskoeffizient r1 = Stichprobenumfang n1 = Korrelationskoeffizient r2 = Stichprobenumfang n2 = Prüfgröße N = Ein!seitige Fragestellung: p = Zweiseitige Fragestellung: p = Falls k e i n signifikanter Unterschied zwischen r1 und r2 besteht: Schätzung des gemeinsamen Korrelationskoeffizienten r = Prüfgröße N = Ein!seitige Fragestellung: p = Zweiseitige Fragestellung: p = %-Konfidenzintervall: ( ; ) 95%-Konfidenzintervall: ( ; ) 99%-Konfidenzintervall: ( ; ) Literatur: L. Sachs (1999) Angewandte Statistik Kap. 5/552, Springer-Verlag. Vergleich zweier abhängiger Korrelationskoeffizienten: Zum Vergleich zweier abhängiger Korrelationskoeffizienten sind prinzipiell zwei Situationen zu unterscheiden: 1) Overlapped": Ein Korrelationskoeffizient berechnet sich für zwei Variablen A und B, der andere für A und C. Beispiel: Vergleich der Korrelation des IQ von Sohn und Mutter (r12) mit der Korrelation Sohn und Vater (r13) in der gleichen Familie (i.e. Stichprobe!). r23 bedeutet den Korrelationskoeffizienten von Mutter und Vater. Zur Verifikation der Berechnungen unten und zur Erläuterung kann das Beispiel aus psych.unl.edu/psycrs/statpage/biv_corr_comp_eg.pdf verwendet werden. 2) Non-overlapped": Der erste Korrelationskoeffizient berechnet sich für die Variablen A und B, der andere für die beiden Variablen C und D. Beispiel: Vergleich der Korrelation des IQ von Vater und Mutter (r12) mit der Korrelation Sohn und Tochter (r34) in der gleichen Familie, also in der gleichen Stichprobe. Eine Verifikation ist mit den Daten aus Raghunathan et al. (1996) möglich. Vergleich zweier unabhängiger Korrelationskoeffizienten Stichwort: Daten aus dem oben genannten Link! Korrelationskoeffizient r(1,2) = << Korrelationskoeffizient r(1,3) = << Korrelationskoeffizient r(2,3) = Stichprobenumfang n = 405 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 092 von 241

93 >> Vergleich der beiden Korrelationskoeffizienten r(1,2) und r(1,3): Steiger's Prüfgröße Z = Zweiseitige Fragestellung: p = >> Steiger's Test verwendet Fisher's Z-Transformation, empfohlen. Vergleich zweier unabhängiger Korrelationskoeffizienten Stichwort: Daten aus Raghunathan (1996) Korrelationskoeffizient r(1,2) = << Korrelationskoeffizient r(3,4) = << Korrelationskoeffizient r(1,3) = Korrelationskoeffizient r(1,4) = Korrelationskoeffizient r(2,3) = Korrelationskoeffizient r(2,4) = Stichprobenumfang n = 603 >> Vergleich der beiden Korrelationskoeffizienten r(1,2) und r(3,4): Raghunathan's Prüfgröße Z = Zweiseitige Fragestellung: p = >> Raghunathan's Test verwendet Fisher's Z-Transformation r(1,2) und r(3,4) J.H. Steiger (1980) Tests for comparing elements of a correlation matrix. Pychological Bulletin 87, T.E. Raghunathan, R. Rosenthal, D.B. Rubin (1996) Comparing correlated but nonoverlapping correlations. Psychological Methods, Vol 1(2), B. Weaver, K.L. Wuensch (2013) SPSS and SAS programs for comparing Pearson correlation coefficients. Behaviour Research Methods Vol. 45, 3, Trivariate Multiple Korrelation: Es wird untersucht, ob die Intelligenz eines Schülers auf Grund der Gedächtnisleistung und der Deutschnote "vorhergesagt" werden kann (Bortz 1989, p.559). Vorsicht: Da alle Parameter eher nicht als quantitativ, sondern als ordinal einzustufen sind, sollte hier die Rang-Korrelation (weiter unten) verwenden werden! Multiple Korrelation Name der Eingabedatei: Bortz559.DAT Zielgröße Y = Variable 3 = Intellig Einflussgrößen X = Variable 1 = Gedächtn Variable 2 = NoteDeut Multiple Korrelation zwischen y=intellig und den beiden Variablen x=gedächtn, e=notedeut Eingelesene Daten: i Y X X i Y X X BiAS. für Windows Programmversion 11 epsilon-verlag Seite 093 von 241

94 Korrelationskoeffizient R-y.xe = Bestimmtheitmaß B = R² = Testgröße F der Korrelation = Überschreitungswahrsch. p = Stichprobenumfang n = 10 Freiheitsgrade (k,n-k-1) = ( 2, 7) Vergleich mit den Bivariaten Korrelationen: r-yx: Testgr. F mit df=(1, 7) = Überschreitungswahrsch. p = r-ye: Testgr. F mit df=(1, 7) = Überschreitungswahrsch. p = Paarweise Korrelationen: r-yx = ( p = ) r-ye = ( p = ) r-xe = ( p = ) Literatur: L. Sachs (1997) Angewandte Statistik. Springer, Kap. 58. Trivariate Multiple Rang-Korrelation: Diese erfolgt analog zur multiplen parametrischen Korrelation, arbeitet jedoch mit Rangdaten. Eine Verifikation ist nach Rangtransformation mit der genannten Pearson-Korrelation möglich. Vorsicht: Bortz und Lienert (2008) verwenden in ihrem Beispiel keine Tie-Korrektur, wodurch sich von BiAS. abweichende Resultate ergeben! Literatur: Kendall M.G., J.D. Gibbons (1990) Rank correlation methods. Arnold Publ. Ltd. London Bortz J., G.A. Lienert (2008) Kurzgefasste Statistik für die klinische Forschung. 3. Auflage Springer Trivariate Partielle Korrelation: Es wird untersucht, ob die Note in Deutsch und die Intelligenz eines Schülers korreliert sind, wenn man den Einfluss des Gedächtnisse ausschaltet. Es ergibt sich (mit den Daten von Bortz (1989, p.559) ein bemerkenswertes Ergebnis! Wegen des ordinalen Charakters aller Parameter sollte jedoch die Partielle Rang-Korrelation verwendet werden. Die rechnerische Überprüfung des Moduls wurde mit Daten aus L.Sachs (1997, Kap. 58) vorgenommen. Partielle Korrelation Name der Eingabedatei: Bortz559.DAT Variablen X1 = Variable2 = NoteDeut X2 = Variable1 = Intellig Störgröße E = Variable3 = Gedächtn Partielle Korrelation zwischen NoteDeut und Intellig, "bereinigt" von Einfluss der Stör-Variablen Gedächtn Eingelesene Daten: i X1 E X BiAS. für Windows Programmversion 11 epsilon-verlag Seite 094 von 241

95 Korrelationskoeffizient r-xy.e = Bestimmtheitmaß B = r² = Testgröße t der Korrelation = Überschreitungswahrsch. p = Stichprobenumfang n = 10 Anzahl der Freiheitsgrade n-3 = 7 Paarweise Korrelationen: r-yx = ( p = ) r-ye = ( p = ) r-xe = ( p = ) Literatur: L. Sachs (1997) Angewandte Statistik. Springer, Kap. 58. Trivariate Partielle Rang-Korrelation: Diese erfolgt analog zur partiellen parametrischen Korrelation, arbeitet jedoch mit Rangdaten. Eine Verifikation ist nach Rangtransformation, Editor- Modul! mit der genannten Pearson-Korrelation möglich. Vorsicht: Bortz und Lienert (2008) verwenden in ihrem Beispiel keine Tie-Korrektur, wodurch sich von BiAS. abweichende Resultate ergeben! Literatur: Kendall M.G., J.D. Gibbons (1990) Rank correlation methods. Arnold Publ. Ltd. London Bortz J., G.A. Lienert (2008) Kurzgefasste Statistik für die klinische Forschung. 3. Auflage Springer Rang-Regression: Lienert (1973, p.685) diskutiert in einem Rechenbeispiel die Abhängigkeit der Reaktionszeit (Y) vom gemessenen Blutalkoholgehalt (X): Y ist bei Lienert ein ordinales Merkmal! Rang-Regression Name der Eingabedatei: Lienert.685 Modell: Y=X2=ß(0)+ß(1)*X1 Zielgröße Y = Variable 2 = Reaktion Einflussgröße X = Variable 1 = Promille Eingelesene Daten: i Y X Regressionskoeffizient (Absolut) b = (Prozent) b = Achsenabschnitt (Absolut) c = (Prozent) c = Testgröße (normalverteilt) N = Überschreitungswahrsch. (2seitig) p = Stichprobenumfang n = 11 Literatur: G.A. Lienert (1973) Verteilungsfreie Methoden in der Biostatistik. Verlag Anton Hain, Meisenheim am Glan. pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 095 von 241

96 Rangkorrelation: Spearman s rho und Kendall s tau Untersucht wird die Korrelation der beiden ordinalskalierten Größen "Leistungen im Praktikum und Seminar" bei n=10 Studenten (Sachs 1992, p.513). Die Verifikation von rho und tau wurde mit Hilfe von Standardprogrammen durchgeführt. Eine Berechnung exakter p-werte nach Valz und Thompson (1994) ist optional möglich, vgl. Ausgabe. Rangkorrelation: Spearman s rho und Kendall s tau Name der Eingabedatei: Sachs.513 Korreliere: Y = Variable 1 = Praktik. mit: X = Variable 2 = Seminar Eingelesene Daten: i Y X Spearman's Korrelationskoeffizient rho = Zweiseitiger Test (tabellenorientiert, n<=30): p < Zweiseitiger Test mit Edgeworth-Approximation: p = Zweiseitiger exakter Test (Valz-Algorithmus): p = Approximative Tests für rho (n>30, zweiseitig, wegen n=10 hier nicht adäquat!): Student's t = mit df = 8 für n > 30: p = Gauss' Z = für n > 30: p = Approximative Konfidenzintervalle für rho (Student-Test-basiert, n>30): P=0.90: [ , ] P=0.95: [ , ] P=0.98: [ , ] P=0.99: [ , ] Kendall's Korrelationskoeffizient tau = ("tau-b": tie-korrigiert) Es sind 0 Bindungen ("Ties") vorhanden, gemäß "tau-b" 0.0% der Werte Zweiseitiger exakter Test (Best, n<=20, mit Tie-Korrektur): p = Zweiseitiger exakter Test (Valz-Algorithmus): p = Zweiseitiger approximativer Test (für n>20, Gauß-Approx.): p = Approximative Konfidenzintervalle für tau (Gauß-Test-basiert, n>10): P=0.90: [ , ] P=0.95: [ , ] P=0.98: [ , ] P=0.99: [ , ] L. Sachs (2003) Angewandte Statistik. 11. Aufl. Springer-Verlag, Kap. 53 C. Spearman (1904) The proof and measurement of association between two things. Amer. J. Psychol. 15, pp DJ. Best, DE. Roberts (1975) The Upper Tail Probabilities of Spearman's Rho. J. Roy. Stat. Soc. Ser. C, Applied Statistics Vol. 24, No. 3, pp DJ. Best, PG. Gipps (1974) The Upper Tail Probabilities of Kendall's Tau. J. Roy. Stat. Soc. Ser. C, Applied Statistics Vol. 23, No. 1, pp PD. Valz, ME. Thompson (1994) Exact inference for Kendall's S and Spearman's rho with Extensions to Fisher's Exact Test in r c Contingency Tables. Journal of Computational and Graphical Statistics 3, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 096 von 241

97 Korrelationsmatix (Pearson): Die Datei Bortz638.DAT enthält 6 geometrische Größen von Zylindern, die paarweise miteinander korreliert werden (Bortz 1977, p.638). Korrelationsmatrizen werden für bis zu maximal 20 Variablen berechnet. Pearson-Korrelationsmatrix Eingabedatei ist \Bortz638:DAT davon Variablen 1 (Durchmes), 2 (Länge), 3 (Grundfl.), 4 (Mantelf.), 5 (Volumen), 6 (Diagonal) 1. Zeile : Korrelationskoeffizient r 2. Zeile : Überschreitungswahrscheinlichkeit p Durchme Länge Grundfl Mantelf Volumen Diagona Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Literatur: L. Sachs (1997) Angewandte Statistik, 8. Aufl. Springer. Korrelationsmatix (Spearman): Die Datei Bortz638.DAT enthält 6 geometrische Größen von Zylindern, die paarweise miteinander korreliert werden (Bortz (1977, p.638). Korrelationsmatrizen werden für bis zu maximal 20 Variablen berechnet. Spearman-Korrelationsmatrix Eingabedatei ist Bortz638.DAT davon Variablen 1 (Durchmes), 2 (Länge), 3 (Grundfl.), 4 (Mantelf.), 5 (Volumen), 6 (Diagonal) 1. Zeile : Korrelationskoeffizient r 2. Zeile : Überschreitungswahrscheinlichkeit p (für n<=30 exakt, p>0.2 immer approximativ) Durchme Länge Grundfl Mantelf Volumen Diagona Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Literatur: L. Sachs (1997) Angewandte Statistik, 8. Aufl. Springer. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 097 von 241

98 Graphik zur Regression: Datei Armitage.148, Gewichtszunahme in Abhängigkeit vom Geburtsgewicht. Zusätzlich zur Geraden Y auf X ist die Gerade X auf Y (gestrichelt) eingetragen. Die Konfidenzhyperbeln beziehen sich auf die Gerade Y auf X. Die Regressionsgerade X auf Y (gestrichelt) und die Konfidenzbänder der Regressionsgeraden Y auf X werden optional (Regressionsdialog) dargestellt: Graphik zur polynomialen Regression: Dargestellt wird das angepasste Polynom 3. Grades Y=a+bx+cx^2+dx^3 für die Variablen Dosis und Leistung aus der Datei Hartung.592, die Berechnungen finden sich an anderer Stelle: Graphik zum Prognoseintervall: Daten aus Datei Armitage.148, Gewichtszunahme in Abhängigkeit vom Geburtsgewicht. Die Grenzen wurden mit P=0.95 ermittelt, nicht zu verwechseln mit dem Konfidenz - Intervall für die Regressionsgerade! Optionen sind möglich: Bitte beachten Sie die in Kapitel 5 ( Graphische Ausgabe ) beschriebenen Möglichkeiten zur Modifikation von Graphiken: Nach Darstellung einer Abbildung kann im Menü des Graphik-Editors unter Bearbeiten ein Eingabedialog aufgerufen werden, der die Modifikation der Beschriftung, der Skalenbeschriftung, der Art und Größe der Beschriftung und des Netzgitters gestattet. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 098 von 241

99 Logistische Regression: Hosmer, D.W. und Lemeshow, S. (2000, pp ) verwenden Daten aus einer Studie zu Risikofaktoren für geringes Geburtsgewicht von Kindern. Die Daten wurden 1986 am Baystate Medical Center, Springfield, Massachusetts gesammelt. Der Parameter LOW bedeutet normales (0) bzw. niedriges (1) Geburtsgewicht (es sind nur Werte 0 und 1 zulässig!), die übrigen Parameter sind die möglichen Einflussgrößen. Es wird hier kein Abbau der gegebenen Einflussgrößen durchgeführt, im Programm ist dies optional möglich: Logistische Regression Eingabedatei ist Birth3.dat Zielgröße ist Variable 2 (LOW) mit Einflussvariablen 3 (AGE), 4 (LWT), 6 (RACE_2), 7 (RACE_3), 8 (SMOKE), 9 (PTL), 10 (HT), 11 (UI), 12 (FTV) Variablen nicht in der Gleichung - Individuelle Tests der Einflussgrößen: Variable beta SD(beta) Wald's p Odds-Ratio 95%-Konfidenzintervall AGE LWT RACE_ RACE_ SMOKE PTL HT UI FTV >> Berechnung des Gesamtmodells mit allen 9 vorgegebenen Einflussgrößen: Hosmer-Lemeshow's Test auf Güte der Anpassung des Gesamtmodells: Modellabweichung=Devianz=-2LL= ; Chi²= mit df=179: p= Ho(-2LL=0) akzeptiert: Die Modellanpassung mit 9 Variablen ist erfolgreich Overall-LR-Test des Gesamtmodells: Chi²= mit df=9: p= Pseudo-Bestimmtheitsmaße R² des angepassten Modells: McFadden's R²= Cox-Snell's R²= Nagelkerke's R²= Klassifikation gemäß Eingabe ("Beobachtet") und Gesamtmodell ("Vorhergesagt") Vorhergesagt=0 Vorhergesagt=1 Gesamtzahl Anteil richtig Beobachtet= % Beobachtet= % Gesamtzahl: % Variablen in der Gleichung - Partielle Koeffizienten der Einflussgrößen: Variable beta SD(beta) Wald's p Odds-Ratio 95%-Konfidenzintervall Const AGE LWT RACE_ RACE_ SMOKE PTL HT UI FTV Literatur: D.W. Hosmer, S. Lemeshow (2000) Applied Logistic Regression, Wiley BiAS. für Windows Programmversion 11 epsilon-verlag Seite 099 von 241

100 Intracluster-Korrelation (quantitative Daten): Intracluster-Korrelationen spielen bei Cluster-randomisierten Studien eine Rolle, um die Streuung innerhalb der Cluster mit der Streuung zwischen den Clustern zu vergleichen. Das nachfolgende Beispiel mit 5 Clustern wurde mit fiktiven Daten gerechnet und, soweit möglich, via Anova verifiziert. Die weiteren Angaben wurden mit Bleistift und Papier nachgerechnet. Eine Fallzahlberechnung für Cluster-randomisierte Studien findet sich unter "Fallzahlberechnungen". Einweg-Varianzanalyse: Intracluster-Korrelation Eingabedatei ist..\meter3.dat davon Variable 2 (PulsVor) und Gruppen-Var. 1 (Dosis) = Tabelle der Varianzanalyse: Streuung fg SQ DQ F p zwischen innerhalb total Bartlett-Test (hom*ogenität der Varianzen): Prüfgröße Chi² = mit fg = 4 ( p = ) Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Stichprobe 6: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Stichprobe 8: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Stichprobe 10: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Stichprobe 12: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Stichprobe 14: Kolmogoroff-Smirnoff's delta = ( p = ) Ok! Mittlere Fallzahl pro Cluster ("Adjusted mean cluster size") n = 5.25 Design-Effekt Deff=1+ICC*(n-1) = Intracluster-Korrel. ICC=1-n*SQin/(n-1)*SQto = (p= s.) Approximatives 90%-Konfidenzintervall für ICC: [ ; ] Approximatives 95%-Konfidenzintervall für ICC: [ ; ] Approximatives 99%-Konfidenzintervall für ICC: [ ; ] Literatur: SM. Kerry, JM. Bland (1998) The intracluster correlation coefficient in cluster randomisation. British Medical Journal 316, pp MK. Campbell et al. (2000) Analysis of cluster randomized trials in primary care: a practical approach. Family Care 17,2, pp SA. Knox, P. Chondros (2004) Observed intra-cluster-correlation in a cluster survey sample of patient encounters in general practice in Austria. BMC Medical Research Methodology 2004, 4, 30ff BiAS. für Windows Programmversion 11 epsilon-verlag Seite 100 von 241

101 Intracluster-Korrelation (dichotome Daten): Intracluster-Korrelationen spielen bei Clusterrandomisierten Studien eine Rolle, um die Streuung innerhalb der Cluster mit der Streuung zwischen den Clustern zu vergleichen. Das nachfolgende Beispiel mit 4 Clustern wurde mit fiktiven Daten gerechnet und mit per-hand-berechnungen verifiziert. Eine Fallzahlberechnung für Cluster-randomisierte Studien findet sich unter "Fallzahlberechnungen". Intracluster-Korrelation (dichotom) Eingabedatei ist..\valide\diskretericc.dat davon Variable 2 (Wert) und Gruppenvar. 1 (Cluster) = 1,2,3,4 ClusterNr X=0 X=1 Summe % % % % % % % % Summe % % 33 Brandt-Snedecor's Testgröße Chi²=4.234 mit df=3 und p= (zweiseitig) "Adjusted mean cluster size" n = 8.2 Design-Effekt Deff=1+ICC*(n-1) = Intracluster-Korrelation ICC = Literatur: A Donner, N Klar (2000) Design and Analysis of Cluster Randomization Trials in Health Research. Oxford University Press American ed. New York, pp MK Campbell, PM Fayers, JM Grimshaw (2005) Determinants of the intracluster correlation coefficient in cluster randomized trials. Clinical Trials 2:99,107 H Chakraborty, J Moore, WA Carlo, TD Hartwell, LL Wright (2009) A simulation based technique to estimate intracluster correlation for a binary variable. Contemporary Clinical Trials 30, Intraclass-Korrelation: Diese findet sich im Anhang 15: Reliabilitätsanalyse. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 101 von 241

102 Zirkuläre Regression und Korrelation: In BiAS. werden drei Situationen für kreisverteilte Daten angeboten; alle beruhen auf dem Modell Y=M+A*COS(Phi-V) mit M=Mesor ("mean level"), A=Amplitude und V=Acrophase ("Verschiebung"). Zum Testen werden artifizielle Daten aus Batschelet (1981, Kapitel 8 und 9) verwendet. Die Größe Phi ist zum Beispiel ein jahreszeitlicher oder monatlicher Rhythmus. Zur Regression wird die Abhängigkeit einer linearen und einer zirkulären Größe betrachtet, zum Beispiel die Vitamin-D-Abhängigkeit (Y) von der Jahreszeit (Phi als Tag des Jahres). Nach Transformation Y=yi und X=xi=cos(phi-V) (stehen ebenfalls in der Datei "..\Valide\Batsche.Dat") kann mit den linearisierten xi ein Test mit der konventionellen linearen Regressionsrechnung erfolgen. Eine Graphik (unten) zur Zirkulären Regression ist vorgesehen. Zirkuläre Regression Eingabedatei ist.. \Batsche2.DAT X1 = Y = Variable 2 = YY X2 = X = Variable 1 = Zeit Eingelesene Daten: i Y X REGRESSION: Y=X1=linear, X=X2=zirkulär; Periode ist der Vollkreis mit 360 Modellanpassung von X1=M+A*COS(X2-V) und Test mit linearer Regression für Y=yi=X1 und X=xi=cos(X2-V): Mesor ("mean level"): M = Amplitude: A = Acrophase ("Verschiebung"): V = Periode: P = Angepasstes Modell mit p = : Y = X1 = * COS(X ) Literatur: E. Batschelet (1981) Circular Statistics in Biology, Acad. Press. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 102 von 241

103 Zur Korrelation gibt es 2 verschiedene Methoden: Als nächstes wird der Zusammenhang einer linearen und einer zirkulären Größe untersucht. Die Daten sind die gleichen wie oben, der Test und die Berechnung des Korrelationskoeffizienten erfolgt ebenfalls wie oben: Zirkuläre Regression und Korrelation Eingabedatei ist.. \Batsche2.DAT X1 = Y = Variable 2 = YY X2 = X = Variable 1 = Zeit KORRELATION: X1=linear, X2=zirkulär; Periode ist der Vollkreis mit 360 Modellanpassung von X1=M+A*COS(X2-V) mit Verschiebung ("Acrophase") V = und linearer Korrelation für yi=x1 und xi=cos(x2-v): Korrelationskoeeffizient r = (p= ) Als letzte Variante findet sich in BiAS. die Korrelation von zwei zirkulären Größen. Der Test erfolgt mit Hilfe einer Tabelle von Stephens (1979): Zirkuläre Regression und Korrelation Eingabedatei ist \VALIDE\ Batsche1.DAT X1 = Y = Variable 1 = Y X2 = X = Variable 2 = X i Y X KORRELATION: Beide Variablen sind zirkulär; Periode ist der Vollkreis mit 360 Korrelation positiv: r(p) = Korrelation negativ: r(n) = Gesamt: Max(r(p),r(n)) = Mardia's Prüfgröße M = Ist M>S (S aus nachfolgender Tabelle), so liegt eine signifikante Korrelation vor (Tabelle nach Stephens (1979), aus Batschelet (1981)): Signifikanzniveau alpha n >> Literatur: E. Batschelet (1981) Circular Statistics in Biology, Acad. Press. Bemerkung: die Prüfgröße M ist größer als alle Schwellenwerte in Stephens' Tabelle, mithin ist der Test signifikant bei alpha=0.01. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 103 von 241

104 Punktbiseriale Korrelation dichotom vs. quantitativ: In Bortz (2004) wird eine Korrelation zwischen Familienstatus und der Anzahl der sozialen Kontakte behandelt. Die Verifikation des Programms erfolgt mit diesem Beispiel. Punktbiseriale Korrelation "dichotom-quantitativ" Eingabedatei ist \Valide\Bortz225.DAT X1 = Y = Variable 1 = Verheiratet X2 = X = Variable 2 = Kontakte Eingelesene Daten: i Y X Punktbiserialer Korrelationskoeffizient r.pb = Test der Nullhypothese: Testgröße t= mit df=25 und p= >> r.pb liegt analog zu Pearson's Korrelationskoeffizienten zwischen -1 und 1. >> Das Vorzeichen von r.pb ergibt sich aus der Codierung der dichotomen Werte. Durchschnitte, Standardabweichungen und Streuungen: Xquer Std.Abw. Streuung n X1 = X1 = Gesamt: Literatur: J Bortz (2005/2010) Statistik. 6. Auflage Springer-Verlag (pp. 224ff) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 104 von 241

105 Punktbiseriale Korrelation dichotom vs. ordinal: In Bortz (2004) wird eine Korrelation zwischen Geschlecht und der Reihung von Schülerinnen und Schülern nach der Einschätzung eines Lehrers angegeben. Die Verifikation des Programms erfolgt mit diesem Beispiel, die Berechnung der p-werte mit Hife des Wilcoxon-Mann-Whitney-Tests. Analog wurde der punktbiseriale Korrelationskoeffizient r.pb anhand der Wilcoxonschen Rangsummen einschließlich der Bindungskorrekturen verifiziert. Punktbiseriale Korrelation "dichotom-ordinal" Eingabedatei ist \Valide\Bortz231.DAT X1 = Y = Variable 1 = Geschlecht X2 = X = Variable 2 = Platz Punktbiserialer Korrelationskoeffizient r.pb = Test der Nullhypothese: Testgröße U = 11.0 mit p = (exakter Test) Testgröße Z = mit p = (approximativ) >> r.pb liegt analog zu Pearson's Korrelationskoeffizienten zwischen -1 und 1. >> Das Vorzeichen von r.pb ergibt sich aus der Codierung der dichotomen Werte. Median Minimum Maximum n Rangsumme Normiert X1 = X1 = Literatur: J Bortz (2005/2010) Statistik. 6. Auflage Springer-Verlag (pp. 231ff) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 105 von 241

106 A.8 Parametrische Statistik Einstichproben-t-Test Zweistichproben-t-Test Welch-Test bei ungleichen Varianzen F-Test auf Gleichheit zweier Varianzen Bartlett s Test und Levene s Test auf Varianzengleichheit Vergleich von Variationskoeffizienten Einweg-Varianzanalyse mit Scheffé-Tests Einweg-Varianzanalyse mit Linearen Kontrasten Einweg-Varianzanalyse mit Orthogonalen Polynomen Zweifaktorielle Varianzanalyse mit Scheffé-Tests Unifaktorielle Kovarianzanalyse mit Scheffé-Test Bifaktorielle Kovarianzanalyse mit Scheffé-Test Hotelling's Einstichproben-T²-Test mit Simultanen Konfidenzintervallen Hotelling's Zweistichproben-T²-Test mit Simultanen Konfidenzintervallen Varianzanalyse mit Messwiederholungen Cross-Over-Analyse im Grizzle-Modell Einstichproben-t-Test: Graf et al. (1987, p.400): Untersuchung eines Mittels zur Festigkeit textiler Materialien bei n=10 Materialsorten; pro Materialart wird eine Probe behandelt und eine nicht behandelt. (Der Test ist auch als echter Einstichproben-Test gegen ein festes µ durchführbar.) Einstichproben-t-Test Eingabedatei ist Graf400.DAT davon Variable 1 (Behandelt) - Variable 2 (Unbehandelt) i Var 1 Var 2 Diff 1: : : : : : : : : : X-quer = s = n = 10 df = 9 Test auf Gauß-Verteilung der Differenzen (Dallal-Wilkinson-korrigiert) Kolmogoroff-Smirnoff's S = (p > 0.20) OK! Student's Prüfgröße t = (p = ) Konfidenzintervalle: P = 0.90: ( , ) P = 0.95: ( , ) P = 0.99: ( , ) Literatur: L. Sachs (1992) Angewandte Statistik, Springer. Kap.32ff BiAS. für Windows Programmversion 11 epsilon-verlag Seite 106 von 241

107 Zweistichproben-t-Test: Für zwei photoelektrische Densitometer wird untersucht, ob sie vergleichbare Werte für die optische Dichte eines Filmes liefern, wozu mit beiden Instrumenten jeweils 6 Messungen am gleichen Film durchgeführt wurden (Graf et al. (1987, p.397)): Zweistichproben-t-Test Eingabedatei ist Graf397.DAT davon Variable 1 (Dichte) und Gruppe Var. 2 (Densitom) = 1,2 Gruppe 1 Gruppe 2 1: : : : : : : : : : : : X-quer s s² n Stichprobe Stichprobe E-05 6 Differenz der Mittelwerte: Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Stichprobe 1: Kolmogoroff-Smirnoff's S = (p > 0.20) OK! Stichprobe 2: Kolmogoroff-Smirnoff's S = (p > 0.20) OK! hom*ogenität der Varianzen (zweiseitig): Prüfgröße F = mit df =( 5, 5) ( p = ) t-test für gleiche Varianzen: Testgröße t = mit df = 10 ( p = ) t-test für ungleiche Varianzen: Welch's t = mit df = 10 ( p = ) Konfidenzintervalle für die Differenz δ=µ1-µ2: P = 0.90: ( , ) P = 0.95: ( , ) P = 0.99: ( , ) Literatur: L. Sachs (1992) Angewandte Statistik. Springer, Kap.36,153 Welch-Test: Lorenz (1988, p.175): Vergleich von säugenden und nicht-säugenden Mäusen bezüglich der Trächtigkeitsdauer; die Varianzen in den beiden Gruppen werden als unterschiedlich angenommen (F-Test!). In diesem Beispiel ist der Test auf Gauß-Verteilung ebenfalls positiv, so dass eher ein nicht-parametrischer Test verwendet werden sollte (Wilcoxon-Mann-Whitney-Test.) Welch-Test Eingabedatei ist Lorenz175.DAT davon Variable 1 (DauerGra) und Gruppe(n) Var. 2 (Säugend) = 1, 2 Gruppe 1 Gruppe 2 1: : : : : : : : 24.0 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 107 von 241

108 5: : : : : : : : : : : : : : : : : : : 21.0 X-quer s s² n Stichprobe Stichprobe Differenz der Mittelwerte: Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Stichprobe 1: Kolmogoroff-Smirnoff's S = (p = ) Cave!! Stichprobe 2: Kolmogoroff-Smirnoff's S = (p > ) OK! hom*ogenität der Varianzen (zweiseitig): Prüfgröße F = mit df =( 14, 11) ( p = ) t-test für ungleiche Varianzen: Welch's t = mit df = 19 ( p = ) Literatur: L. Sachs (1992) Angewandte Statistik. Springer. (t-test: Kap.36, F-Test: Kap.153, Welch-Test: Kap.36/2) F-Test auf Varianzengleichheit: Vergleich zweier Streuungen, zum Beispiel als Voraussetzung zum t-test oder zum Vergleich der Messgenauigkeit zweier Analysemethoden; vgl. auch nächstes Beispiel (Sachs 1992, p.348): F-Test auf Varianzengleichheit Bezeichnung: Sachs p. 348 Standardabweichung s(1) = Streuung s²(1) = Stichprobenumfang n(1) = Standardabweichung s(2) = Streuung s²(2) = Stichprobenumfang n(2) = Prüfgröße F = mit df =( 19, 19 ) Einseitige Fragestellung: p = Zweiseitige Fragestellung: p = Literatur: L. Sachs (1992) Angewandte Statistik, Springer. Kap.153. Levene s Test auf Varianzengleichheit: Der Levene-Test ist ein robuster Test auf Varianzengleichheit und setzt nicht notwendigerweise Gauß-Verteilungen voraus. Der Test wurde mit Hilfe von SPSS überprüft. Im Programm wurde zur ANOVA der Test von Bartlett bevorzugt, da dieser bei zur ANOVA ohnehin vorausgesetzten Gauß-Verteilungen sensibler ist. Bartlett s Test steht nur implizit im Zusammenhang mit der Einweg-Varianzanalyse zur Verfügung. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 108 von 241

109 Levene s Test auf Varianzengleichheit Eingabedatei ist Test.DAT davon Variable 2 (VarZwei) und Gruppen-Var. 3 (GruppNum) = Xquer s s² n Stichprobe Stichprobe Stichprobe Levene's Prüfgröße F = mit df = (2,9) und p = Literatur: H. Levene (1960) In: Contributions to Probability and Statistics. Essays in Honor of H. Hotelling. Olkin et al. Stanford Univ Press, pp Vergleich von Variationskoeffizienten: Dazu wird ein Beispiel von Sachs (2003) verwendet: Vergleich von Variationskoeffizienten Variationskoeffizient CV(1) = Stichprobenumfang n(1) = Variationskoeffizient CV(2) = Stichprobenumfang n(2) = Gauß' Prüfgröße zum Test: Z = Einseitige Fragestellung: p = Zweiseitige Fragestellung: p = Literatur: L. Sachs (2003) Angewandte Statistik, Springer. Kap. 36. Einweg-Varianzanalyse (ANOVA): Vergleich von vier Lehrmethoden für den Englischunterricht. Den Lernerfolg (Zielgröße!) soll ein Englischtest erfassen (Bortz (1977, p.300)). Bemerkung: Die Zielgröße ist von ihrer Qualität her ordinal, weshalb hier eher an eine Analyse mit dem Kruskal-Wallis- Test gedacht werden sollte. Einweg-Varianzanalyse (ANOVA) Eingabedatei ist Bortz300.DAT davon Variable 1 (ScoreTst) Alle Gruppen Var. 3 (U_Method) Gruppe 1 Gruppe 2 Gruppe 3 Gruppe 4 1: : : : : : : : : : : : : : : : : : : : X-quer s s² n Stichprobe Stichprobe Stichprobe Stichprobe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 109 von 241

110 Tabelle der Varianzanalyse: Streuung fg SQ DQ F p zwischen innerhalb total Bartlett-Test (hom*ogenität der Varianzen): Prüfgröße Chi² = mit fg = 3 ( p = ) Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Stichprobe 1: Kolmogoroff-Smirnoff's S = (p > ) OK! Stichprobe 2: Kolmogoroff-Smirnoff's S = (p = ) OK! Stichprobe 3: Kolmogoroff-Smirnoff's S = (p > ) OK! Stichprobe 4: Kolmogoroff-Smirnoff's S = (p = ) Cave!! Multiple Vergleiche nach Scheffe: Stichproben Differenz F df1 df2 p Literatur: L. Sachs (1992) Angewandte Statistik, Springer-Verlag. (ANOVA Kap.73, Bartlett-Test Kap.723, Scheffe-Test Kap.742) Einweg-Varianzanalyse mit linearen Kontrasten: Es wird die Wirkung eines neuen Präparates zur Behandlung von Depressionen geprüft, wozu drei Gruppen von Patienten (Placebo, einfache Dosis, doppelte Dosis) gebildet werden. Die Depressivität der Patienten (Zielgröße!) wird mit Hilfe eines Fragebogens eingeschätzt (Bortz (1977, p.325). Bemerkung: Mit der an sich ordinalen Zielgröße sollte nach Möglichkeit eine nicht-parametrische Auswertung unternommen werden! Einweg-Varianzanalyse mit linearen Kontrasten Eingabedatei ist Bortz325.DAT davon Variable 1 (Depress.) Alle Gruppen Var. 2 (Behandlg) Gruppe 1 Gruppe 2 Gruppe 3 1: : : : : : : : : : : : : : : : : : : : : : : : : : : : : : X-quer s s² n Stichprobe Stichprobe Stichprobe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 110 von 241

111 Tabelle der Varianzanalyse: Streuung fg SQ DQ F p zwischen innerhalb total Bartlett-Test (hom*ogenität der Varianzen): Prüfgröße Chi² = mit fg = 2 ( p = ) Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Stichprobe 1: Kolmogoroff-Smirnoff's S = (p > ) OK! Stichprobe 2: Kolmogoroff-Smirnoff's S = (p = ) Cave!!! Stichprobe 3: Kolmogoroff-Smirnoff's S = (p > ) OK! Linearer Kontrast nach Scheffe: 1.00*µ1-0.50*µ2-0.50*µ3 Prüfgröße F = mit df = ( 2, 27) ( p = ) Literatur: L. Sachs (1992) Angewandte Statistik, Springer-Verlag. (ANOVA Kap.73, Bartlett-Test Kap.723, Scheffe-Kontraste Kap.732) Einweg-Varianzanalyse mit orthogonalen Polynomen: Durchgerechnete Beispiele aus der Literatur wurden nicht gefunden, deshalb hier wieder Verwendung des Datensatzes Test.DAT. Die ANOVA kann mit der üblichen Einweg-Varianzanalyse überprüft werden, die orthogonalen Polynome incl. Test wurden durch per-hand-berechnungen nachvollzogen: Orthogonale Polynome (ANOVA) Eingabedatei ist Test.DAT davon Variable 2 (VarZwei) und Gruppen-Var. 3 (GruppNum) = Gruppe 1 Gruppe 2 Gruppe 3 1: 2.0 1: : : 3.0 2: : : 5.0 3: : : 5.0 4: : 4.0 Xquer s s² n Stichprobe Stichprobe Stichprobe Tabelle der Varianzanalyse: Streuung fg SQ DQ F p zwischen innerhalb total Bartlett-Test (hom*ogenität der Varianzen): Prüfgröße Chi² = mit fg = 2 ( p = ) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 111 von 241

112 Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Stichprobe 1: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Stichprobe 2: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Stichprobe 3: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Orthogonale Polynome: Argumente der 3 Stufen (Gruppen): Stufe Stichprobe Argument Koeffizientenmatrix der Orthogonalkomponenten: Orthogonalkomponenten p-ter Ordnung: Linear : Z( 1) = Quadratisch : Z( 2) = Summe der Quadrate der ANOVA: i SQ(Zi) F Fg1 Fg2 p Linear: Quadratisch: Literatur: L. Sachs (1997) Angewandte Statistik, 8. Aufl. Springer-Verlag. (ANOVA Kap.73, Bartlett-Test Kap.723) H. Ackermann (1979) A concise formula to compute general orthogonal contrast coefficients. Biom. J. 21, Vol. 7, pp Unifaktorielle Kovarianzanalyse: Es wird geprüft, ob eine gesprächstherapeutische Behandlung auf verschiedene Verhaltensstörungen (Konzentrationsstörung, Potenzstörung, Hysterisches Verhalten: "Stufen Faktor A", hier identisch mit der Indizierung="Index") Einfluss besitzt. Die Zielgröße ist der von einem Expertengremium eingeschätzte Therapieerfolg. Als Kontrollvariable wird die verbale Intelligenz mit erfasst (Bortz (1977, p.458)). Bemerkung: Mit der an sich ordinalen Zielgröße sollte nach Möglichkeit eine nicht-parametrische Auswertung unternommen werden! Unifaktorielle Kovarianzanalyse Eingabedatei ist Bortz458.DAT davon Variable 2 (Score) mit Kovariable 1 (VerbalA) Faktor A: Stufe Variable 3 (Diagnose) Variable 2 Kovariable A: Index Stufe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 112 von 241

113 Tabelle der Kovarianzanalyse: Source fg SQ DQ F p Faktor A Rest Total Voraussetzungen: Bartlett-Test (hom*ogenität der Varianzen): Prüfgröße Chi² = mit df = 2 ( p = ) hom*ogenität der Steigungen innerhalb der Stufen: Prüfgöße F = 2.12 mit df = ( 2, 9) ( p = ) Schätzung der zusammengefassten Regression und Korrelation: Regressionskoeffizient b = Korrelationskoeffizient r = Prüfgöße F = mit df = ( 1, 9) ( p = ) Linearität Abhängigkeit der Zielvariablen von der Kontrollvariablen: Prüfgöße F = 0.72 mit df = ( 1, 11) ( p = ) Durchschnitte: Stufen Unkorrigiert Korrigiert Multiple Vergleiche nach Scheffe (Korrigierte Differenzen): Stufen Faktor A Differenz F df1 df2 p Literatur: J. Bortz (1989) Lehrbuch der Statistik Kap.7,10. Springer Zweifaktorielle Varianzanalyse: Vergleich dreier Behandlungsmethoden mit der Zielgröße "Depressivität". Da das Geschlecht möglicherweise die Fehlervarianz vergrößert, wird dieses als 2. Faktor erfasst (Quelle: Bortz (1977, p.355)); hier sind die "Stufen" identisch mit den "Indices" der Faktoren! Bemerkung: Mit der offenbar ordinalen Zielgröße sollte besser eine nicht-parametrische Auswertung vorgenommen werden! Zweifaktorielle Varianzanalyse Eingabedatei ist Bortz355.DAT, davon Variable 1 (Depress.). Faktor A: Stufe Variable 3 (Dosis) Faktor B: Stufe Variable 2 (Geschl.) Variable 1 A: Index Stufe B: Index Stufe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 113 von 241

114 Stichprobenumfänge n(i,j): Faktor B Faktor A: a = 1 a = 2 a = b = b = Durchschnitte: Faktor B Faktor A: a = 1 a = 2 a = b = b = Tabelle der Varianzanalyse für Faktoren mit festen Effekten (Modell I): Source fg SQ DQ F p Faktor A Faktor B A x B Rest Total Varianzanalyse für Faktoren mit zufälligen Effekten (Modelle II und III): Faktor A Faktor B A x B F p F p F p A:fest B:fest A:fest B:rand A:rand B:fest A:rand B:rand BiAS. für Windows Programmversion 11 epsilon-verlag Seite 114 von 241

115 Prüfung der Voraussetzungen: Bartlett-Test (hom*ogenität der Varianzen): Chi²=4.834 mit df=5 und p= Unterschiede der Stichprobenumfänge 0.0%. Gauß-Verteilung nicht vergessen! Modell I : Multiple Vergleiche nach Scheffé (Korrigierte Differenzen): Stufen Faktor A Differenz F df1 df2 p Stufen Faktor B Differenz F df1 df2 p Literatur: J. Bortz (1989) Lehrbuch der Statistik. Springer-Verlag. Kap.7,8 Bifaktorielle Kovarianzanalyse: Untersucht werden drei Programme über einen Lehrgegenstand (Faktor A, dessen Stufen sind hier identisch mit dessen Werten), Motivationsunterschiede sollen durch zwei verschiedene Instruktionen (Faktor B, vgl. A) erreicht werden. Zielgröße ist der Lernerfolg, als Kovariable wird das Merkmal Intelligenz erfasst (Quelle: Bortz (1977, p.479)). Bemerkung: Mit der ordinalen Zielgröße sollte nach Möglichkeit eher eine nicht-parametrische Auswertung unternommen werden! Bifaktorielle Kovarianzanalyse Eingabedatei ist Bortz479.DAT davon Variable 2 (Var_Y) mit Kovariable 1 (Var_X) Faktor A: Stufe Variable 3 (Fak_A) Faktor B: Stufe Variable 4 (Fak_B) Variable 2 Kovariable A: Index Stufe B: Index Stufe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 115 von 241

116 Stichprobenumfänge n(i,j): Faktor B Faktor A: a = 1 a = 2 a = b = b = Durchschnitte: Faktor B Faktor A: a = 1 a = 2 a = b = b = Tabelle der Kovarianzanalyse für Faktoren mit festen Effekten (Modell I): Source fg SQ DQ F p Faktor A Faktor B A x B Rest Total Kovarianzanalyse für Faktoren mit zufälligen Effekten (Modelle II und III): Faktor A Faktor B A x B F p F p F p A:fest B:fest A:fest B:rand A:rand B:fest A:rand B:rand Voraussetzungen: Bartlett-Test (hom*ogenität der Varianzen): Prüfgröße Chi² = mit df = 5 ( p = ) Unterschiede der Stichprobenumfänge: 0.0%. hom*ogenität der Steigungen innerhalb der Stufen: Prüfgröße F = 1.15 mit df = ( 5, 24) ( p = ) Schätzung der zusammengefassten Regression und Korrelation: Regressionskoeffizient b = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 116 von 241

117 Korrelationskoeffizient r = Prüfgröße F = mit df = ( 1, 24) ( p = ) Prüfung auf Gauß-Verteilung nicht vergessen! Modell I : Multiple Vergleiche nach Scheffe (Korrigierte Differenzen): Stufen Faktor A Differenz F df1 df2 p Stufen Faktor B Differenz F df1 df2 p Literatur: J. Bortz (1989) Lehrbuch der Statistik. Springer-Verlag. Kap. 7 und 8 Hotelling's Einstichproben-T²-Test und Simultane Konfidenzintervalle: Beurteilung von15 Studenten bezüglich 4 Variablen (Quelle: Kramer (1972, p. 52 )) Kramer prüft die Hypothese Ho(µ1=553, µ2=635, µ3=532, µ4=613); da BiAS. ausschließlich Ho(µ1=µ2=µ3=µ4=0) prüft, wurden Kramers hypothetische Werte vor der Berechnung von den jeweiligen Zielgrößen subtrahiert (BiAS.' Formelinterpreter). Bemerkung: Die Zielgrößen sind eher qualitativer Natur, so dass an eine Auswertung mit Friedman's Test gedacht werden sollte! Hotelling's Einstichproben-T²-Test & Simultane Konfidenzintervalle Eingabedatei ist Kramer54A.DAT davon Variablen 5 (Verbal_0), 6 (MathSAT0), 7 (English0), 8 (MathAch0) i Verbal_0 MathSAT0 English0 MathAch Anzahl Merkmalsträger n = 15 Anzahl Bedingungen k = 4 Prüfgrößen: Hotelling's T² = Prüfgröße F = mit df = ( 4, 11 ) ( p = ) Simultane Konfidenzintervalle: P = 0.95 i Variable X-Quer Untere Grenze Obere Grenze Verbal_ MathSAT English MathAch Prüfung auf Gauß-Verteilung mit Mudholkar-Test! BiAS. für Windows Programmversion 11 epsilon-verlag Seite 117 von 241

118 Literatur: M.M. Tatsuoka (1971) Multivariate Analysis. Wiley. p. 76 ff. C.Y. Cramer (1972) A first course in methods of multivariate analysis. Virginia Polytech. Inst. and State Univ.. p. 56 ff. Hotelling's Zweistichproben-T²-Test & Simultane Konfidenzintervalle: In dem Lehrbuch von Kramer (1972, p.73) findet sich als Beispiel ein Vergleich zweier Fertigungstemperaturen bezüglich zweier Festigkeitsparameter von Stahl: Hotelling's Zweistichproben-T²-Test & Simultane Konfidenzintervalle Eingabedatei ist Kramer73.DAT davon Variablen 1 (YieldPoi), 2 (UltStren) und Gruppen Var. 3 (Temperat) = 1 und 2 Gruppe 1 i Var. 1 Var Gruppe 2 i Var. 1 Var Durchschnitte, Standardabweichungen und Streuungen: Gruppe Variable Xquer Std.Abw. Streuung Fallzahl YieldPoi UltStren YieldPoi UltStren hom*ogenität der Kovarianzmatrizen: Box' Prüfgröße χ² = mit df = 3 ( p = ) Prüfgrößen: Hotelling's T² = Prüfgröße F = mit df = ( 2, 9 ) ( p = ) Simultane Konfidenzintervalle: P = 0.95 Variable X-Quer1 X-Quer2 Diff X-Quer Untere Grenze Obere Grenze YieldPoi UltStren Prüfung auf Gauß-Verteilung mit Mudholkar-Test! M.M. Tatsuoka (1971) Multivariate Analysis. Wiley. p. 81 ff. C.Y. Cramer (1972) A first course in methods of multivariate analysis. Virginia Polytech. Inst. and State Univ.. p. 80 ff. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 118 von 241

119 Varianzanalyse mit Messwiederholungen: Es wird geprüft, ob der Haut-Widerstand Tagesschwankungen unterliegt, wozu eine Gruppe von Probanden morgens, mittags und abends untersucht wurde (Bortz (2005, p.412)). Eine graphische Darstellung ist mit Einzelverläufen und Box-Plots möglich, weitere Berechnungen finden sich in Deskriptives. Varianzanalyse mit Messwiederholungen Eingabedatei ist..\valide\bortz412.dat davon Variablen 1 (morgens), 2 (mittags), 3 (abends) Eingelesene Daten: i morgens mittags abends Tabelle der Varianzanalyse: Source SQ MQ df F p zwischen innerhalb Faktor Rest Gesamt Zum Vergleich der Faktorstufen wird der p-wert bzgl. "Faktor" verwendet. Prüfung der Voraussetzungen - hom*ogenität der Varianzen und der Korrelationen zwischen den Stufen des Faktors per Box-Test: Box' Chi² = mit df = 4 und p = Ok! Test auf Gauß-Verteilung der 3 Variablen (Dallal-Wilkinson-korrigiert): morgens: Kolmogoroff-Smirnoff's delta = ( p = ) Cave! mittags: Kolmogoroff-Smirnoff's delta = ( p = ) Cave! abends: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Multiple Vergleiche - Bonferroni-Holm-korrigierte t-tests und Scheffé-Tests: Nr Mult. Paarvergleich p-unkorr p-bonferroni p-bonf.holm p-scheffé 1 morgens...mittags morgens...abends mittags...abends Literatur: J. Bortz (2005) Lehrbuch der Statistik, Springer. pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 119 von 241

120 Cross-Over-Analyse (Grizzle-Modell): Die Cross-Over-Analyse vergleicht zwei Behandlungen A und B in zwei Gruppen mit den Behandlungssequenzen AB und BA (Grizzle (1969)). Bitte beachten: Nach Eingabe der Gruppenvariablen sind die beiden Namen der Variablen einzugeben, die den beiden Perioden zugeordnet sind: Die Eingabeaufforderung lautet: Welche Variablen werden getestet: Periode1: und nach Eingabe Periode 2:. Es handelt sich hierbei um Perioden, nicht um Behandlungen: Zum Beispiel erhielt Gruppe 1 in der ersten Periode die Behandlung A, die Gruppe 2 dagegen B, während in der 2. Periode umgekehrt Gruppe 1 B und Gruppe 2 A erhielt! Cross-Over (Grizzle-Modell) Eingabedatei ist Grizzle1.DAT davon Variablen 1 (Periode1), 2 (Periode2) und Gruppen Var. 3 (GruppNum) = 1 und 2 Gruppe 1 i Var. 1 Var Gruppe 2 i Var. 1 Var hom*ogenität der Varianzen (zweiseitig): Prüfgröße F = mit df1 = 7 und df2 = 5 ( p = ) Nacheffekte: Prüfgröße F = mit df1 = 1 und df2 = 12 ( p = ) Prüfung auf Gauß-Verteilung (Wilk-Shapiro-Test) nicht vergessen! Behandlungseffekte: Im Cross-Over: Prüfgröße F = mit df1 = 1 und df2 = 12 ( p = ) Erste Periode: Prüfgröße F = mit df1 = 1 und df2 = 12 ( p = ) Literatur: J.E. Grizzle (1965) Two-period cross-over design and its use in clinical trials. Biometrics 21, pp J.E. Grizzle (1974) Correction Note. Biometrics 21, p G.G. Koch (1972) The use of nonparam. methods in the stat. Analysis of the twoperiod change-over design. Biometrics 28, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 120 von 241

121 A.9 Nicht-parametrische Statistik Wilcoxon's matched-pairs-test Tukey-Konfidenzintervall Wilcoxon-Mann-Whitney-Test ("U-Test") Asymptotisches Konfidenzintervall zum Mann-Whitney-Schätzer Moses-Konfidenzintervall zum Hodges-Lehmann-Schätzer Van-Elteren s stratifizierter U-Test Kolmogoroff-Smirnoff-Test Mood s Median-Test Kruskal-Wallis-Test, auch mit exakten p-werten Multiple Vergleiche nach Dunn, Nemenyi und Conover-Iman Jonckheere-Terpstra-Test auf Trend Mantel-Haenszel-Test Mantel-Haenszel-Zimmermann-Test Friedman-Test mit Wilcoxon-Wilcox- und Conover-Vergleichen Page-Test auf Trend Wilcoxon-Wilcox-Vergleiche Schaich-Hamerle-Vergleiche Dixon und Mood's Vorzeichentest Cochran's Q-Test Test auf Gleichverteilung Anpassungstest (χ²-test, Woolf s G-Test) Koch's nicht-parametrische Cross-Over-Analyse Bifaktorielle Rang-Varianzanalyse (Kubinger) Wilcoxon's matched-pairs-test: In einer Studie ist der Erfolg einer Tranquilizer-Behandlung zu beurteilen. Als Zielgröße wird der Hamilton-Faktor IV verwendet (vgl. Hollander und Wolfe (1973, p.29)): Wilcoxon-Test ('matched pairs') Eingabedatei ist Holl29.DAT davon Variable 1 (HFvor) - Variable 2 (HFnach) i Var 1 Var 2 Diff 1: : : : : : : : : Stichprobenumfang: n = 9 Ungleiche Paare: n' = 9 Prüfgröße R^ = 5.00 ( p = exakter Wert ) Prüfgröße Z = ( p = approximativ ) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 121 von 241

122 Hodges-Lehmann-Schätzer = Tukey-Konfidenzintervalle: P = : ( , ) P = : ( , ) P = : ( , ) Literatur: L. Sachs (1992) Angewandte Statistik, Springer. Kap.422. H. Bünung, G. Trenkler (1978) Nicht-param. Methoden, Springer. p.192 Tukey-Konfidenzintervall: Konfidenzintervall für den Median von Messungen des Quotienten der Masse der Erde und der Masse des Mondes (aus: Hollander und Wolfe (1973, p.51). Da der matched-pairs-test als Paardifferenzen-Test konzipiert ist, wird im Beispiel als zweite Variable Null eingegeben: Der WMP-Test macht in dieser Form natürlich keinen Sinn, wesentlich an der Ausgabe sind nur die Konfidenzintervalle! Wilcoxon-Test ('matched pairs') Eingabedatei ist Holl51.DAT davon Variable 1 (QuotE/M)- Variable 2 (Null) i Var 1 Var 2 Diff 1: : : : : : : Stichprobenumfang: n = 7 Ungleiche Paare: n' = 7 Prüfgröße R^ = 0.00 ( p = exakter Test ) Prüfgröße Z = ( p = approximativ ) Hodges-Lehmann-Schätzer = Tukey-Konfidenzintervalle: P = : ( , ) P = : ( , ) Literatur: L. Sachs (1992) Angewandte Statistik, Springer. Kap.422 H. Bünung, G. Trenkler (1978) Nicht-param. Methoden, Springer. p.192 Wilcoxon-Mann-Whitney-Test ("U-Test"): Vor und nach einer Änderung in einem Prozess werden die Zeiten zur Ausführung einer Verrichtung gemessen (vgl. Graf et al. (1987, p.399)). Es ist zu bemerken, dass hier ein Parallelgruppenversuch vorliegt, mithin kann jeder Proband in nur genau einer Gruppe sein. Als Alternative könnte der Vergleich auch im Sinne des matched-pairs-tests durchgeführt werden, so dass jeder Proband mit einem Wertepaar in die Auswertung eingehen würde. Die Prüfgrößen Z und U werden bei Bindungen ( Ties ) auf Grund von mittleren Rängen ( Midranks ) berechnet. Der approximative Test via Z enthält eine Tie-Korrektur, der exakte p-wert wird mit Hilfe des Verfahrens von Zimmermann (1985) berechnet und ist somit nicht Tie-korrigiert. Die p-werte des exakten Tests können bei Bindungen zwischen den Gruppen heuristisch korrigiert werden. Weitere Validierungen wurden mit Hilfe von SPSS durchgeführt. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 122 von 241

123 Wilcoxon-Mann-Whitney-Test Eingabedatei ist Graf399.DAT davon Variable 1 (Zeit) und Gruppen Var. 2 = 1, 2 Gruppe 1 Gruppe 2 1: : : : : : : : : : : : : : : : : : : : Rangsumme Stichprobe 1 = 82.50, Normiert: 8.25 Rangsumme Stichprobe 2 = , Normiert: Test der Nullhypothese: Prüfgröße U = 27.5 mit p = (exakter Test) Prüfgröße Z = mit p = (approximativ) Exakter Test: Unkorrigierter p-wert bei Bindungen, Zimmermann (1985) Hodges-Lehmann-Schätzer = Moses-Konfidenzintervalle für Gruppe1-Gruppe2: P = : ( , ) P = : ( , ) P = : ( , ) Median Minimum Maximum n Gruppe Gruppe Literatur: L. Sachs (2003) Angewandte Statistik, 11. Aufl. Springer, Kap H. Zimmermann (1985) Exact Calculation of Permutational Distributions for Two Independent Samples. Biom. J. Vol. 27, No. 4, pp Moses-Konfidenzintervall zum Hodges-Lehmann-Schätzer: Bei der Untersuchung der Membrangängigkeit von Tritium-haltigen Wasser soll ein Konfidenzintervall für den Unterschied zweier Gestationsgruppen errechnet werden (Hollander und Wolfe (1973, p.69)). Das nicht-parametrische Moses-Konfidenzintervall wird im Kontext des U-Tests errechnet: Wilcoxon-Mann-Whitney-Test Eingabedatei ist Holl69.DAT davon Variable 1 (Pd(E-4cm/s)) und Gruppe(n) Var. 2 = 1, 2 Gruppe 1 1: : : : : : : : : : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 123 von 241

124 Gruppe 2 1: : : : : Rangsumme Stichprobe 1 = 90.00, Normiert: 9.00 Rangsumme Stichprobe 2 = 30.00, Normiert: 6.00 Test der Nullhypothese: Prüfgröße U = 15.0 mit p = (exakter Test) Prüfgröße Z = mit p = (approximativ) Hodges-Lehmann-Schätzer = Moses-Konfidenzintervalle zum Hodges-Lehmann-Schätzer für Gruppe1-Gruppe2: P = : ( , ) P = : ( , ) P = : ( , ) Die Intervalle gelten für n1>9 und/oder n2>9, sonst näherungsweise. Median Minimum Maximum n Gruppe Gruppe Literatur: L. Sachs (1992) Angewandte Statistik, Springer, Kap.394. Konfidenzintervall zum Mann-Whitney-Schätzer: Wellek (1993) gibt ein Beispiel zum Vergleich zweier Schmerzmittel. Diese Daten wurden zur Überprüfung des MW-Schätzers und der Varianzschätzung verwendet. (Zu der Varianzschätzung des MWS vgl. Bamber (1975), ab n 1,n 2 >200 wird aus Laufzeitgründen die Varianz von Sen (1960) verwendet, vgl. dazu auch - im Kontext der AUC-Berechnung - DeLong (1983).) Die Konfidenzintervalle können z.b. auch für Äquivalenztests verwendet werden, wie in dem Buch von Wellek (1993) dargestellt wird: Wilcoxon-Mann-Whitney-Test Eingabedatei ist...\wellek.dat davon Variable 3 (Diff) und Gruppen-Var. 2 (Gruppe) = 1 2 Gruppe 1 1: : : : : : : : : : Gruppe 2 1: : : : : : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 124 von 241

125 7: : : : Test der Nullhypothese: Prüfgröße U = 33.0 mit p = (exakter Test) Prüfgröße Z = mit p = (approximativ) Mann-Whitney-Schätzer für p=p(x1<x2) = Asymptotische Konfidenzintervalle zum Mann-Whitney-Schätzer: P = : ( , ) P = : ( , ) P = : ( , ) P = : ( , ) Hodges-Lehmann-Schätzer für 'X1-X2' = Moses-Konfidenzintervalle zum Hodges-Lehmann-Schätzer: P = : ( , ) P = : ( , ) P = : ( , ) P = : ( , ) Median Minimum Maximum n Rangsumme Normiert Stichprobe Stichprobe Literatur: L. Sachs (1999) Angew. Statistik, 9. Aufl. Springer, Kap M. Hollander & D.A. Wolfe (1973) Nonpar. Statistical Methods. Wiley NY. St. Wellek (1993) Stat. Methoden zum Nachweis von Äquivalenz. Fischer. Van Elteren s stratifizierter U-Test: Der van Elteren-Test ist eine stratifizierte Variante des Wilcoxon-Mann-Whitney-U-Tests. Ein Beispiel findet sich in As an illustration, consider a subset of the data collected in a urinary incontinence trial comparing an experimental drug to a placebo over an 8-week period. The primary endpoint in the trial was a percent change from baseline to the end of the study in the number of incontinence episodes per week. Patients were allocated to three strata according to the baseline frequency of incontinence episodes. Unten wurden die Daten dieses Beispiels verwendet, aber wegen des Umfangs nicht explizit aufgeführt: Die Daten finden sich in \Valide\vanElteren.DAT ). Die Verifikation des van-elteren-tests erfolgte hiermit und mit zahlreichen anderen Beispielen anhand von SAS. Stratifizierter van-eltern-test Eingabedatei ist \Valide\vanElteren.DAT davon Variable 3 (change) und Gruppenvar. 1 (Arm_num) = 1,2 Stratifizierungsvariable stratum = 1,2,3 Die Daten zu dem gerechneten Beispiel sind sehr umfangreich (92+91=183 Fälle) und werden deshalb nicht aufgelistet. Details bei support.sas.com bzw. in der Datei \Valide\vanElteren.DAT im Verzeichnis Valide. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 125 von 241

126 Zweiseitige Wilcoxon-Mann-Whitney-Tests für alle Strata: Stratum n m MW-Schätzer Z p Zweiseitiger van-elteren-test: n m Z p Wichtung der Strata van Elteren (1960) n = Fallzahl in Gruppe Arm_num=1, m = Fallzahl in Gruppe Arm_num=2 Ein negativer Wert von Z bedeutet höhere Werte in Gruppe Arm_num=1 Literatur: P.H. van Elteren (1960) On the combination of independent two sample tests of Wilcoxon. Bull. of the Inst. of Internat. Statist. 37, pp Y.D. Zhao (2006) Sample size estimation for the van Elteren test - a stratified Wilcoxon-Mann-Whitney test. Statist. in Med. 25, pp Kolmogoroff-Smirnoff-Test: Hartung (1982, p.519) führt als Beispiel zum KS-Test einen Vergleich zweier Amperemeter an. (Bitte beachten Sie, dass die Auswertung besser mit Hilfe des Verfahrens von Bland und Altman vorgenommen werden sollte!) Der asymptotische Test wurde verfiziert gemäß SAS und SPSS. Kolmogoroff-Smirnoff-Test Eingabedatei ist Hartung519.DAT davon Variable 1 und Gruppe(n) Var. 2 = 1, 2 Gruppe 1 1: : : : : : : : : : Gruppe 2 1: : : : : : : : : : : : : : : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 126 von 241

127 Mediane und Extremwerte: Median Minimum Maximum n Stichprobe Stichprobe Kolmogoroff-Smirnoff's delta S = mit p > (exakter Test) Hodges' asymptotischer Test für delta mit p = (asymptotisch) Literatur: L. Sachs (2003) Angewandte Statistik, Kapitel 393, 11. Aufl. Springer-Verlag P.J. Kim (1969) On the exakt and approx. sampling distribution of the two sample Kolmogorov-Smirnov criterion Dmn. JASA 1969, Vol. 64, pp J.L. Hodges Jr (1957) The Significance Probability of the Smirnov Two-Sample Test, Arkiv for Matematik, 3, pp Kruskal-Wallis-Test mit multiplen Vergleichen: Vergleich von 4 Gruppen bezüglich einer Zielgröße, die nicht-gauß-verteilt ist bzw. ordinalen Charakter trägt (Sachs (1992, p.394)). Bitte beachten: Sachs' Prüfgröße ist nicht tie-korrigiert; BiAS. rechnet bei Bindungen grundsätzlich mit tie-korrektur! In Abweichung von Dunn (1964) wird im Test die (günstigere) Adjustierung nach Holm (1979) durchgeführt. Der quasi-exakte p-wert nach Headrick (2003) für kleine Fallzahlen wurde durch Beispiele aus der Originalarbeit und per Tabellen (Sachs (2003) o.a.) verifiziert. Kruskal-Wallis-Test mit multiplen Vergleichen Eingabedatei ist Sachs394.DAT davon Variable 1 (Messwert), Alle Gruppen Var. 2 (Gruppe) Gruppe 1 Gruppe 2 Gruppe 3 Gruppe 4 1: : : : : : : : : : : : : : : : : : : : : 89.0 Kruskal-Wallis Prüfgröße H für den Globaltest: H = : Chi²{df=3}-verteilt mit p = Headrick's quasi-exakter p-wert: p = mit KI=[ ; ] Median Minimum Maximum n Rangsumme Normiert Stichprobe Stichprobe Stichprobe Stichprobe Multiple Dunn-Vergleiche (Bonferroni-Holm-korrigiert): Nr Stichproben Z p-unkorr p-bonferroni p-bonf.holm 1 1 versus versus versus versus versus versus BiAS. für Windows Programmversion 11 epsilon-verlag Seite 127 von 241

128 Multiple Conover-Iman-Vergleiche (Bonferroni-Holm-korrigiert, df{t}=17): Nr Stichproben t p-unkorr p-bonferroni p-bonf.holm 1 1 versus versus versus versus versus versus Dunn: Signifikanz am Niveau alpha für alle Vergleiche mit Holm's p-(bh)<=alpha Conover und Iman: Approx. p-werte für >3 Gruppen, Signifikanz bei p-(bh)<=alpha Literatur: W.H. Kruskal, W.A. Wallis (1952) Use of ranks in one-criterion variance analysis. J.Amer. Stat. Ass. 47, pp und 48 (1953), pp O.J. Dunn (1964) Multiple comparisons using rank sums. Technometrics 6, pp S. Holm (1979) A simple sequentially rejective multiple test procedure. Scand. J. Stat. 6, pp W.J. Conover (1999) Practical Nonparametric Statistics (3rd ed.), John Wiley. Die multiplen Vergleiche des Dunn-Tests können mit Hilfe der Originalarbeit verifiziert werden. Die verwendeten Daten sind sehr umfangreich und können hier nicht wiedergegeben werden. Zur Holm'schen Methode vgl. "Mehrere Nullhypothesen". Conover-Iman wurde mit Hilfe von StatsDirect verifiziert, das allerdings die Berechnungen ohne Tie- Korrektur ausführt. Weitere Verifikation mit: Viv Bewick, Liz Cheek and Jonathan Ball (2004) Statistics review 10: Further nonparametric methods, Crit Care. 2004; 8(3): Zur Berechnung von exakten p-werten für kleine Fallzahlen finden Sie in der Arbeit von Headrick (2003) Hinweise und Beispiele zur Verifikation. Jonckheere-Terpstra-Test: Vergleich von mehreren Gruppen bezüglich einer Zielgröße, die nicht-gauß-verteilt ist bzw. ordinalen Charakter trägt (Sachs (2003), Hollander und Wolfe (1999). Bitte beachten Sie, dass die Darstellung in Sachs (2003), ebenso das dort verwendete Beispiel, keine Tie-Korrektur verwendet. Im Folgenden ein Beispiel aus Hollander und Wolfe (1999), weitere Verifizierungen mit dem Programm SPSS: Jonckheere-Terpstra-Test auf Trend Eingabedatei ist..\hollander205.dat davon Variable 1 (Number) und Gruppen-Var. 2 (Group) = Errechnete J-T-Statistik J: 29.0 Erwartungswert µ(j): 54.0 Standardabweichung SD(J): Positiver Trend, da µ(j)-j>0: Alternativ-Hypothese ist Ha(µ1<=µ2<=...<=µk) Prüfgröße Z = mit p = (einseitiger Test mit Tie-Korrektur) Quasi-exakter p-wert: p = (per Headrick, KI=[ ; ]) Sukzessive Gruppenvergleiche (alle p-werte sind einseitig gemäß Relation): i Stichproben Rel Z p unkorr p Bonferroni p Bonf.-Holm 1 1 versus 2 < versus 3 < L. Sachs (2003) Angewandte Statistik, Kapitel 396, 11. Aufl. Springer-Verlag M. Hollander, D.A. Wolfe (1999) Nonparametric Statistical Methods, Wiley Inc BiAS. für Windows Programmversion 11 epsilon-verlag Seite 128 von 241

129 Mantel-Haenszel-Test und Mantel-Haenszel-Zimmermann-Test: Die Tests dienen dem Vergleich von 2 oder mehr Gruppen bei einer ordinalen Zielgröße mit wenigen Stufen. Im Unterschied zu der Testvariante in "Kontingenztafeln" rechnen beide Funktionen mit den Originalwerten, setzen also keine Kontingenztafel voraus (diese wird vom Programm ermittelt). Die Tests sind in diesem Falle effizienter als der U-Test bzw. der Kruskal-Wallis-Test! Zur Validierung im 2-Gruppen- Fall kann das Beispiel von DeJonge (vgl. Kontingenztafeln) herangezogen werden, in Ermangelung eines Beispiels in Zimmermann (1984) wird der k-gruppenfall an Hand der Daten von BiAS.' Testdatensatz Test.DAT verifiziert: Mantel-Haenszel-Zimmermann-Test Eingabedatei ist Test.DAT davon Variable 2 (VarZwei) und Gruppen-Var. 3 (GruppNum) = Gruppe 1 Gruppe 2 Gruppe : : : : : : : : : : : : Scores der Zielgröße (Spalten): Ermittelte Tafel (Zeilen=Gruppen): Prüfgröße: Chi²= mit fg=2 und p= Literatur: N. Mantel (1963) Chi²-tests with one degree of freedom: extensions of the Mantel- Haenszel procedure. JASA 58, pp H. Zimmermann (1984) Erweiterung des Mantel-Haenszel-Testes auf k>2 Gruppen. Biom.J. 26, 2, pp Mood s Median-Test für k Gruppen: Die Fragestellung ist analog der im Abschnitt Vierfeldertafeln, jedoch hier mit einer weiteren Gruppe. Die Validierung folgt den dort gemachten Angaben: Mood s Median-Test für k Gruppen: Eingabedatei ist \Valide\Sachs390.DAT davon Variable 1 (Tab109) und Gruppen-Var. 3 (Gruppe) = Resultierende Tafel ( M = Median der gepoolten Stichproben = 18 ) < M > M Stichprobe 1: Stichprobe 2: *) Stichprobe 3: *) Gesamt: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 129 von 241

130 *) Insgesamt 2 mit dem gepoolten Median identische Werte wurden ignoriert. Cave: Die Voraussetzungen für den asymptotischen Chi²-Test sind nicht erfüllt, eine Verifizierung ist per Fisher-Freeman-Halton's Test in "Tafeln" möglich: >> 100.0% der Erwartungshäufigkeiten sind < 5, vertretbar sind maximal 20%. Prüfgröße: Brandt und Snedecor's Chi²=3.429 mit df=2 und p= Multiple Median-Vergleiche per Fisher-Test (Bonferroni-Holm-korrigiert): Nr Stichproben p-unkorr p-bonferroni p-bonf.holm 1 1 versus versus versus Für alle Gruppen-Vergleiche immer nur die korrigierten p-werte verwenden! Many-one-Vergleiche mit einer fixen Kontrolle: Ist p-unkorrigiert<=alpha/2? Häufigkeiten der 3 Vierfeldertafeln zu den multiplen Vergleichen: Nr Stichproben Median n11 n12 n21 n22 Sum 1 1 versus versus versus Die Mediane sind pro Paarvergleich berechnet. Keine medianidentischen Werte. Literatur: A.M. Mood (1950) Introduction to the Theory of Statistics, McGraw-Hill G.W. Brown, A.M. Mood (1951) On Median Tests for Linear Hypotheses. Proc. of 2nd Berkeley Symposium on Math., Statist. and Prob., Univ. California. H. Büning, G. Trenkler (1978,1994) Nicht-parametrische Methoden, degruyter L. Sachs (2003) Angewandte Statistik, Springer-Verlag Kap. 392, 533. Friedman-Test: Vergleich von 6 Objekten (i.e. Spalten bzw. "Bedingungen") anhand von 9 Gutachtern (Zeilen): Urteilen die Gutachter gleich? In diesem Beispiel von Sachs (1992, p.671) sind die Testgrößen χ² und F von Interesse. Ein weiteres Beispiel findet sich unter Wilcoxon-Wilcox- Vergleiche. Friedman-Test mit Wilcoxon-Wilcox-Vergleichen Eingabedatei ist Sachs671.DAT davon Variablen 1 (Objekt1), 2 (Objekt2), 3 (Objekt3), 4 (Objekt4) i Objekt1 Objekt2 Objekt3 Objekt BiAS. für Windows Programmversion 11 epsilon-verlag Seite 130 von 241

131 Friedman's Chi² = (fg = 3, p = ) Rijkoort-Wise's F = (fg1 = 3, fg2 = 24, p = ) Wilcoxon-Wilcox-Test: Conover-Vergleiche mit Bonferroni: Spalten 1 und 2: D = ( p 0.05 ) p = korr: p = Spalten 1 und 3: D = ( p > 0.05 ) p = korr: p = Spalten 1 und 4: D = 9.00 ( p > 0.05 ) p = korr: p = Spalten 2 und 3: D = 5.00 ( p > 0.05 ) p = korr: p = Spalten 2 und 4: D = 8.00 ( p > 0.05 ) p = korr: p = Spalten 3 und 4: D = 3.00 ( p > 0.05 ) p = korr: p = Literatur: M. Friedman (1937) The use of ranks to avoid the assumption of nor-mality implicit in the anova. J. Amer. Stat. Assoc. 32, pp F. Wilcoxon, R.A. Wilcox (1964) Some rapid approximate statistical procedure. Lederle Laboratories, Pearl River, New York. W.J. Conover (1999) Practical Nonparametric Statistics (3rd ed.), Wiley. L. Sachs (1992) Angewandte Statistik, Springer-Verlag. Kap.76. Verifikation des Conover-Tests mit: Viv Bewick, Liz Cheek and Jonathan Ball (2004) Statistics review 10: Further nonparametric methods, Crit Care. 2004; 8(3): Weitere Berechnungen mit dem Programm StatsDirect. Page-Test auf Trend: Vergleich von 6 Objekten (Spalten, "Bedingungen") anhand von 9 Gutachtern (Zeilen): Beurteilen die Gutachter gleich, oder besteht ein Trend hinsichtlich der Objekte? Vorsicht: Die Reihenfolge der Objekte unterscheidet sich in Sachs (1997) vom Friedman-Beispiel, dazu wurde das erste Objekt an das Ende der Spalte verschoben (mit BiAS. Editor möglich); vgl. dazu auch Sachs Seite 671. Der Test liegt in der approximativen Version vor. Ein zweites Beispiel: n Patienten mit Prostata-Carcinom werden mit einem Zytostatikum behandet. Sinkt der PSA-Wert im Zeitverlauf von 0, 3, 6, 12 und 24 Monaten? (Wird hier nicht numerisch ausgeführt.) Page-Test auf Trend Eingabedatei ist Sachs671.DAT (Reihenfolge der Objekte gemäß Ha modifiziert!) davon Variablen 1 (Objekt2), 2 (Objekt3), 3 (Objekt4), 4 (Objekt1) i Objekt2 Objekt3 Objekt4 Objekt Aufwärts-Trend: Page's Prüfgröße L = (p = , einseitig) Ab!wärts-Trend: Page's Prüfgröße L = (p = , einseitig) Literatur: E.B.Page (1963) Ordered hypothesis for multiple treatments: A significance test for linear ranks. J. Amer. Statist. Assoc. 58, pp L.Sachs (1997) Angewandte Statistik, Springer-Verlag. Kap.76. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 131 von 241

132 Wilcoxon-Wilcox-Vergleiche: Sechs Personen (Zeilen) erhalten sechs verschiedene Diuretika (Spalten). Gemessen wird die Natriumausscheidung nach 2 Stunden. Von Interesse sind hier multiple Vergleiche nach Wilcoxon-Wilcox (Sachs (1992, p.675)). Die multiplen Vergleiche des Tests erhält man als "Nachtests" zum Friedman-Test: Friedman-Test mit Wilcoxon-Wilcox-Vergleichen Eingabedatei ist Sachs675.DAT davon Variablen 1, 2, 3, 4, 5, 6 (Diuretika) i Var. 1 Var. 2 Var. 3 Var. 4 Var. 5 Var Friedman's Chi² = (fg = 5, p = ) Rijkoort-Wise's F = (fg1 = 5, fg2 = 25, p = ) Wilcoxon-Wilcox-Test: Spalten 1 und 2: D = ( p > 0.05 ) Spalten 1 und 3: D = ( p > 0.05 ) Spalten 1 und 4: D = 2.00 ( p > 0.05 ) Spalten 1 und 5: D = ( p 0.05 ) Spalten 1 und 6: D = ( p 0.01 ) Spalten 2 und 3: D = 2.00 ( p > 0.05 ) Spalten 2 und 4: D = ( p > 0.05 ) Spalten 2 und 5: D = 4.00 ( p > 0.05 ) Spalten 2 und 6: D = ( p > 0.05 ) Spalten 3 und 4: D = ( p > 0.05 ) Spalten 3 und 5: D = 2.00 ( p > 0.05 ) Spalten 3 und 6: D = 8.00 ( p > 0.05 ) Spalten 4 und 5: D = ( p > 0.05 ) Spalten 4 und 6: D = ( p 0.01 ) Spalten 5 und 6: D = 6.00 ( p > 0.05 ) Literatur: M. Friedman (1937) The use of ranks to avoid the assumption of normality implicit in the anova. J. Amer. Stat. Assoc. 32, pp F. Wilcoxon, R.A. Wilcox (1964) Some rapid approximate statistical procedure. Lederle Laboratories, Pearl River, New York. L. Sachs (1992) Angewandte Statistik, Springer-Verlag. Kap.76. Schaich-Hamerle-Vergleiche: 20 Ratten werden nach Spontanaktivität in 5 Gruppen ("Blöcke", Zeilen!) zu je 4 Tieren eingeteilt und 4 Bedingungen zugeteilt. Zielgröße ist die Anzahl erreichter Umdrehungen in einer Lauftrommel (Bortz et al. (1990, pp.269,275). Schaich-Hamerle-Vergleiche werden - in Anschluss an den Friedman-Test - in BiAS. ausschließlich für n > 25 und/oder k >10 verwendet, ansonsten wird der für kleine n und k günstigere Wilcoxon-Wilcox-Test (vgl. oben) eingesetzt. Die hier vorliegende Ausgabe für n=5, k=4 dient nur der Validierung und Dokumentation. Friedman-Test mit Schaich-Hamerle-Vergleichen Eingabedatei ist BortzLB269.DAT davon Variablen 1 (Co), 2 (ED), 3 (DD), 4 (LP) i Var. 1 Var. 2 Var. 3 Var BiAS. für Windows Programmversion 11 epsilon-verlag Seite 132 von 241

133 Friedman's Chi² = (fg = 3, p = ) Rijkoort-Wise's F = (fg1 = 3, fg2 = 12, p = ) Schaich-Hamerle-Vergleiche: Spalten 1 und 2: D = p < Spalten 1 und 3: D = p < Spalten 1 und 4: D = 1.10 p < Spalten 2 und 3: D = p < Spalten 2 und 4: D = 1.40 p < Spalten 3 und 4: D = 2.30 p < Literatur: M. Friedman (1937) The use of ranks to avoid the assumption of normality implicit in the anova. J. Amer. Stat. Assoc. 32, pp E. Schaich, A. Hamerle (1984) Verteilungsfreie stat. Prüfverfahren. Springer-Verlag L. Sachs (1992) Angewandte Statistik, Springer-Verlag. Kap.76. Dixon und Mood's Vorzeichentest: Hierfür wird das gleiche Beispiel wie zum Wilcoxonmatched-pairs-Test verwendet (Hollander und Wolfe (1973, p.29), Erfolg einer Tranquilizer- Behandlung); bitte beachten Sie die unterschiedliche Power der beiden Tests. Die Validierung der Ergebnisse erfolgte mittels Tabellen der Binomial-Verteilung. Vorzeichen-Test nach Dixon und Mood Eingabedatei ist Holl29.DAT davon Variable 1 (HFvor) - Variable 2 (HFnach) i Var 1 Var 2 Diff 1: : : : : : : : : Vorzeichen: Binomial-Wahrscheinlichkeit p = (exakt, ein!seitig) Binomial-Wahrscheinlichkeit p = (exakt, zweiseitig) Literatur: W.J. Dixon, A.M. Mood (1946) The statistical sign test. J. Amer. Stat. Assoc. 41, pp Cochran's Q-Test: In den Jahren (Spalten) werden 10 Personen (Zeilen) befragt, ob sie die CDU gegenüber anderen Parteien bevorzugen. Zu testen ist die Hypothese, dass die Jahre den gleichen Effekt auf die Entscheidung der Befragten besitzen ( Büning und Trenkler (1978, p.227)): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 133 von 241

134 Cochran's Q-Test Bezeichnung: Büning und Trenkler p.227, Datei..\Valide\Buehning227.DAT Eingegebene Daten: 1: : : : : : : : : : Cochran's Q = : Chi² mit df = 4 ( p = ) Literatur: W.G. Cochran (1950) The comparison of percentages in matched samples. Biometrika 37, pp H. Bühning, G. Trenkler (1978) Nichtparametrische statistische Methoden. Walter de Gruyter Berlin, New York. pp Test auf Gleichverteilung: Zur Prüfung eines Würfels werden 60 Würfe durchgeführt. Die beobachteten Häufigkeiten der 6 Augenzahlen werden auf Gleichverteilung (d.h. pi=1/6 für i=1,2,...,6) getestet Sachs (1992, p.422): Test auf Gleichverteilung Bezeichnung: Sachs p.422 (Würfel 1-6) Eingelesene Daten: 1: 7 2:16 3: 8 4:17 5: 3 6: 9 Erwartete Häufigkeit = Prüfgröße Chi² = (fg = 5) : p = Literatur: L. Sachs (1992) Angewandte Statistik. Springer, Kap.43. Anpassungstest: In einem Spaltungsversuch werden 3 Phänotypen im Verhältnis 1:2:1 erwartet. Entsprechen die gefundenen Häufigkeiten dem erwarteten Verhältnis? (aus Sachs (2003)): Anpassungstest Bezeichnung: Sachs p.421 (Spaltungsversuch) Eingelesene Daten und singuläre Bewertungen der Kategorien: Kategorie Beobachtet? Erwartet RelHäuf. Wahrsch. Chi²(df=1) p(chi²) < > < Sum BiAS. für Windows Programmversion 11 epsilon-verlag Seite 134 von 241

135 Chi²-Anpassungstest: Prüfgröße Chi²=5.100 mit df=no.kat-1=2 und p= Woolf's G-Test: Prüfgröße Chi²=5.187 mit df=no.kat-1=2 und p= Literatur: L. Sachs (2003) Angewandte Statistik. 11. Auflage Springer. Koch's Cross-Over-Analyse des Grizzle-Modells: Verglichen werden zwei Behandlungen A und B in zwei Gruppen mit den Behandlungssequenzen AB und BA (Grizzle (1965)). Bitte beachten Sie: Nach Eingabe der Gruppenvariablen sind die beiden Nummern bzw. Namen der Variablen einzugeben, die den beiden Perioden zugeordnet sind: Die Eingabeaufforderung lautet: Welche Variablen werden getestet: Periode1: und nach Eingabe Periode 2:. Es handelt sich hierbei um Perioden, nicht um Behandlungen: Zum Beispiel erhielt Gruppe 1 in der ersten Periode die Behandlung A, die Gruppe 2 dagegen B, während in der 2. Periode umgekehrt Gruppe 1 B und Gruppe 2 A erhielt! Cross-Over: Nicht-parametrische Analyse nach Koch Eingabedatei ist Grizzle1.DAT davon Variablen 1 (Periode1), 2 (Periode2) und Gruppen Var. 3 (GruppNum) = 1 und 2 Gruppe 1 Gruppe 2 i Var. 1 Var. 2 i Var. 1 Var Stichprobenumfänge: n1 = 6 und n2 = 8 Nacheffekte: Wilcoxon's U = 7.00 ( p = exakter Wert ) Gauss' Z = ( p = approximativ ) Haupteffekte: Wilcoxon's U = ( p = exakter Wert ) Gauss' Z = ( p = approximativ ) Erste Periode: Wilcoxon's U = 8.00 ( p = exakter Wert ) Gauss' Z = ( p = approximativ ) Literatur: J.E. Grizzle (1965) Two-period cross-over design and its use in clinical trials. Biometrics 21, pp G.G. Koch (1972) The use of nonparametric methods in the statistical analysis of two-period change-over-design. Biometrics 28,pp L. Sachs (1992) Angewandte Statistik. Springer-Verlag. Kap.394. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 135 von 241

136 Bifaktorielle Rang-Varianzanalyse: Die Fragestellung ist analog zur parametrischen bifaktoriellen Varianzanalyse definiert. Die Methode folgt dem Prinzip Ranking after Alignment, ist auch für nicht-orthogonale Datenstrukturen geeignet und kann bei nicht-erfüllten Voraussetzungen zur parametrischen ANOVA sowohl für quantitative als auch für ordinale Daten angewendet werden. Die Wechselwirkung AxB wird mit Kubinger s unbiased Methode geprüft. Die Ergebnisse der Rang-ANOVA wurden mit Hilfe von Beispielen aus Bortz, Lienert und Boehnke (2008, Kapitel 6) und Kubinger (1986) überprüft, der implizit verwendete Kruskal-Wallis-Test mit Moduln aus SPSS und BiAS. und die multiplen Conover-Iman-Vergleiche für die beiden Faktoren A und B mit einem Modul aus BiAS. Die bindungskorrigierten Prüfgrößen folgen der Darstellung von Conover (1980,1999), die der Interaktion Kubinger (1986). Bifaktorielle Rang-Varianzanalyse (Kubinger) Eingabedatei ist \Valide\BortzLiBo244.DAT, davon Variable 1 (Wert) Faktor A: Stufe Variable 2 (FaktorA) Faktor B: Stufe Variable 3 (FaktorB) Eingelesene Daten: Wert A: Index Stufe B: Index Stufe BiAS. für Windows Programmversion 11 epsilon-verlag Seite 136 von 241

137 Stichprobenumfänge n(i,j): Stufen Stufen Faktor A Faktor B a = 1 a = 2 a = b = b = b = Mediane: Stufen Stufen Faktor A Faktor B a = 1 a = 2 a = b = b = b = Haupteffekt Faktor A: Prüfgröße H=0.440 mit Chi²(df=2): p= Multiple Conover-Iman-Vergleiche (Bonferroni-korrigiert, df{t}=33): Nr Stufen Faktor A t p-unkorr p-bonferroni 1 1 versus versus versus Haupteffekt Faktor B: Prüfgröße H=0.313 mit Chi²(df=2): p= Multiple Conover-Iman-Vergleiche (Bonferroni-korrigiert, df{t}=33): Nr Stufen Faktor B t p-unkorr p-bonferroni 1 1 versus versus versus Interaktion (Kubinger): Prüfgröße H= mit Chi²(df=4): p= Literatur: KD Kubinger (1986): A Note on Non-Parametric Tests for the Interaction in Two-Way Layouts. Biometrical Journal, 28, J Bortz, GA Lienert, K Boehnke (2008) Verteilungsfreie Methoden in der Biostatistik. 3. Auflage Springer-Verlag. Kapitel 6. WJ Conover (1999) Practical Nonparametric Statistics (3rd ed.), Wiley. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 137 von 241

138 A.10 Überlebenszeitanalyse ( Survival-Analyse ) Kaplan-Meier-Schätzer Hall-Wellner-Konfidenzbänder Graphik zu Kaplan-Meier-Schätzer Graphik zu Hall-Wellner s Konfidenzbändern Competing Risks: Aalen-Johansen-Schätzer Gehan-Wilcoxon-Test Log-Rank-Test (Cox-Mantel) Log-Rank-Test (Peto-Pike) Stratifizierter Log-Rank-Test Peto-Pike-Test für mehrere Gruppen Relativer Hazard Cox-Regression Kaplan-Meier-Schätzer: In einer Studie werden die Effekte zweier präoperativer Bestrahlungsdosen bei Patienten mit Rektalkarzinomen verglichen (Harris und Albert (1991, p.17)). Von Interesse sind hier zunächst die Schätzungen der Überlebenszeiten. Es ist zu beachten, dass eine zensierte Beobachtung (z.b. Patient ist verzogen, kann nicht bis Eintritt des Zielereignisses beobachtet werden) in BiAS. durch den Wert 1 ("zensiert") der Zensurvariablen gekennzeichnet wird, sonst wird der Wert 0 ("verstorben") angegeben. Eine Graphik ist möglich. Kaplan-Meier-Überlebenszeitschätzungen Eingabedatei ist Harris17.DAT davon Variable 1 (Time) Zensur-Variable 3 (Censor) und Gruppe(n) Var. 2 (Group) = 2 Gruppe 2 1: : : * 4: * 5: * 6: : * 8: : * 10: * 11: * 12: * 13: : * 15: * 16: * 17: * 18: * 19: : : * 22: * 23: * 24: : * BiAS. für Windows Programmversion 11 epsilon-verlag Seite 138 von 241

139 26: * 27: * 28: : * 30: : : * 33: * 34: * 35: * Schätzung der Überlebenswahrscheinlichkeiten nach Kaplan-Meier: Z(i) : Überlebenszeit P(i) : Wahrscheinlichkeit, Zeitpunkt Z(i) zu überleben S(i) : Standardabweichung SE(P(i)) (Greenwood's Formel) Q(i) : Wahrscheinlichkeit, Zeitpunkt Z(i) zu überleben, vorausgesetzt, Zeitpunkt Z(i-1) wurde überlebt. L(i) : Linke Grenze des 95%-Konfidenzintervalles für P(i) R(i) : Rechte Grenze des 95%-Konfidenzintervalles für P(i) (Konfidenzintervalle nach Hall-Wellner (1980)) Gruppe 2 Beobachtete Zeitpunkte: i Z(i) P(i) Q(i) S(i) L(i) R(i) Maximale Überlebenszeit durch Abbruch: Mittlere Überlebenszeit = (Integral KMS, maximale Zeit als Event) Mediane Überlebenszeit = (per Schnittpunkt KMS) Konfidenzintervalle für die mediane Überlebenszeit (nach Collett): P=95%: KI = [ ; ] ; P=99%: KI = [ ; ] Zeitintervalle: i Z(i) P(i) Q(i) S(i) L(i) R(i) Literatur: E.L. Kaplan, P. Meier (1958) Nonparametric estimation from incomplete observations. JASA 53, pp W.J. Hall, J.A. Wellner (1980) Confidence bands for a survival curve from censored data. Biometrika 67, E.K. Harris, A. Albert (1991) Survivorship analysis for clinical studies. Marcel Dekker Inc. New York. D. Collett (2003) Modelling survival data in medical research. Chapman & Hall BiAS. für Windows Programmversion 11 epsilon-verlag Seite 139 von 241

140 Graphik Kaplan-Meier-Schätzer: Vergleich der Effekte zweier präoperativer Bestrahlungsdosen (vgl. die zugehörigen Berechnungen): BiAS. sieht einige Optionen zur graphischen Darstellung vor, u.a. auch eine Darstellung als Sterbefunktion. Zensierungen sind hier berücksichtigt! Hall-Wellner-Konfidenzbänder: BiAS. berechnet Hall - Wellner - Konfidenzbänder im Aufruf Kaplan-Meier-Schätzer und gibt diese zusammen mit der Life-Table als Tabelle aus. Beim Vorliegen von nur einer Gruppe kann die Survival- bzw. Überlebensfunktion oder - optional - die Sterbefunktion einschließlich Hall-Wellner-Konfidenzband dargestellt werden.bei Vorliegen von zwei oder mehr Gruppen werden - ohne Hall-Wellner - nur die Survival- bzw. Sterbefunktionen dargestellt. Beispiel: In einer klinischen Studie werden die Effekte zweier Bestrahlungsdosen bei Patienten mit Rektalkarzinomen verglichen (Harris und Albert (1991, p.17)). Von Interesse sind hier zunächst die Schätzungen der Überlebenszeiten. Es ist zu beachten, dass eine zensierte Beobachtung (z.b. Patient ist verzogen, kann nicht bis Eintritt des Zielereignisses beobachtet werden) in BiAS. durch den Wert 1 ("zensiert") der Zensurvariablen gekennzeichnet wird, sonst wird der Wert 0 ("verstorben") angegeben. Die über den Hypertext aufrufbaren Abbildungen werden für beide Gruppen aus diesem Beispiel dargestellt (Armitage.DAT), für die Hall-Wellner-Bereiche wurde die 2. Gruppe verwendet. Sterbefunktion für Kaplan-Meier-Schätzer: BiAS. berechnet Kaplan-Meier-Schätzer gegebenenfalls mit Hall - Wellner - Konfidenzbändern als Überlebens- oder Sterbefunktion, hier ein Beispiel (Datei Armitage.DAT) für die Sterbefunktion: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 140 von 241

141 Aalen-Johansen-Schätzer: Aalen und Johansen (1978) beschreiben eine dem Kaplan-Meier- Schätzer analoge Methode, jedoch unter Berücksichtigung von Competing Risks. Ein CR-Event verhindert, dass das eigentliche Ziel-Event (zum Beispiel Tod ) später noch auftreten kann und bedeutet beispielsweise Tod aus anderen Gründen. Held (2013) gibt dazu ein Beispiel, das in der nachfolgenden Berechnung verwendet wird. Die Berechnung erfolgt hier zunächst für beide Behandlungen zusammen (Index in der Datenspalte Behandlung ). Der Index für die Risiken, fortlaufend nummeriert, findet sich in der Spalte Events : Zur Validierung wurden per-hand-berechnungen und das Programm R verwendet. Eine graphische Darstellung der Aalen-Johansen-Schätzer findet sich auf der nächsten Seite. Competing Risks: Aalen-Johansen-Schätzer Eingabedatei ist C:\PbWin80\BiAS8\Held269.DAT davon die Zeit-Variable: UebLeZeit und die Event-Variable: Events Zensierte Werte sind durch den Wert Events=0 gekennzeichnet. Es werden alle in Events enhaltenen Risiken dargestellt. Risiko 1: ÜbLebZeiten At Risk No. Events Überlebenswahrscheinlichkeiten Ziel CR Ziel-Event CR-Event Komb-Ev * * Risiko 2: ÜbLebZeiten At Risk No. Events Überlebenswahrscheinlichkeiten Ziel CR Ziel-Event CR-Event Komb-Ev * * >> *: Die Überlebenszeit ist bezüglich Ziel-Event und CR-Event(s) zensiert! >> Komb-Ev: Gesamt-Überleben, ungeachtet der Differenzierung "Ziel" und "CR" >> Die Graphik bezieht sich auf das CR-adjustierte Überleben bzgl. Ziel-Event Literatur: Held L, Rufibach K, Seifert B (2013) Medizinische Statistik. 1st Ed. Pearson Higher Education München. Putter H, Fiocco M, Geskus RB (2007) Tutorial in biostatistics: Competing risks and multi-state models. Statist Med 26, pp Aalen O, Johansen S (1978) An empirical transition matrix for nonhom*ogeneous Markov chains based on censored observations. Scand J Statist 5, pp Goetghebeur E, Ryan L (1990) A modified log rank test for competing risks with missing failure type. Biometrika 77, 1, pp Armitage P, Berry G, Matthews JNS (2002) Statistical Methods in Medical Research. 4th Ed. Blackwell Science, Oxford. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 141 von 241

142 Zum Vergleich finden sich anschließend die analogen Berechnung unter Berücksichtigung der beiden Behandlungsgruppen, wozu wieder die Daten aus..\valide\held269.dat verwendet wurden: Competing Risks: Aaalen-Johansen-Schätzer und Log-Rank-Test Eingabedatei ist C:\PbWin80\BiAS8\Held269.DAT davon die Zeit-Variable: UebLeZeit und die Event-Variable: Events Gruppe(n) Var. 2 (Behandlg) = 1 2 Zensierte Werte sind durch den Wert Events=0 gekennzeichnet. Zielereignis ("Event of Interest"): Events=1 Gruppe Behandlg=1: ÜbLebZeiten At Risk No. Events Überlebenswahrscheinlichkeiten Ziel CR Ziel-Event CR-Event Komb-Ev * * Gruppe Behandlg=2: ÜbLebZeiten At Risk No. Events Überlebenswahrscheinlichkeiten Ziel CR Ziel-Event CR-Event Komb-Ev >> *: Die Überlebenszeit ist bezüglich Ziel-Event und CR-Event(s) zensiert! >> Komb-Ev: Gesamt-Überleben, ungeachtet der Differenzierung "Ziel" und "CR" >> Die Graphik bezieht sich auf das CR-adjustierte Überleben bzgl. Ziel-Event Nullhypothesentest per Log-Rank-Test für Competing Risks (Goetghebeur-Ryan): Prüfgröße Chi² = mit df=1: p = Relative Hazards mit 95%-Konfidenzintervallen (Goetghebeur-Ryan & Peto-Pike): Nr. Gruppen RelHaz LiGr ReGr Gruppen RelHaz LiGr ReGr 1 1 : : Literatur: Wie zum Aalen-Johansen-Schätzer. Graphik zum Aalen-Johansen-Schätzer mit allen Schätzern: Dazu wurden die Resultate aus den Ausgabe-Tabellen verwendet Neben dem AJS wird optional zusätzlich die Überlebensfunktion für das CR-Event und die für das kombinierte Event. Eine Angabe der Number at Risk ist möglich, ebenfalls eine Markierung der zensierten Werte; beides ist in der Abbildung nicht enthalten. Links ein Vergleich aller Risiken, rechts die Schätzer für Risiko 1 in den beiden Gruppen: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 142 von 241

143 Gehan-Wilcoxon-Test: Peto und Pike (1977) beschreiben eine Überlebenszeitstudie aus der Onkologie. Die folgende Auswertung bezieht sich auf Peto-Pike's Gruppe apathologischer Nieren; die Daten sind dem Ausdruck des stratifizierten Log-Rank-Tests zu entnehmen: Gehan-Wilcoxon-Test Eingabedatei ist Peto31A.DAT davon Variable 1 (ülezeit) Zensur-Variable 2 (Zensur) und Gruppe(n) Var. 3 (GruppNum) = 1, 2 Gruppe 1 1: * 2: : : * 5: * 6: * 7: * 8: * Gruppe 2 1: : : * 4: : : : * 8: : : (Zensierte Werte sind durch '*' gekennzeichnet.) Gehan-Wilcoxon-Test: Prüfgröße Z = ( p = ) Literatur: E.A. Gehan (1965) A generalized Wilcoxon-test for arbitrarily single-censored samples. Biometrika 52, 1 und 2, pp Log-Rank-Test (Cox-Mantel): Armitage und Berry (1988, p.431) vergleichen in einem Beispiel die Überlebenszeiten von Lymphompatienten verschiedener Stadien. Von Interesse ist der Vergleich beider Gruppen mit dem Log-Rank-Test. (Die Daten zu diesem Beispiel befinden sich in BiAS.' Verzeichnis. Die Daten der zweiten Gruppe werden auch für die Kaplan-Meier-Schätzungen verwendet.) Log-Rank-Test Eingabedatei ist Armitage431.DAT davon Variable 1 (ülezeit) Zensur-Variable 3 (Zensur) und Gruppe(n) Var. 2 (GruppNum) = 1, 2 Log-Rank-Test: Peto-Pike's Chi² = mit df = 1 ( p = ) Cox-Mantel's Chi² = mit df = 1 ( p = ) Relativer Hazard (Peto-Pike): RH ( 1: 2) = %-Konfidenzintervall: ( , ) RH ( 2: 1) = %-Konfidenzintervall: ( , ) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 143 von 241

144 Literatur: P. Armitage, G. Berry (1988) Statistical Methods in Medical Research. Blackwell Scientific Publications, 2nd Ed. pp D.R. Cox, D. Oakes (1984) Analysis of Survival Data. Chapman and Hall, London NY. Log-Rank-Test (Peto-Pike): Peto und Pike (1977) beschreiben eine onkologische Überlebenszeitstudie. Die folgende Auswertung bezieht sich auf Peto-Pike's Gruppe apathologischer Nieren. Die Daten sind dem Daten-Ausdruck des nächsten Beispiels zu entnehmen. Ein Mehrgruppenvergleich findet sich weiter unten! Log-Rank-Test Eingabedatei ist Peto31A.DAT davon Variable 1 (ülezeit) Zensur-Variable 2 (Zensur) und Gruppe(n) Var. 3 (GruppNum) = 1, 2 Cox-Mantel's Chi² = mit df = 1 ( p = ) Peto-Pike's Chi² = mit df = 1 ( p = ) Relativer Hazard mit Konfidenzintervallen (nach Peto-Pike): RH(1:2)= %-Konfidenzintervall: ( , ) 99%-Konfidenzintervall: ( , ) RH(2:1)= %-Konfidenzintervall: ( , ) 99%-Konfidenzintervall: ( , ) Literatur: P. Armitage, G. Berry (1988) Statistical Methods in Medical Research. Blackwell Scientific Publications, 2nd Ed. pp D.R. Cox, D. Oakes (1984) Analysis of Survival Data. Chapman and Hall, London NY. Stratifizierter Log-Rank-Test: Peto und Pike (1977) beschreiben eine onkologische Überlebenszeitstudie. Die folgende Auswertung berücksichtigt im Gegensatz zum letzten Beispiel die Schichtung "Nierenfunktion" (Stratum 2 ist mit dem letzten Beispiel identisch). Editor: Ausdrucken Die Datei Peto.31 umfasst 4 Spalten bzw. 25 Zeilen (.3Kb). Variablennamen der Datei Peto.31: 1:übLeZeit 2:Zensiert 3:Behandlg 4:NiereFkt Ausdruck der Datei Peto.31: Nr.: : : : : : : : : : : : : : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 144 von 241

145 14: : : : : : : : : : : : Stratifizierter Log-Rank-Test Eingabedatei ist Peto31.DAT davon Variable 1 (ülezeit) Zensur-Variable 2 (Zensiert) und Gruppe(n) Var. 3 (Behandlg) = 1, 2 Stratifizierungsvariablen und Stufen: NiereFkt: Stufen 1 2 Log-Rank-Tests für alle Strata: Stratum 1: NiereFkt= 1 Cox-Mantel's Chi² = mit df = 1 ( p = ) Peto-Pike's Chi² = mit df = 1 ( p = ) Stratum 2: NiereFkt= 2 Cox-Mantel's Chi² = mit df = 1 ( p = ) Peto-Pike's Chi² = mit df = 1 ( p = ) Stratifizierter Log-Rank-Test: Cox-Mantel's Chi² = mit df = 1 ( p = ) Peto-Pike's Chi² = mit df = 1 ( p = ) Literatur: S.J. Poco*ck (1983) Clinical Trials. John Wiley. D.R. Cox, D. Oakes (1984) Analysis of Survival Data. Chapman and Hall, London NY. Peto-Pike-Test für mehrere Gruppen: Bei der Untersuchung von Überlebenszeiten kann unter Umständen ein Vergleich von mehr als 2 Gruppen von Interesse sein, wozu Peto-Pike's Mehrgruppenvergleich herangezogen werden kann. Daten aus der Literatur können nicht angegeben werden, so dass BiAS.' Ergebnisse mit den Programmen WinStat und MedCalc verglichen wurden. (Vorsicht in WinStat 3.1 bei Bindungen und zensierten Werten am Ende einer Liste!) Multiple Vergleiche zu diesem Test sind nicht bekannt, so dass diese mit Hilfe von paarweisen Zweigruppenvergleichen durchgeführt werden. Bitte beachten Sie dabei die Bonferroni-Korrektur bzw. die analoge Korrektur für Many-one-Vergleiche! Die Konfidenz für die Konfidenzintervalle ist im Eingabedialog des Programms frei wählbar. Log-Rank-Test (Peto-Pike für k Gruppen) Eingabedatei ist \Valide\ARMITAGE2.DAT davon Variable 1 (ÜbLeZeit) Zensur-Variable 3 (Zensur) und Gruppe(n) Var. 2 (GruppNum) = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 145 von 241

146 Chi²-Komponenten: Gruppe 1: Chi² = angenähert mit df=1 und p = Gruppe 2: Chi² = angenähert mit df=1 und p = Gruppe 3: Chi² = angenähert mit df=1 und p = Log-Rank-Test: Peto-Pike's Chi² = mit df = 2 und p = Multiple Vergleiche und Relative Hazards mit 95%-Konfidenzintervallen: Vergleich Relativer Konfidenzintervall p-werte zu den Paarvergleichen der Paare Hazard RH Linke Gr Rechte Gr unkorr. Bonferroni Bonf.Holm 1 : : : : : : Zum Multiplen Vergleich die Bonferroni-Holm-korrigierten p-werte verwenden! Many-one-Vergleiche mit einer fixen Kontrolle: Ist p(unkorrigiert)<alpha/2? Literatur: E.K. Harris, A. Albert (1991) Survivorship Analysis for Clinical Studies, Verlag Marcel Dekker. Relativer Hazard: Armitage und Berry (1988, p.431) vergleichen in einem Beispiel die Überlebenszeiten von Lymphompatienten verschiedener Stadien; die Daten zu diesem Beispiel befinden sich in BiAS.' Verzeichnis. Die Konfidenz für die Konfidenzintervalle ist im Eingabedialog wählbar. Relative Hazards sind analog zu Peto-Pike s Mehrgruppenvergleich auch bei Vorliegen von mehreren Gruppen berechenbar! Relativer Hazard Eingabedatei ist Armitage.Dat davon Variable 1 (ülezeit) und Zensur-Variable 3 (Zensur) Alle Gruppen Var. 2 (GruppNum) Relative Hazards mit 95%-Konfidenzintervallen (approx. nach Peto-Pike): Vergl. RH LiGr ReGr Vergl. RH LiGr ReGr 1 : : Im Zwei-Gruppen-Fall ist unter Log-Rank-Test Peto-Pike/Cox-Mantel eine ausführlichere Analyse mit Test und mit Konfidenzintzervallen möglich. Literatur: E.K. Harris, A. Albert (1991) Survivorship Analysis for Clinical Studies. Verlag Marcel Dekker. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 146 von 241

147 Cox-Regression: Das Programm berechnet die partiellen Koeffizienten des Cox-Modells, die entsprechenden Odds-Ratios und die zugehörigen p-werte (Wald), Bei Bindungen der Events wird die Breslow-Methode verwendet. Eine Funktion zum Modellabbau (Wald backward-elimination ) ist vorhanden. Die Ergebnisse des Programms wurden mit SPSS und R verifiziert, die zugehörigen Daten befinden sich in derdatei CoxNier.DAT und werden hier wegen des Umfangs nicht aufgelistet. Cox-Regression Eingabedatei ist \Valide\CoxNier.DAT Zielgröße ist Variable 8 (survive) ZensurVar ist Variable 9 (status) mit Einflussvariablen 2 (diff), 3 (t), 4 (lkb), 5 (m), 6 (uicc), 7 (lkq) Events: % Zensiert: % Gesamt: % Zensur: Event=0 und Zensiert=1 Events: Bei Bindungen Breslow's Approximation >> CAVE: Bei 43 Events sollten maximal etwa 4 Prädiktoren verwendet werden, >> bei Überschreitung ist die Stabilität des Modells möglicherweise unsicher. Deskriptive Statistik: Prädiktor Durchschnitt Standardabw diff t lkb m uicc lkq Iterationen mit -2LL-Konvergenzkriterium eps=1e-6: -2 Log Likelihood = : Start mit dem Null-Modell -2 Log Likelihood = : Konvergenz nach 19 Iterationen. >> CAVE: -2LL konvergierte vor dem Koeffizienten des Prädiktors m, >> der Koeffizient beta weist einen Trend gegen "unendlich" auf! Overall-Anpassung des Modells: Chi² = mit df = 6 und p = Koeffizienten beta, Standardabweichungen, p-werte und 95%-Konfidenzintervalle: Prädiktor beta StdAbw Chi² p-wert KI-unten KI-oben diff t lkb m uicc lkq BiAS. für Windows Programmversion 11 epsilon-verlag Seite 147 von 241

148 Relative Hazards = exp(beta) und 95%-Konfidenzintervalle: Prädiktor Rel.Hazard KI-unten KI-oben diff t lkb m E+999 uicc lkq Baseline Survivor Function an den Prädiktor-Mittelwerten bei "Event": Zeitpunkt Event überlebt nicht überlebt >> Die maximale Überlebenszeit Tmax = ist ein Event/Ereignis. >> Mediane Überlebenszeit Tmed = per Schnittpunkt mit BSF-Schätzer. Baseline Survivor Function per Prädiktor-Mittelwerte in Intervallen: Intervallgrenze Letzter Event überlebt nicht überlebt >> Die maximale Überlebenszeit Tmax = ist ein Event/Ereignis. >> Mediane Überlebenszeit Tmed = per Schnittpunkt mit BSF-Schätzer. Literatur: D. Collett (2003) Modelling survival data in medical research. Chapman & Hall J.F. Lawless (1982) Statistical Models and Methods for Lifetime Data. Wiley NY J.C. Pezzullo (2007) Scripts zum Cox-Modell, statpages.org, Georgetown Univ US E. Vittinghoff, C.E. McCulloch (2007) Relaxing the rule of ten events per variable in logistic and Cox regression. Amer. J. Epidemiol. 165:710-8 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 148 von 241

149 A.11 Cluster-Analyse Clusteranalyse mit Graphik nach McQueen Single-Linkage-Verfahren (diverse Metriken) Structogramm zur Clusterung Alternative Distanzmaße KFA zur Clusterung binärer und kategorialer Daten (A.5) Clusteranalyse nach McQueen: Deichsel und Trampisch (1985, p.3) geben einen Datensatz zur Clusteranalyse mit KMeans an; die 20 Wertepaare ergeben sich aus dem folgenden Ausdruck der ermittelten Cluster; eine Graphik ist möglich: Cluster-Analyse nach McQueen und Rubin Eingabedatei ist Deichsel003.DAT davon Variablen 1 (AP[U/l]), 2 (Fe[mg/l]) Die Daten werden untransformiert verarbeitet. Clusterzentren, Minima und Maxima: Nr. n Güte der Klassifikation: F = MQzwi/MQin = mit df = ( 3, 16) Cluster 1 : i Nr Cluster 2 : i Nr Cluster 3 : i Nr BiAS. für Windows Programmversion 11 epsilon-verlag Seite 149 von 241

150 Cluster 4 : i Nr VORSICHT: Die Numerierung (Nr.) der Objekte bezieht sich auf die Reihenfolge der Eingabedatei und berücksichtigt eventuell fehlende Werte/Gruppen! Literatur: H. Späth (1977) Cluster-Analyse-Algorithmen. Oldenbourg-Verlag München-Wien, 2. Auflage. J. Rubin (1967) Optimal Classification into Groups: An Approach for Solving the Taxonomy Problem. J. Theor. Biol. 15, pp J. McQueen (1967) Some Methods for Classification and Analysis of Multivariate Observations. Proc. 5th Berkely Symp. Math. Stat. Prob. 65/66, pp Single-Linkage-Verfahren: Das Verfahren wird mit den Daten von Deichsel und Trampisch (1985, p.3) unter Verwendung der Euklidischen Distanz durchgeführt. Die 20 verwendeten Wertepaare ergeben sich aus dem folgenden Ausdruck der vier ermittelten Cluster: Single Linkage: Euklidische Distanz Eingabedatei ist Deichsel003.DAT davon Variablen 1 (AP[U/l]), 2 (Fe[mg/l]) Die Daten werden untransformiert verarbeitet. Minimalbaum der Clusterung: Nr Nachb Rang Distanz XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX XXXXXXXXXXXXXXXXXXXXXXXXXXXX XXXXXXXXXXXXXXXXXXXXXXXX XXXXXXXXXXXXXXXX XXXXXXXXXXXXXXX XXXXXXXXXXXXXXX XXXXXXXXXXXXX XXXXXXXXXXXXX XXXXXXXXXXXXX XXXXXXXXXXX XXXXXXXXXXX XXXXXXXXXXX XXXXXXXXXXX XXXXXXXXX XXXXXXXX XXXXXXXX XXXXXXXX BiAS. für Windows Programmversion 11 epsilon-verlag Seite 150 von 241

151 Cluster für Schwellendistanz 1.: Cluster 1 i Nr. Werte Cluster 2 i Nr. Werte Cluster 3 i Nr. Werte Cluster 4 i Nr. Werte VORSICHT: Die Numerierung (Nr.) der Objekte bezieht sich auf die Reihenfolge der Eingabedatei und berücksichtigt eventuell fehlende Werte/Gruppen! Literatur: H. Späth (1977) Cluster-Analyse-Algorithmen. Oldenbourg-Verlag München-Wien. G. Deichsel, H.J. Trampisch (1985) Cluster- und Diskriminanzanalyse. Fischer-Verl. Alternative Distanzmaße: Neben der Euklidischen Distanz kann man in BiAS. noch einige andere Distanzmaße verwenden: Die Euklidische Distanz gilt für quantitative Merkmale und ist definiert durch die Beziehung d ij = (Σ(x ik -x jk )²). Die L1-Norm (City-Block-Metrik, Manhattan-Metrik) ist auf quantitative (speziell diskrete) und, falls äquidistante (?) Stufen vorliegen, auch auf ordinale Merkmale anwendbar: dij=σ x ik -x jk. Die Canberra-Metrik d ij =Σ( x ik -x jk / x ik +x jk ) kann auf diskrete, quantitative und ordinale Merkmale angewendet werden. Die Tanimoto-Distanz setzt Merkmale mit den Ausprägungen "0" und "1", also binäre Daten voraus; die Distanz ist definiert durch d ij =1-(Anzahl Komponenten mit "x ik =1 und x jk =1")/(Anzahl Komponenten mit "x ik =1 oder x jk =1"). Die Tanimoto- Distanz wichtet "1" (z.b. "vorhanden") stärker als "0" ("nicht vorhanden"); Alternative ist die Simple- Matching-Distanz, die diese Eigenschaft nicht besitzt. Die Simple-Matching-Distanz ist auf diskretquantitative, ordinale und nominale (resp. binäre) Merkmale anwendbar und errechnet sich aus d ij =Σ(x ik =x jk )/N. Es sollte darauf geachtet werden, dass alle Skalen möglichst die gleiche Anzahl von Stufen besitzen, um eine Dominanz von Skalen mit geringer Stufenzahl zu verhindern. (Literatur: Sokal und Sneath (1973)) Das Ergebnis einer Analyse kann von der unterschiedlichen Variabilität der untersuchten Größen abhängig sein. BiAS. sieht deshalb in einigen Fällen eine Standardisierung mit der z-transformation x'=(x-x)/s vor. Andere Standardisierungen sind möglich (vgl. auch BiAS.' Formelinterpreter). Nach Berechnung mehrerer Cluster-Läufe kann ein einfaches Struktogramm der F-Werte in Abhängigkeit von der Cluster-Zahl gezeigt werden. Analog zum Scree-Test der Faktorenanalyse BiAS. für Windows Programmversion 11 epsilon-verlag Seite 151 von 241

152 lassen große Gradienten der F-Werte auf wesentliche weitere Cluster-Zerlegungen schließen und gestatten einen Rückschluss auf die "optimale" Cluster-Anzahl des Problems. Mangels durchgerechneter Beispiele aus der Literatur werden hier keine weiteren Ausgaben des Programms angegeben. Alle Programm-Module wurden jedoch mit ausführlichen Per-Hand-Berechnungen überprüft. Structogramm: In der Clusteranalyse wird jeweils die Anzahl der Cluster vorgegeben und das Programm bestimmt für eine Cluster-Konfiguration die Güte der Trennung mit Hilfe eines F-Wertes. Das Structogramm stellt die verschiedenen F-Werte graphisch dar: Analog zum Scree-Test der Faktorenanalyse lassen sich große Gradienten der F-Werte als wesentliche, weitere Clusteraufteilung interpretieren und gestatten somit Rückschlüsse auf eine optimale Cluster-Zahl. Structogramm > F 2 +XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX 3 +XXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXXX 4 +XXXXXXXXXXXXXXXXXXXXXXXX 5 +XXXXXXXXXXXXXXXXXX 6 +XXXXXXXXXXXXX v Anz. Cluster Maximaler Gradient von 3 nach 4: Gmax = Literatur: H. Späth (1977) Cluster-Analyse-Algorithmen. Oldenbourg München Wien, 2. Aufl. D. Steinhausen, K. Langer (1977) Clusteranalyse. degruyter Berlin. Graphik 2D-Clusteranalyse: Für die beiden Variablen AP[U/l] und Fe[mg/l] der Datei Deichsel.003 wird eine Kmeans-Cluster-Analyse durchgeführt; die vier tatsächlich vorhandenen Gruppen 1-4 werden korrekt reproduziert. Bitte beachten Sie auch die Optionen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 152 von 241

153 A.12 Diskriminanzanalyse Lineare Diskriminanzanalyse 2D-Graphik zur Linearen Diskriminanzanalyse Abbaumodell zur Linearen Diskriminanzanalyse Quadratische Diskriminanzanalyse Stoller's nicht-parametrische Diskriminanzanalyse Univariate parametrische Diskriminanzanalyse ROC-Kurven zu Diskrimination zweier Gruppen (A.18) Graphik zu ROC-Kurven (A.18) Propensity-Score per Diskriminanzanalyse KFA zur Diskrimination binärer und kategorialer Daten (A.5) Lineare Diskriminanzanalyse: Eine Gruppe Hämophilie-Überträgerinnen soll anhand der Parameter "Faktor VIII Aktivator" und "Faktor VIII Antikörper" von einer zweiten Gruppe von Nicht- Überträgerinnen optimal getrennt werden (Deichsel und Trampisch (1985, p.86)). Bemerkung: Im Vergleich zur Originalarbeit sind Abweichungen in den Daten festzustellen, so dass sich möglicherweise aus diesem Grund auch geringfügig abweichende Resultate ergeben. Im Zweidimensionalen ist auch eine Graphik möglich. Die Zuordnungswahrscheinlichkeiten Prob in der Ausgabe entsprechen dem Propensity-Score, der hier nicht explizit aufgeführt wird. Lineare Diskriminanzanalyse Eingabedatei ist Herman000.DAT davon Variablen 1 (F8_Aktiv), 2 (F8_Antik) und Gruppen Var. 3 (Übertr.) = 1 und 2 Durchschnitte der Variablen: Var Gruppe 1 Gruppe Kovarianzmatrix (pooled): hom*ogenität der Kovarianzmatrizen: Box' Prüfgröße Chi² = mit df = 3 ( p = ) Fisher's Lineare Diskriminanzfunktion h = (b)*y-c = Summe(bi*yi)-c: (Mit den a-priori-wahrscheinlichkeiten pi1 und pi2 für die beiden Gruppen: h>ln(pi2/pi1): zu Gruppe 1, h<ln(pi2/pi1): zu Gruppe 2.) Konstante c = Koeffizient b( 1) = Koeffizient b( 2) = Mahalanobis' D² = Hotelling's T² = Fisher's Prüfgröße F = mit df = ( 2, 50) ( p = ) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 153 von 241

154 Gruppenmittelwerte der Fisher'schen Diskriminanzfunktion: Gruppe 1: und Gruppe 2: Fehlklassifikationswahrscheinlichkeit bei g l e i c h e n a-priori-wahrscheinlichkeiten der Gruppen ist P = Zuordnung der eingelesenen Wertetupel bei gleichen a-priori-wahrscheinlichkeiten pi1 und pi2 für die Gruppen; * bedeutet eine falsche Zuordnung des Wertetupels! Prob=p(1) ist die Wahrscheinlichkeit für Gruppe 1 (Modell) und der Propensity-Score Gruppe Zuord Prob Wertetupel * * * BiAS. für Windows Programmversion 11 epsilon-verlag Seite 154 von 241

155 Zuordnungsraten (Resubstitution, gleiche a-priori-ws.): richtig falsch gesamt Gruppe 1: n % Gruppe 2: n % gesamt n % Histogramm der Werte der Trennfunktion (relative Häufigkeiten): Max.Häuf + O O O O O O O O OOOO OO OOOO O OO OO OO O OOOO OO OOOO O OO OO OO O Gruppe T O OOOOOOOOOOO OOOO Gruppe 2 O OOOOOOOOOOO OOOO OOOOO O O O OOOOO O O O OO O O O O O O Max.Häuf + Vorsicht: Die relativen Häufigkeiten sind i.d.r. gerundet und keine Anzahlen! ---> In der Datei Herman.000 sind nur zwei Gruppen enthalten. ---> Fügt man der Datei eine dritte Gruppe mit Testwerten ---> hinzu, so können diese Werte vom Programm klassifiziert ---> und deren Zuordnungswahrscheinlichkeiten berechnet werden! Literatur: Inst. of Math. Stat. (ed., 1989) Discriminant Analysis and Clustering. Stat. Science Vol. 4, No. 1, pp J. Hartung, B. Elpelt (1986) Multiv. Statistik. Oldenburg München Wien J.E. Overall, C.J. Klett (1972) Applied Multiv. Analysis. McGraw Hill R. B. D'Agostino (1998) Tutorial in Biostatistics: Propensity Score methods for bias reduction in the comparison of a treatment to a non-randomized control group. Statistics in Medicine 17, pp Abbaumodell zur Linearen Diskriminanzanalyse: In BiAS. wird nur die 2-Gruppen-DA angeboten. In diesem Fall kann der Fisher'sche Ansatz (z.b. in Flury und Riedwyl, Fischer 1983) verwendet werden: Man verwendet die Multiple Regression und deren Abbauverfahren und setzt als formale Zielgröße' der beiden Gruppen n1/(n1+n2) bzw. n2/(n1+n2) ein. Damit erübrigt sich mit Hinweis auf die Regressionsrechnung eine explizite Validierung und im Folgenden wird nur mit Hilfe der Testdatei Test.DAT ein formales Rechenbeispiel angegeben: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 155 von 241

156 Lineare Diskriminanzanalyse: Abbauverfahren Eingabedatei ist...\test.dat davon Variablen 1 (VarEins), 2 (VarZwei) und Gruppen Var. 3 (GruppNum) = 1 und 3 Abbau des Modells: Eliminationskriterium ist alpha=0.1! Prüfung des vollständigen Modells mit 2 Variablen: Multiples Bestimmtheitsmaß B = Prüfung der partiellen Koeffizienten b(i): Variable b(i) s(b(i)) F df1 df2 p VarEins E E VarZwei E E Modellabbau: Die Einflussgröße VarEins wird jetzt eliminiert: Multiples Bestimmtheitsmaß B = Prüfung der partiellen Koeffizienten b(i): Variable b(i) s(b(i)) F df1 df2 p VarZwei E E Abbau beendet: Noch vorhandene Variable/n signifikant bei alpha=0.1! Zur Ermittlung der Klassifikationsraten und der Zuordnungen der Werte auf Basis des minimalen Modells kann die Lineare Diskriminanzanalyse ('volles Modell') verwendet werden! Literatur: M.M. Tatsuoka (1971) Multivariate Analysis. John Wiley. B. Flury, H. Riedwyl (1983) Angew. multivariate Statistik, Fischer. Quadratische Diskriminanzanalyse: In der Literatur wurde kein komplett durchgerechnetes Beispiel zur QDA gefunden, so dass diese anhand der Publikation des Inst. of Math. Stat. (1989) und der LDA verifiziert wurde. Quadratische Diskriminanzanalyse Eingabedatei ist Herman000.DAT davon Variablen 1 (F8_Aktiv), 2 (F8_Antik) und Gruppen Var. 3 (Übertr.) = 1 und 2 Eingabedatei/daten wie zur Linearen Diskriminanzanalyse! Durchschnitte der Variablen: Var Gruppe 1 Gruppe Kovarianzmatrix 1 : Kovarianzmatrix 2 : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 156 von 241

157 hom*ogenität der Kovarianzmatrizen: Box' Prüfgröße Chi² = mit df = 3 ( p = ) Die Prüfung auf p-variate Gauß-Verteilung erfolgt im Modul 'Gauß-Verteilung'! Quadratische Diskriminanzfunktion h = y*(matb)*y-y*(b)+c1 <?> c2+2*ln(pi2/pi1) (Mit den a-priori-wahrscheinlichkeiten pi1 und pi2 für die beiden Gruppen: h > c2+2*ln(pi2/pi1): zu Gruppe 1, h < c2+2*ln(pi2/pi1): zu Gruppe 2) Matrix MatB: Vektor b: Koeffizient b( 1) = Koeffizient b( 2) = Konstante c1 = Konstante c2 = Gruppenmittelwerte der Quadratischen Diskriminanzfunktion: Gruppe 1 Gruppe Zuordnung der eingelesenen Wertetupel bei g l e i c h e n a-priori-wahrscheinlichkeiten pi1 und pi2 für die Gruppen; * bedeutet eine f a l s c h e Zuordnung des Wertetupels! Gruppe Zuordnung Wertetupel BiAS. für Windows Programmversion 11 epsilon-verlag Seite 157 von 241

158 Zuordnungsraten (Resubstitution, gleiche a-priori-ws.): richtig falsch gesamt Gruppe 1: n % Gruppe 2: n % gesamt n % > Bitte beachten Sie, dass die QDL hier günstigere Ergebnisse ---> erzielt als vergleichbar die Lineare Diskriminanzanalyse! Histogramm der Werte der Trennfunktion (relative Häufigkeiten): Max.Häuf + O O O O O O O O OO O O O O OO O O OOO O OO O O O O OO OO O OOO O OO O O O O OO OO O Gruppe T O OOOOOOOOO OOOO Gruppe 2 O OOOOOOOOO OOOO OOOO OO O OOOO OO O OOOO O OOOO O OOOO O OO O O MaxHäuf + OO O O Vorsicht: Die relativen Häufigkeiten sind i.d.r. gerundet und keine Anzahlen! ---> In der Datei Herman.000 sind nur zwei Gruppen enthalten. ---> Enthält die Datei eine dritte Gruppe mit Testwerten, so ---> können diese Werte vom Programm klassifiziert werden!! Literatur: Inst. of Math. Stat. (ed., 1989) Discriminant Analysis and Clustering. Stat. Science Vol. 4, No. 1, pp J. Hartung, B. Elpelt (1986) Multivariate Statistik. Oldenburg München Wien. J.E. Overall, C.J. Klett (1972) Applied Multivariate Analysis. McGraw Hill. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 158 von 241

159 Stoller's nicht-parametrische Diskriminanzanalyse: Stoller (1954) versucht, zwei a- posteriori klassifizierte Gruppen von Studenten auf Grund eines Vortests zu trennen: STOLLER's nicht-parametrische Diskriminanzanalyse Eingabedatei ist Stoller772.DAT davon Variablen 1 (StudScor) und Gruppen Var. 2 (Gruppe) = 1 und 2 Lfd Gru Sym Eingabe Trennpkt Ungl. a-priori-ws Gleiche a-priori-ws Nr. ppe bol wert X Xtrenn Regel 1 Regel 2 Regel 1 Regel x * x x x x x x x x x x x x x x x x x * * 19 2 x x x x x x * x Bei ungleichen a priori-wahrscheinlichkeiten: Regel 2 X < Xtrenn : Zuordnung zu Gruppe 1 X > Xtrenn : Zuordnung zu Gruppe 2 Die minimale Fehlklassifikationsrate p = ist durch '*' markiert. Xtrenn aus der Tabelle ablesen! Bei gleichen a priori-wahrscheinlichkeiten: Regel 2 X < Xtrenn : Zuordnung zu Gruppe 1 X > Xtrenn : Zuordnung zu Gruppe 2 Die minimale Fehlklassifikationsrate p = ist durch '*' markiert. Xtrenn aus der Tabelle ablesen! Literatur: D.S. Stoller (1954) Univariate two-population distribution-free discrimination. J. Amer. Statist. Assoc. Vol. 49, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 159 von 241

160 Univariate parametrische Diskriminanzanalyse: Trennung zweier Gruppen anhand eines Parameters (Berechnungen per Hand überprüft via Test.DAT): Univariate parametrische Diskriminanzanalyse Eingabedatei ist Test.DAT davon Variablen 2 (VarZwei) und Gruppen Var. 3 (GruppNum) = 2 und 3 Test auf Gauß-Verteilung (Dallal-Wilkinson-korrigiert): Gruppe 2 : Kolmogoroff-Smirnoff's delta = (p> ) Ok! Gruppe 3 : Kolmogoroff-Smirnoff's delta = (p> ) Ok! Vergleich der Varianzen (zweiseitiger F-Test): Prüfgröße F = 2.61 mit df=(2,3) und p= Ok! Xquer s s² n Stichprobe Stichprobe Bei gleichen a-priori-wahrscheinlichkeiten der beiden Gruppen: Optimaler Trennpunkt (gewichtet): X < Trennpunkt: Zuordnung zu Gruppe 2 X > Trennpunkt: Zuordnung zu Gruppe 3 Zuordnungsraten (Resubstitution): richtig falsch gesamt Gruppe 2: n % Gruppe 3: n % gesamt n % Literatur: M.M. Tatsuoka (1971) Multivariate Analysis. John Wiley. B. Flury, H. Riedwyl (1983) Angew. multivariate Statistik, Fischer. Graphik 2D-Diskriminanzanalyse: Trennung von zwei Gruppen (Überträgerinnen und Nicht- Überträgerinnen der Haemophilie) anhand der beiden Parameter FaktorVIII-Aktivität und -Antikörper (Datei Herman.000). Die Berechnungen und Optionen finden sich an anderer Stelle: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 160 von 241

161 A.13 Zeitreihenanalyse Varianzanalyse mit Messwiederholungen Mann-Test auf Trend Iterationstest Wallis-Moore's Phasenhäufigkeitstest Cochran s Niveaukonstanz-Test Neumann s Trend-Test Page-Test auf Trend Durbin-Watson-Test Ljung-Box-Test Deskriptives (Xquer, s etc.) Graphik Box-Plot Zeitverläufe Graphik Bar-Plot Zeitverläufe Graphik Einzelverläufe Cusum-Analyse für dichotome und quantitative Daten Varianzanalyse mit Messwiederholungen: Es wird geprüft, ob der Haut-Widerstand Tagesschwankungen unterliegt, wozu eine Gruppe von Probanden morgens, mittags und abends untersucht wurde (Bortz (1977,2005, p.412)). Eine graphische Darstellung ist mit Einzelverläufen und Box-Plots möglich, weitere Berechnungen finden sich in Deskriptives. Unifaktorielle Varianzanalyse mit Messwiederholungen Eingabedatei ist Bortz412.DAT davon Variablen 1 (morgens), 2 (mittags), 3 (abends) i morgens mittags abends Tabelle der Varianzanalyse: Source SQ MQ DF F p zwischen innerhalb Zeit Rest Gesamt Zum Vergleich der Faktorstufen wird der p-wert bzgl. "Zeit" verwendet. Prüfung der Voraussetzungen (hom*ogenität der Varianzen und der Korrelationen zwischen den Stufen des Faktors: Box-Test) : Chi² = mit df = 4 ( p = ) Ok! BiAS. für Windows Programmversion 11 epsilon-verlag Seite 161 von 241

162 Test auf Gauß-Verteilung der 3 Variablen (Dallal-Wilkinson-korrigiert): morgens: Kolmogoroff-Smirnoff's delta = ( p = ) Cave! mittags: Kolmogoroff-Smirnoff's delta = ( p = ) Cave! abends: Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Multiple Vergleiche - Bonferroni-Holm-korrigierte t-tests und Scheffé-Tests: Nr Mult. Paarvergleich p-unkorr p-bonferroni p-bonf.holm p-scheffé 1 morgens...mittags morgens...abends mittags...abends Literatur: J. Bortz (2005) Lehrbuch der Statistik, Springer. pp. 423ff. Mann-Test auf Trend: Besteht in den Jahren ein Trend in der Anzahl unehelicher Geburten im Staate Kansas (Hartung (1982, p.250))? Mann-Test auf Trend Eingabedatei ist Hartung250.DAT davon Variablen 1 (1940), 2 (1945), 3 (1947), 4 (1950), 5 (1955) i Var. 1 Var. 2 Var. 3 Var. 4 Var Durchschnitte der Variablen: Nr Var Xquer Prüfung auf Trend für die Zeitreihe der Durchschnitte (zweiseitig): Prüfgröße (Gauß) N = ( p = ) Prüfung auf Trend für die 1 unabhängige Zeitreihe mit der 'Inversen Normalverteilung' (zweiseitig): Prüfgröße (Gauß) N = ( p = ) Literatur: H.B. Mann (1945) Nonparametric Tests against Trend. Econometrika 13, pp J. Hartung (1982) Statistik. Oldenburg München Wien. B.J. Winer (1971) Statistical Principles in Experimental Design. McGraw Hill NY. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 162 von 241

163 Cochran s Niveaukonstanz-Test: Es werden zum Beispiel Hormon-Werte einer Patientin untersucht. Es stellt sich die Frage, ob die Hormonwerte vor und während der Schwangerschaft konstant bleiben oder ob man von einer Niveauverschiebung ausgehen muss: Cochran s Niveaukonstanz-Test Durchschnitt Xq1 : 12.1 Anzahl Messwert n1: 12 Durchschnitt Xq2 : 15.8 Anzahl Messwert n2: 14 Chi² = mit df=1 und p= Literatur: Cochran (1954) Some methods for strengthening the common Chi²-tests. Biometrics 10, pp Neumann s Trend -Test: Der Test wird häufig im Zusammenhang mit der Qualitätskontrolle im Labor eingesetzt. In Anhang A.16 (Qualitätssicherung im Labor, RiLiBÄK) findet sich ein durchgerechnetes Beispiel, weitere Überprüfung durch per-hand-berechnungen. Im Programm wird die exakte Methode nach Hart verwendet, ab n=60 eine asymptotische Methode (Sachs 2003). Neumann s Trend-Test Eingabedatei ist...\valide\sysmex.dat davon Variable 2 (Geraet1) Eingelesene Daten: 1: : : : : : : : : : : : : : : : : : : : : : : : : 4.50 Xquer = SD=s = s² = n = 25 Test auf Gauß-Verteilung der Werte (Dallal-Wilkinson-korrigiert): Kolmogoroff-Smirnoff's delta = ( p > ) Ok! Trendtest nach Neumann et al.: Prüfgröße = : p > (einseitig exakt) > kein Trend. Literatur: J Neumann, RH Kent, HB Bellinson, BI Hart (1941) The mean square successive difference. Annals of Mathematical Statistics Vol.12, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 163 von 241

164 Iterationstest: Bildet die Folge von 8 Münzwürfen W W W Z W W Z Z eine zufällige Folge oder existieren "Gruppierungen"? (Aus: Sachs (1992, Kap. 472)) Als Eingabe in das Programm wird die Folge verwendet, da BiAS. keine alphamerischen, sondern nur numerische Eingaben akzeptiert. Iterationstest (Wald-Wolfowitz) Bezeichnung: Sachs (1992, Kap. 472) i Var.1 Var.2 Var.3 Var.4 Var.5 Var.6 Var.7 Var Durchschnitte der Variablen: Nr Var Xquer Iterationstest für die Zeitreihe der Durchschnitte (zweiseitig): Prüfgröße (Gauß) N = ( p = ) (Wenig Iterationen!) Iterationstest für 1 Zeitreihe (zweiseitig): Prüfgröße (Gauß) N = ( p = ) (Wenig Iterationen!) Der Iterationstest ist nur für Alternativdaten und stetige Skalen zulässig. Für 1) ordinale Skalen mit wenigen Stufen und 2) für mittlere Zeitreihen bei ordinalen und nominalen Skalen und kleiner Fallzahl sind Verzerrungen zu erwarten! Literatur: H. Büning, G. Trenkler (1978) Nicht-param. stat. Methoden. De Gruyter. L. Sachs (1992) Angewandte Statistik (Kap. 472), Springer. Wallis-Moore's Phasenhäufigkeitstest: Die Aufeinanderfolge gleicher Vorzeichen von Differenzen X(i+1)-X(i) wird von Wallis und Moore (1941) als "Phase" bezeichnet; der Test basiert auf der Häufigkeit von Plus- und Minusphasen. Ist die Gesamtzahl der Phasen klein, so weist diese auf eine "Trendbeharrlichkeit" hin. (Sachs errechnet die Prüfgröße von N=2.56) Wallis-Moore's Phasenhäufigkeitstest Eingabedatei ist Sachs486.DAT davon Variablen 1 (M1) bis 22 (M22) VarNr: Werte: Phasenhäufigkeitstest für 1 Folge/Zeitreihe (zweiseitig) bei insgesamt 7 relevanten Phasen (erwartet: 12.3). Prüfgröße (Gauß) N = ( p = ) ('Wenig Phasen') Literatur: W.A. Wallis, G.H. Moore (1941) A significance test for time series. J. Amer. Statist. Assoc. 36, pp L. Sachs (1997) Angewandte Statistik (Kap. 473), 8. Aufl. Springer. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 164 von 241

165 Durbin-Watson-Test: Beurteilung der zeitlichen Konstanz eines Zielparameters in Abhängigkeit von der Zeit. Diese Tests testen auf Autokorrelation erster Ordnung, d.h, ob die Werte einer Reihe von den jeweiligen unmittelbaren Vorgängern geprägt sind. Der Ljung-Box-Test wird hier ebenfalls nur für Autokorrelationen erster Ordnung verwendet, höhere Ordnungen als hier können im Menü unter "Ljung-Box-Test" berechnet werden. Der Test erfolgt nach linearer Regression auf Basis der Residuen des Modells oder alternativ mit den "Residuen" bezüglich des Mittelwertes der Zielvariablen. Die Prüfgröße zum DW-Test wird zunächst klassich-konservativ anhand von Tabellen aus Savin und White (1977) geprüft. Als alternative Testgröße wird eine t-verteilte Größe verwendet, dazu SPSS20. Eine Überprüfung der Ergebnisse wurde in Teilen mit SPSS20 vorgenommen. Durbin-Watson-Test Eingabedatei ist..\valide\test.dat Zielgröße Y = Variable 1 = VarEins Einflussgröße X = Variable 2 = VarZwei Anzahl fehlender Werte: 1 Regression und Korrelation "Y auf X": Regressionskoeffizient b = Konstanter Achsenabschnitt c = Korrelationskoeffizient r = Bestimmtheitsmaß B = Testgröße der Regression t = Überschreitungswahrsch. p = Stichprobenumfang n = 11 Anzahl der Freiheitsgrade n-2 = 9 Konfidenzintervalle für die Steigung=Regressionskoeffizient: P = 0.90: ( , ) P = 0.95: ( , ) P = 0.99: ( , ) Konfidenzintervalle für den Achsenabschnitt auf der Y-Achse: P = 0.90: ( , ) P = 0.95: ( , ) P = 0.99: ( , ) >> Beide Tests untersuchen die Residuen bezüglich der Regressionsgeraden. >> Die Daten werden gemäß der Werte der Variablen X=Zeit=VarZwei geordnet. Durbin-Watson-Test mit Prüfgröße D und Durbin's h (approximativ): Durbin-Watson's Prüfgrüße D = Durbin-Watsons's Korrelationskoeffizient: r = Tabellarischer Test gemäß Savin & White: p > Test via t(df=8), Testgröße t=0.631: p = Durbin's Gauß-verteilte Prüfgröße h = StdAbw des Regressionskoeffizienten: s = Zweis. Überschreitungswahrscheinlichkeit: p = Ljung-Box-Test mit linearem Lag 1. Ordnung: Korrelationskoeff. Res mit Lag 1. Ordnung r = Ljung und Box' Prüfgröße (Chi²(df=1)) Q = Zweis. Überschreitungswahrscheinlichkeit: p = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 165 von 241

166 Literatur: J. Durbin, G.S. Watson (1950,1951) Testing for Serial Correlation in Least Squares Regression. I: Biometrika 37, , II: Biometrika 38, G.M. Ljung, G.E.P. Box (1978) On a Measure of a Lack of Fit in Time Series Models. Biometrika 65, N.E. Savin, K.J. White (1977) The Durbin-Watson Test for Serial Correlation with Extreme Sample Sizes or Many Regressors. Econometrica 45, Ljung-Box-Test: Beurteilung der zeitlichen Konstanz eines Zielparameters in Abhängigkeit von der Zeit. Der Test beruht auf Autokorrelation k-ter Ordnung, d.h, ob die Werte einer Reihe von den jeweiligen unmittelbaren Vorgängern geprägt sind. Der Test erfolgt nach linearer Regression auf Basis der Residuen des Modells oder alternativ mit den "Residuen" bezüglich des Mittelwertes der Zielvariablen. Eine Überprüfung der Ergebnisse wurde mit anderen, bereits validierten Teilen des Programms und weiterhin mit per-hand-berechnungen vorgenommen. Ljung-Box-Test Eingabedatei ist..\valide\test.dat Zielgröße Y = Variable 1 = VarEins Einflussgröße X = Variable 2 = VarZwei Ausgabe zur Regression wie zum Durbin-Watson-Test CAVE: Empfehlung für n=11: Lag < elog(11)=2.4 - hier problematisch. Ljung-Box-Test mit linearem Lag bis 3. Ordnung und Chi²-Komponenten: >> Der Test untersucht die Residuen bezüglich der Regressionsgeraden. >> Die Daten werden gemäß der Werte der Variablen X=Zeit=VarZwei geordnet. Lag n(lag) r Chi² df p p(<=lag) * Overall-Ljung-Box-Test: CAVE: Der Overall-Test ist wegen der mit "*" markierten Lags problematisch. Literatur: G.M. Ljung, G.E.P. Box (1978) On a Measure of a Lack of Fit in Time Series Models. Biometrika 65, P. Brockwell, R. Davis (2002) Introduction to Time Series and Forecasting 2nd. ed. Springer. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 166 von 241

167 Deskriptives (Zeitreihen): Berechnung von Zeilendurchschnitten, Streuungen, Medianen, Quartilen und Extrema für Verlaufsreihen. Graphische Darstellungen als Einzelverläufe oder Box-Plots sind möglich. Untersucht wird hier der Hautwiderstand zu 3 Zeitpunkten: Deskriptives: Zeitreihen Eingabedatei ist Bortz412.DAT davon Variablen 1 (morgens), 2 (mittags), 3 (abends) Für alle 3 Zeitpunkte/Spalten mit je n = 10 Versuchseinheiten/Zeilen: Nr Xquer s Median Q1 Q3 Minimum Maximum Für alle 10 Versuchseinheiten/Zeilen mit je k = 3 Zeitpunkten/Spalten: Nr Xquer s Median Q1 Q3 Minimum Maximum Graphik Box-Plot-Verlaufsreihen: Untersuchung des Haut - Widerstands morgens, mittags und abends (Bortz (1977, p.412)), hier mit Median und Quartilen; als alternative Graphik kommen Bar- Plots und Einzelverläufe in Frage. Berechnungen vgl. ANOVA und Deskriptives : Gruppierte Darstellungen (hier mit anderen Daten) sind ebenfalls möglich: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 167 von 241

168 Graphik Bar-Plot-Verlaufsreihen: Untersuchung des Haut - Widerstands morgens, mittags und abends (Bortz (1977, p.412)), hier mit x und Standardabweichung s; als alternative Graphik kommen Box-Plots und Einzelverläufe in Frage. Berechnungen vgl. ANOVA und Deskriptives : Gruppierte Darstellungen (hier mit anderen Daten) sind ebenfalls möglich: Graphik Einzelverläufe: Untersuchung des Haut-Widerstands morgens, mittags und abends (Bortz (1977, p.412)). Berechnungen finden sich zur ANOVA mit Messwiederholungen und zur Deskriptiven Statistik, eine alternative Graphik ist mit Box-Plots und Bar-Plots möglich: Gruppierte Darstellungen (hier mit anderen Daten) sind ebenfalls möglich: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 168 von 241

169 Cusum-Analyse für dichotome Daten: Welche Fehlerraten sind während eines Trainings akzeptabel bzw. unakzeptabel? Zur Verifikation wurden Daten und ein durchgerechnetes Beispiel aus Sivaprakasam und Purva (2010) verwendet. Die Wahrscheinlichkeiten α und β für die fälschliche Ablehnung bzw. Annahme der Nullhypothese können im Eingabedialog gewählt werden. Die grauen Balken bedeuten die Ablehnungsbereiche. Im Eingabedialog sind neben den beiden Irrtumswahrscheinlichkeiten die akzeptable und die nicht-akzeptable Fehlerrate anzugeben. Die verwendeten Daten stehen in der Datei..\Valide\CusumDicho.DAT: J. Sivaprakasam, M. Purva (2010) CUSUM analysis to assess competence: what rate is acceptable? Clin. Teach. 7, pp Cusum-Analyse für quantitative Daten: Bei Prins (editor, 2012) findet sich ein Beispiel zur Kontrolle eines Prozesses. Zur Verifikation wurde dieses Beispiel mit den angegebenen Daten verwendet. In der Abbildung sind die out of control -Werte durch ein x markiert. Die Wahrscheinlichkeiten α und β für die fälschliche Ablehnung bzw. Annahme der Nullhypothese können im Eingabedialog gewählt werden. Die textliche Programmausgabe umfasst eine Tabelle u.a. der Cusum-Werte, wird aber hier nicht angegeben. Die verwendeten Daten stehen in der Datei..\Valide\CusumQuant.DAT: J. Prins (editor, 2012) e-handbook of Statistical Methods. NIST/SEMATECH BiAS. für Windows Programmversion 11 epsilon-verlag Seite 169 von 241

170 A.14 Faktorenanalyse Zentroid- und Varimax-Methode Explorative Faktorenanalyse Konfirmatorische Faktorenanalyse Spearman-Korrelationsmatrix Pearson-Korrelationsmatrix Explorative Faktorenanalyse: Berechnung einer Faktorenanalyse mittels 6 Maßen an Zylindern: Da die 6 angegebenen geometrischen Größen nicht-linear verknüpft sind, ergeben sich andere als die möglicherweise erwarteten Faktoren Durchmesser und Länge (Bortz (1977, p.638)). (Die Validierung der Methode wurde anhand der Korrelationsmatrix aus Haf/Cheaib p. 90 vorgenommen; da dort die Originaldaten nicht vorliegen, wird hier auf Bortz (1977) zurückgegriffen.) Faktorenanalyse: Zentroid- und VariMax-Methode Eingabedatei ist Bortz638.DAT davon Variablen 1 (Durchmes), 2 (Länge), 3 (Grundfl.), 4 (Mantelf.), 5 (Volumen), 6 (Diagonal) Pearson-Korrelationsmatrix: 1. Zeile: Korrelationskoeffizient r 2. Zeile: Überschreitungswahrsch. p Durchme Länge Grundfl Mantelf Volumen Diagona Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Unrotierte Faktoren (Zentroid-Verfahren): Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Kommunalitäten: Durchmes : *) Länge : Grundfl. : *) Mantelf. : Volumen : Diagonal : *) *) >1 wegen Kommunalitätenschätzung per Spaltennorm, cf. Haf/Cheaib. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 170 von 241

171 Rotierte Faktoren (Varimax-Rotation): Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Varianzanteile (%): absol. kumul. Faktor 1: Faktor 2: Residuenmatrix nach 2 extrahierten Faktoren: Durchme Länge Grundfl Mantelf Volumen Diagona Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Literatur: J. Bortz (1989) Statistik, Springer-Verlag. A.L. Comry (1973) A First Course in Factor Analysis, Acad.Press N.Y. C. Haf, T. Cheaib (1985) Multivariate Statistik, Vieweg-Verlag. L.Thurstone (1947) Multiple Factor Analysis, Univ. of Chicago K. Überla (1971) Faktorenanalyse, Springer-Verlag. E. Weber (1974) Einführung in die Faktorenanalyse, Gustav Fischer Stuttgart. Konfirmatorische Faktorenanalyse: Zu den 6 geometrischen Zylinder-Maßen von Bortz (1977, p.638) gestattet die konfirmatorische Faktorenanalyse die Untersuchung eines hypothetisierten Ladungsmusters. (Die Validierung der Methode wurde anhand der Korrelationsmatrix aus Haf & Cheaib p. 102 vorgenommen; da dort die Originaldaten nicht vorliegen, wird hier auf Bortz (1977) zurückgegriffen.) Konfirmatorische Faktorenanalyse Eingabedatei ist Bortz638.DAT davon Variablen 1 (Durchmes), 2 (Länge), 3 (Grundfl.), 4 (Mantelf.), 5 (Volumen), 6 (Diagonal) Pearson-Korrelationsmatrix: 1. Zeile: Korrelationskoeffizient r 2. Zeile: Überschreitungswahrsch. P Durchme Länge Grundfl Mantelf Volumen Diagona Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 171 von 241

172 Hypothetisiertes Ladungsmuster: Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Kommunalitäten: Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Rotierte Faktoren: Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Varianzanteile (%): absol. kumul. Faktor 1: Faktor 2: Residuenmatrix nach 2 extrahierten Faktoren: Durchme Länge Grundfl Mantelf Volumen Diagona Durchmes : Länge : Grundfl. : Mantelf. : Volumen : Diagonal : Literatur: J. Bortz (1989) Statistik, Springer-Verlag. A.L. Comrey (1973) A First Course in Factor Analysis, Acad. Press NY C. Haf, T. Cheaib (1985) Multivariate Statistik, Vieweg-Verlag. L.L. Thurstone (1947) Multiple Factor Analysis, Univ. Chicago Press. K. Überla (1971) Faktorenanalyse, Springer-Verlag. E. Weber (1974) Einführung in die Faktorenanalyse, Fischer Stuttgart. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 172 von 241

173 A.15 Reliabilitätsanalyse Intraclass-Korrelation Measurement Error & Repeatability Cronbach s alpha Faktorenanalyse (A.14) Cohen's Kappa-Koeffizient: 2 Rater, dichotom (A.3) Cohen s Kappa-Koeffizien: 2 Rater, mehrstufig (A.4) Cohen s Kappa-Koeffizient: k Rater, mehrstufig (A.4) Pearson's Kontingenzkoeffizient: dichotom (A.3) Pearson s Kontingenzkoeffizient: mehrstufig (A.4) Intraclass-Korrelation: Vergleich zweier FEV1-Messungen bzw. Messwiederholungen zu den Zeitpunkten T1 und T2: Die Validierung erfolgt mit Hilfe der Daten und der Resultate aus Bland und Altman (1996), die Überprüfung der Konfidenzintervalle durch per-hand-berechnungen. Intraclass-Korrelation für Messwiederholungen Eingabedatei ist \Valide\ICC.DAT, davon Variablen 2 (T1), 3 (T2) i Var. 2 Var Tabelle der Varianzanalyse: Source SQ MQ df F p zwischen innerhalb Items Rest Gesamt >> Eine gute Reliabilität bedeutet einen signifikanten Unterschied bezüglich >> "zwischen" und einen nicht-signifikanten Unterschied bezüglich "Items". BiAS. für Windows Programmversion 11 epsilon-verlag Seite 173 von 241

174 >> BEURTEILUNG VON WIEDERHOLTEN MESSUNGEN nach Bland und Altman (1996), der >> ICR ist definiert durch ICR=(#Items*SQzwi-SQges)/((#Items-1)*SQges): Intraclass-Korrelationskoeffizient ICR = (p= zweiseitig) Approximatives 90%-Konfidenzintervall für ICR: [ ; ] Approximatives 95%-Konfidenzintervall für ICR: [ ; ] Approximatives 99%-Konfidenzintervall für ICR: [ ; ] Mittlerer Messfehler ("Measurement error"): SD = Wurzel(MQin) = Mittlere Differenz zwischen zwei Messungen ("Repeatability") = >> Beurteilung des ICC gemäß Landis und Koch: : slight / : fair >> : moderate / : substantial / : (almost) perfect. Literatur: JM Bland, DG Altman (1996) Measurement error and correlation coefficients. British Medical Journal 313, pp JM Bland, DG Altman (1996) Measurement error. Brit. Med. J. 313, R Osborne, WSB Paterson (1952) On the sampling variance of heritability estimates derived from variance analyses. Proc.R.Soc.Edinb. B, 64: Intraclass-Korrelation: Vergleich von k=4 Ratern, die n=6 Personen beurteilen: Die Validierung erfolgt mit Hilfe der Daten aus Shrout und Fleiss (1997), die Überprüfung der Konfidenzintervalle durch Shrout und Fleiss (1979), per-hand-berechnungen und mit den Programmen SPSS und MedCalc. Intraclass-Korrelation zum Ratervergleich Eingabedatei ist \Valide\ShroutFleiss.DAT, davon Variablen R1, R2, R3, R4 i R1 R2 R3 R Tabelle der Varianzanalyse: Source SQ MQ df F p zwischen innerhalb Items Rest Gesamt >> VERGLEICH VON k RATERN bezüglich n Subjects nach Shrout & Fleiss (1979). >> Modell: "mixed model" mit Rater "fixed" und Subjects "random", dabei >> entspricht der ICC dem ICC(3,1) nach Shrout und Fleiss' Klassifikation. Intraclass-Korrelationskoeffizient ICC = (p= zweiseitig) 90%-Konfidenzintervall für ICC=ICC(3,1): [ ; ] 95%-Konfidenzintervall für ICC=ICC(3,1): [ ; ] 99%-Konfidenzintervall für ICC=ICC(3,1): [ ; ] BiAS. für Windows Programmversion 11 epsilon-verlag Seite 174 von 241

175 Alle Intraclass-Korrelationskoeffizienten gemäß Shrout und Fleiss (1979): Subjects werden von verschiedenen, zufällig ausgewählten Ratern beurteilt: ICC(1,1) = Modell "one-way random, single measure" ICC(1,k) = Modell "one-way random, average measure" Subjects werden von den gleichen, aber zufällig ausgewählten Rater beurteilt: ICC(2,1) = Modell "two-way random, single measure" ICC(2,k) = Modell "two-way random, average measure" Subjects werden von den gleichen, jedoch fest vorgegebenen Ratern beurteilt: ICC(3,1) = Modell "two-way mixed, single measure" ICC(3,k) = Modell "two-way mixed, average measure" >> Beurteilung des ICC gemäß Landis und Koch: : slight / : fair >> : moderate / : substantial / : (almost) perfect. Literatur: PE Shrout, JL Fleiss (1979) Intraclass Correlations: Uses in Assessing Rater Reliability. Psychological Bulletin 86, 2, pp JL Fleiss, J Cohen (1973) The equivalence of weighted kappa and the intraclass correlation coefficient as measures of reliability. Educational and Psychological Measurement. 33, pp Cohen s Kappa: Bitte vergleichen Sie dazu die beiden Abschnitte A.3 ( Vierfeldertafeln ) und A.4 ( Kontingenztafeln ). Kappa ist auch als weighted kappa - im Programm für 2 Rater und 2 Merkmalsstufen verfügbar. Hier ein Beispiel für 2 Rater und 2 Stufen (wie in Abschnitt A3): Cohen's Kappa-Koeffizient Bezeichnung: Bortz-Lienert-Boehnke p.451 Eingegebene Tafel: Cohen's Kappa = Prüfgröße Z = (p = ) Literatur: W.G.Cohen (1960) Errors of measurements. Technometrics 10, pp J.L.Fleiss (1973) Stat. Meth. for Rates & Propor. Wiley NY, pp Eine allgemeinere Variante von Cohen s Kappa findet sich im Modul Kontingenztafeln für den Fall von k>2 Ratern und/oder s>2 Stufen des Merkmals, wobei auch eine Dateneingabe in der üblichen Form über eine Eingabedatei möglich ist: Einzelheiten dazu finden Sie in Anhang 4 des Handbuchs. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 175 von 241

176 Cronbach s alpha: Ein Fragebogen soll die Patientenzufriedenheit messen. Der Fragebogen umfasst 4 Items und es soll die "interne Validität" geprüft werden, d.h., ob die 4 Fragen/Items prinzipiell das gleiche Konstrukt beurteilen. Die Validierung erfolgt mit Hilfe von SPSS, die der Konfidenzintervalle mit einem Taschenrechner. Cronbach s alpha Eingabedatei ist ICC4.DAT, davon Var. 1(Item1), 2(Item2), 3(Item3), 4(Item4) i Var. 1 Var. 2 Var. 3 Var Tabelle der Varianzanalyse: Source SQ MQ df F p zwischen innerhalb Items Rest Gesamt Mittlere ("Average") Inter-Item-Korrelation = Cronbach's alpha = (p= zweiseitig) Asymptotisches 90%-Konfidenzintervall für alpha: [ ; ] Asymptotisches 95%-Konfidenzintervall für alpha: [ ; ] Asymptotisches 99%-Konfidenzintervall für alpha: [ ; ] Literatur: JM. Bland, DG. Altman (1997) Statistics Notes: Cronbach's alpha. British Medical Journal 314, pp AJ. Kroning, PH. Franses (2003) Confidence intervals for comparing Cronbach's coefficient alpha values. Preprint Elsevier Science. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 176 von 241

177 A.16 Toleranzbereiche und Qualitätssicherung Percentilen und Quartilen Univariater parametrischer Toleranzbereich Univariater nicht-parametrischer Toleranzbereich Univariater Box-Cox-transformierter Toleranzbereich Bivariater parametrischer Toleranzbereich Bivariater nicht-parametrischer Toleranzbereich Bivariater Box-Cox-transformierter Toleranzbereich Qualitätssicherung im Labor: RiLi-BÄK Percentilen und Quartilen: BiAS. berechnet Percentilen und Quartilen mit Hilfe von Tukey's "Statistisch äquivalenten Blöcken", also in gleicher Weise wie nicht-parametrische univariate Toleranzbereiche. Zur Überprüfung kann das entsprechende Modul der nicht-parametrischen Toleranzbereiche herangezogen werden ( Univariater nicht-parametrischer Normbereich ). Das gleiche Berechnungsverfahren wird in vielen Standardprogrammen wie SPSS, SAS, BMDP etc. verwendet. Percentilen Eingabedatei ist \Graf379.DAT, davon Variable 1 (Asche) 1: : : : : : : : : : Median = Minimum = Maximum = Quartil = Quartil = %-Percentile nicht berechenbar: n ist zu klein. Literatur: G.A. Lienert (1973) Verteilungsfreie Methoden in der Biostatistik. Hain Meisenheim am Glan p. 40ff. H. Ackermann (1983) Sind Xquer+-2s - Bereiche nützliche diagnostische Hilfsmittel? Med. Welt 34, 7, pp Univariater parametrischer Toleranzbereich: Exemplarische Berechnung eines Toleranzbereiches anhand der Daten von Graf et al. (1987, p.379): Parametrischer Toleranzbereich Eingabedatei ist Graf379.DAT, davon Variable 1 (Asche) Daten wie oben! Xquer= Standardabw. S = Fallzahl n = 10 Prüfung auf Gauß-Verteilung: Kolmogoroff-Smirnoff' δ = Überschreitungsws. P > BiAS. für Windows Programmversion 11 epsilon-verlag Seite 177 von 241

178 Toleranzbereich: Untere Grenze: Obere Grenze: Literatur: F. Proschan (1953) Confidence and Tolerance Intervals for the Normal Distribution. J. Amer. Stat. Ass. 48, pp H. Ackermann (1983) Sind x+-2s - Bereiche nützliche diagnostische Hilfsmittel? Med. Welt 34, 7, pp Univariater nicht-parametrischer Toleranzbereich: Exemplarische Berechnung eines Toleranzbereiches anhand der Daten von Graf et al. (1987, p.379): Nicht-parametrische Toleranzbereiche Eingabedatei ist Graf379.DAT, davon Variable 1 1: : : : : : : : : : Minimum = Streuung s² = n = 10 t(p,df) = df = n-1 = 9 Überdeckung P = Untere Grenze = Obere Grenze = Maximum = Median = n = 10 Überdeckung P = P' = 81.82%: Untere Grenze = Obere Grenze = Literatur: S.S. Wilks (1941) Determination of Sample Sizes for Setting Tolerance Limits. Ann. Math. Stat. 12, pp H. Ackermann (1983) Sind x+-2s - Bereiche nützliche diagnostische Hilfsmittel? Med. Welt 34, 7, pp Univariater Box-Cox-transformierter Toleranzbereich: Die Box-Cox-Transformation transformiert nichtnormalverteilte Methoden anwendbar zu machen. Eine Validierung kann deshalb prinzipiell mit parametrischen Methoden erfolgen. Da in der Literatur keine entsprechenden Beispiele gefunden wurden, erfolgte die Überprüfung durch per-hand-berechnungen, Sonderfälle etc.. Eine Überprüfung der Box-Cox-Transformation wurde mit Hilfe von anderen Programmmoduln vorgenommen (z.b. Kolmogoroff-Lilliefors-Test), so dass sich eine explizite Überprüfung erübrigt. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 178 von 241

179 Box-Cox-transformierter Toleranzbereich Eingabedatei ist Graf379.DAT, davon Variable 1 (Asche) 1: : : : : : : : : : Xquer, s und s² beziehen sich auf die transformierten Daten! Xquer = Standardabw. s = Streuung s² = n = 10 t(p,df) = df = n-1 = 9 Überdeckung P = Prüfung auf Gauß-Verteilung der Box-Cox-transformierten Daten: Box-Cox' Transformationskoeffizient tau = 0.50 Kolmogoroff-Smirnoff's delta = (p> ) Die Transformation ist nur erfolgreich, wenn delta nicht signifikant ist! Toleranzbereich (retransformiert): Untere Grenze = Obere Grenze = Literatur: F. Proschan (1953) Confidence and Tolerance Intervals for the Normal Distribution. J. Amer. Stat. Ass. 48, pp H. Ackermann (1983) Sind Xquer+-2s - Bereiche nützliche diagnostische Hilfsmittel? Med. Welt 34, 7, pp R.A. Rode, V.M. Chinchilli (1988) The Use of Box-Cox-Transformations in the Development of Multivariate Tolerance Regions With Applikations to Clinical Chemistry. Amer. Statistican 42, 1, pp Bivariater parametrischer Toleranzbereich: Darstellung mit Gauß-verteilten Zufallszahlen (Modul Randomisierung/Zufallszahlen). Bitte vergleichen Sie dazu auch die bivariaten nichtparametrischen und Box-Cox-transformierten Toleranzbereiche (gleiche Daten). Im bivariaten Fall treten bezüglich der Verteilungsformen prinzipiell die gleichen Probleme auf wie im Univariaten. Die Ausgabe des Programms besteht ausschließlich aus Graphiken, die u.a. durch Spezialfälle und Handgerechnetes überprüft wurden. Die Verteilungsformen werden wie im Univariaten mit Hilfe von anderen Programmmoduln überprüft (z.b. Kolmogoroff-Lilliefors-Test). BiAS. für Windows Programmversion 11 epsilon-verlag Seite 179 von 241

180 Bivariater Box-Cox-transformierter Toleranzbereich: Hier Darstellung mit Gauß-verteilten Zufallszahlen (Modul Randomisierung). Bitte vergleichen Sie dazu auch die bivariaten nichtparametrischen und parametrischen Toleranzbereiche (gleiche Daten). Unten weiter: Im bivariaten Fall treten bezüglich der Verteilungsformen prinzipiell die gleichen Probleme auf wie im Univariaten. Die Ausgabe des Programms besteht ausschließlich aus Graphiken, die u.a. durch Spezialfälle und Handgerechnetes überprüft wurden. Die Box-Cox-Transformation wurde wie im Univariaten mit Hilfe von anderen Programmmoduln überprüft (z.b. Kolmogoroff-Lilliefors-Test). Der hier dargestellte Box-Cox-transformierte Bereich ist mit dem parametrischen Bereich identisch, da das Programm die im Modell unterstellte Gauß-Verteilung erkennt. Bivariater nicht-parametrischer Toleranzbereich: Hier Darstellung mit Gauß-verteilten Zufallszahlen (Modul Randomisierung). Bitte vergleichen Sie dazu auch die bivariaten parametrischen und Box-Cox-transformierten Toleranzbereiche (gleiche Daten). Unten weiter: Diese Normbereiche wurden vom Autor entwickelt, so dass zur Validierung nur das Buch Ackermann (1985) empfohlen werden kann. Das Buch stellt neben der bivariaten auch Methoden zur multivariaten Situation zur Verfügung. Die Ausgabe des Moduls besteht wie im parametrischen Fall ausschließlich aus Graphiken, die via PCX-Export zur weiteren Verarbeitung exportiert oder aber ausgedruckt werden können. Im univariaten Fall nicht-parametrischer Normbereiche können gegebenenfalls Interpolationen vorgenommen werden, falls bei gewünschtem Anteil die Anzahl der zu "eliminierender Blöcke" k=(n+1) (1- nicht ganzzahlig und/oder nicht geradzahlig resultiert. Bei bivariaten Normbereichen mit Erwartung kann jedoch keine Interpolation vorgenommen werden, so dass die Anzahl =(n+1) (1- idealerweise durch 4 teilbar sein muss, da in allen anderen Fällen nicht alle n Wertepaare in die Berechnung eingehen können. Das Programm gibt dazu Hinweise. Qualitätssicherung im Labor gemäß RiLi-BÄK: Berechnung der Beurteilungsparameter QUAMM, VK, SD, weiterhin systematische und zufällige Messabweichungen zur Beurteilung der Richtigkeit und Präzision von Laboranalysen. Zugrundegelegt ist die Neufassung der "RiLi-BÄK" vom , publiziert im Deutschen Ärzteblatt Jahrgang 195, Heft 7. Zur Validierung wurden Daten aus der Sysmex-Publikation 2007 verwendet (p. 14, unten Literatur; Datei in..\valide ), die Ergebnisse wurden anhand der Sysmex-Daten, anderer Module und per-hand-berechnungen überprüft: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 180 von 241

181 Qualitätssicherung im Labor gemäß RiLiBÄK Eingabedatei ist..\valide\sysmex.dat, davon Variable 1 (Geraet1) Eingelesene Daten: 1:4.54 2:4.56 3:4.52 4:4.51 5:4.53 6:4.51 7:4.58 8:4.54 9: : : : : : : : : : : : : : : : :4.50 Deskriptive nicht-parametrische Parameter: Stichprobenumfang: n = Minimum: Min = Maximum: Max = Median: Median = Quartile: Q1 = Quartile: Q3 = Kolmogoroff-Smirnoff-Lilliefors-Test auf Gauß-Verteilung: Kolmogoroff-Smirnoff's delta = (p> ): Gauß-Modell Ok. Der p-wert des Tests wurde korrigiert nach Dallal und Wilkinson. Einseitige Grubbs-Tests zur Prüfung der Extremwerte als Ausreißer: Minimum: p = > Sicher kein Ausreißer. Maximum: p = > Sicher kein Ausreißer. Trendtest nach Neumann et al.: Prüfgröße = : p > (einseitig exakt) > kein Trend. Parameter zur Qualitätssicherung gemäß der BÄK-Richtlinien: Zielwert nach Benutzervorgabe: Xo = Arithmetischer Mittelwert (Durchschnitt): Xquer = Präzision: Zufällige Messabweichung s=stddev: SD = Variationskoeffizient VK=CV=SD/Xquer [%]: VK[%] = Richtigkeit: Systematische Messabweichung: Delta = Richtigkeit: Relatives Delta=Delta/Xo [%]: Delta[%] = Quadratischer Mittelwert der Messabweichungen: QUAMM = Relativer QUAMM=QUAMM/Zielwert [%]: QUAMM[%] = Laborinterne Fehlergrenzen bezüglich einer Ermittlungsperiode (EP): Zufällige Messabweichung: SD(EP) = Systematische Messabweichung: Delta(EP) = Erweiterungsfaktor für SD(EP): k = Laborintern selbst ermittelter QUAMM: QUAMM-Max = Laborinterne untere Fehlergrenze: UFG = Laborinterne obere Fehlergrenze: OFG = Richtlinien der Bundesärztekammer zur Qualitätssicherung laboratoriumsmedizinischer Untersuchungen. Deutsches Ärzteblatt Jg. 105, Heft 7, Die Neufassung der RiLi-BÄK. Publikation des Sysmex Xtra 2/2007, pp Im Programm stehen einige graphische Darstellungen zur Qualitätssicherung zur Verfügung, hier eine Graphik zum oben ausgeführten Beispiel der Sysmex-Daten als Illustration der RiLiBÄK-Parameter: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 181 von 241

182 A.17 Pharmakokinetische Parameter und Bioäquivalenz Berechnung von AUC, Cmax, Tmax und T1/2 etc. (auch Retard-Parameter) Berechnung von AUC etc. wie oben, im Cross-Over (auch Retard-Parameter) Inklusionsregel mit parametrischem Intervall für A/B, ln(a/b) Inklusionsregel mit Tukey-Intervall für ln(a/b) Inklusionsregel mit Moses-Intervall für A/B, ln(a/b) Mittlere effektive Konzentration EC50 und andere Berechnung pharmakokinetischer Parameter: Exemplarische Berechnung der Parameter anhand eines Testdatensatzes (Bortz (1977, p.412)), Verifikation per Handberechnungen. Das Programm berechnet folgende Größen: AUC_1n: Fläche unter der Konzentrations-Zeit-Kurve von t1 bis tn AUC_1-unendl: AUC_1n + AUC(tn-unendl) mit AUC(tn-unendl)=Cn/Lambda AUC_Fl: Prozentuale AUC-Fluktuation AUMC_1-n Fläche unter der 1. Moment-Kurve von t1 bis tn, zur Berechnung von MRT AUMC_1-unendl: Fläche unter der 1. Moment-Kurve von t1-unendlich, zur Berechnung von MRT Lambda: Terminale Eliminationskonstante, zur Berechnung von t1/2 t1/2: Per Lambda aus Log-linearer Regression mit terminalen Zeitpunkten Cmin: Konzentration am letzten Zeitpunkt Cmax: Maximale Konzentration Tmax: Zeitpunkt der maximalen Konzentration Cav: Mittlere Konzentration; Cav=(AUC_1n)/(n-ter Zeitpkt - 1-ter Zeitpkt) PTF: Prozentuale peak-trough-fluktuation; 100%*(Cmax-Cmin)/Cav PTS: Prozentualer Swing; 100%*(Cmax-Cmin)/Cmin HVD: Half Value Duration, Zeitspanne, in der C > Cmax/2 MRT: Mean Residence Time = MRT = AUMC_1-unendl / AUC_1-unendl Pharmakokinetische Parameter: Eine Stichprobe Eingabedatei ist..\valide\bortz412.dat davon Variablen 1 (morgens) t = (mittags) t = (abends) t = i Var. 1 Var. 2 Var i AUC_1n AUC_1- Cmin Cmax Tmax T1/2 Cav PTF PTS AUC_Fl HVD MRT Lambda AUMC_1n AUMC_ BiAS. für Windows Programmversion 11 epsilon-verlag Seite 182 von 241

183 n.b n.b n.b. n.b n.b AUC_1n: Fläche unter der Konzentrations-Zeit-Kurve von t1-tn AUC_1-: AUC_1n + AUC(tn,'-') mit AUC(tn,'-')=Cn/Lambda AUC_Fl: Prozentuale AUC-Fluktuation; 100%*(AUC_über_Cav+AUC_unter_Cav)/AUC_1- AUMC_1n: Fläche unter der ersten Moment-Kurve AUMC_1-: Fläche unter der ersten Moment-Kurve, zur Berechnung von MRT Lambda: Terminale Eliminationskonstante, zur Berechnung von t1/2 t1/2: Per Lambda aus Log-lin. Regression mit terminalen 2 Zeitpunkten Cmin: Konzentration am letzten Zeitpunkt Cmax: Maximale Konzentration Tmax: Zeitpunkt der maximalen Konzentration Cav: Mittlere Konzentration; Cav=(AUC_1n)/(n-ter Zeitpkt- 1.Zeitpkt) PTF: Prozentuale peak-trough-fluktuation; 100%*(Cmax-Cmin)/Cav PTS: Prozentualer Swing; 100%*(Cmax-Cmin)/Cmin HVD: Half Value Duration, Zeitspanne, in der C > Cmax/2 MRT: Mean Residence Time = MRT = AUMC_1- / AUC_1- n.b.: Nicht berechenbar (diverse Parameter falls lambda nicht berechenbar). "-": Das Symbol bedeutet zb in "AUC1-" die Fläche von t1 bis unendlich. >> Es werden nur v o l l s t ä n d i g e Zeitverläufe ausgewertet! >> Bei lambda<=0 werden lambda und daraus errechnete Werte als n.b. bewertet. E. Glaser (1985) Pharmakokinetik. pmi-verlag Frankfurt. W.A. Ritschel (1986) Handbook of Basic Pharmaco*kinetics. Drug Intell. Publ. H. Derendorf, Th. Gramatté, H.G. Schäfer, A. Staab (2010) Pharmakokinetik kompakt. Wiss. Verlagsgesellschaft Stuttgart. Berechnung pharmakokinetischer Parameter im Cross-Over: Zur Verifikation des Moduls wurde eine emplarische Berechnung der Parameter anhand eines Testdatensatzes (Bortz (1977, p.412)) mit Bleistift und Papier vorgenommen (vgl. auch die analoge Berechnung für eine Stichprobe). Da das Programm zur Berechnung der Cross-Over-Situation das gleiche Modul impliziert wie im Einstichproben-Fall, wurden die Daten des Einstichproben-Datensatzes mehrfach verwendet und damit auf die Cross-Over-Situation übertragen. Somit erübrigt sich die explizite Berechnung und Ausgabe der pharmakokinetischen Parameter im Cross-Over. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 183 von 241

184 BiAS. berechnet im Cross-Over die gleichen pharmakokinetischen Parameter wie in der obigen Ausgabe für nur eine Gruppe. Inklusionsregel: Alle nachfolgend aufgeführten Methoden verwenden eine ähnliche Eingabe wie zur Cross-Over-Analyse. Nach Eingabe der Gruppenvariablen sind die beiden Nummern bzw. Namen der Variablen einzugeben, die den beiden Perioden zugeordnet sind: Die Eingabeaufforderung lautet: Welche Variablen werden getestet: Periode1: und nach Eingabe Periode 2:. Es handelt sich hierbei um Perioden, nicht um Behandlungen: Zum Beispiel erhielt Gruppe 1 in der ersten Periode die Behandlung A, die Gruppe 2 dagegen B, während in der 2. Periode umgekehrt Gruppe 1 Behandlung B und Gruppe 2 Behandlung A erhielt! Die Bezeichnung "Westlake-Regel" wurde aus historischen Gründen beibehalten. Äquivalent dazu könnte auch von einer "Intervall-Inklusionsregel" gesprochen werden: Liegt das Konfidenzintervall für z.b. A/B gänzlich im Äquivalenzbereich, so wird die Nullhypothese beibehalten, liegt es gänzlich außerhalb des Äquivalenzbereichs, so wird die Nullhypothese abgelehnt. In allen anderen Fällen, also bei teilweiser Überschneidung des Konfidenzintervalls und des Äquivalenzbereiches, wird keine Entscheidung getroffen. Inklusionsregel mit parametrischem Intervall für A/B, ln(a/b): Dies verlangt lediglich die Berechnung von entsprechenden Konfidenzintervallen, wozu Beispiele zur Validierung angegeben werden. Zur technischen Abfolge vergleichen Sie bitte die Inklusionsregel mit Tukey-Intervall für ln(a/b). Inklusionsregel mit Tukey-Intervall für ln(a/b): Hauschke et al. (1990) beschreiben eine Prüfung zweier Formulierungen A und B auf Äquivalenz im Cross-Over. Zur Prüfung der ln(a/b) werden Tukey-Intervalle verwendet; dabei sollten keine Übertragungseffekte vorhanden sein. Der Test ist verteilungsfrei! Inklusionsregel mit Tukey-Intervall für ln(a/b) Eingabedatei ist Hauschke1.DAT davon Variable 1 (Per_1), 2 (Per_2) und Gruppen Var. 3 (GruppNum) = 1 und 2 Gruppe 1 Gruppe 2 i Var. 1 Var. 2 i Var. 1 Var Das Konfidenzintervall und die Äquivalenzbereiche beziehen sich auf den Quotienten A/B=(Phase 1)/(Phase 2) für die erste Gruppe und entsprechend A/B=(Phase 2)/(Phase 1) für die zweite Gruppe. Die Intervalle werden somit auf der Basis von n = n1+n2 = = 12 Werten berechnet: Hodges-Lehmann-Schätzer: M = Konfidenz P=1-2α des Konfidenzintervalls: P = Signifikanzniveau α für Äquivalenztest: α = Konfidenzintervall: ( 84.83, ) Äquivalenzbereich : ( 80.00, ) : Keine Entscheidung Äquivalenzbereich : ( 70.00, ) : 'Bioäquivalenz' Äquivalenzbereich : ( 80.00, ) : 'Bioäquivalenz' Äquivalenzbereich : ( 90.00, ) : Keine Entscheidung BiAS. für Windows Programmversion 11 epsilon-verlag Seite 184 von 241

185 Literatur: W.J. Westlake (1972) Use of Confidence Intervals in Analysis of Comparative Bioavailability Trials. J. Pharm. Sci. 61, pp W. Lehmacher, W. van Eimeren (1986) Zur statistischen Bewertung der Ergebnisse von Bioverfügbarkeitsstudien. Therapiewoche 36, pp D. Hauschke et al. (1990) A distribution-free procedure for the stat. analysis of bioequiv. studies. Int.J.Clin.Pharm.Ther.Tox. 28,2,72-8. Inklusionsregel mit Moses-Intervall für A/B, ln(a/b): Hauschke et al. (1990): Prüfung zweier Formulierungen A und B auf Äquivalenz im Cross-Over. Zur Prüfung der ln(a/b) werden Moses-Intervalle verwendet. Der Test ist wie der des letzten Beispiels verteilungsfrei! Inklusionsregel mit Moses-Intervall für A/B, ln(a/b) Eingabedatei ist Hauschke2.DAT davon Variable 1 (Periode1), 2 (Periode2) und Gruppen Var. 3 (Gruppe) = 1 und 2 Gruppe 1 Gruppe 2 i Var. 1 Var. 2 i Var. 1 Var Das Konfidenzintervall und die Äquivalenzbereiche beziehen sich auf den Quotienten A/B=(Phase 1)/(Phase 2) für die erste Gruppe und entsprechend A/B=(Phase 2)/(Phase 1) für die zweite Gruppe. Die Intervalle werden somit auf der Basis von n = n1+n2 = = 12 Werten berechnet: Hodges-Lehmann-Schätzer: M = Konfidenz P=1-2α des Konfidenzintervalls: P = Signifikanzniveau α für Äquivalenztest: α = Konfidenzintervall: ( 94.22, ) Äquivalenzbereich : ( 80.00, ) : 'Bioäquivalenz' Äquivalenzbereich : ( 70.00, ) : 'Bioäquivalenz' Äquivalenzbereich : ( 80.00, ) : 'Bioäquivalenz' Äquivalenzbereich : ( 90.00, ) : 'Bioäquivalenz' Literatur: W.J. Westlake (1972) Use of Confidence Intervals in Analysis of Comparative Bioavailability Trials. J. Pharm. Sci. 61, pp W. Lehmacher, W. van Eimeren (1986) Zur statistischen Bewertung der Ergebnisse von Bioverfügbarkeitsstudien. Therapiewoche 36, pp D. Hauschke et al. (1990) A distribution-free procedure for the stat. analysis of bioequiv. studies. Int.J.Clin.Pharm.Ther.Tox. 28,2,72-8. Mittlere effektive Konzentration EC50 und andere, mit Konfidenzintervall: Die Berechnung der EC50 erfolgt gemäß Alexander et al. (1999) auf Basis der tatsächlich gemessenen Werte, also ohne Anpassung eines speziellen Modells. Dazu sind zwei Voraussetzungen erforderlich: Einerseits sollte der maximale Effekt im Bereich der Dosierungen erreicht werden und es sollten die beiden Dosierungen unter- und oberhalb der EC50 relativ "dicht" liegen, da auf den linearen Anteil der "Sigmoidkurve" Bezug genommen wird. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 185 von 241

186 Zur Verfikation des Moduls wurden Beispiele - wie unten aufgeführt - aus Alexander et al. (1999) (cave: Typos in den Ergebnissen zu Experiment 3 und 5!) und aus Chen et al. (2013) verwendet, letztere sind vollständig verifizierbar. In Chen et al. (2013) findet sich ein Vergleich der Ergebnisse der Methode Methode von Alexander et al. mit den Resultaten von unterschiedlichen Modellen mit angepassten sigmoidalen logistischen Funktionen, die zum Teil in anderen Programmen verwendet werden. Mittlere effektive Konzentration EC50 Eingabedatei ist...\valide\alexander1999.dat davon Effekt-Variablen 2 (Var3), 3 (Var4), 4 (Var5), 5 (Var6) und 6 (Var7) und Dosis-Variable 1 (Dosis) >> Die Dosis-Variable "Dosis" ist in der Datei logarithmisch angegeben. >> Die Response-Variablen sind in der Datei in absoluten Werten angegeben. >> Es wird die mittlere effektive Konzentration EC50 berechnet. Dosis logarithmisch (Log10): Experiment Var3: EC50 = Experiment Var4: EC50 = Experiment Var5: EC50 = Experiment Var6: EC50 = Experiment Var7: EC50 = Gemittelte EC-Werte: EC50 = mit SD = %-Konfidenzintervall: [ , ] Nach Rücktransformation per Exp10 untransformiert: Experiment Var3: Experiment Var4: Experiment Var5: Experiment Var6: Experiment Var7: Gemittelte EC-Werte: EC50 = E-09 EC50 = E-10 EC50 = E-09 EC50 = E-09 EC50 = E-09 EC50 = E-09 95%-Konfidenzintervall: [ E-10, E-09 ] Literatur: H Alexander, DJ Browse, SJ Reading, IS Benjamin (1999) A simple and accurate method for calculation of the EC50. J Pharmacol Toxicol 41, pp Z Chen, R Bertin, G Froldi (2013) EC50 estimation of antioxidant activity in DPPH assay using several statistical programs. Food Chemist 138, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 186 von 241

187 A.18 Methodenvergleiche und Diagnostische Tests Bland-Altman-Vergleich Graphik zu Bland-Altman s Methodenvergleich Passing-Bablok-Regression Graphik zu Passing-Bablok s Methodenvergleich Lin's Konkordanz-Korrelation Graphik zu Lin's Konkordanz-Korrelation ROC-Kurve mit Konfidenzintervall und Graphik Vergleich von ROC-Kurven ( paired und unpaired ) Mc-Nemar-Test (A.3) Terwilliger und Ott s Marginal-Symmetrietest (A.4) Bowker s Kontingenztafel-Symmetrietest (A.4) Cohen's Kappa (dichotom, 2 Rater) (A.3) Cohen s Kappa (mehrstufige Zielgröße, 2 Rater) (A.4) Cohen s Kappa (mehrere Stufen, mehrere Rater) (A.4) Beurteilung diagnostischer Tests (Sensitivität, Spezifität, Youden etc.) Likelihood-Ratios und Vergleich von Likelihood-Ratios Prädiktive Werte und Vergleich von Prädiktiven Werten Evidence Based Medicine - NNT & Co. (A.19). Bland-Altman-Vergleich: Vergleich zweier Messgeräte - Messen beide Geräte dasselbe? Das Programm sieht verschiedene Optionen zur graphischen Darstellung vor, die an anderer Stelle vorgenommen wird (vgl. auch Scattergramm). Bitte vergleichen Sie auch die Methode von Passing und Bablok, die als nicht-parametrisches Verfahren die gleiche Fragestellung bearbeitet. Die verwendeten Daten wurden Bland und Altman (1986) entnommen: Bland-Altman's Methodenvergleich Eingabedatei ist..\valide\meter.dat 1. Methode: Y=Variable1=MiniM - 2. Methode: X=Variable2=LargeM Eingelesene Daten: i Y X BiAS. für Windows Programmversion 11 epsilon-verlag Seite 187 von 241

188 Korrelation der beiden Methoden (untransformierte Werte): Korrelationskoeffizient r = Bestimmtheitsmaß B = r² = Testgröße t der Korrelation = Überschreitungswahrsch. p = Stichprobenumfang n = 15 Anzahl der Freiheitsgrade n-2 = 13 Bland und Altman's Transformationen: Bland-Altman's Abszisse: Durchschnitte (Y+X)/2 Bland-Altman's Ordinate: Differenzen Y-X Regression 'Differenzen auf Durchschnitte': Regressionskoeffizient b = Konstanter Achsenabschnitt c = Reststreuung S²y.x = Testgröße t der Regression t = Überschreitungswahrsch. p = Stichprobenumfang n = 15 Anzahl der Freiheitsgrade n-2 = 13 Residuen-Ausreißer-Test (Grubbs/David): p<0.10: Cave! Korrelation der Differenzen und Durchschnitte: Korrelationskoeffizient r = Bestimmtheitsmaß B = r² = Testgröße t der Korrelation = Überschreitungswahrsch. p = Stichprobenumfang n = 15 Anzahl der Freiheitsgrade n-2 = 13 Durchschnitte, Streuung und Extrema der Differenzen: Durchschnitt = Streuung s² = Standardabw. s = Minimum min = Maximum max = Spannweite R = Gauß/Ausreißer-Test für die Differenzen (Grubbs/David): p>0.10: OK! t-test für die Differenzen: Student's Prüfgröße t = mit df=14 ( p = ) Toleranzbereiche für die Differenzen: P=0.90: Untere Grenze = Obere Grenze = P=0.95: Untere Grenze = Obere Grenze = P=0.99: Untere Grenze = Obere Grenze = Relation (Länge des Toleranzbereichs)/(Spannweite der Durchschnitte): P=0.90: Relation = % P=0.95: Relation = % P=0.99: Relation = % Beurteilung: Außer der Korrelation der untransformierten Werte sollen alle Testergebnisse nicht-signifikant ausfallen (möglichst mit p>0.10!). Zu einer Interpretation signifikanter Resultate geben Bland und Altman (Literatur!) einige Hinweise. Fette durchgezogene Linie: Durchschnitt der Differenzen der Methoden Dünne durchgezogene Linien: 95%-Toleranzgrenzen für die Differenzen Langgestrichelte Linie: Optimale Null-Linie bei Übereinstimmung BiAS. für Windows Programmversion 11 epsilon-verlag Seite 188 von 241

189 Literatur: D.G. Altman, J.M. Bland (1983) Measurements in Medicine: The Analysis of Method Comparison Studies. The Statistician 32, 3, pp J.M. Bland, D.G. Altman (1986) Statistical methods for assessing agreement between two methods of clinical measurements. Lancet Passing-Bablok-Regression: Vergleich zweier Messgeräte - Messen beide Geräte dasselbe? Die Methode dient der gleichen Fragestellung wie Bland und Altman s Methodenvergleich; dort finden sich auch weitere Aspekte und insbesondere auch teststatistische Verfahren. Es ist zu bemerken, dass die Passing-Bablok-Regression als nicht-parametrisches Verfahren aufzufassen ist. Die verwendeten Daten wurden Bland und Altman (1986) entnommen, die Validierung der Methode erfolgte durch per - Hand - Berechnungen und durch das Programm Method Validator von Philippe Marquis. Eine graphische Darstellung ist vorgesehen: Methodenvergleich: Passing-Bablok-Regression Eingabedatei ist..\valide\meter.dat Methode 1 (Ordinate): Y = Variable 1 = MiniM Methode 2 (Abszisse): X = Variable 2 = LargeM Korrelationskoeffizient r = (p= ) Passing-Bablok-Regression: Steigung b = Konfidenzintervall: [ , ] Achsenabschnitt c = Konfidenzintervall: [ , ] Beide Konfidenzintervalle wurden mit P = 0.95 berechnet. Zum Test von Ho(ß=1): Ho ablehnen, falls ß=1 nicht im Konfidenzintervall Zum Test von Ho(c=0): Ho ablehnen, falls c=0 nicht im Konfidenzintervall Literatur: H. Passing, W. Bablok (1983) A New Biometrical Procedure for Testing the Equality of Measurements from Two Different Analytical Methods. J. Clin. Chem. Clin. Biochem. Vol. 21, 1983, pp Graphik zum Bland-Altman-Vergleich: Vergleich z.b. zweier Messgeräte - Messen beide Geräte dasselbe? Daten aus Bland/Altman (1986), Berechnungen, Scattergramm und eine Legende zur Abbildung (Bedeutung der Geraden!) finden sich weiter unten und an anderer Stelle: Fette durchgezogene Linie: Durchschnitt der Differenzen der Methoden Dünne durchgezogene Linien: 95%-Toleranzgrenzen für die Differenzen Langgestrichelte Linie: Optimale Null-Linie bei Übereinstimmung BiAS. für Windows Programmversion 11 epsilon-verlag Seite 189 von 241

190 Graphik zur Passing-Bablok-Regression: Vergleich z.b. zweier Messgeräte - Messen beide Geräte dasselbe? Daten aus Bland/Altman (1986), Berechnungen, Scattergramm und eine Legende zur Abbildung (Bedeutung der Geraden!) finden sich weiter unten: Modifikationen der Darstellung, insbesondere der Beschriftung, der Skalierung und des Netzgitters sind im Menü Bearbeiten des Graphik-Editors vorgesehen. Gestrichelte Linie: Optimale Null-Linie bei Übereinstimmung der Methoden Dicke Linie: Passing-Bablok s Regressionsgerade zum Methodenvergleich Dünne Linien: Konfidenzgrenzen zur Regressionsgeraden (nur optional) Methodenvergleich - Lin's Konkordanz-Korrelation: Vergleich zweier Messgeräte - Messen beide Geräte dasselbe? Die Methode dient der gleichen Fragestellung wie Bland- Altman s Methodenvergleich; dort finden sich auch weitere Aspekte und speziell auch teststatistische Verfahren. Die verwendeten Daten wurden Bland und Altman (1986) entnommen, die Validierung der Methode erfolgte durch per - Hand - Berechnungen und durch das Programm Stata. Eine graphische Darstellung der Punktwolke, des Schwerpunktes und der Winkelhalbierenden ist möglich, ebenfalls - im Gegensatz zu anderen Verfahren - ein simultaner Vergleich von mehreren Methoden. Methodenvergleich: Lin's Konkordanz-Korrelation Eingabedatei ist..\valide\meter.dat Methode1 = Variable 1 = MiniM Methode2 = Variable 2 = LargeM Eingelesene Daten: i Y X Pearson's Korrelationskoeffizient r = (p= ) Lin's Konkordanz-Korrelationskoeffizient rho = (p= ) BiAS. für Windows Programmversion 11 epsilon-verlag Seite 190 von 241

191 Approximatives 90%-Konfidenzintervall für rho: [ ; ] Approximatives 95%-Konfidenzintervall für rho: [ ; ] Approximatives 99%-Konfidenzintervall für rho: [ ; ] p-wert und Konfidenzintervalle werden nach Z-Transformation berechnet! Literatur: L. I-K. Lin (1989,2000) A Concordance Correlation Coefficient to Evaluate Reproducibility. Biometrics 45, Corr. Note: Biometrics 56, 2000, ROC-Kurven: Die Berechnung der ROC-Kurven wurde mit Per-Hand-Berechnungen überprüft. Beispiel auch in Abel (1993). Mit Hilfe der ROC-Kurven kann man die Güte eines diagnostischen Tests untersuchen, ob dieser zur Differenzierung z.b. zweier Diagnosen tauglich ist: Der Diagnostische Test ist umso besser, je mehr sich die (diskrete!) Kurve Sensitivität in Abhängigkeit von 1- Spezifität nach links oben krümmt; eine Graphik incl. Konfdenzintervall ist möglich; letzteres ist ein simultanes KI, vgl. Macskarry et al. (2005). Zur Nachvollziehbarkeit werden die Daten aus Test.DAT verwendet: ROC-Kurven Eingabedatei ist Test.DAT, davon Variablen 2 (VarZwei) und Gruppen GruppNum=1 und 3 Trennpunkt Sensitivität Spezifität 1-Spezifität fehlklassifiziert Die Fehlklassifikationsrate gilt für gleiche a-priori-wahrscheinlichkeiten. Ein Test auf Abweichung von der Winkelhalbierenden erfolgt äquivalent mit dem Wilcoxon-Mann-Whitney-Test (asymptotisch): Prüfgröße Z = (p= ) Integral/Fläche unter der ROC-Kurve der interpolierten Trennpunkte = Literatur: Ulrich Abel (1993) Die Bewertung diagnostischer Tests, Hippokrates Graphik ROC-Kurven: Mit Hilfe der ROC - Kurven kann die Güte eines diagnostischen Tests untersucht werden. Die Berechnung der ROC - Kurven wurde mit Per-Hand-Berechnungen überprüft. Zur graphischen Veranschaulichung werden die Daten aus Armitage.DAT verwendet: Eine Darstellung der Winkelhalbierenden (keine Trennfähigkeit des diagnostischen Tests!) und von Konfidenzintervallen ist möglich. Wie bei allen Graphiken in BiAS. sind Modifikationen der Darstellung, insbesondere der Beschriftung, der Skalierung, des Netzgitters und der Kurvendarstellung bzw. der durch benachbarte Datenpunkte definierte Trennpunkte ebenfalls vorgesehen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 191 von 241

192 Vergleich von ROC-Kurven (AUCs, paired und unpaired ): Paired : Für korrelierte AUCs (beide Tests an den gleichen Patienten) wird der nicht-parametrische Test von DeLong et al. (1988) durchgeführt; Verifikation mit alternativen Programmen (MatLab, MedCalc und SAS) und mit Per-Hand-Berechnungen: Dazu im Folgenden ein Beispiel mit artifiziellen Daten. Der Globaltest zum Vergleich von mehreren AUCs erfolgt ebenfalls mit DeLong et al., Verifikation mit Per-Hand-Berechnungen und SAS. Unpaired : Die Parameter AUC=Fläche und SD=Standardabweichung der AUC können mit dem ROC-Modul in Diagnostische Tests errechnet werden, die Überprüfung erfolgte mit per-hand-berechnungen und mit dem Programm MedCalc. Ein Beispiel dazu erübrigt sich. Vergleich von ROC-Kurven für paired Daten: DeLong-Test Eingabedatei ist \VALIDE\DeLong.DAT davon Variablen 1 (VarEins), 2 (VarZwei) und Gruppen Var. 4 (GruppNum) = 1:gesund und 2:krank Gruppe 1 i Var. 1 Var Gruppe 2 i Var. 1 Var Falls "Test positiv" große Werte der Diagnostischen Tests bedeutet (95%-KI): Test 1 (VarEins): AUC = SD = KI = [ ; ] Test 2 (VarZwei): AUC = SD = KI = [ ; ] Falls "Test positiv" kleine Werte der Diagnostischen Tests bedeutet (95%-KI): Test 1 (VarEins): AUC = SD = KI = [ ; ] Test 2 (VarZwei): AUC = SD = KI = [ ; ] Differenz der beiden AUCs: Std-Abw. SD der Differenz: Kovarianz der AUCs: Cov = %-Konfidenzintervall für die Differenz: [ ; ] 95%-Konfidenzintervall für die Differenz: [ ; ] 99%-Konfidenzintervall für die Differenz: [ ; ] Nullhypothese Ho(AUC1=AUC2): Prüfgröße Z = mit p = (zweiseitig) Literatur: E.R. DeLong, D.M. DeLong, D.L. Clarke-Pearson (1988) Comparing the areas under two or more correlated receiver operating characteristic curves: A nonparametric approach. Biometrics 44, 3, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 192 von 241

193 Beurteilung diagnostischer Tests: Es sind die üblichen Parameter Spezifität, Sensitivität etc. für einen medizinischen Test (zum Beispiel Labortest) zu errechnen. Die Konfidenzintervalle wurden gemäß Sachs (1977, Kap.45) berechnet und überprüft, LR-KI s gemäß Koopman (1984). Das KI zum Youden-Index wurde per Additivität der Varianzen der beiden Parameter approximativ berechnet, vgl. Abel (1993). Einige Definitionen zu den Kenngrößen finden sich bei Galen und Gambino (1979). Beurteilung diagnostischer Tests Testergebnis: Summe der positiv negativ Zeile Anzahl Erkrankte Anzahl Gesunde Summe der Spalte Sensitivität (Richtig positiv) = 75.00% ( 47.62%, 92.73% ) Spezifität (Richtig negativ) = 96.97% ( 84.24%, 99.92% ) Rate 'Falsch positiv' = 3.03% ( 0.08%, 15.76% ) Rate 'Falsch negativ' = 25.00% ( 7.27%, 52.38% ) Prädiktiver Wert positiv (ri.pos./pos.ges.)= 92.31% ( 63.97%, 99.81% ) Prädiktiver Wert negativ (ri.neg./neg.ges.)= 88.89% ( 73.94%, 96.89% ) Effizienz (Rate der richtigen Entscheidungen)= 89.80% ( 77.77%, 96.60% ) Youden-Index Y = Sens. + Spezif % = 71.97% ( 49.96%, 93.98% ) Likelihood-Ratio positiv = Sens./(1-Spez.) = Likelihood-Ratio negativ = (1-Sens.)/Spez. = ( 3.519, ) "sehr gut" ( 0.110, ) "gut" Die Zahlen in Klammern: 95%-Konfidenzintervall für den entsprechenden Parameter. Literatur: R.S. Galen, S.R. Gambino (1979) Norm und Normabweichung klinischer Daten. Gustav Fischer Stuttgart New York. U. Abel (1993) Die Bewertung diagnostischer Tests. Hippokrates Stuttgart. P.A.R. Koopman (1984) Confidence Intervals for the Ratio of Two Binomial Proportions. Biometrics 40, pp Likelihood-Ratios und Vergleich von Likelihood-Ratios ( unpaired ): Neben der Berechnung von Likelihood-Ratios ist der Vergleich von zwei Likelihood-Ratios von Interesse, hier mit Hilfe von Konfidenzintervallen und zusätzlich mit einem asymptotischen teststatischen Vergleich. Eine Überprüfung ist mit dem Beispiel von Koopman (1984) möglich. Die Varianz des unpaired-konfidenzintervalls für LR1/LR2 folgt Pfanzagl (1974), Überprüfung mit per-hand-berechnungen. Vergleich von Likelihood-Ratios ( unpaired ) TEST 1: Testergebnis: Summe der positiv negativ Zeile Anzahl Erkrankte % % Anzahl Gesunde % % Summe Spalte TEST 2: Testergebnis: Summe der positiv negativ Zeile Anzahl Erkrankte % % Anzahl Gesunde % % Summe Spalte BiAS. für Windows Programmversion 11 epsilon-verlag Seite 193 von 241

194 Alle Konfidenzintervalle KI=[l;r] wurden mit Konfidenz P= berechnet: Berechnungen für Likelihood-Ratios positiv: LR-Test1 mit KI: [ ; ] LR-Test2 mit KI: [ ; ] LR1/LR2 mit KI: [ ; ] Ho-Test: p= Berechnungen für Likelihood-Ratios negativ: LR-Test1 mit KI: [ ; ] LR-Test2 mit KI: [ ; ] LR1/LR2 mit KI: [ ; ] Ho-Test: p= Die Nullhypothese Ho(LR1/LR2=1) bedeutet die Identität der Likelihood-Ratios. Literatur:.A.R. Koopman (1984) Confidence Intervals for the Ratio of Two Binomial Proportions. Biometrics 40, pp Likelihood-Ratios und Vergleich von Likelihood-Ratios ( paired ): Wie unpaired ; das paired-konfidenzintervall wurde mit Hilfe von Bonett & Price (2006) und eigenen Ableitungen berechnet und per Hand überprüft; als Beispiel für paired wird das Beispiel von Leisenring (2000) verwendet, vgl. dazu auch den Vergleich Prädiktiver Werte : Vergleich von Likelihood-Ratios zweier diagnostischer Tests (paired) Stichwort: Daten aus Leisenring et al. (2000) ERKRANKTE Test 1: positiv Test 1: negativ Summe Test 2: positiv % % % Test 2: negativ % % % Summe % % % GESUNDE Test 1: positiv Test 1: negativ Summe Test 2: positiv % % % Test 2: negativ % % % Summe % % % Alle Konfidenzintervalle KI=[l;r] wurden mit Konfidenz P= berechnet: Berechnungen für Likelihood-Ratios positiv: LR-Test1 mit KI: [ ; ] LR-Test2 mit KI: [ ; ] LR1/LR2 mit KI: [ ; ] Test Ho: p= Berechnungen für Likelihood-Ratios negativ: LR-Test1 mit KI: [ ; ] LR-Test2 mit KI: [ ; ] LR1/LR2 mit KI: [ ; ] Test Ho: p= Die Nullhypothese Ho(LR1/LR2=1) bedeutet die Identität der Likelihood-Ratios. Literatur: D.G. Bonett, R.M. Price (2006) Confidence intervals for a ratio of binomial proportions based on paired data. Statistics in Med. 25, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 194 von 241

195 Prädiktive Werte und Vergleich von Prädiktiven Werten (unpaired): Neben der Berechnung von Prädiktiven Werten ist der Vergleich von zwei Prädiktiven Werten von Interesse, hier mit Hilfe von Konfidenzintervallen und zusätzlich mit einem asymptotischen teststatischen Vergleich. Eine Überprüfung ist mit dem Beispiel von Koopman (1984) möglich. Im Beispiel werden die gleichen Daten verwendet wie zum Vergleich von Likelihood-Ratios (unpaired), Überprüfung mit per-hand- Berechnungen und den entsprechenden Moduln Beurteilung diagnostischer Tests und Quotient von binomialverteilten Größen. Vergleich von prädiktiven Werten ("unpaired ) TEST 1: Testergebnis: Summe der positiv negativ Zeile Anzahl Erkrankte % % Anzahl Gesunde % % Summe Spalte % % 120 TEST 2: Testergebnis: Summe der positiv negativ Zeile Anzahl Erkrankte % % Anzahl Gesunde % % Summe Spalte % % 49 Alle Konfidenzintervalle KI=[l;r] wurden mit Konfidenz P= berechnet: Prädiktive Werte positiv (%): PPV1 Test1 mit KI: [ ; ] PPV2 Test2 mit KI: [ ; ] PPV1/PPV2 mit KI: [ ; ] Test Ho: p= Prädiktive Werte negativ (%): NPV1 Test1 mit KI: [ ; ] NPV2 Test2 mit KI: [ ; ] NPV1/NPV2 mit KI: [ ; ] Test Ho: p= Die Tests der Ho(PV1/PV2=1) werden jeweils mit der Ho-Varianz durchgeführt. Der Vergleich ist von der Prävalenz abhängig: Nur unstratifiziert verwenden! Literatur: P.A.R. Koopman, Confidence intervals for the ratio of two binomial proportions. Biometrics 40, 1984, pp Prädiktive Werte und Vergleich von Prädiktiven Werten (paired): Alle Einzelheiten dazu bei Bonett und Price (2006), bei Leisenring et al. (2000) findet sich ein durchgerechnetes Beispiel, das hier zur Validierung verwendet werden kann. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 195 von 241

196 Vergleich von prädiktiven Werten ("paired") Stichwort: Daten aus Leisenring et al. (2000) ERKRANKTE Test 1: positiv Test 1: negativ Summe Test 2: positiv % % % Test 2: negativ % % % Summe % % % GESUNDE Test 1: positiv Test 1: negativ Summe Test 2: positiv % % % Test 2: negativ % % % Summe % % % Alle Konfidenzintervalle KI=[l;r] wurden mit Konfidenz P= berechnet: Prädiktive Werte POSITIV (%): PPV1 Test1 mit KI: [ ; ] PPV2 Test2 mit KI: [ ; ] PPV1/PPV2 mit KI: [ ; ] Test Ho: p= Prädiktive Werte NEGATIV (%): NPV1 Test1 mit KI: [ ; ] NPV2 Test2 mit KI: [ ; ] NPV1/NPV2 mit KI: [ ; ] Test Ho: p= Die Nullhypothese Ho(PV1/PV2=1) bedeutet die Identität der jeweiligen Werte. Der Vergleich ist von der Prävalenz abhängig: Nur unstratifiziert verwenden! Literatur: C.S. Moskowitz, M.S. Pepe (2006) Comparing the Predictive Values of Diagnostic Tests: Sample Size and Analysis for Paired Study Designs. Clinical Trials Vol. 3, No. 3, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 196 von 241

197 A.19 Epidemiologie und Evidence Based Medicine Experimental Event Rate EER mit Konfidenzintervall Control Event Rate CER mit Konfidenzintervall Absolute Risiko-Reduktion ARR mit Konfidenzintervall Relative Risiko-Reduktion RRR mit Konfidenzintervall Relativer Nutzen ("benefit") bzw. Schaden ("harm") Number Needed to Treat NNT (benefit/harm) mit Konfidenzintervall Statistischer Test zum Vergleich zweier Methoden (Gauß-Test) Likelihood-Ratio positiv/negativ (A.18) Test zum Vergleich zweier Likelihood-Ratios (A.18) Relatives Risiko, Odds-Ratio und Inzidenz bei zwei Stichproben (A.3) Pearson-Mantel-Haenszel-Test (A.3) Konfidenzintervall für die Inzidenz einer Stichprobe (A.2) Bitte beachten Sie, dass die aufgeführten Tests bzw. Parameter zum Teil auch in anderen Moduln (Vierfelder-Tafel, Konfidenzintervalle etc.) enthalten sind. An den entsprechenden Stellen finden sich weitere Beispiele zur Validierung. Evidence Based Medicine: Berechnung der üblichen Größen CER, EER, ARR, RRR, NNT und deren Konfidenzintervalle. Das Modul kann mit der Zielgröße Nutzen oder der Zielgröße Schaden ausgeführt werden. Das folgende Beispiel entstammt der Literatur (Quelle leider nicht mehr verifizierbar) und betrachtet die Zielgröße Tod (also: Schaden ). Bitte beachten Sie, dass viele im Internet verfügbaren Beispiele zu den hier berechneten Parametern vielfach falsch berechnet sind und nicht mit den mit BiAS. erzielten Ergebnissen übereinstimmen. Eine Validierung der hier vorliegenden Ergebnisse ist jedoch einfach mit Hilfe des Moduls Vergleich zweier Bionomial-Verteilungen möglich, da NNT=1/ARR. Entsprechendes gilt für die Grenzen der Konfidenzintervalle. Vorsicht: Dabei Vertauschung der Grenzen beachten! Falls die ARR-Intervalle die Null einschließen: Unterscheidung in harm (NNH) und benefit (NNB) beachten! Evidence Based Medicine: NNT und Anderes Zielereignis "Schaden" Summe Be- ja nein handlungen Novum % % Standard % % Summen Test (ohne Yates-Korrektur, 2-seitig): Gauss' Z= mit p= Binomial-Konfidenzintervalle für Event-Rate EER(%) "Novum": % % % Binomial-Konfidenzintervalle für Event-Rate CER(%) "Standard": % % % BiAS. für Windows Programmversion 11 epsilon-verlag Seite 197 von 241

198 Absolute Risiko-Reduktion (Novum-Standard): ARR(%) = 4.23 Konfidenzintervalle für die absolute Risiko-Reduktion ARR(%): % % % Relative Risiko-Reduktion (Novum-Standard)/Standard: RRR(%) = Konfidenzintervalle für die relative Risiko-Reduktion RRR(%): % % % Number needed to treat: NNT("Benefit") = Konfidenzintervalle für NNT("Benefit"): % % % > 10^6 Konfidenzintervalle für NNT("Harm"): % % % --- undefiniert undefiniert > 10^6 VORSICHT: Die NNTs beziehen sich immer auf die Therapie "Novum". Literatur: R.J. Cook, D.L. Sackett (1995) The number needed to treat: a clinically useful measure of treatment effect. BMJ 1995, 310, pp D.G. Altman (1998) Confidence intervals for the NNT. BMJ 317, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 198 von 241

199 A.20 Multiples Testen von Nullhypothesen Multiples Testen: Bonferroni-, Holm-, Simes-, Rüger- und Hommel-Tests Hierarchisches Testen Benjamini-Hochberg s False-Discovery-Rate Multiples Testen: Zur Validierung wurden neben Beispielen aus der angegebenen Literatur einige per-hand-berechnungen herangezogen. Bitte beachten Sie, dass bei hierarchisch geordneten Hypothesen die in diesem Abschnitt verwendeten sog. alpha-korrekturen nicht anzuwenden sind, da geordnete Hypothesen lokal zum Niveau alpha getestet werden, um das globale Niveau einzuhalten. Eine Ausnahme bildet gegebenenfalls das Testen von hierarchischen Gruppen von Hypothesen. Im Programm und ganz unten auf dieser Seite finden Sie dazu und zu speziellen Techniken ausführliche Hinweise, ebenfalls Literaturangaben aus Vollmar, J. (Hrsg.) Testing principles in clinical and preclinical trials, Gustav Fischer Multiple Prüfung von Nullhypothesen Testniveau α = Ho P(i) Bonferroni Holm (1979) sig. sig n.s. n.s n.s. n.s n.s. n.s. Global-Test nach Rüger (1978) und Simes (1986): Ablehnung der Global-Hypothese, da P(( 1)) = < 1*α/N = P(( 2)) = < 2*α/N = P(( 3)) = < 3*α/N = Multipler Test nach Hommel (1986,1988): Alle Ho(I) ablehnen, für deren Indexmenge I von Elementar-Hypothesen gilt: I {1,2} 1 Die Individual-Hypothesen 1, 2 werden abgelehnt. Bonferroni, C.E. (1936) Teoria statistica delle classi e calcolo delle probabilità. Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze, 8:3-62. G. Hommel (1988) A stagewise rejective multiple test procedure based on a modified Bonferroni test. Biometrika 1988, 75, pp S. Holm (1979) A simple sequential rejective multiple test procedure. Scand. J. Stat. 6, pp B. Rüger (1978) Das max. Signifikanzniveau des Testes 'Lehne Ho ab, wenn k unter n geg. Tests zur Ablehnung führen'. Biometrika 52, pp R.J. Simes (1986) An improved Bonferroni procedure for multiple tests of significance. Biometrika 73, pp A. Victor, A. Elsässer, G. Hommel, M. Blettner (2010) Wie bewältigt man die p-wert- Flut? Deutsches Ärzteblatt Jg 107, Heft 4, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 199 von 241

200 Hierarchisches Testen: Bei hierarchisch geordneten Hypothesen ist keine "alpha-korrektur" erforderlich. Die Hypothesen werden in einer a-priori definierten Reihenfolge jeweils zum Niveau alpha getestet: Wird eine Hypothese in dieser Reihenfolge akzeptiert, so bricht das Testprozedere ab und auch alle "nachfolgenden" Ho müssen akzeptiert werden. Die bereits abgelehnten Nullhypothesen gelten als abgelehnt jeweils zum Niveau alpha. Beispiel 1: Vergleich Placebo, Standard und Novum: Im ersten Schritt ("sensitivity") Ho(P=S), dann ("efficacy") Ho(P=N) und im dritten Schritt ("superiority") Ho(S=N) prüfen. (Natürlich könnte die dritte Ho im Sinne einer "therapeutischen Äquivalenz" auch Ho(N=S-delta) mit der Alternative Ha(N>Sdelta) lauten.) Die - bis zu drei - Tests werden zum nominalen Niveau alpha durchgeführt. Beispiel 2: Kombination eines Äquivalenz- mit einem Überlegenheitstest: Im ersten Schritt ("Äquivalenz") wird Ho(N=S-delta) vs. Ha(N>S-delta) geprüft. Kann die "Nicht-Unterlegenheit" (einseitiger Test!) angenommen werden, so kann auch der Test auf Überlegenheit durchgeführt werden: Im 2. Schritt ist Ho(N=S) gegen Ha(N>S) zu prüfen, dies ebenfalls zum Niveau alpha und natürlich nur genau dann, wenn im ersten Schritt die Nullhypothese abgelehnt wurde. Beispiel 3: Dosisfindung: Die höchste Dosis wird zuerst, die absteigenden Dosen in absteigender Reihenfolge jeweils zum Niveau alpha geprüft. Wird an einer Stelle die Ho "kein Effekt" angenommen, bricht das Verfahren ab und auch alle "niedrigeren" Ho's müssen - ohne diese zu testen!! - beibehalten werden. Da zum hierarchischen Testen offenbar keine Berechnung, sondern nur eine Planung der Testhierarchie durchgeführt werden muss, enthält das Programm lediglich Hinweise auf die Struktur des Abschlusstests. Das Buch "Testing principles in clinical and preclinical trials" (Hrsg. Joachim Vollmar), Gustav Fischer 1995, bringt einen hervorragenden Überblick über das Thema. Benjamini-Hochberg s False Discovery Rate : Zur Validierung wurden neben Beispielen aus der angegebenen Literatur einige per-hand-berechnungen herangezogen. Im Folgenden ein Beispiel aus R. Hoffmann et al. The False Discovery Rate: A new approach to the problem of multiple testing, Datum 2004, Vol. 10, 1, pp. 3-4 (Statistician s Corner). Bitte beachten Sie, dass die Werte geordnet sind, was bei der Eingabe in BiAS. nicht unbedingt der Fall sein muss; ausgegeben wird immer die laufende Nummer der Eingabe zusammen mit den korrespondierenden (geordneten) p- Werten. Benjamini-Hochberg s "False Discovery Rate" FDR Das FDR-level wird mit FDR=0.05 angenommen: Lfd.Nr. p-wert BH-Krit. signif * * * * * * * BiAS. für Windows Programmversion 11 epsilon-verlag Seite 200 von 241

201 Die mit "*" gekennzeichneten Tests (das sind alle mit p-werten <= !) werden bei FDR= als signifikant aufgefasst. Literatur: Y. Benjamini, Y. Hochberg (1995) Controlling the false discovery rate: A practical and powerful approach to multiple testing. Journal of the Royal Statistical Society 1, pp R. Hoffmann et al. (2004) The False Discovery Rate: A new approach to the problem of multiple testing, Datum 2004, Vol. 10, 1, pp. 3-4 (Statistician s Corner) Bitte beachten Sie, dass Methoden wie die Bonferroni-Adjustierung und die anderen unter Multiples Testen behandelten Verfahren, ebenfalls das Hierarchische Testen die sogenannte Familywise-error-rate (FWE) kontrollieren, das heißt, die Wahrscheinlichkeit, wenigstens eine falsch-positive Entscheidung zu erhalten bzw. mindestens eine Nullhypothese irrtümlich abzulehnen ist kleiner oder gleich der vorgegebenen Irrtumswahrscheinlichkeit alpha. Bei sehr vielen Nullhypothesen werden diese Methoden sehr konservativ, so dass man wie zum Beispiel bei der Untersuchung von Genexpressionen mit zum Teil hunderten von Nullhypothesen die Anwendung der False Discovery Rate in Erwägung ziehen kann. Die FDR ist der erwartete Anteil von falsch-positiven Ergebnissen und ist immer größer als die FWE. Eine FDR von zum Beispiel 5% bedeutet, dass im Mittel 5% der abgelehnten Nullhypothesen irrtümlich abgelehnt werden, also falsch positiv sind. Ein Beispiel zur False Discovery Rate FDR nach Benjamini und Hochberg und weitere Erläuterungen dazu finden sich bei Hoffmann et al. (2004). Einen lesenswerten Überblick über die Fragestellungen geben A. Victor, A. Elsässer, G. Hommel und M. Blettner in ihrem Artikel Wie bewältigt man die p-wert-flut? im Deutschen Ärzteblatt 2010, Jg 107, Heft 4, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 201 von 241

202 A.21 Meta-Analyse mit p-werten Meta-Analyse bei unabhängigen Versuchen (einseitige Alternativen) Meta-Analyse bei unabhängigen Versuchen (zweiseitige Alternativen) Meta-Analyse bei unabhängigen Versuchen (einseitige Alternativen): Dazu wurden neben Beispielen aus der angegebenen Literatur per-hand-berechnungen herangezogen: Zusammenfassen von unabhängigen Versuchen (einseitige Alternative) Ho( 1): p = Ho( 2): p = Ho( 3): p = Ho( 4): p = Ho( 5): p = Fisher's Verfahren: Chi² = (df=10) p = Inverse Normalverteilung: N = p < Tippett's Verfahren: p < Literatur: R.A. Fisher (1971) Statistical Methods for Research Workers. 14. Auflage, Hafner Press. pp J.A. Koziol, M.D. Perlman (1978) Combining Independent Chi-Squared Tests. J. Amer. Stat. Ass. 73, No. 4, pp Meta-Analyse bei unabhängigen Versuchen (zweiseitige Alternativen): Es werden die gleichen p-werte verwendet wie oben, jedoch bei unterstellter zweiseitiger Prüfung. Im folgenden Ausdruck gibt VZ=Vorzeichen an, "in welche Richtung" sich in den Individualtests Unterschiede ergaben. Unabhängige Versuche: zweiseitige Alternative Ho( 1): p = , VZ = + Ho( 2): p = , VZ = + Ho( 3): p = , VZ = + Ho( 4): p = , VZ = + Ho( 5): p = , VZ = + Inverse Normalverteilung: N = (p = ) Literatur: B.J. Winer (1971) Statistical Principles in Experimental Design. McGraw Hill New York. J.A. Koziol, M.D. Perlman (1978) Combining Independent Chi2-Tests. K.Amer, M.D. Stat.. Ass 73, No. 4,pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 202 von 241

203 A.22 Zwischenauswertungen Interimsanalyse Zwischenauswertungen nach Poco*ck Zwischenauswertungen nach Fleming-O Brien Adaptive Interimsanalyse: Das Bauer-Köhne-Design Zwischenauswertungen nach Poco*ck: Poco*ck (1977) beschreibt eine gruppensequentielle Methode zur Planung und Auswertung von Studien: Zwischenauswertungen nach Poco*ck Bei k-1 geplanten Zwischenauswertungen (die k-te Auswertung ist die Endauswertung!!) ergibt sich das nominale Signifikanzniveau a-korr=alpha-korr der k-1 Interimsanalysen und der Endauswertung. Alpha ist das Signifikanzniveau der g e s a m t e n Studie. Für ß=0.10 und 0.05 (bzw. Power=1-ß) wird die mittlere Anzahl von Auswertungen bis zum Abschluss angegeben k alpha=0.05 alpha=0.01 a-korr ß=0.10 ß=0.05 a-korr ß=0.10 ß= ' ' Literatur: S.J. Poco*ck (1977) Group sequential methods in the design and analysis of clinical trials. Biometrika 64, pp Adaptive Interimsanalyse nach Bauer und Köhne: Daten aus: F. Krummenauer (2004) Leitlinien Sektion DOG-Glaukom der Deutschen Ophtalmol. Gesellschaft. Es handelt sich um eine Vergleichstudie zum Niveau Die erste Phase wird mit ausgeführt, daraus errechnet sich ein ( Stop for futility ). Mit dem (fiktiven) p1= der ersten Phase errechnet sich für die zweite Phase, deren p-wert wiederum betrage: Damit ergibt sich ein Gesamt-p-Wert von p= <0.05, womit die Ho abgelehnt wird. Falls p1< kann bereits in er ersten Phase Ho abgelehnt werden, im geschilderten Fall wird die zweite Phase unter Neuberechnung der Fallzahl etc. angegangen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 203 von 241

204 BAUER-KÖHNE-DESIGN Irrtumswahrscheinlichkeit alpha = Phase 1: Irrtumswahrscheinlichkeit alpha1 = Irrtumswahrscheinlichkeit alpha0 = Phase 2: p-wert der 1. Phase: = Irrtumswahrscheinlichkeit alpha2 = Abschluss: p-wert der 2. Phase: = Gesamt-p-Wert: p = Literatur: P. Bauer, K. Köhne (1994) Evaluation of experiments with adaptive interim analysis. Biometrics 50, pp Zwischenauswertungen nach Fleming-O Brien: Fleming et al. (1979) beschreiben eine gruppensequentielle Methode zur Planung und Auswertung von Studien: ZWISCHENAUSWERTUNGEN (FLEMING-O'BRIEN) Bei k-1 geplanten Zwischenauswertungen (die k-te Auswertung ist die Endauswertung!!) ergeben sich die nominalen Signifikanzniveaus alpha-i (i=1,..,k-1) der k-1 einzelnen Interimsanalysen; i=k bedeutet die Endauswertung bzw. deren Signifikanzniveau. Alpha ist das Signifikanzniveau der g e s a m t e n Studie Alpha = k= k= k= alpha-1 alpha-2 alpha-1 alpha-2 alpha-3 alpha-1 alpha-2 alpha-3 alpha Alpha = k= k= k= alpha-1 alpha-2 alpha-1 alpha-2 alpha-3 alpha-1 alpha-2 alpha-3 alpha ' ' Tabellen für k=5,...,10 finden sich bei Fleming et al. (vgl. Literatur). Literatur: Th.R. Fleming, D.P. Harrington, P.C. O'Brien (1979) Designs for Group Sequential Tests. Controlled Clinical Trials 5, 4, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 204 von 241

205 A.23 Fallzahl- und Powerberechnungen Konfidenzintervall für µ Ein- und Zweistichproben-t-Test auf Unterschied Ein- und Zweistichproben-t-Test auf Äquivalenz Einweg-Varianzanalyse (ANOVA) Studentized Range Cross-Over-Analyse Einfache lineare und multiple Korrelationskoeffizienten r Einfache lineare und multiple Regressionskoeffizienten ß Multiple Regresson und Korrelation: Omnibus-Test Vergleich von Korrelationskoeffizienten Spearman s rho Kendall s tau Logistische Regression Schätzung einer Wahrscheinlichkeit Test eines binomialen Anteils Vergleich binomialverteilter Größen Äquivalenz binomialverteilter Größen χ²-vierfelder-test Dixon-Mood s Vorzeichentest McNemar-Test Cohen s Kappa Wilcoxon-matched-pairs-Test Wilcoxon-Mann-Whitney-U-Test Kruskal-Wallis-Test Log-Rank-Test Cox-Regression Odds-Ratio und Relatives Risiko Many-one-Vergleiche zum t-test und zum U-Test χ²-kontingenztafeln Bland-Altman-Methodenvergleich Intraclass- Korrelationen Cluster-randomisierte Studien Konfidenzintervall und Test für eine AUC ROC-Kurven-Vergleich für paired und unpaired Auf eine explizite Darstellung bzw. Validierung der Power-Berechnungen wurde verzichtet, da diese sich komplementär aus den aufgeführten Fallzahlberechnungen ergeben. Bei allen parametrischen Fallzahlberechnungen ist zu beachten, dass BiAS. in der Regel nicht nur mit den vielfach üblichen und auch häufig in der Literatur verwendeten Gauß-Approximationen arbeitet, sondern weitgehend iterative Formeln oder nicht-zentrale Verteilungen für zum Beispiel die t- Verteilung verwendet. Dadurch ergeben sich unter Umständen Abweichungen von gängigen Referenztabellen oder von anderen Programmen. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 205 von 241

206 Konfidenzintervall für Zur Berechnung des Stichprobenumfanges für Konfidenzintervalle für wurden Per-Hand-Berechnungen herangezogen. Vorsicht: Das zitierte Lehrbuch von Werner (1992, p.242) rechnet mit einer Gauß-Approximation! Konfidenzintervall Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Länge des Intervalls L : Schätzung für Varianz σ2 : Stichprobenumfang n = 16 Literatur: Werner (1992) Medizinische Statistik. Urban & Schwarzenbeck Mü. Einstichproben-t-Test: Machin und Campbell (1987) geben in Tabellen Beispiele zur Fallzahlberechnung für den Einstichproben-t-Test an: Einstichproben-t-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Schätzung für Varianz σ2 : Minimale relevante Differenz δ : Stichprobenumfang n = 35 (Zweiseitige Fragestellung) Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Zweistichproben-t-Test: Machin und Campbell (1987) geben in Tabellen Beispiele zur Fallzahlberechnung für den Einstichproben-t-Test an, weitere Beispiele finden sich in Werner (1984, p. 247): Zweistichproben-t-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Schätzung für die Varianz σ2 : Minimale relevante Differenz δ : Stichprobenumfang n1 = n2 = 23 (Zweiseitige Fragestellung) Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Werner (1992) Medizinische Statistik. Urban & Schwarzenbeck München. Einstichproben-t-Test auf Äquivalenz: Dazu wurden Vergleiche mit dem Programm "N" und Ergebnissen des Tests auf Unterschied angestellt; die Berechnung erfolgt für zweiseitige Äquivalenz. Delta ist die maximale, medizinisch irrelevante Differenz zwischen den beiden fraglichen Gruppen. Bitte beachten Sie, dass für die einseitige Fragestellung die gleiche Berechnung vorgenommen wird wie für die einseitige Fragestellung Unterschied, das heißt, Sie geben im Fenster für die zweiseitige Fragestellung Unterschied einfach an Stelle von alpha den Wert 2*alpha ein. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 206 von 241

207 Einstichproben-t-Test auf Äquivalenz Gewünschte Irrtumswahrscheinlichkeit alpha : Gewünschte Irrtumswahrscheinlichkeit beta : Schätzung für die Varianz sigma²: Minimale relevante Differenz delta0: Stichprobenumfang n = 132 (Zweiseitige Fragestellung) Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Zweistichproben-t-Test auf Äquivalenz: Dazu wurden Vergleiche mit dem Programm "N" und den Ergebnissen des Tests auf Unterschied angestellt; die Berechnung wird für zweiseitige Äquivalenz durchgeführt. Delta ist die maximale, medizinisch irrelevante Differenz zwischen den beiden fraglichen Gruppen. Bitte beachten Sie, dass für die einseitige Fragestellung die gleiche Berechnung vorgenommen wird wie für die einseitige Fragestellung Unterschied, das heißt, Sie geben im Fenster für die zweiseitige Fragestellung Unterschied einfach an Stelle von alpha den Wert 2*alpha ein. Zweistichproben-t-Test auf Äquivalenz Gewünschte Irrtumswahrscheinlichkeit alpha : Gewünschte Irrtumswahrscheinlichkeit beta : Schätzung für die Varianz sigma² : Minimale relevante Differenz delta0 : Stichprobenumfang n1 = n2 = 66 (Zweiseitige Fragestellung) Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Werner (1992) Medizinische Statistik. Urban & Schwarzenbeck München. Einweg-Varianzanalyse: Werner (1984, p.247) gibt Beispiele zur Fallzahlschätzung für die Varianzanalyse. Zur Kontrolle der Fallzahlschätzungen für die Nachtests (Studentized Range) wurden Beispiele nach Abt (1987) per Hand gerechnet. Einweg-Varianzanalyse Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Schätzung für die gemeinsame Varianz σ2 : Anzahl der Gruppen (Stichproben) k : 7 Minimale relevante Spannweite δ der µ1,...,µn : F-Test der Varianzanalyse: Stichprobenumfang n1=n2=... =nk = 36 Studentized Range (Nachtests!): Stichprobenumfang n1=n2=... =nk = 52 Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Abt (1987) Kurs 'Versuchsplanung' Baseler Biometrische Region. Cross-Over-Analyse: Für die Cross-Over-Situation wurden Per-Hand-Berechnungen gemäß der Ergebnisse von Julious (2004) bzw. Zimmermann und Rahlfs (1980) durchgeführt: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 207 von 241

208 Cross-Over-Analyse Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Schätzung für die Varianz σ²: Minimale relevante Differenz δ : Korrelationskoeffizient der Behandlungen ρ : Stichprobenumfang n1 = n2 = 9 (Zweiseitige Fragestellung) Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Julious, S.A. (2004) Sample sizes for clinical trials with normal data. Statistics in Medicine 23, pp Pearson s Korrelationskoeffizient r: Machin und Campbell (1987) geben Tabellen zur Fallzahlschätzung für den Korrelationskoeffizienten. Pearson s Korrelationskoeffizient r Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Nachzuweisender Korrelationskoeffizient r : Stichprobenumfang n = 12 (Zweiseitige Fragestellung) Literatur: Machin & Campbell (1987) Stat. Tables. Blackw. Scien. Publ. Vergleich zweier Korrelationskoeffizienten: Die Ergebnisse wurden durch per-hand- Berechnungen und Angaben aus Machin und Campbell (1987) verifiziert. Vergleich zweier Korrelationskoeffizienten 2-seitige Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Korrelationskoeffizient r1 = Korrelationskoeffizient r2 = Stichprobenumfänge n1 = n2 = Literatur: Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Kendall s tau: Die Ergebnisse wurden durch per-hand-berechnungen und durch Beispiele aus Hollander und Wolfe (1999) verifiziert. Kendall s tau 2-seitige Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = "Nachzuweisender" Korrelationskoeffizient tau = Stichprobenumfang n = Literatur: G.E. Noether (1987) Sample Size Determination for Some Common Nonparametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp Hollander & Wolfe (1999) Nonparametric Statistical Methods, Wiley. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 208 von 241

209 Spearman s rho: Die Ergebnisse wurden durch per-hand-berechnungen und gemäß Hollander und Wolfe (1999) verifiziert. Spearman s rho 2-seitige Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = "Nachzuweisender" Korrelationskoeffizient r = Stichprobenumfang (per Pitman-Effizienz): n = Stichprobenumfang (asympt. per Gauß-Test): n = Literatur: Hollander & Wolfe (1999) Nonparametric Statistical Methods, Wiley. Regressionskoeffizient ß: Die Verifikation erfolgte mit dem Programm PASS. F.Y. Hsieh, D.A. Bloch, M.D. Larsen (1998) geben Beispiele für die Multiple Regression. Regressionskoeffizient ß Gewünschte Irrtumswahrscheinlichkeit alpha: Gewünschte Irrtumswahrscheinlichkeit beta: Standardabweichung Sigma(X): Standardabweichung Sigma(Y): 'Nachzuweisender' Regressionskoeffizient ß: Stichprobenumfang n = 160 (Zweiseitige Fragestellung) Literatur: F.Y. Hsieh, D.A. Bloch, M.D. Larsen (1998) A Simple Method ofsample Size Calculation for Linear and Logistic Regression. Statistics in Medicine Vol. 17, 14, pp Logistische Regression: Die Berechnung unterscheidet sich in Abhängigkeit von der (zunächst nur einen) Kovariablen: Bei quantitativen Kovariablen X ist die Eventrate am Mittelwert von X und das Odds-Ratio OR=exp(ß) erforderlich, ß ist die Änderung des Log-Odds pro Einheit von X. Bei binären Kovariablen ist der Anteil Events bei jeweils X=0 und X=1 erforderlich, außerdem der geschätzte Anteil Merkmalsträger mit X=1 bzw. X=0. Im Falle von einer Multiplen Logistischen Regression mit p Kovariablen berechnet man für die relevante die Fallzahl für den Test der partiellen Koeffizienten. Zusätzlich ist dazu die Angabe des (geschätzten) Multiplen Korrelationskoeffizienten erforderlich. Alle Berechnungen wurden verifiziert mit Hilfe von Beispielen aus Hsieh, Bloch und Larsen (1998) Tabelle I und II. Logistische Regression: Quantitative Kovariable 2-seitige Irrtumswahrscheinlichkeit alpha: Irrtumswahrscheinlichkeit beta: Nachzuweisende Effektgröße Odds-Ratio OR: Äquivalent dazu: Effektgröße ß=Log(OR): Eventrate bei Mittelwert der Kovariablen: Stichprobenumfang bei einer Kovariablen: n = seitige Irrtumswahrscheinlichkeit alpha: Irrtumswahrscheinlichkeit beta: Nachzuweisende Effektgröße Odds-Ratio OR: Äquivalent dazu: Effektgröße ß=Log(OR): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 209 von 241

210 Eventrate bei Mittelwert der Kovariablen: Multipler Korrelationskoeffizient R(X.23 p) = Stichprobenumfang bei p Kovariablen: n = Literatur: F.Y. Hsieh, D.A. Bloch, M.D. Larsen (1998) A Simple Method of Sample Size Calculation for Linear and Logistic Regression. Statistics in Medicine Vol. 17, 14, pp Logistische Regression: Binäre Kovariable 2-seitige Irrtumswahrscheinlichkeit alpha: Irrtumswahrscheinlichkeit beta: Anteil Merkmalsträger mit Kovariable X=1: A1 = Eventrate bei X=0: ER{X=0} = Eventrate bei X=1: ER{X=1} = Stichprobenumfang bei einer Kovariablen: n = seitige Irrtumswahrscheinlichkeit alpha: Irrtumswahrscheinlichkeit beta: Anteil Merkmalsträger mit Kovariable X=1: A1 = Eventrate bei X=0: ER{X=0} = Eventrate bei X=1: ER{X=1} = Multipler Korrelationskoeffizient R(X.23 p) = Stichprobenumfang bei p Kovariablen: n = Literatur: F.Y. Hsieh, D.A. Bloch, M.D. Larsen (1998) A Simple Method of Sample Size Calculation for Linear and Logistic Regression. Statistics in Medicine Vol. 17, 14, pp Schätzung einer Wahrscheinlichkeit: Mace (1962, p.63) macht Angaben zur Fallzahlschätzung für ein Konfidenzintervall für eine Wahrscheinlichkeit (Beispiel Mace p.63: Mace errechnet n=258.6) Schätzung einer Wahrscheinlichkeit Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Länge des Intervalls L : Schätzung der Wahrscheinlichkeit p : Stichprobenumfang n = 259 Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Test eines binomialen Anteils: Im Verlaufe einer Virusepidemie soll geprüft werden, ob sich die Erfolgsrate einer symptomatischen Behandlung von bisher 0.90 (Ho!) auf 0.85 (HA!) verschlechtert hat. Dazu wählt man α=0.10 und ß=0.10. (Daten zur Validierung nach Lemeshow et al. (1990), die früher verwendete Berechnung nach Mace (1962) ergibt n=285, Abweichnung ergeben sich nur bei sehr kleinen und sehr großen Werten von Theta0.) Test eines binomialen Anteils Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Angenommene Wahrscheinlichkeit θo : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 210 von 241

211 Angenommene Wahrscheinlichkeit θa : Minimale relevante Differenz δo=θa-θo : Stichprobenumfang n = 284 (Ein!seitige Fragestellung) Literatur: Lemeshow, S., D.W. Hosmer, J. Klar, S.K. Lwanga (1990) Adequacy of Sample Size in Health Studies. John Wiley Chichester New York Vergleich binomialverteilter Größen: Schouten (1982) gibt Tabellen zur Fallzahlschätzung n=n1=n2 für binomialverteilte Größen an. Bei gewünschten Fallzahlen n1<n2 wird eine modifizierte Methode von Schouten verwendet (weiter unten): Vergleich binomialverteilter Größen: n1=n2 Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Angenommene Wahrscheinlichkeit θ1 : Angenommene Wahrscheinlichkeit θ2 : Minimale relevante Differenz δo=θ2-θ1 : Erwartete Länge des Konfidenzintervalls: L = Stichprobenumfang n1 = n2 = 87 (Zweiseitige Fragestellung) Bei gewünschten Fallzahlen n1<n2 und bei gleichen Parametern alpha, delta wie oben, aber für n2=2*n1 ergeben sich die beiden Fallzahlen n1=65 und n2=130, also mit =185 Fällen ein um insgesamt 11 größerer Stichprobenumfang als bei gleichen Fallzahlen n1=n2: Vergleich binomialverteilter Größen: n1<n2 Gewünschte Irrtumswahrscheinlichkeit alpha : Gewünschte Irrtumswahrscheinlichkeit beta : Angenommene Wahrscheinlichkeit theta1 : Angenommene Wahrscheinlichkeit theta2 : Minimale relevante Differenz delta0 : Gewünschtes Verhältnis k = n2/n1 > 1 : Stichprobenumfänge n1 = 65, n2 = 130 (Zweiseitige Fragestellung) Literatur: Schouten H.J.A. (1982) Comparing two independent binomial proportions by a modified chi squared test - required sample sizes. Biom.J. 24, 1, pp Casagrande JT et al. (1978) An improved approximate formula for calculating sample sizes for comparing two binomial distributions. Biometrics 34, pp Bristol DR (1989) Sample sizes for constructing confidence intervals and testing hypothesis. Stat. in Med. 8, 7, pp Äquivalenz binomialverteilter Größen: Blackwelder (1982) gibt dazu ausführliche Tabellen an, die zur Validierung dienen können. Äqivalenz binomialverteilter Größen Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Angenommene Wahrscheinlichkeit θ1 : Angenommene Wahrscheinlichkeit θ2 : BiAS. für Windows Programmversion 11 epsilon-verlag Seite 211 von 241

212 Maximale zulässige Differenz δ gemäß Ho : Stichprobenumfang n1 = n2 = 96 (Ein!seitige Fragestellung) Stichprobenumfang n1 = n2 = 117 (Zweiseitige Fragestellung) Literatur: W.C. Blackwelder (1982) 'Proving the Null Hypothesis' in Clinical Trials. Controlled Clinical Trials 3, pp χ²-vierfeldertafel-test: Schouten (1982), Casagrande et al. (1978) geben Tabellen und Beispiele zur Fallzahlschätzung an. Zur erwarteten Länge des Konfidenzintervalls vgl. Bristol (1989): Chi²-Vierfelder-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Angenommene Wahrscheinlichkeit θ1 : Angenommene Wahrscheinlichkeit θ2 : Minimale relevante Differenz δo=θ2-θ1 : Erwartete Länge des Konfidenzintervalls: L = Stichprobenumfang n1 = n2 = 92 (Zweis. Fragestellung, mit Yates-Korrektur.) Literatur: Schouten H.J.A. (1982) Comparing two independent binomial proportions by a modified chi squared test - required sample sizes. Biom.J. 24, 1, pp Casagrande JT et al. (1978) An improved approximate formula for calculating sample sizes for comparing two binom. distrib.. Biometrics 34, pp Bristol DR (1989) Sample sizes for constructing confidence intervals and testing hypothesis. Stat. in Med. 8, 7, pp Vorzeichen-Test: Bei der Planung einer Studie zum Erfolg einer krankengymnastischen Behandlung wird ein einseitiges Testniveau von α=0.10 und ein Risiko ß=0.10 festgelegt. Falls in mehr als 75% aller Fälle eine Verbesserung zu erwarten ist, möchte man dies durch den Vorzeichen-Test zeigen können (Daten aus Noether (1987)). Beachten Sie bitte, dass BiAS. zweiseitige Werte von α erwartet, so dass bei der Eingabe der Wert α'=2α=0.20 verwendet werden muss! Vorzeichen-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Testrelavante Wahrscheinlichkeit P(X>0) : Stichprobenumfang n = 27 (approximativ) G.E. Noether (1987) Sample Size Determination for Some Common Non-parametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp McNemar-Test: In einer ophthalmologisch-operativen Studie werden Katarakt-Patienten auf einem Auge nach Methode A, auf dem anderen Auge nach Methode B operiert. Bei der Planung der Studie wird ein zweiseitiges Testniveau von und ein Risiko ß=0.10 festgelegt. Es wird vermutet, dass das Ergebnis A positiv, B negativ in 0,03=3% der Fälle auftritt, A negativ, B positiv dagegen in 0,16=16% der Fälle. Damit ist eine Fallzahl von n=100 (entsprechend d=19 diskordanter Fälle) erforderlich. Bei einseitigen Fragestellungen verwendet man α =2 α: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 212 von 241

213 McNemar-Test Gewünschte Irrtumswahrscheinlichkeit alpha : Gewünschte Irrtumswahrscheinlichkeit beta : P(Bedingung A positiv, B negativ): P(Bedingung A negativ, B positiv): Zweiseitige Fragestellung: Erforderliche Anzahl diskordanter Paare: d = 19 Stichprobenumfang ("average") n = 100 Literatur: JE Connet, JA Smith, RB McHugh (1987) Sample size and power for paired-matched case-control-studies. Stat. in Med. 6, pp Cohen s Kappa: Es soll die Ho:Kappa=0.6 gegen H1:Kappa=0.9 getestet werden (0.6 bedeutet nach Landis und Koch (1977, Biometrics 33, p. 159ff) eine substantielle Übereinstimmung). Von den insgesamt 2n Ratings (bei 2 Ratern!) wird ein Anteil von pi=0.30 als positiv angenommen. Damit ergibt sich eine Fallzahl von n=66; Varifikation gemäß Donner und Eliasziw (1992 p. 1518). Cohen s Kappa-Koeffizient 2-seitige Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Kappa der Nullhypothese Ho: Kappa0 = Nachzuweisendes Kappa der Ha: Kappa1 = Anteil positiver Beurteilungen gesamt: pi = Stichprobenumfang n = Literatur: A. Donner, M. Eliasziw (1992) A goodness-of-fit approach to inference procedures for the kappa statistic. Stat. in Med. Vol. 11, pp Wilcoxon-matched-pairs-Test: Fragestellung wie im Beispiel zum Vorzeichen-Test. Die Angabe der Wahrscheinlichkeit P(X+X'>0) ist oft unklar, so dass näherungsweise konservativ P(X>0) eingesetzt werden kann oder aber günstiger zur Planung der Vorzeichen-Test verwendet wird. Wilcoxon-matched-pairs-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Testrelevante Wahrscheinlichkeit P(X+X'>0) : Stichprobenumfang n = 57 (approximativ) Literatur: G.E. Noether (1987) Sample Size Determination for Some Common Nonparametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp Wilcoxon-Mann-Whitney-U-Test: Vergleich zweier Therapien mit Hilfe von zwei unabhängigen Gruppen von Patienten. Es wird erhofft, dass Therapie (X) nur mit einer Wahrscheinlichkeit von 1/3 ungünstiger ist als Therapie (Y) bzw. dass Therapie (X) mit einer Wahrscheinlichkeit 0.67 günstiger ist als Therapie (Y). Valdierung mit Daten aus Noether (1987): BiAS. für Windows Programmversion 11 epsilon-verlag Seite 213 von 241

214 Wilcoxon-Mann-Whitney-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Testrelevante Wahrscheinlichkeit P(X<Y) : Stichprobenumfang n1 = n2 = 46 (approximativ) Literatur: G.E. Noether (1987) Sample Size Determination for Some Common Nonparametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp Achtung: Für Shift-Alternativen kann Fan s verallgemeinerte Fallzahlberechnung zum Kruskal-Wallis- Test verwendet werden. Bei vergleichenden Berechnungen auf Grundlage des Mann-Whitney- Schätzers können minimale Abweichungen der Noether schen von Fan s Methode auftreten, da Noether eine Gauß-Approximation und Fan die nichtzentrale Chi²-Verteilung verwendet. Entsprechendes gilt für die Power-Berechnung. Kruskal-Wallis-Test: Fan et al. (2010) geben ein konkretes Beispiel zur Berechnung, das unten verwendet wurde. Die erforderlichen paarweisen Mann-Whitney-Schätzer können anhand der Fan- Daten mit Hilfe des U-Tests ermittelt werden; Beispiele zur direkten Eingabe per Pilot-Datei und zu den Shift-Alternativen werden hier nicht angegeben. Da das Beispiel aus Fan et al. auf einer relativ kleinen Pilot-Studie mit n=40 beruht, sollte - wie im Programm vorgesehen - eine Fallzahl-Adjustierung erfolgen. Die Daten zu dem folgenden Beispiel stehen in der Datei..\Valide\Fan.DAT zur Verfügung: Kruskal-Wallis-Test Irrtumswahrscheinlichkeit alpha : Irrtumswahrscheinlichkeit beta : Anzahl der Gruppen (Stichproben) k : Mann-Whitney-Schätzer Gruppe 1 versus 2: Mann-Whitney-Schätzer Gruppe 1 versus 3: Mann-Whitney-Schätzer Gruppe 2 versus 3: Nicht-adjustierte Fallzahlen: Stichprobenumfang n1=n2=...=nk = Stichprobenumfang gesamt: n=summe(ni) = Adjustierte Fallzahlen für Npilot = 40: Stichprobenumfang n1=n2=...=nk = Stichprobenumfang gesamt: n=summe(ni) = Literatur: C. Fan, D. Zhang, C.-H. Zhang (2011) On Sample Size of the Kruskal-Wallis-Test with Application to a Mouse Peritoneal Cavity Study. Biometrics 67, 1, pp Achtung: Die generischen und die adjustiert-generischen Fallzahlen aus Fan et al. können beide mit BiAS. reproduziert werden. Die Resultate für die Shift-Hypothesen aus Fan et al. können nicht exakt verifiziert werden, vermutlich deshalb, da in dem Paper (Tabelle 5) die Berechnungen mit offensichtlich unzureichender Genauigkeit und der Median der Gruppe 3 fehlerhaft angegeben sind: Die Fallzahlen in BiAS. sind geringfügig größer. Alle Berechnungen zu den Shift-Alternativen wurden mit zwei weiteren Beispielen (beide sind ebenfalls in der Datei..\Valide\Fan.DAT enthalten) durch per- Hand-Berechnungen, MatLab und durch die generischen Fallzahlen der Fan-MWS-Methode verifiziert. Kommentierte Details dazu finden sich in der Datei..\Valide\Fan.DAT. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 214 von 241

215 Log-Rank-Test: Machin und Campbell (1987, pp.98ff,115ff, Tab. 9.2) geben Beispiele zur Fallzahlschätzung für Log-Rank-Tests: Log-Rank-Test Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Angenommene Überlebensrate θ1 : Angenommene Überlebensrate θ2 : Minimale relevante Differenz δo=θ2-θ1 : Angenommener Relativer Hazard RH(1:2) : Withdrawal-Rate = : Stichprobenumfang n1 = n2 = 67 ( 65) Withdrawal-Rate = : Stichprobenumfang n1 = n2 = 75 ( 72) Erforderliche Mindestzahl 'Ereignisse' (Tod o.ä.) e = 108 (103) Die Ergebnisse beziehen sich auf eine zweiseitige Fragestellung! Die Angaben in Klammern beziehen sich auf die exakte Varianz des Log-Rank-Tests und sind stets günstiger als Freedman's Tabellen. Literatur: L.S. Freedman (1982) Tables of the number of patients required in clin. trials using the logrank test. Stat. in Med. Vol.1,2, pp D. Machin, M.J. Campbell (1987) Statistical tables for the design of clinical trials. Blackwell Sci. Publ. Cox-Regression: Durchgerechnetes Beispiel aus Wang und Chow (2007). Die Fallzahlen gelten für randomisierte Studien bzw. nach Kovariablen stratifizierte Studien, bei unbalancierten Kovariablen ist Vorsicht geboten: Cox-Regression 2-seitige Irrtumswahrscheinlichkeit α : Irrtumswahrscheinlichkeit ß : Angenommener Relativer Hazard RH(1:2) = Withdrawal-Rate = : Stichprobenumfang n1 = n2 = 7 Withdrawal-Rate = : Stichprobenumfang n1 = n2 = 35 Literatur: H. Wang, S.C. Chow (2007) Sample Size Calculation for Comparing Time-to-Event Data. Wiley Encyclopedia of Clinical Trials, J.Wiley. D.A. Schoenfeld (1983) Sample Size Formula for the Proportional-Hazards Regression Model. Biometrics 39, pp Odds-Ratio (Epidemiologie): Sachs (1992, p ) bringt Beispiele zur Feststellung der Kollektivumfänge bei Odds-Ratios: Odds-Ratio (Epidemiologie) Gewünschte Irrtumswahrscheinlichkeit α : Mutmaßlicher Parameter : Angenommener Anteil Exponierter bei Kontrolle (%) : Gewünschte Genauigkeit Epsilon (%) : Stichprobenumfang für Odds Ratio: n1 = n2 = 2027 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 215 von 241

216 Literatur: L.Sachs (1992) Angewandte Statistik Kap. 2, Springer. S. Lemeshow et al. (1988) Sample size requirements for studies estimating odds ratios or relative risks. Stat. in Med. 7, pp Relatives Risiko (Epidemiologie): Sachs (1992, p ) bringt Beispiele zur Feststellung der Kollektivumfänge beim Relativen Risiko: Relatives Risiko (Epidemiologie) Gewünschte Irrtumswahrscheinlichkeit α: Mutmaßlicher Parameter Angenommener Anteil Nicht-Exponierter mit Krankheit (%) Gewünschte Genauigkeit Epsilon (%) : Stichprobenumfang für Relatives Risiko: n1 = n2 = 2027 Literatur: L.Sachs (1992) Angewandte Statistik Kap. 2, Springer. S. Lemeshow et al. (1988) Sample size requirements for studies estimating odds ratios or relative risks. Stat. in Med. 7, pp Many-one-Vergleiche (t-test): Diese Situation wird bei Horn und Vollandt (1995) behandelt. Es können k>=2 Gruppen gewählt werden. Many-One-Vergleiche (t-test) Fallzahlberechnung für den Vergleich von k=3 Gruppen mit Kontrolle (0) auf Basis des Zweistichproben-t-Tests und Bonferroni-Adjustierung: Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Schätzung der gemeinsamen Varianz σ2 : Minimale relevante Differenz δo : Gleiche Stichprobenumfänge (Zweiseitige Fragestellung): Stichprobenumfang no=n1=...=nk = 55 Stichprobenumfang gesamt n=no+σni = 220 Optimal ungleiche Stichprobenumfänge (Zweiseitige Fragestellung): Stichprobenumfang Kontrolle: no = 76 Stichprobenumfang Vergleiche: ni = 44 Stichprobenumfang gesamt n=no+σni = 208 VORSICHT: Im Test gilt für alle Vergleiche das adjustierte Niveau α*= ! Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Werner (1992) Medizinische Statistik. Urban & Schwarzenbeck München. Horn & Vollandt (1995) Multiple Tests und Auswahlverfahren. Fischer. Many-one-Vergleiche (Wilcoxon-Mann-Whitney-U-Test): Diese Situation wird bei Horn und Vollandt (1995) behandelt. Es können k 2 Gruppen gewählt werden. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 216 von 241

217 Many-One-Vergleiche (U-Test) Fallzahlberechnung für den Vergleich von k=4 Gruppen mit Kontrolle (0) auf Basis des Wilcoxon-Mann-Whitney-Tests und Bonferroni-Adjustierung: Gewünschte Irrtumswahrscheinlichkeit α : Gewünschte Irrtumswahrscheinlichkeit ß : Testrelevante Wahrscheinlichkeit P(X<Y) : Gleiche Stichprobenumfänge (Zweiseitige Fragestellung): Stichprobenumfang no=n1=...=nk = 60 Stichprobenumfang gesamt n=no+σni = 300 Optimal ungleiche Stichprobenumfänge (Zweiseitige Fragestellung): Stichprobenumfang Kontrolle: no = 90 Stichprobenumfang Vergleiche: ni = 45 Stichprobenumfang gesamt n=no+σni = 270 VORSICHT: Im Test gilt für alle Vergleiche das adjustierte Niveau α*= ! Literatur: G.E. Noether (1987) Sample Size Determination for Some Common Nonparametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp M.Horn & R.-Vollandt (1995) Multiple Tests und Auswahlverf. Fischer c r-kontingenztafel: Zur Verifikation wurde das Programm PASS verwendet (Hintze (2011)). Die Eingabe erfordert alternativ Cohen s Effektstärke W oder Cramér s V: c r-kontingenztafel Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Power = Effektstärke: Cohen's W = << Eingabe Cohen s W Effektstärke: Cramér's V = Anzahl Zeilen r = 5 Anzahl Spalten c = 4 Errechnete Fallzahl n = 193 Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Power = Effektstärke: Cohen's W = Effektstärke: Cramér's V = << Eingabe Cramér s V Anzahl Zeilen r = 5 Anzahl Spalten c = 4 Errechnete Fallzahl n = 65 Literatur: J.L. Hintze (2011) PASS User's Guide p.630, NCSS, Kaysville, Utah. J. Cohen (1988) Statistical power analysis for the behavioral sciences. 2nd edition Hillsdale, NJ: Erlbaum. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 217 von 241

218 Bland-Altman-Methodenvergleich: Die Berechnung erfolgt über die maximale Spannweite (Range) der Differenzen, es ist Range=2 (Maximale Differenz). Die Formel sind analog zum Einstichproben-t-Test. Bland-Altman-Methodenvergleich Gewünschte Irrtumswahrscheinlichkeit alpha : Gewünschte Irrtumswahrscheinlichkeit beta : Schätzung für die maximale Differenz: Minimale relevante mittlere Differenz delta0: Stichprobenumfang n = 97 (Zweiseitige Fragestellung) Gewünschte Irrtumswahrscheinlichkeit alpha : Gewünschte Irrtumswahrscheinlichkeit beta : Schätzung für die maximale Differenz: Minimale relevante mittlere Differenz delta0: Stichprobenumfang n = 100 (Zweiseitige Fragestellung, Äquivalenztest) Literatur: Mace (1962) Sample Size Determination. Chapman & Hall London. Machin & Campbell (1987) Statistical Tables. Blackwell Scien. Publ. Cluster-randomisierte Studien: Campbell et al. (2000) geben einen Korrekturfaktor an ( Design-Effekt ), so dass aus den Fallzahlen einer Patienten-randomisierten Studie, der Intracluster- Korrelation und der Fallzahl pro Cluster die Cluster-korrigierte Fallzahl errechnet werden kann. Die Validierung erfolgt mit Bleistift, Papier und Taschenrechner: Cluster-randomisierte Studien Fallzahl der Patienten-randomisierten Studie: Intracluster-Korrelationskoeffizient ICC: Patienten/Fälle pro Cluster: Design-Effekt D: Fallzahl der Cluster-randomisierten Studie: Literatur: MK. Campbell, J. Mollison, N. Steen, JM Grimshaw, M. Eccles (2000) Analysis of cluster randomized trials in primary care: a practical approach. Family Care 17,2, pp SM. Kerry, JM. Bland (1998) The intracluster correlation coefficient in cluster randomisation. British Medical Journal 316, pp Intraclass-Korrelationskoeffizient ICC: Die Fallzahlberechnungen wurden anhand der Arbeiten von Bonett (2002) und Zou (2012) validiert: Intraclass-Korrelationskoeffizient Konfidenz P des Konfidenzintervalls (zweiseitig) = Gewünschte Länge des Konfidenzintervalls = Anzahl der Rater = Berechnung für ICC = Stichprobenumfang n = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 218 von 241

219 Literatur: DG Bonett (2002) Sample size requirements for estimation intraclass correlations with desired precision. Stat. in Med. 21, pp GY Zou (2012) Sample size formulas for estimation intraclass correlation coefficients with precision and assurance. Stat. in Med. 31, pp ROC-Kurven und AUC: Die Fallzahlberechnungen wurden anhand der unten zitierten Publikationen von JA Hanley und BJ McNeil (1982,1983) validiert. Die Berechnungen der gemeinsamen Korrelation bei abhängigen ROC-Kurven ( paired ) erfolgen analog zu PASS (Hintze 2011). Fallzahlen: Konfidenzintervall für eine AUC Gewünschte Konfidenz P des Intervalls: P = Geschätzter Parameter Theta: AUC = Gewünschte Länge des Konfidenzintervalls: L = Schätzung für die Standardabweichung sigma = Approximative Stichprobenumfänge: ng = nk = 208 Gesamt-Stichprobenumfang N = ng+nk = 416 Literatur: JA Hanley, BJ McNeil (1982) The Meaning and Use of the Area under a Receiver Operating Characteristic (ROC) Curve. Radiology 148, 1, pp Fallzahlen: Test der Nullhypothese Ho(AUC=0.5) Einseitige Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Geschätzter Wert der AUC: theta = Stichprobenumfänge (approximativ) ng = nk = 26 Gesamt-Stichprobenumfang N = ng+nk = 52 Literatur: GE Noether (1987) Sample Size Determination for Some Common Nonparametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp JA Hanley, BJ McNeil (1982) The Meaning and Use of the Area under a Receiver Operating Characteristic (ROC) Curve. Radiology 148, 1, pp Fallzahlen: Vergleich von zwei unabhängigen ROC-Kurven Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Angenommene Wahrscheinlichkeit theta1 = Angenommene Wahrscheinlichkeit theta2 = Minimale relevante Differenz delta = Fallzahlen für den einseitigen Test: ng=nk = 137 Fallzahlen für den zweiseitigen Test: ng=nk = 175 >> Es sind ng "Gesunde" und nk "Kranke" erforderlich. >> Die Fallzahlen gelten jeweils für beide ROC-Kurven! Literatur: JA Hanley, BJ McNeil (1982) The Meaning and Use of the Area under a Receiver Operating Characteristic (ROC) Curve. Radiology 148, 1, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 219 von 241

220 Fallzahlen: Vergleich von zwei abhängigen ROC-Kurven Irrtumswahrscheinlichkeit alpha = Irrtumswahrscheinlichkeit beta = Angenommene Wahrscheinlichkeit theta1 = Angenommene Wahrscheinlichkeit theta2 = Minimale relevante Differenz delta = Korrelation der Methoden bei "Gesunden": r = Korrelation der Methoden bei "Kranken": r = Fallzahlen für den einseitigen Test: ng=nk = 62 Fallzahlen für den zweiseitigen Test: ng=nk = 79 >> Es sind ng "Gesunde" und nk "Kranke" erforderlich. Literatur: JA Hanley, BJ McNeil (1982) The Meaning and Use of the Area under a Receiver Operating Characteristic (ROC) Curve. Radiol. 143 pp JA Hanley, BJ McNeil (1983) A method of comparing the areas under receiver operating charact. curves derived from the same cases. Radiol. 148 pp Auf eine explizite Darstellung bzw. Validierung der Power-Berechnungen wurde verzichtet, da diese sich in aller Regel komplementär aus den aufgeführten Fallzahlberechnungen ergeben. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 220 von 241

221 A.24 Randomisierungen Zufallsstichprobe (Gleichverteilung) Vollständige Randomisierung Randomisierte Blöcke Cross-Over-Versuchspläne Lateinische Quadrate Gauß-verteilte Zufallszahlen (uni- und bivariat) Zufallsstichproben: Der Stichprobenumfang und die zulässige kleinste bzw. größte Zahl sind im Programm wählbar. Bitte beachten Sie, dass jede Zufallszahl nur genau einmal vorkommen darf, so dass die kleinste und die größte Zahl in geeigneter Weise gewählt werden müssen! Zufallsstichprobe Stichprobenumfang n = 10 Kleinste Zahl: 1 Größte Zahl : Vollständige Randomisierung: Der Stichprobenumfang (Anzahl Versuchseinheiten) und die Anzahl der Gruppen sind im Programm wählbar. Vollständige Randomisierung Versuchseinheiten: n = 10, Anzahl Gruppen = 2 Lfde Nr Gruppe Randomisierte Blöcke: Der Stichprobenumfang pro Block und die Anzahl Blöcke sind im Programm wählbar. Randomisierte Blöcke Blockumfang n = 4 ; Anzahl Blöcke = 5 Block 1: Block 2: Block 3: Block 4: Block 5: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 221 von 241

222 Cross-Over-Versuchspläne: Der Stichprobenumfang ( Versuchseinheiten ) und die Umfänge der Blöcke sind im Programm wählbar. Cross-Over-Versuchspläne Versuchseinheiten: n = 10 Umfang Gruppe 1: 5 Umfang Gruppe 2: 5 Lfde Nr. Gruppe 1 AB 2 BA 3 AB 4 BA 5 BA 6 AB 7 AB 8 AB 9 BA 10 BA Lateinische Quadrate: Die Ordnung des gewünschten Lateinischen Quadrats ist im Programm wählbar. Es wird das standardisierte lexikographische und ein randomisiertes Lateinisches Quadrat ausgegeben: Lateinische Quadrate Ordnung k = 5 Standardisiertes Lateinisches Quadrat: A B C D E B C D E A C D E A B D E A B C E A B C D Randomisiertes Lateinisches Quadrat: E C D B A B E A D C C A B E D D B C A E A D E C B BiAS. für Windows Programmversion 11 epsilon-verlag Seite 222 von 241

223 A.25 Dichte- und Verteilungsfunktionen Gauß-Verteilung t-verteilung χ²-verteilung F-Verteilung Binomial-Verteilung Poisson-Verteilung Nicht-zentrale t-verteilung Nicht-zentrale χ²-verteilung Nicht-zentrale F-Verteilung Studentized Range Es wird die Verteilungsfunktion und deren Inverse berechnet. Gauß-verteilte Zufallszahlen (uni- und bivariat): Zur Erzeugung Gauß-verteilter Zufallszahlen können für beliebige Gruppenzahlen und beliebige Fallzahlen in den Gruppen jeweils Werte von µ und σ 2 vorgegeben werden. Auf ein wenig informatives Zahlenbeispiel wird aus Platzgründen verzichtet. Die ermittelten Zufallszahlen werden zur weiteren Verwendung in eine (frei zu wählende) Datei abgespeichert. Gauß-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. Gauß-Verteilung Irrtumswahrscheinlichkeit α = (zweiseitig) Kritischer Wert G = Gauß-Verteilung Prüfgröße N = Überschreitungswahrscheinlichkeiten: Einseitig: p = Zweiseitig: 2p = t-verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. t-verteilung Irrtumswahrscheinlichkeit α= (zweiseitig) Freiheitsgrad df = 10 Kritischer Wert t = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 223 von 241

224 t-verteilung Prüfgröße t = Freiheitsgrad df = 10 Überschreitungswahrscheinlichkeiten: Einseitig p = Zweiseitig: 2p = Chi-Quadrat-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. χ2-verteilung Irrtumswahrscheinlichkeit 2α= Freiheitsgrad = 1 Kritischer Wert χ2 = χ2-verteilung Prüfgröße χ2 = Freiheitsgrad = 1 Überschreitungswahrscheinlichkeit p = F-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. F-Verteilung Irrtumwahrscheinlichkeit α = (zweiseitig) Freiheitsgrade df1 = 10 und df2 = 20 Kritischer Wert F = F-Verteilung Prüfgröße F = Freiheitsgrade df1 = 10 und df2 = 20 Überschreitungswahrscheinlichkeit p = Binomial-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe wird im Folgenden nur ein Beispiel angegeben. Binomial-Verteilung Anzahl Versuche n = 20 Anzahl Erfolge k = 5 Erfolgswahrscheinlichkeit p = P( k 5 ) = P( k 5 ) = P( k = 5 ) = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 224 von 241

225 Poisson-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe wird im Folgenden nur ein Beispiel angegeben. Poisson-Verteilung Erwartungswert λ = Anzahl Ereignisse k = 3 P ( k 3 ) = P ( k = 3 ) = P ( k 3 ) = Nicht-zentrale t-verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. Nicht-zentrale t-verteilung Irrtumswahrscheinlichkeit α= (zweiseitig) Freiheitsgrad df = 10 NC-Parameter c = Kritischer Wert t = Nicht-zentrale t-verteilung Prüfgröße t = Freiheitsgrad df = 10 NC-Parameter c = Überschreitungswahrscheinlichkeiten: Einseitig: p = Zweiseitig: 2p = Nicht-zentrale Chi-Quadrat-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. Nicht-zentrale χ2-verteilung Irrtumswahrscheinlichkeit α= (zweiseitig) Freiheitsgrad = 10 NC-Parameter c = Kritischer Wert χ2 = Nicht-zentrale χ2-verteilung Prüfgröße χ2 = Freiheitsgrad = 10 NC-Parameter c = Überschreitungswahrscheinlichkeit p = BiAS. für Windows Programmversion 11 epsilon-verlag Seite 225 von 241

226 Nicht-zentrale F-Verteilung: Zur Überprüfung der Berechnung von Verteilungsfunktionen und deren Inversen können beliebige einschlägige Tabellen herangezogen werden. Zur Validierung und zur Illustration der Eingabe werden im Folgenden nur zwei Beispiele angegeben. Nicht-zentrale F-Verteilung Irrtumwahrscheinlichkeit α = (zweiseitig) Freiheitsgrade df1 = 10 und df2 = 20 NC-Parameter c = Kritischer Wert F = Nicht-zentrale F-Verteilung Prüfgröße F = Freiheitsgrade df1 = 10 und df2 = 20 NC-Parameter c = Überschreitungswahrscheinlichkeit p = Studentized Range: Nach Angaben von Lund et al. (1983) stimmen die Resultate für df>2 i.d.r. auf mindestens 4 Stellen mit den Standard-Tabellen aus Harter et al. (1959) überein, für df<3 ist die Genauigkeit gelegentlich geringfügig geringer. Die Berechnung der p-werte entspricht Lund et al. (1983) JRSA Applied Statistics, Vol. 32 No. 2, pp Eine Referenz zur Validierung ist Harter et al. (1959) Techn. Rep. Dayton WADC. Studentized Range Studentized Range: R = Anzahl Gruppen: k = 5 Freiheitsgrad: df = 12 p-wert: p = Literatur: Harter, H.L., D. Clemm, E.H. Guthrie (1959) The probability integrals of the range and of studentized range. WADC Technical Report Vol. II, Dayton, Ohio, Wright Air Craft Development Center Lund, R.E., J.R. Lund (1983) Probabilities and upper quantiles for the Studentized Range. Applied Statistics, Vol.32 No.2, 1983, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 226 von 241

227 Literatur Die Grundzüge der Biometrie können in den einführenden Lehrbüchern Hanns Ackermann (2014) Medizinische Biometrie, 7. Auflage epsilon Darmstadt Rolf J. Lorenz (1996) Grundbegriffe der Biometrie, 4. Auflage Fischer Stuttgart nachgelesen werden. Ein umfassender, auch an Mediziner und Sozialwissenschaftler gerichteter Überblick über aktuelle statistische Methoden und zahllose Beispiele finden sich in den anwendungsorientierten Werken von Jürgen Bortz (2005) Lehrbuch der Statistik, 6. Auflage Springer-Verlag Heidelberg Irene Guggenmoos-Holzmann, K. Wernecke (1995) Med. Statistik, Springer-Verlag Joachim Hartung (1982) Statistik, Oldenburg-Verlag München Wien Ralf-Dieter Hilgers et al. (2003) Einführung in die Med. Statistik, Springer-Verlag Lothar Sachs (2003) Angewandte Statistik, 11. Aufl. Springer-Verlag Heidelberg *) Martin Schumacher, Gabi Schulgen (2002) Methodik klin. Studien, Springer-Verlag Christel Weiß (2010) Basiswissen Medizinische Statistik, 5. Aufl. Springer-Verlag Das als Praxisratgeber für Kliniker und Ärzte konzipierte Buch Andreas J. W. Goldschmidt (Hrsg. 1997) Medizinische Statistik und Klinische Forschung - von der Idee zum Ergebnis, Springer-Verlag Heidelberg ist ganz der praktischen Seite der Biometrie gewidmet und gibt unter anderem Aufschluss über GCP-Richtlinien, über Prüfpläne und ethische Aspekte und spricht auch juristische Gesichtspunkte von medizinischen Studien an. BiAS. gibt zum Abschluss jeder Berechnung spezielle Literaturhinweise, die eine weitergehende Lektüre erleichtern und die verwendeten Methoden zitierbar machen. Auf den nächsten Seiten finden sich die wichtigsten, in BiAS. Version 11 zitierten bzw. verwendeten Lehrbücher und Originalarbeiten. Spezielle Literaturangaben zu den Beispielen des Validierungsteils sind - wie in BiAS. Programmausgabe - jeweils den Beispielen angefügt und finden sich alle in der nachfolgenden Aufstellung. Die aktuellen ICH-Guidelines (Statistical Principles for Clinical Trials) finden Sie unter die Guidelines for Good Clinical Practice GCP unter *) Zu L. Sachs (2003): Zitate im Handbuch und im Programm beziehen sich häufig auch auf frühere Auflagen. Nachfolgewerk ist J. Hedderich und L. Sachs (2015) Angewandte Statistik: Methodensammlung mit R, Springer. BiAS. für Windows Programmversion 11 epsilon-verlag Seite 227 von 241

228 Weitere verwendete Lehrbücher und Originalarbeiten: Aalen O.O., S. Johansen (1978) An empirical transition matrix for nonhom*ogeneous Markov chains based on censored observations. Scand J Statist 5, pp Abel U. (1993) Die Bewertung diagnostischer Tests, Hippokrates-Verlag Stuttgart Abramowitz M., I. Stegun (1972) Handbook of Mathematical Functions. 10th edition Dover Publications New York. Download: Abt K. (1960) Analyse de covariance et analyse par differences. Metrika 3, pp , , Abt K. (1967) On the identification of the significant independent variables in linear models. Metrika 12, pp. 1-15, Ackermann H. (1979) A concise formula to compute general orthogonal contrast coefficients. Biom J 21, 7, Ackermann H. (1985) Mehrdimensionale nicht-parametrische Normbereiche. Springer-Verlag Berlin- HD-NY-Tokyo Ackermann H. (1991) A Friedman-type test for circular data and arbitrary cell frequencies. Biom J 33, 6, pp Ackermann H. (1991) A program package for Biometrical Analysis of Samples. Comp. Stat. & Data Analysis 11, 2, pp Ackermann H. (1997) Box-Cox-transformierte multivariate Normbereiche. Inform Biom Epidem in Med & Biol 28, 4, pp Ackermann H. ( ) Grundlagen der Medizinischen Biometrie Auflage epsilon-verlag Darmstadt Agresti A. (1992) Exact Inference for Contingency Tables. Statistical Science Vol 7, 1, pp Alexander H., D.J. Browse, S.J. Reading, I.S. Benjamin (1999) A simple and accurate method for calculation of the EC50. J Pharmacol Toxicol 41, pp Altman D.G., J.M. Bland (1983) Measurements in Medicine: The Analysis of Method Comparison Studies. The Statistician 32, 3, pp Altman D.G. (1998) Confidence Intervals for the Number Needed to Treat. Brit. Med. J. 317, Altman D.G. (Editor, ) Statistical Notes. British Medical Journal und Altman D.G., Matthews J.N.S. (1996) Interaction 1: Heterogeneity of effects. Brit. Med. J. 1996;313:486 Andersen P., Borgan, O. Gill, R., Keiding, N. (1993) Statistical models based on counting processes. New York: Springer Anscombe F.J., J.W. Tukey (1963) Examination and analysis of residuals. Technom. 5,2, p APV-Richtlinie (1985) "Untersuchungen zur Bioverfügbarkeit". Pharm. Ind. 47, pp Armitage P. (1955) Tests for linear trends in proportions and frequencies. Biometrics 11: Armitage P., G. Berry (1987/88) Statistical Methods in Medical Research. Blackwell Sci Publ. Armitage P., G. Berry, J.N.S. Matthews (2002) Statistical Methods in Medical Research. 4th edition Blackwell Sci Publ. Backhaus K., B. Erichson, W. Plinke, R. Weiber (2011) Multivariate Analysemethoden - Eine anwendungsorientierte Einführung. 13. Auflage Springer-Verlag Berlin Bamber D. (1975) The area above the ordinal diminace graph and the area below the receiver operating characteristic graph. J. Math. Psych. 12, pp Barker C. (2009) The mean, median and confidence intervals of the Kaplan-Meier survival estimate - Computations and applications. The American Statistician Vol. 63, No. 1, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 228 von 241

229 Batschelet E. (1981) Circular Statistics in Biology. Academic Press. Bauer P., K. Köhne (1994) Evaluation of experiments with adaptive interim analysis. Biometrics 50, pp Beasley J.D., S.G. Springer (1977) The percentage points of the normal distribution. Appl. Stat. 26, 1 Benjamini Y., Y. Hochberg (1995) Controlling the false discovery rate: A practical and powerful approach to multiple testing. J. Roy. Stat. Soc. Series B, 57, 1, pp Beran, R. P. Hall (1993) Interpolated nonparametric prediction intervals and confidence intervals. J. Royal Stat. Soc. Series B, 55, 3, pp Berk K.N. (1987) Effective Microcomputer Statistical Software. Amer. Stat. Vol. 41, No. 3, pp Bernoulli, J. (1713) Ars conjectandi, opus posthumum. Thurneysen Brothers Basel Best D.J., P.G. Gipps (1974) Algorithm AS 71: The Upper Tail Probabilities of Kendall's Tau. Applied Statistics 23, 1, pp Best D. J., D.E. Roberts (1975), Algorithm AS 89: The Upper Tail Probabilities of Spearman's rho. Applied Statistics, Vol 24, No 3, Betzin J., P. Bollmann-Sdorra (2003) On the determination coefficient in CFA. Psychology Sci. 45, 2, pp Bewick V., L. Cheek, J. Ball (2004) Statistics review 10: Further nonparametric methods, Critical Care 8(3) pp Blackwelder W.C. (1982) 'Proving the Null Hypothesis' in Clinical Trials. Contr. Clin. Trials 3, Bland J.M. (2000) An introduction to medical statistics, 3rd ed. Oxford: Oxford University Press Bland J.M., D.G. Altman (1986) Statistical methods for assessing agreement between two methods of clinical measurements. Lancet Bland J.M., D.G. Altman (1996) Statistics Notes: Measurement error and correlation coefficients. Brit. Med. J. 313: Bland J.M., D.G. Altman (1997) Statistics Notes: Cronbach's alpha. Brit. Med. J. 314, pp Bland J.M., D.G. Altman (1999) Measuring agreement IN method comparison studies. Stat Methods Med Res 8: Bock H.H. (1974) Automatische Klassifikation. Vandenhoeck und Ruprecht. Göttingen Zürich. Bock J., H. Toutenberg (1991) Sample size determination in clinical research. In: Handbook of Statistics 8, North-Holland. Bonett D.G. (2002) Sample size requirements for estimation intraclass correlations with desired precision. Stat. in Med. 21, pp Bonett D.G., R.M. Price (2006) Confidence intervals for a ratio of binomial proportions based on paired data. Stat. in Med. 25, pp Bonferroni C.E. (1936) Teoria statistica delle classi e calcolo delle probabilità. Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze, 8:3-62. Borenstein M., L.V. Hedges, J.P.T.Higgins, H.R. Rothstein (2009) Introduction to meta-analysis. Chichester, UK: Wiley Bortz J. ( ) Lehrbuch der Statistik. 1. bis 6. Auflage, Springer-Verlag. Bortz J., C. Schuster (2010) Statistik für Human- und Sozialwissenschaftler. 7. Auflage, Springer- Verlag. Bortz J., G.A. Lienert, K. Boehnke (2008) Verteilungsfreie Methoden in der Biostatistik. 3. Auflage Springer Bortz J., G.A. Lienert (2008) Kurzgefasste Statistik für die klinische Forschung. 3. Auflage Springer Bowker A.H. (1948) A test for symmetry in contingency tables. J. Amer. Stat. Ass. 43, pp Box G.E.P., W.G. Hunter, J.S. Hunter (1978) Statistics for experimenters. John Wiley New York. Bratcher T.L., M.A. Moran, W.J. Zimmer (1970) Tables of sample sizes in anova J. Qual. Tech. 2,156 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 229 von 241

230 Bristol D.R. (1989) Sample sizes for constructing confidence intervals and testing hypothesis. Stat. in Med. 8, 7, pp Brockwell P., R. Davis (2002) Introduction to Time Series and Forecasting 2nd. ed. Springer. Brookmeyer R., J. Crowley (1982) A confidence interval for the median survival time. Biometrics Vol. 38, pp Brown B.W. (1980) The crossover experiment for clinical trials. Biometrics 36, pp Brown G.W., A.M. Mood (1951) On Median Tests for Linear Hypotheses. Proc. of the 2nd Berkeley Symposium on Math., Statist. and Prob., Univ. California. Bühning H., G. Trenkler (1978) Nichtparametrische statistische Methoden. de Gruyter Berlin, NY. Campbell G. (1994) Advances in statistical methodology for the evaluation of diagnostic and laboratory tests. Statistics in Medicine 13, pp Campbell M.K., J. Mollison, N. Steen, J.M. Grimshaw, M. Eccles (2000) Analysis of cluster randomized trials in primary care: a practical approach. Family Care 17,2, pp Casagrande J.T., M.C. Pike, P.G. Smith (1978) An improved approximate formula for Calculating sample sizes for comparing two binomial distributions. Biometrics 34, pp Chen E.H. (1971) The power of the Shapiro-Wilk W-Test for normality in samples from Contaminated normal distributions. J. Amer. Stat. Ass. 66, pp Chen Z., R Bertin, G Froldi (2013) EC50 estimation of antioxidant activity in DPPH assay using several statistical programs. Food Chemist 138, pp Chinn S. (2000) A simple method for converting an odds ratio to effect size for use in meta-analysis. Statistics in Medicine 19, pp Chou Y.-M., G.M. Johnson (1987) Sample sizes for strong two-sided distribution-free tolerance limits. Statistical Papers 28, 1, pp Cochran W.G. (1950) The comparison of percentages in matched samples. Biometrika 37, Cochran W.G. (1954) Some methods for strengthening the common chi²-tests. Biometrics 10, Cohen J. (1960) Errors of Measurement in Statistics. Technometrics 10, pp J. Cohen (1977,1988) Statistical power analysis for the behavioral sciences. 1st ed. Academic Press New York, 2nd ed. Hillsdale New York, Erlbaum Assoc. Cohen J. (1992) A power primer. In: Psychological Bulletin, Vol. 112, No. 1 pp Colditz A., J.N. Miller, F. Mosteller (1988) Measuring gain in the evaluation of medical technology - The probability of a better outcome. Intl. J. of Technology in Health Care, 4, pp Collett D. (2003) Modelling survival data in medical research. Chapman and Hall 2nd ed. Comrey A.L. (1973) A First Course in Factor Analysis. Academic Press New York London. Connet J.E., J.A. Smith, R.B. McHugh (1987) Sample size and power for paired-matched casecontrol-studies. Stat. in Med. 6, pp Conover W.J. (1980,1999) Practical Nonparametric Statistics, 1st & 3rd edition John Wiley Conover W.J., R.L. Iman (1981) Rank Transformations as a Bridge between Parametric and Nonparametric Statistics, The American Statistician 35, 3, pp Cook R.J., D.L. Sackett (1995) The number needed to treat: a clinically useful measure of treatment effect. British Med. J. 310, pp Cox D.R., D. Oakes (1984) Analysis of Survival Data. Chapman and Hall, London New York. CPMP Working Party on Efficiency of Medicinal Products (1989) Note for Guidance: Investigation of Bioavailability and Bioequivalence. Craddock J.M., C.R. Flood (1970) The distribution of chi-squared statistic in small Contingency tables. Applied Statistics, 19, pp Cramer C.Y. (1972) A first course in methods of multivariate analysis. Virginia Polytech. Inst. pp.56 ff Cramér H. (1946) Mathematical methods of statistics. Princeton, NJ: Princeton University Press BiAS. für Windows Programmversion 11 epsilon-verlag Seite 230 von 241

231 D'Agostino R.B. (1998) Tutorial in Biostatistics: Propensity Score methods for bias reduction in the comparison of a treatment to a non-randomized control group. Statist. in Medicine 17, pp Dallal G.E. (1988) Statistical Microcomputing - Like It Is. Amer. Stat. Vol. 42, No. 3, pp Dallal G.E. (1985) PC-SIZE. A Program for Sample Size Determinations Version 2.0. USDA Human Nutr. Res. Center on Aging at Tufts University. 711 Washington Street, Boston, MA Dallal G.E., L. Wilkinson (1986) An Analytic Approximation to the Distribution of Lilliefors' Test-Statistic for Normality. Am. Stat. 40, pp Daniel C. (1976) Applications of statistics to industrial experimentation. John Wiley New York. Daniel C. (1978) Patterns in residuals in the two-way-layout. Technometrics 20, 4, pp Daniel C., F.S. Wood (1971) Fitting equations to data. John Wiley New York David H.A., H.O. Hartley, E.S. Pearson (1954) The distribution of the ratio, in a single normal sample, of range to standard deviation. Biometrika 41, pp Deichsel G., H.J. Trampisch (1985) Clusteranalyse und Diskriminanzanalyse. G. Fischer Stuttgart De Jonge H. (1983) Deficiencies in clinical reports for registration of drugs. Stat. in Med. 2, 2, pp DeLong E.R., D.M. DeLong, D.L. Clarke-Pearson (1988) Comparing the areas under two or more correlated receiver operating characteristic curves: a nonparametric approach. Biometrics 44, 3, pp Derendorf H., Th. Gramatté, H.G. Schäfer, A. Staab (2010) Pharmakokinetik kompakt. Wiss. Verlagsgesellschaft Stuttgart. DerSimonian R., N. Laird (1986) Meta-analysis in clinical trials. Controlled Clin. Trials, 7, pp Diletti E., D. Hauschke, V.W. Steinijans (1991) Sample size determination for Bioequivalence asessment by means of confidence intervals. Int. J. Clin. Pharm. 29,1, pp.1-8. Dixon W.J., A.M. Mood (1946) The statistical sign test. J. Amer. Statist. Assoc. 41, pp Donner A., M. Eliasziw (1992) A goodness-of-fit approach to inference procedures for the kappa statistic: confidence interval construction, significance testing and sample size estimation. Stat. in Med. Vol. 11, pp Donner A., N. Klar (2000) Design and Analysis of Cluster Randomization Trials, Oxford University Press New York Dunlap W.P., R.S. Powell, T.K. Konnerth (1977) A Fortran IV function for calculating probabilities associated with the Studentized Range statistic. Behavior Research Methods and Instrumentation 9, 4, pp Dunn O.J. (1964) Multiple comparisons using rank sums. Technometrics 6, pp Durbin J., G.S. Watson (1950,1951) Testing for Serial Correlation in Least Squares Regression. I: Biometrika 37, , II: Biometrika 38, Edwards A.L. (1948) Note on the "correction for continuity" in testing the significance Between correlated proportions. Psychometrika 13, pp Evans J.D. (1996) Straightforward Statistics for the Behavioral Sciences. Brooks/Cole Publishing, Pacific Grove, Calif. Fan C., D. Zhang, C.-H. Zhang (2011) On Sample Size of the Kruskal-Wallis-Test with Application to a Mouse Peritoneal Cavity Study. Biometrics 67, 1, pp Feldman S.E., E. Klinger (1963) Short cut calculation of the Fisher-Yates 'exact test'. Psychometrika 28, pp Fisher R.A. (1971) Statistical Methods for Research Workers. 14. Auflage, Hafner Press. pp Fleiss J.L. ( ) Statistical Methods for Rates and Proportions. John Wiley New York, pp Auflage Fleiss J.L., J. Cohen (1973) The equivalence of weighted kappa and the intra-class correlation coefficient as measures of reliability. Educational and Psychological Measurement. 33, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 231 von 241

232 Fleiss J.L., B. Levin, M.C. Paik (2003) Statistical methods for rates and proportions, 3rd ed. Hoboken: John Wiley & Sons. Freedman L.S. (1982) Tables of the numbers of patients required in clinical trials using the Logrank test. Statistics in Medicine Vol. 1, No. 2, pp Freeman G.H., J.H. Halton (1951) Note on exact treatment of contingency, goodness of fit and other problems of significance. Biometrika, 38: , Freeman M.F., J.W. Tukey (1950) Transformations related to the angular and the square root. The Annals of Mathematical Statistics 21: Friedman M. (1937) The use of ranks to avoid the assumption of normality implicit in the analysis of variance. J. Amer. Stat. Assoc. 32, pp Galen R.S., S.R. Gambino (1979) Norm und Normabweichung klinischer Daten. G Fischer-Verlag Garbin C. (2012) In: Univ. Nebraska USA Gart J.J. (1969) An exact test for comparing matched proportions in Cross-Over-designs. Biometrika 56, pp Gehan E.A. (1965) A generalized Wilcoxon-test for arbitrarily single-censored samples. Biometrika 52, 1 und 2, pp Gibbons J., Chakraborti, S. (2010) Nonparametric statistical inference, 5th ed. CRC Press - A Chapman and Hall Book. Glaser W.R. (1978) Varianzanalyse. UTB Gustav Fischer Stuttgart New York. Goetghebeur E., Ryan L. (1990) A modified log rank test for competing risks with missing failure type. Biometrika 77, 1, pp Goldschmidt A. (Hrsg., 1996) Medizinische Statistik und Klinische Forschung - von der Idee zum Ergebnis. Springer-Verlag. Goldstein R. (1989) Power and Sample Size via DOS Computers. Amer. Stat. Vol. 43, No.4, Graf U., H.J. Henning, K. Stange, P-T. Wittrich (1987) Formeln und Tabellen der angewandten mathematischen Statistik. Springer-Verlag. Gray R. (1988) A class of k-sample tests for comparing the cumulative incidence of a competing risk. Annals of Statistics 16, pp Grizzle J.E. (1965) Two-period cross-over design and its use in clinical trials. Biometrics 21, Grizzle J.E. (1967) Continuity correction in the chi-squared test for 2x2-tables. Amer. Stat. 21, Grizzle J.E. (1974) Correction Note. Biometrics 21, p Grubbs F.E. (1969) Procedures for detecting outlying observations in samples. Technometrics 11:1-21. Grubbs F.E., G. Beck (1972) Extension of sample sizes and percentage points for significance tests of outlying observations. Technometrics 14, 4, pp Guttman I. (1970) Statist. Tolerance Regions: Classical and Bayesian. Griffin's Stat. Monographs 26 Haf C.M., T. Cheaib (1985) Multivariate Statistik in den Natur- und Verhaltenswiss. Vieweg Hajek J., Z. Sid k (1967) Theory of Rank Tests. Academic Press New York, p. 61. Haldane J.S.B. (1940) The mean and variance of chi-squared, when used as a test of hom*ogeneity when samples are small. Biometrika 31, pp Hahn G.J. (1972) Simultaneous prediction intervals for a regression model. Technom. 14, Hall W.J., J.A. Wellner (1980) Confidence bands for a survival curve from censored data. Biometrika 67, pp Hanley J.A., K.O. Hajian-Tilaki (1997) Sampling variability of nonparametric estimates of the areas under receiver operating characteristic curves: an update. Academic Radiology 4: Hanley J.A., B.J. McNeil (1982) The meaning and use of the area under a receiver operating characteristic (ROC) curve. Radiology 143: BiAS. für Windows Programmversion 11 epsilon-verlag Seite 232 von 241

233 Hanley J.A., B.J. McNeil (1983) A method of comparing the areas under receiver operating characteristic curves derived from the same cases. Radiology 148: Harms V. (1988) Biomathematik, Statistik und Dokumentation. Harms-Verlag Kiel. Harris E.K., A. Albert (1991) Survivorship Analysis for Clinical Studies. Marcel Deller Inc. New York Hart B.I. (1942) Significance levels for the ratio of the mean square successive difference to the variance. Ann. Math. Statist. Vol. 13, pp Harter H.L., D. Clemm, E.H. Guthrie (1959) The probability integrals of the range and of studentized range. WADC Technical Report Vol. II, Dayton, Ohio, Wright Air Craft Development Center. Hartung J. (1982) Statistik. Oldenburg München Wien. Hartung J., B. Elpelt (1986) Multivariate Statistik. Oldenburg München Wien. Hauschke D., V.W. Steinijans, E. Diletti (1990) A distribution free procedure for the statistical analysis of bioequivalence studies. J. Clin. Pharm. Therapy & Toxikol. 28, 2, pp Headrick T.C. (2003) An algorithm for generating exact critical values for the Kruskal-Wallis one-way- ANOVA. J. Mod. Appl. Stat. Meth. 2, 1, pp Hedderich J., L. Sachs (2015), Angewandte Statistik: Methodensammlung mit R, Springer-Verlag 15. Auflage. Siehe auch Sachs ( ) und Sachs und Hedderich (2009) Held L., K. Rufibach, B. Seifert (2013) Medizinische Statistik. Pearson Higher Education München Herrmann E., M. Ahmed, M. Shahrashoub, A. Orth, H. Ackermann (2010) Assessing approximative algorithms for calculating Spearman's rank correlation coefficient for moderate sample size in the case of ties. DAGStat Dortmund März Hilgers R.A. (1991) Distribution-free confidence bounds for ROC curves. Methods of Information in Medicine 30: Hintze J.L. (2011) PASS User's Guide, NCSS, Kaysville, Utah. (Kontingenztafel: Chap. 250, ROC- Vergleich: Chap. 262) Hodges J.L. Jr. (1957) The Significance Probability of the Smirnov Two-Sample Test, Arkiv for Matematik, 3, pp Hollander M., D.A. Wolfe (1973,1999) Nonparametric statistical methodes. 1st & 2nd ed. John Wiley. Holm S. (1979) A simple sequentially rejective multiple test procedure. Scand. J. Stat. 6, pp Hommel G. (1988) A stagewise rejective multiple test procedure based on a modified Bonferroni test. Biometrika 1988, 75, pp Horn M., R. Vollandt (1995) Multiple Tests und Auswahlverfahren. Gustav Fischer - Verlag Stuttgart- Jena. Hosmer D.W., S.Lemeshow (2000) Applied Logistic Regression, John Wiley Hotelling, H. (1931) The generalisation of Student's ratio. Ann. Math. Stat. 2, pp Hsieh F., D. Bloch, M. Larsen (1998) A simple method of sample size calculation for linear and logistic regression. Statist. Med. 17, pp Hsu J.C., P. Qiu, L.J. Hin, D.O. Mutti, K. Zadnik (2004) Multiple comparisons with the best ROC curve. Lecture Notes Monograph Series 47, pp Inst. of Math. Stat. (ed., 1989) Discriminant Analysis and Clustering. Stat. Science 4, No. 1, Johnson R. (1988) p-values in 2x2-tables. Biometrics 44, 3, pp Jonge H. De (1983) Deficiencies in clin. reports for registration of drugs. Stat. in Med. 2, pp Julious S.A. (2004) Sample sizes for clinical trials with normal data. Stat. in Med. 23, pp Kaplan E.L., P. Meier (1958) Nonparametric estimation from incomplete observations. JASA 53, pp Katz D., J. Baptista, S.P. Azen, M.C. Pike (1978) Obtaining confidence intervals for the risk ratio in cohort studies. Biometrics 34, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 233 von 241

234 Kendall M.G., J.D. Gibbons (1990) Rank correlation methods. Edward Arnold Publ. Ltd. London Kerry SM, JM Bland (1998) The intracluster correlation coefficient in cluster randomisation. British Medical Journal 316, pp Klein J.P., M.L. Moeschberger (2003) Survival Analysis.Techniques for censored and truncated data, 2nd ed. New York: Springer Publishers Klinger H. (1992) Statistische Modelle für das Bioäquivalenzproblem. 38. Biom. Koll. der DR der Int. Biom. Gesellsch. Gießen Klotz J. (1980) A modified Friedman-Test with missing observations and ordered categorical data. Biometrics 36, pp Knox SA., P. Chondros (2004) Observed intra-cluster-correlation in a cluster survey sample of patient encounters in general practice in Australia. BMC Medical Research Methodology 2004, 4, 30ff Koch G.G. (1972) The use of nonparametric methods in the statistical analysis of the two-period change-over design. Biometrics 28, pp Kolmogoroff A. (1933) Sulla determinazione empirica di una legge di distribuzione. Giornale Inst. Ital. Attuari 4, pp Kolmogoroff A. (1941) Confidence limits for an unknown distribution function. Ann. Math. Stat. 12, Koopman P.A.R. (1984) Confidence Intervals for the Ratio of Two Binomial Proportions. Biometrics 40, pp Koziol J.A., M.D. Perlman (1978) Combining Independent chi squared Tests. J. Amer. Stat. Ass. 73,4, Kramer C.Y. (1972) A first course in methods of multivariate analysis. Virginia Polytech. Inst., Blacksburg, Virgina. Krauth J. (1993) Einführung in die Konfigurationsfrequenzanalyse. Beltz-Verlag. Krauth J., A. Lienert (1973) Die Konfigurationsfrequenzanalyse. Karl Alber Verlag Freiburg-München Kreyszig E. (1970) Introductory Mathematical Statistics. John Wiley. Kroning AJ., PH. Franses (2003) Confidence intervals for comparing Cronbach's coefficient alpha values. Preprint Elsevier Science. Krouwer J.S. (2008) Why Bland-Altman plots should use X, not (Y+X)/2 when X is a reference method. Statistics in Medicine 27: Kruskal W.H., W.A. Wallis (1952) Use of ranks in one-criterion variance analysis. J.Amer. Stat. Ass. 47, pp und 48 (1953), pp Kubinger K.D. (1986): A Note on Non-Parametric Tests for the Interaction in Two-Way Layouts. Biometrical Journal, 28, Küffner H., R. Wittenberg (1985) Datenanalysesysteme für statistische Auswertungen. G. Fischer Lane D.M. et al. (2014) Introduction to Statistics: An Interactive Multimedia Course of Study. onlinestatbook.com, Rice-University. Lantz B. (2013) The impact of sample non-normality on ANOVA and alternative methods. Brit. J of Mathem. and Statist. Psychology Vol 66(2), pp Lautsch E., G.A. Lienert (1993) Binärdatenanalyse. Beltz-Verlag Lautsch E., von Weber (1995) Methoden und Anwendungen der KFA. Beltz-Verlag Lawless J.F. (1982) Statistical Models and Methods for Lifetime Data. Wiley NY Lee E.T. (1980) Statistical Methods for Survival Data Analysis. Wordsworth, Belmont, Calif. Lehmacher W. (1981) A more powerful simultaneous test procedure in configural frequency analysis. Biom.J. 23, 5, pp Lehmacher W. (1991) Analysis of the Crossover Design in the Presence of Residual Effects. Statist. in Med. 10, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 234 von 241

235 Lehmacher W., W. van Eimeren (1986) Zur statistischen Bewertung der Ergebnisse von Bioverfügbarkeitsstudien. Therapiewoche 36, pp Lehmann E.L. (1975,1998) Nonparametrics: Statistical Methods Based on Ranks. 1. und revidierte 1. Auflage Prentice Hall, New Jersey. Leisenring W.,T. Alonzo, M.S. Pepe (2000) Comparisons of Predictive Values of Binary Medical Diagnostic Tests for Paired Designs. Biometrics 56, pp Lemeshow S., D.W. Hosmer, J. Klar (1988) Sample size requirements for studies estimating odds ratios or relative risks. Statist. in Med. 7, pp Lemeshow S., D.W. Hosmer, J. Klar, S.K. Lwanga (1990) Adequacy of Sample Size in Health Studies. John Wiley Chichester New York Lienert G.A. (1973) Verteilungsfreie Methoden in der Biostatistik. Anton Hain Meisenheim am Glan. Lilliefors H.W. (1967) On the Kolmogoroff-Smirnoff test for normality with mean and Variance unknown. J.Am.Stat.Ass. 62, pp Lin L.I-K. (1989,2000) A Concordance Correlation Coefficient to Evaluate Reproducibility. Biometrics 45, pp Correction Note: Biometrics 56, 2000, pp Linder A., W. Berchtold (1982) Stat. Methoden, Birkhäuser. Ljung G.M., G.E.P. Box (1978) On a Measure of a Lack of Fit in Time Series Models. Biometrika 65, Lock R.H. (1993) A comparison of five student versions of statist. packages. Amer. Stat. 47,2, Lorenz R.J. (1996) Grundbegriffe der Biometrie. Gustav-Fischer-Verlag Stuttgart. 4. Auflage Long J.S. (1997) Regression Models for categorical and limited dependent variables. Thousand Oaks, Sage Publications Lund R.E., J.R. Lund (1983) Probabilities and upper quantiles for the Studentized Range. Applied Statistics, Vol.32 No.2, 1983, pp Mace A.E. (1964) Sample-Size Determination. Chapman & Hall, Ltd., London. Machin D., M.J. Campbell (1987) Stat. Tables for Design of Clin.l Trials. Blackw. Sci. Publ. Macskassy S., Provost, F., Rosset, S. (2005) ROC Confidence Bands: An Empirical Evaluation. Proc. of the 22nd Int. Conference on Machine Learning (ICML). Bonn, Germany. Mann H.B. (1945) Nonparametric Tests against Trend. Econometrika 13, pp Mantel N. (1970) Why stepdown procedures in variable selection. Technometrics 12, 3, pp Mantel N., W. Haenszel (1959) Statistical aspects of the analysis of data from retrospective studies of disease. J. Nat. Cancer Inst. 22, pp Mantel N. (1963) Chi-square tests with one degree of freedom: extensions of the Mantel-Haenszelprocedure. J. Amer. Statist. Assoc. 58, Matthews J.N.S., D.G. Altman (1996) Interaction 2: compare effect sizes not P values. Brit Med J 1996;313:808 Maurer W., L.A. Hothorn, W. Lehmacher (1995) Multiple Comparisons in Drug Clinical Trials and Preclinical Assays: A-priori Ordered Hypotheses. In:Vollmar, J. (Hrsg.) Testing principles in clinical and preclinical trials, Gustav Fischer 1995 McBride G.B. (2005) A proposal for strength-of-agreement criteria for Lin's Concordance Correlation Coefficient. NIWA Client Report: HAM McClish D.K. (1987) Comparing the areas under more than two independent roc curves. Medical Decision Making 7, pp McDonald J.H. (2014) Handbook of Biol. Statistics. Sparky House Publishing Baltimore, Maryland: McQueen J. (1967) Some Methods for Classification and Analysis of Multivariate Observations. Proc.5th Berkely Symp. Math. Stat. Prob. 65/66, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 235 von 241

236 Miller A.J. (1992) Algorithm AS 274: Least Squares Routines to Supplement Those of Gentleman. Applied Statistics, Vol. 41, No. 2, pp Miller A.J. (2004) A collection of mathematical and statistical routines. J. of Stat. Soft. 9, 3, pp.1-3 Miller L.H. (1956) Table of percentage points of Kolmogorov statistics. J.Am.Stat.Ass. 51, pp Miosga P., T.L. Chung, H. Ackermann, E. Herrmann, W. Helm (2012) A new approach towards simulation of the Rule of Ten for a Cox regression. Poster, Biometrisches Kolloquium 2012 in Berlin. Moore P.G. (1955) The properties of the mean square successive difference in samples from various populations. J. Amer. Statist. Assoc. Vol. 50, pp Mosteller F., J.W. Tukey (1977) Data analysis and regression. Addison Wesley, Reading, Mass. Moskowitz C.S., M.S. Pepe (2006) Comparing the Predictive Values of Diagnostic Tests: Sample size and Analysis for Paired Study Designs. Clinical Trials Vol. 3, No. 3, pp Mudholkar G.S., M. McDermott, D.K. Srivastava (1992) A test of p-variate normality. Biometrika 79, 4, pp Murray D.M. (1998) The Design and Analysis of Group Randomized Trials, Oxford Univ. Press 1998 Neter J., W. Wasserman (1974) Applied linear statistical models. R. D. Irwin, Inc., Homewood, Ill. Neumann J., R.H. Kent, H.B. Bellinson, B.I. Hart (1941) The mean square successive difference. Annals of Mathematical Statistics Vol.12, pp Noether G.E. (1967) Elements of Nonparametric Statistics. Wiley New York. Noether G.E. (1987) Sample Size Determination for Some Common Non-parametric Tests. J. Amer. Stat. Ass. Vol. 82, No. 398, pp Oberfeld D., Th. Franke (2013) Evaluating the robustness of repeated measures analyses: The case of small sample sizes and nonnormal data. Behavior Research Methods Vol 45, 3, pp O'Brien P.C., T.R. Fleming (1979) A multiple testing procedure for clinical trials. Biometrics 35, pp Ortseifen C., T. Bruckner, M. Burke und M. Kieser (1997) An Overview of Software Tools for Sample Size Determination. Inform., Biometrie und Epidemiol. in Med. und Biol. 28, 2, pp Osborne R, WSB. Paterson (1952) On the sampling variance of heritability estimates derived from variance analyses. Proc. R. Soc. Edinb. Sect. B 64: Overall J.E., C.J. Klett (1972) Applied Multivariate Analysis. McGraw-Hill New York. Owen D.B. (1962) Handbook of Statistical Tables. Addison Wesley. Passing H., W. Bablok (1983) A New Biometrical Procedure for Testing the Equality of Measurements from Two Different Analytical Methods. J. Clin. Chem. Clin. Biochem. Vol. 21, pp Pawlik K. (1959) Der maximale Kontingenzkoeffizient im Falle nicht-quadratischer Kontingenztafeln. Metrika 2, Pearson E.S., M.A. Stephens (1964) The ratio of range to standard deviation in the same Normal sample. Biometrika 51, pp Peduzzi P., J. Concato, E. Kemper, T.R. Holford, A.R. Feinstein (1996) A simulation study of the number of events per variable in logistic regression analysis. J. Clin. Epidemiol. 49, pp Persike M. (2010) Vorlesung "Mathematische und statistische Methoden II" des Psychologischen Instituts der Universität Mainz. Peto R., M.C. Pike et al. (1977) Design and analysis of randomized clinical trials requiring Prolonged observation of each patient. II Analysis and examples. Brit. J. Cancer 35, p.31. Pezzullo J.C. (2007) Scripts zum Cox-Modell, statpages.org, Georgetown Univ US Poco*ck S.J. (1983) Clinical Trials - A Practical Approach. John Wiley & Sons. Poco*ck S.J. (1977) Group sequential methods in the design and analysis of clinical trials. Biometrika 64, pp Pratt J.W., J.D. Gibbons (1981) Concepts of Nonparametric Theory. Springer Ser. in Statistics 1981 BiAS. für Windows Programmversion 11 epsilon-verlag Seite 236 von 241

237 Prescott P. (1979) Critical values for a sequential test for many outliers. Appl. Stat. 28, pp Prins (editor, 2012) e-handbook of Statistical Methods. NIST/SEMATECH Proschan F. (1953) Conf. and Tolerance Interv. for the Normal Distribution. JASA 48, pp Putter H., Fiocco M., Geskus R.B. (2007) Tutorial in biostatistics: Competing risks and multi-state models. Statistics in Medicine 26, pp Raghunathan T.E., R. Rosenthal, D.B. Rubin (1996) Comparing correlated but nonoverlapping correlations. Psychological Methods, Vol 1(2), pp Rahlfs V. (1987) "N". IDV Gauting/München. Rasch B., Friese, M., Hofmann, W., Naumann, E. (2010) Quantitative Methoden 2. Einführung in die Statistik für Psychologen und Sozialwissenschaftler. Springer-Verlag Heidelberg. Ritschel W.A. (1986) Handbook of Basic Pharmaco*kinetics. Drug Intelligence Publ., Inc. Robins J., S. Greenland, NE. Breslow (1986) A general estimator for the variance of the Mantel- Haenszel odds ratio. Amer. J. Epidemiol. 124, 5, pp Rode R.A., V.M. Chinchilli (1988) The Use of Box-Cox-Transformations in the Development of Multivariate Tolerance Regions With Applications to Clinical Chemistry. Amer. Stat. 42, 1, pp Rosenbaum P.R., D.B. Rubin (1983) The central role of the propensity score in observational studies for causal effects. Biometrika, 70, pp Rosenthal R. (1991) Meta-Analytic Procedures for Social Research. Sage Publications, Inc. Royston J.P. (1982) An extension of Shapiro and Wilk's test for normality to large samples. Appl. Stat. 31, 2, pp Rubin J. (1967) Optimal Classification into Groups: An Approach for Solving the Taxonomy Problem. J. Theor. Biol. 15, pp Rüger B. (1978) Das maximale Signifikanzniveau des Testes "Lehne Ho ab, wenn k unter n gegebenen Tests zur Ablehnung führen." Metrika 25, pp Sachs L. ( ) Statistische Methoden I und II. Springer-Verlag 1. bis 7. Auflage. Sachs L. ( ) Angewandte Statistik, Springer-Verlag 1. bis 11. Auflage. Siehe auch: Sachs und Hedderich (2006,2009) 12./13. Auflage und Hedderich und Sachs (2012,2015) 14./15. Auflage Sachs L., J. Hedderich (2006,2009) Angewandte Statistik: Methodensammlung mit R, Springer-Verlag 12. und 13. Auflage. Siehe auch Sachs ( ) und Hedderich und Sachs (2012/2015) Savin N.E., K.J. White (1977) The Durbin-Watson Test for Serial Correlation with Extreme Sample Sizes or Many Regressors. Econometrica 45, Schaich E., A. Hamerle (1984) Verteilungsfreie statistische Prüfverfahren. Springer Berlin. Schendera C. (2010) Clusteranalyse mit SPSS. Oldenbourg-Verlag München. Schmider E., M. Ziegler, E. Danay, L. Beyer, M. Bühner (2010) Is it really robust? Reinvestigating the robustness of ANOVA against violations of the normal distribution assumption. Methodology 2010 Vol. 6(4), pp Schneiderman M.A. (1964) The proper size of a clinical trial: "Grandman's strudel" method. The Journal of New Drugs 4, pp Schouten H.J.A. (1982) Comparing two independent binomial proportions by a modified chi squared test - required sample sizes. Biom.J. 24, 1, pp Schuhmacher M., G. Schulgen (2002) Methodik klinischer Studien, Springer-Verlag Sedlmeier P., F. Renkewitz (2008) Forschungsmethoden und Statistik in der Psychologie. Pearson Studium München Sen P.K. (1960) On some convergence properties of U-statistics. Calc. Stat. Ass. Bull. 10, pp Senn S., G. D'Angelo, D. Potvin (2004) Carry-over in cross-over trials in bioequivalence: theoretical concerns and empirical evidence. Pharmaceutical Statistics 2004, 3, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 237 von 241

238 Shapiro S.S., M.B. Wilk (1965) An analysis of variance test for normality. Biometrika 52, pp Shrout PE, JL Fleiss (1979) Intraclass Correlations: Uses in Assessing Rater Reliability. Psychological Bulletin 86, 2, pp Siegel, S. (1956) Nonparametric statistics. McGraw-Hill. Sivaprakasam J., M. Purva (2010) CUSUM analysis to assess competence: what rate is acceptable? Clin. Teach. 7, pp Simes R.J. (1986) An improved Bonferroni procedure for multiple tests of signif. Biometrika 73, Smirnoff N.W. (1939) On the estimation of the discrepancy between empirical curves of distribution for two independent samples. Bull. Universität Moskov. Ser. Internat. Sec.A 2, pp Smirnoff N.W. (1948) Tables for estimating the goodness of fit of empirical distributions. Ann. Math. Stat. 19, pp Sokal P.H.A., R.R. Sneath (1973) Numerical Taxonomy. Freeman & Comp., San Francisco. Späth H. (1983) Cluster-Formation und -Analyse. Oldenbourg-Verlag. Späth H. (1977) Cluster-Analyse-Algorithmen. Oldenbourg-Verlag München Wien, 2. Auflage. Spearman C. (1904) The proof and measurement of ass. between two things. Am.J.Psy. 15, Sprent P. (1969) Models in regression and related topics. Methuen & Co Ltd., London. Spilker B. (1984) Guide to clinical studies and developing protocols. Raven Press New York. Steiger J.H. (1980) Tests for comparing elements of a correlation matrix. Psychological Bulletin 87, Steinhausen D., K. Langer (1977) Clusteranalyse. degruyter Berlin. Steinijans V.W., E. Diletti (1983) Statistical Analysis of Bioavailibility Studies: Parametric And Nonparametric Confidence Intervals. Eur. J. Clin. Pharmacol. 24, pp Steinijans V.W., D. Hauschke (1990) Update on the statistical analysis of bioequivalence studies. J. Clin. Pharm. 28, 3, pp Stoller D.S. (1954) Univariate two-population distributionfree discrimination. JASA 49, pp Sturges H.A. (1926) The choice of a class interval. JASA 21, pp Tatsuoka M.M. (1971) Multivariate Analysis. John Wiley. Thurstone L. (1947) Multiple Factor Analysis. Univ. of Chicago Press. Terwilliger J., J. Ott (1992) A haplotype-based 'haplotype relative risk' approach to detecting allelic associations. Hum. Hered. 42, pp Tukey J.W. (1977) Exploratory data analysis. Addison-Wesley Publish. Co. Reading, Mass. Überla K. (1971) Faktorenanalyse. Springer-Verlag Berlin Heidelberg New York. Valz P.D., M.E. Thompson (1994) Exact inference for Kendall's S and Spearman's rho with Extensions to Fisher's Exact Test in r c Contingency Tables. Journal of Computational and Graphical Statistics 3, pp van Elteren P.H. (1960) On the combination of independent two sample tests of Wilcoxon. Bull. of the Inst. of International Statistics 37, pp Vaz S., T. Falkmer, A.E. Passmore, R. Parsons, P. Andreou (2013) The Case for Using the Repeatability Coefficient When Calculating Test Retest Reliability. PLoS ONE 8(9): e doi: /journal.pone Vergara I.A., T. Norambuena, E. Ferrada, A.W. Slater, F. Melo (2008) StAR: a simple tool for the statistical comparison of ROC curves. BMC Bioinformatics 9, Victor A., A. Elsässer, G. Hommel, M. Blettner (2010) Wie bewältigt man die p-wert-flut? Deutsches Ärzteblatt Jg 107, Heft 4, pp Vittinghoff E., C.E. McCulloch (2007) Relaxing the rule of ten events per variable in logistic and Cox regression. Am J Epidemiol. 165, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 238 von 241

239 Vollmar J. (Hrsg., 1995) Testing principles in clinical and preclinical trials, Gustav Fischer Waerden B.L. van der (1957) Mathematische Statistik, Springer-Verlag. S Walter E. (1980) Biomathematik für Mediziner. Teubner. Wan X., W. Wang, J. Liu, T. Tong (2014) Estimating the sample mean and standard deviation from the sample size, median, range and/or interquartile range. BMC Medical Research Methodology 14:135 Weaver B., K.L. Wuensch (2013) SPSS and SAS programs for comparing Pearson correlation coefficients. Behav Res Methods 45, 3, Weber E. (1974) Einführung in die Faktorenanalyse. Gustav Fischer-Verlag Stuttgart. Welch B.L. (1937) The significance of the difference between two means when the Population variances are unequal. Biometrika 29, pp Welch B.L. (1951) On the Comparison of Several Mean Values: An Alternative Approach. Biometrika 38, pp Wellek S., M. Blettner (2012) On the Proper Use of the Crossover Design in Clinical Trials. Deutsches Arzteblatt International 109 (15), pp Werner J. (1984) Medizinische Statistik. Urban & Schwarzenberg München Wien Baltimore. Westlake W.J. (1972) Use of Confidence Intervals in Analysis of Comparative Bioavailibility Trials. J. Pharm. Sci. 61, pp Wilcoxon F., R.A. Wilcox (1964) Some rapid approximate statistical procedure. Lederle Lab. NY. Wilks S.S. (1941) Determination of Sample Sizes for Setting Tolerance Limits. Ann. Math. Stat. 12, pp Winer B.J. (1971) Statistical Principles in Experimental Design. McGraw Hill New York. Wishart D.W. (1984) CLUSTAN. G. Fischer - Verlag Stuttgart New York. Woolf B. (1957) The log likelihood ratio test. Ann. Hum. Gen. 21, pp Youden W.J. (1950) An index for rating diagnostic tests. Cancer 3: Zhao Y.D. (2006) Sample size estimation for the van Elteren test - a stratified Wilcoxon-Mann-Whitney test. Statist. in Med. 25, pp Zhou X.H., M.A. Obuchowski, D.K. McClish (2002) Statistical methods in diagnostic medicine. Wiley- Interscience. Zimmermann H. (1984) Die praktische Relevanz des McNemar-Tests. Biometrical Journal 26, 2, pp Zimmermann H. (1984) Erweiterung des Mantel-Haenszel-Testes auf k>2 Gruppen. Biom. J. 26, 2, Zimmermann H. (1985) Exact Calculation of Permutational Distributions for Two Dependent Samples. Biom. J. 27, 3, pp Zimmermann H. (1985) Exact Calculation of Permutational Distributions for Two Independent Samples. Biom. J. 27, 4, pp Zimmermann H., V.W. Rahlfs (1980) Model Building and Testing for the Change Over Design. Biom. J. 22, pp Zou G.Y. (2012) Sample size formulas for estimation intraclass correlation coefficients with precision and assurance. Stat. in Med. 31, pp Zwiener I., M. Blettner, G. Hommel (2011) Survival Analysis. Deutsches Arzteblatt International 108, 10, pp BiAS. für Windows Programmversion 11 epsilon-verlag Seite 239 von 241

240 BiAS. für Windows tm Datenmanagement und Datenbankmodul Daten-Editor, Daten-Transformationen, Missing-Data- Code, Formelinterpreter, Import und Export von dbase-, ASCII- und Windows-Dateien (XLS, DBF, CSV, SAV und TXT) Selektion, Projektion, Addition, Relationieren, Sortieren, Klassifizieren (auch mit χ²-test), Zählen. Fallzahl- und Powerberechnung Konfidenzintervalle, Ein- und Zweistichproben-Tests, Varianzanalyse, Kruskal-Wallis-Test, Schätzung von Wahrscheinlichkeiten, Vergleich binomialer Größen, Regression, Korrelation, Cross-Over-Analyse, Log-Rank-Test, Äquivalenztests, Many-One-Vergleiche, Epidemiologie (Odds Ratio, Relatives Risiko), Bland-Altman-Methodenvergleich, Bauer- Köhne-Design, Cluster-randomisierte Studien. Randomisierung Vollständige Randomisierung, Randomisierung in Blökken, Cross-Over-Versuchspläne, Lateinische Quadrate, Zufallsstichproben (Gleich- und Normalverteilung). Deskriptive Statistik Durchschnitt, Standardabweichung, Extremwerte, Median, Quartilen, Variationskoeffizient etc., viele Graphiken. Graphik Histogramme (stetig, diskret, kumulativ, Pareto), Kreisdiagramme, Scattergram, diverse Box- und Bar-Plots, Zeitreihen-Plots, Gauß-Anpassung, Regressionsfunktion mit Konfidenzintervall, Hahn-Prognose-Intervall, Kaplan-Meier- Plot, Cluster- und Diskriminanzanalyse, Bland-Altman-, Passing-Bablok- & Lin-Plot, Toleranzbereiche, ROC- Kurven, BMP-, JPG,- GIF- und PCX- Graphik-Export. Konfidenzintervalle Konfidenzintervalle für µ und µ 1 -µ 2, Regression und Korrelation, Median (u.a. Moses- und Tukey-Intervalle), Survival-Analyse (Intervalle nach Hall und Wellner), Simultane Konfidenzintervalle (Hotelling), Binomial- und Poisson-Konfidenzintervalle für θ, θ 1 -θ 2, θ 1 /θ 2, λ und λ 1 -λ 2, Relatives Risiko, Odds-Ratio und viele andere Verfahren. Verteilungen χ 2, t-, F- und Gauß-Verteilung mit Inversen, Nicht-zentrale Verteilungen, Binomial- und Poisson-Verteilung. Test auf Gauß-Verteilung χ 2 -Test, Shapiro-Wilk-Test (n beliebig!), Kolmogoroff-Smirnoff-Tests, David-Test, Ausreißer-Tests (u.a. Grubbs- Test), Mudholkar-Test auf p-variate Gauß-Verteilung. Vierfelder- und cxr-kontingenztafel χ 2 -Test, Fisher-Test (auch zweiseitig-exakt!), McNemar- Test, Median-Test, Cohen's Kappa, Pearson's Kontingenzkoeffizient, Cross-Over-Analyse, Konfidenzintervall für θ 1 - θ 2, Mehrdimensionale Tafeln, Vergleich von Tafeln, Bewertung diagnostischer Tests, Äquivalenztest, Mantel- Haenszel-Test, Tests und Konfidenzintervalle für Odds- Ratio und Relatives Risiko, Diagnostische Tests, Terwilliger-Ott- und Bowker's Test und einige andere. Regressions-und Korrelationsanalyse Pearson-Regression und Korrelation, Multiple, Logistische & Polynom. Regression mit Abbau, Vergleich von Regressionen, Multiple & Partielle Korrelation, Rang-Regression, Spearman's Rang-Korrelation, Residuen-Analyse, Korrelationsmatrix, Cronbach s α und IntraClass-Korrelation (Reliabilitätsanalyse), IntraCluster-Korrelation (Cluster-randomisierte Studien), Lin s CC, zahlreiche Graphiken. Parametrische Testverfahren Ein- und Zweistichproben-t-Test, Welch-Test, Ein- und Zweifaktorielle Varianz- und Kovarianzanalyse incl. multipler Vergleiche (Scheffé), Lineare Kontraste, Orthogonale Polynome, Hotelling's Tests, Cross-Over-Analyse (Grizzle), Äquivalenztests, Intracluster- und Intraclass- Korrelation. Nicht-parametrische Testverfahren Wilcoxon- & Wilcoxon-Mann-U-Whitney-Test, Tukey- und Moses-Konfidenzintervalle, Hodges-Lehmann- und Mann- Whitney-Schätzer mit KIs, exakte p-werte, Kolmogoroff- Smirnoff-Test, Kruskal-Wallis-Test (post-hoc-tests:dunn- Holm, Conover-Iman, Nemenyi), Friedman-Test (post-hoc- Tests: Wilcoxon-Wilcox, Schaich-Hamerle, Conover-Iman), Dixon-Mood's Vorzeichen-Test, Test auf Gleichverteilung, Anpassungstest, Cochran's Q-Test, Vergleich von Häufigkeiten bzw. Poisson-Verteilungen, Cross-Over-Analyse nach Koch, Äquivalenztests, Mantel-Haenszel-Test. Survival-Analyse Life-Tables (Kaplan-Meier-Schätzer und Hall-Wellner-Konfidenzbereiche, Graphik), Gehan-Test, Log-Rank-Test (Peto-Pike, Cox-Mantel), Stratifizierter Log-Rank-Test mit Kaplan-Meier-Schätzern, Relativer Hazard, k-gruppen. Cluster- und Diskriminanzanalyse KMeans- & Single-Linkage-Clusteranalyse mit verschiedenen Metriken, Lineare & Quadratische Diskriminanzanalyse, Stoller's nicht-paramametrische Diskriminanzanalyse, Diskriminanzanalyse mit Abbaumodell. Zeitreihen-Analyse ANOVA, Mann-Test, Iterations- und Phasenhäufigkeitstest, Simultane Tests, Graphik (Einzelverläufe und Box-Plots der Verläufe). Faktorenanalyse Explorative und konfirmatorische Faktorenanalyse mit Zentroid- und Varimax-Methode. Konfigurationsfrequenzanalyse Ein- und Mehrstichproben-Konfigurationsfrequenzanalyse (χ²-, Binomial- und Lehmacher-Test). Pharmakologie und Bioäquivalenz Berechnung u.a. der Größen AUC(t 1,t n ), AUC(t 1, ), Cmax, tmax, t1/2, Cross-Over-Analyse, Inklusionsregel u.a. mit nichtparametrischen Tukey- und Moses-Intervallen, EC50. Diagnostische Tests und Methodenvergleiche Falsch-positiv und -negativ, Sensitivität, Spezifität, Effizienz, Prädiktive Werte, Youden-Index (alle mit Konfidenzintervallen), ROC-Kurven & Vergleiche mit DeLong, Bland- Altman-, Passing-Bablok- und Lin-Verfahren mit Tests. Toleranzbereiche Parametrische und nicht-parametrische Toleranzbereiche (uni- und bivariat), Percentilen, Quartilen, Box-Cox-Transformationen. Multiple Testverfahren & Meta-Analyse Multiple Testverfahren (Bonferroni, Holm, Hommel, Simes, Rüger), Meta-Analyse (Tippett, Fisher, Inverse Normalverteilung), Interimsanalysen nach Poco*ck, O Brien-Fleming, Bauer-Köhne-Design, Benjamini-Hochberg s FDR. epsilon-verlag GbR BiAS. für Windows Programmversion 11 epsilon-verlag Seite 240 von 241

241 OI Aktuelle Informationen zu BiAS. finden Sie im Internet unter BiAS. ist als Download und auf CD erhältlich epsilon ISBN BiAS. für Windows Programmversion 11 epsilon-verlag Seite 241 von 241

Mehr anzeigen

IIIIIIIIIIIIIIIIIIIII - PDF Free Download (2024)

References

Top Articles
Latest Posts
Article information

Author: Rob Wisoky

Last Updated:

Views: 5760

Rating: 4.8 / 5 (68 voted)

Reviews: 83% of readers found this page helpful

Author information

Name: Rob Wisoky

Birthday: 1994-09-30

Address: 5789 Michel Vista, West Domenic, OR 80464-9452

Phone: +97313824072371

Job: Education Orchestrator

Hobby: Lockpicking, Crocheting, Baton twirling, Video gaming, Jogging, Whittling, Model building

Introduction: My name is Rob Wisoky, I am a smiling, helpful, encouraging, zealous, energetic, faithful, fantastic person who loves writing and wants to share my knowledge and understanding with you.