regression i: poisson‘sche regression · pdf file t. kießling: fortgeschrittene...

Click here to load reader

Post on 19-Oct-2020

2 views

Category:

Documents

0 download

Embed Size (px)

TRANSCRIPT

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 1

    Regression I: Poisson‘sche Regression

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 2

    X i Y i 0,20 52,4

    1,17 54,6

    1,96 57,7

    2,98 59,5

    4,05 62,7

    5,12 65,6

    5,93 67,0

    7,01 69,0

    8,24 72,8 0,00 2,00 4,00 6,00 8,00

    50,0

    55,0

    60,0

    65,0

    70,0

    75,0

    Testmessung zur linearen Regression

    Y

    X

    Rückblick Fragestellung

    Wir führen eine Messung durch und erhalten folgende Werte

    1.) Wie können wir objektiv beurteilen, inwieweit die Daten unsere Annahme erfüllen und wirklich einer bestimmten Funktion (hier einer Gerade) folgen?

    2.) Angenommen die Beziehung zwischen x und y ist linear, welche Gerade passt am besten zu den Messwerten?

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 3

    Wenn die Messwerte (Xi , Yi) keinerlei Unsicherheit hätten, dann läge jeder Punkt exakt auf der Geraden

    Wiederholung: Vorüberlegungen

    Die Fehler in X sind wesentlich kleiner als die Fehler in Y. X ist fehlerfrei und Y ist fehlerbehaftet.

    Die Daten sind beschrieben durch den funktionellen Zusammenhang:

    Annahmen:

    0,00 2,00 4,00 6,00 8,00 50,0

    55,0

    60,0

    65,0

    70,0

    75,0

    Testmessung zur linearen Regression

    Y

    X

    .y a bx 

    Die Abweichung yi jedes Datenpunktes von der bestangepassten Geraden ist dann:

    yi ( ) .i i i i iy y y x y a bx     

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 4

    Für jedes Xi gibt es eine Wahrscheinlichkeit Pi den Messwert Yi zu erhalten.

    Bisher: Normalverteilung der Messwerte

      21 1exp 22

    i i i

    ii

    y y x P  

              

    .y a bx 

    Wiederholung: Vorüberlegungen

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 5

      21 1exp 22

    i i i

    ii

    y y x P  

              

    Die Wahrscheinlichkeit unseren Datensatz bei N Messpunkten genau so zu beobachten ist dann gegeben durch:

     

     

    0 0 1 1

    11

    2 1 1( , ) exp

    22

    2 1 1exp

    22

    N N i i

    i i i ii

    N N i i

    ii ii

    y y x P a b P

    y y x

     

     

     

    

                                     

     

    

    Die beste Gerade liegt dann vor, wenn die Wahrscheinlichkeit maximal wird. Das ist der Fall, wenn der Exponent

    minimal wird.

     2 1 1

    2 2N N i i i i

    i ii i

    y y x y a bx   

             

        

    Wiederholung: Vorüberlegungen

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 6

    Lineare Regression bei Normalverteilung Lineare Regression

    oder

    Anpassung einer Geraden nach der Methode der kleinsten Quadrate

     2 1 1

    2 2N N i i i i

    i ii i

    y y x y a bx   

             

        

    Für 2 minimal ist die Übereinstimmung am besten.

    2

    2

    0;

    0;

    a

    b

     

     

     

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 7

    2 2 2 2

    1 1

    2 2 2 2

    1 1

    1 1( ) 2 ( ) 0;

    1 ( ) 2 ( ) 0;

    N N

    i i i i i ii i

    N N i

    i i i i i ii i

    y a bx y a bx a a

    xy a bx y a bx b b

      

      

     

     

                        

                        

     

     

    Ein wenig geordnet gibt das

    2 2 2

    2

    2 2 2

    1 ;

    ;

    i i

    i i i

    i i i i

    i i i

    y xa b

    x y x xa b

      

      

     

     

      

      

    Der Übersichtlichkeit halber lassen wir ab hier die Summengrenzen weg. (weiter von 1 bis N)

    Wir suchen weiter die besten a und b

    Lineare Regression bei Normalverteilung

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 8

    2 2 2

    2

    2 2 2

    1 ;

    ;

    i i

    i i i

    i i i i

    i i i

    y xa b

    x y x xa b

      

      

     

     

      

      

    Lineare Regression - Bestwerte

    Mit der Determinantenmethode gibt das

    2 2 2

    2 2 2 22

    2 2

    2 2

    2 2 2 2

    2 2

    1 1 ;

    1 1 1 1 ;

    i i

    i i i i i i i

    i i i ii i i

    i i

    i

    i i i i i i

    i i i i i i i

    i i

    y x y x x x ya

    x y x

    y x y x yb

    x x y

         

     

         

     

            

            

         

     

         

     

    22 2 2

    2 2 22

    2 2

    1 1 .

    i

    i i i i

    i i ii i

    i i

    x x x

    x x

        

     

          

     

        

     

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 9

    2 2 2

    2 2 2 22

    2 2

    2 2

    2 2 2 2

    2 2

    1 1 ;

    1 1 1 1 ;

    i i

    i i i i i i i

    i i i ii i i

    i i

    i

    i i i i i i

    i i i i i i i

    i i

    y x y x x x ya

    x y x

    y x y x yb

    x x y

         

     

         

     

            

            

         

     

         

     

    22 2 2

    2 2 22

    2 2

    1 1

    i

    i i i i

    i i ii i

    i i

    x x x

    x x

        

     

          

     

        

     

    Lineare Regression - Bestwerte

    Falls jeder Datenpunkt den gleichen Fehler aufweist, lässt sich dieses Gleichungssystem vereinfachen.

    Das wird häufig, aber bei weitem nicht immer möglich sein.

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 10

    In unserem Beispiel habe jeder Datenpunkt den selben durch die Messung bedingten Fehler. Dann ergibt sich:

    Lineare Regression - Bestwerte

     

     

    21 1 ;

    1 1 ;

    i i i i i i is

    i i i

    i i i i is

    i i i

    y x a x y x x y

    x y x

    N y b N x y x y

    x x y

        

        

               

     222 .is i i i i

    N x N x x

    x x       

    Wir benötigen folgende Größen:

     2 , , ,i i i i ix x y x y   

    2

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘sche Regression 22.05.2019 Vorlesung 04- 11

    Lineare Regression - Fehler

    2 2 2 ;z k

    k k

    z dy

               

    Klassisches Fehlerfortpflanzungsproblem: Wir haben eine Größe die sich aus mehreren fehlerbehafteten Einzelgrößen zusammensetzt.

    In diesem Fall sind es unsere Koeffizienten, deren Fehler wir suchen.

    Unsere einzelnen Messpunkte sind statistisch voneinander unabhängig.

    Dann können wir eine ganz normale Fehlerrechnung nach Gauß durchführen.

    Es gilt:

    Weitere Annahme:

    Die Annahme, dass unsere Messpunkte voneinander statistisch unabhängig sind, muss ebenfalls überprüft werden.

    Dazu später mehr.

  • T. Kießling: Fortgeschrittene Fehlerrechnung - Regression I: Poisson‘