∧
y = a + b⋅x, waarbij a en b constant zijn.
Definieer de voorspellingsfout als e
Voor de methode van kleinste kwadraat moeten we a, b kiezen om de SSE-
fouten (Sum of Squared Errors) te minimaliseren
de voorwaarden
We krijgen de zogenaamde normale vergelijkingen:
Dit is een stelsel van lineaire vergelijkingen met a en b als de onbekenden, die
kunnen worden opgelost met de functie lineaire vergelijking van de
rekenmachine. We hoeven deze berekeningen echter niet te maken omdat we
de optie 3. Fit Data ... in het menu ‚Ù kunnen gebruiken zoals we
eerder konden zien.
____________________________________________________________________
Opmerking:
•
a,b zijn zuivere schatters van Α, Β.
•
De theorie van Gauss-Markov van kans geeft aan dat er van alle zuivere
schatters voor Α en Β de kleinste-kwadraatschatters (a,b) het meest efficiënt
zijn.
____________________________________________________________________
Extra vergelijkingen voor lineaire regressie
De samenvattende statistieken zoals Σx, Σx
de volgende hoeveelheden te definiëren:
= y
i
n
∑
2
SSE
=
e
=
i
i
=
1
∂
(
SSE
)
=
0
∂
a
n
∑
y
=
a
i
i
=
1
n
∑
x
⋅
y
=
a
i
i
i
=
1
∧
-
y
= y
- (a + b⋅x
i
i
i
n
∑
[
y
−
(
a
+
bx
i
i
=
1
∂
(
SSE
)
∂
b
n
∑
⋅
n
+
b
⋅
x
i
i
=
1
n
n
∑
∑
⋅
x
+
b
⋅
i
i
=
1
i
=
1
2
, enz. kunnen worden gebruikt om
).
i
2
)]
i
=
0
2
x
i
Blz. 18-50