Linear_regression.svg

Στη στατιστική, γραμμική παλινδρόμηση είναι μια προσέγγιση μοντελοποίησης της σχέσης μιας απλής εξαρτημένης (dependent) μεταβλητής y με μια ή περισσότερες ανεξάρτητες (independent) / μη ερμηνευτικές (explanatory) μεταβλητές \{x_1, x_2, \ldots, x_n \}. Η μεταβλητή/ες x_i δεν θεωρείται/ούνται τυχαία/ες ενώ η y θεωρείται τυχαία μεταβλητή. Στην περίπτωση που έχουμε μια μόνο ανεξάρτητη / ερμηνευτική μεταβλητή  x τότε η μοντελοποίηση ονομάζεται απλή γραμμική παλινδρόμηση (simple linear regression).

Απλοποιημένη περιγραφή

Στην απλή γραμμική παλινδρόμηση έχουμε ένα σύνολο με δείγματα τιμών \{x_i,y_i\}. Σκοπός είναι να βρούμε ένα απλό μαθηματικό μοντέλο, η οποία να περιγράφει την σχέση αυτών των δύο μεταβλητών την  x και την y. Το απλό μαθηματικό μοντέλο που αναζητούμε είναι μια ευθεία γραμμή της μορφής  f(x) = y = \alpha + \beta x, η οποία «ταιριάζει» καλύτερα στο σύνολο των δειγμάτων. Έχοντας αυτό το μοντέλο μπορούμε να «προβλέψουμε» τις τιμές του  y για νέες τιμές του  x . Η μεθοδολογία αυτή χρησιμοποιείται στην μηχανική μάθηση (machine learning). Στο παρακάτω παράδειγμα έχουμε τα σημεία \{x_i,y_i\} όπου η ανεξάρτηση μεταβλητή x δηλώνει τα τετραγωνικά εκατοστά ενός σπιτιού ενώ η εξαρτημένη μεταβλητή y δηλώνει την τιμή πώλησης του σπιτιού.

Με την μέθοδο της απλής γραμμική παλινδρόμησης ψάχνουμε να βρούμε μια ευθεία  f(x) = y = \alpha + \beta x, η οποία θα «ταιριάζει» καλύτερα στα δείγματα τιμών \{x_i,y_i\} που έχουμε. Ουσιαστικά ψάχνουμε να βρούμε τις κατάλληλες τιμές \alpha και \beta. Στο παρακάτω παράδειγμα έχουμε τα σημεία \{x_i,y_i\} όπου η ανεξάρτηση μεταβλητή x δηλώνει τα τετραγωνικά μέτρα ενώ η εξαρτημένη μεταβλητή y την τιμή πώλησης του σπιτιού. Η συνάρτηση  f(x) = y = \alpha + \beta x, στην μηχανική μάθηση χαρακτηρίζεται ως συνάρτηση «υπόθεσης». Με βάση αυτήν την συνάρτηση υπόθεσης μπορούμε να προβλέψουμε (με κάποιο σχετικό σφάλμα) τις τιμές πώλησης σπιτιών με τετραγωνικά για τα οποία δεν έχουμε τιμές στο δείγμα τιμών \{x_i,y_i\}.

Περιγραφή

Έστω ότι έχουμε n σημεία \{y_i, x_i\}, όπου   i, \ldots , n . Ο στόχος είναι να βρούμε την συνάρτηση που δημιουργεί μια ευθεία γραμμή

 f(x) = y = \alpha + \beta x,

η οποία θα «ταιριάζει» καλύτερα για το πλήθος των σημείων \{x_i, y_i\}. Η ευθεία  f(x) ονομάζεται ευθεία γραμμικής παλινδρόμησης και είναι ένα απλό μοντέλο το οποίο συνδέει/συσχετίζει τα  x_i με τα αντίστοιχα  y_i σημεία.

Μέθοδος των Ελάχιστων Τετραγώνων

Για να βρεθεί αυτή η ευθεία  f(x) , δηλαδή οι παράμετροι  \alpha και  \beta μπορεί να χρησιμοποιηθεί η Μέθοδος των Ελαχίστων Τετραγώνων η οποία πρωτοεμφανίστηκε το 1805 σε μια εργασία του Γάλλου μαθηματικού Legendre (1752-1833) και στην συνέχεια στον Γερμανό μαθηματικό Gauss (177-1855) στην αστρονομική εργασία Theoria Motus όπου προσδιοριζόταν η τροχιά του μικρού πλανήτη Δήμητρα. Προσπαθούμε να βρούμε μια ευθεία όπου η απόσταση κάθε σημείου \{x_i, y_i\} είναι ελάχιστη:

Βρες \min_{\alpha,\,\beta}Q(\alpha,\beta), όπου  Q(\alpha,\beta) = \sum_{i=1}^n\hat{\varepsilon}_i^{\,2} = \sum_{i=1}^n (y_i - \alpha - \beta x_i)^2\

Χρησιμοποιώντας απειροστικό λογισμό, την γεωμετρία του εσωτερικού γινόμενου ή απλά αναπτύσσοντας την συνάρτηση μπορεί να δειχθεί ότι οι τιμές  \alpha και  \beta οι οποίες ελαχιστοποιούν την συνάρτηση Q(\alpha,\beta)  είναι

\begin{align}<br /><br /><br />
  \hat\beta & = \frac{ \sum_{i=1}^{n} (x_{i}-\bar{x})(y_{i}-\bar{y}) }{ \sum_{i=1}^{n} (x_{i}-\bar{x})^2 }<br /><br /><br />
              = \frac{ \sum_{i=1}^{n}{x_{i}y_{i}} - \frac1n \sum_{i=1}^{n}{x_{i}}\sum_{j=1}^{n}{y_{j}}}{ \sum_{i=1}^{n}({x_{i}^2}) - \frac1n (\sum_{i=1}^{n}{x_{i}})^2 } \\[6pt]<br /><br /><br />
            & = \frac{ \overline{xy} - \bar{x}\bar{y} }{ \overline{x^2} - \bar{x}^2 }<br /><br /><br />
              = \frac{ \operatorname{Cov}[x,y] }{ \operatorname{Var}[x] }<br /><br /><br />
              = r_{xy} \frac{s_y}{s_x}, \\[6pt]<br /><br /><br />
 \hat\alpha & = \bar{y} - \hat\beta\,\bar{x},<br /><br /><br />
\end{align}

όπου r_{xy} είναι μια παράμετρος συσχέτισης μεταξύ x και y, το s_x είναι η τυπική απόκλιση του x, και s_y είναι αντίστοιχα η τυπική απόκλιση του y. Η οριζόντια γραμμή πάνω από μια μεταβλητή δηλώνει τον απλό μέσο όρο της μεταβλητής. Για παράδειγμα: \overline{xy} = \tfrac{1}{n}\textstyle\sum_{i=1}^n x_iy_i\ . Τα «α καπέλο» \hat\alpha και «b καπέλο» \hat\beta ονομάζονται εκτιμήτριες ελάχιστων τετραγώνων.

Αντικαθιστώντας τις παραπάνω μαθηματικές εκφράσεις για τις παραμέτρους \hat\alpha και \hat\beta στο

 y = \hat\alpha + \hat\beta x, \,

δίνει

\frac{ y-\bar{y}}{s_y} = r_{xy} \frac{ x-\bar{x}}{s_x}

Αυτό δείχνει ότι το r_{xy} έχει το ρόλο της γραμμής παλινδρόμησης για τα σημεία. Η συνάρτηση  y = \hat\alpha + \hat\beta x, \, λέγεται ευθεία ελαχίστων τετραγώνων ή ευθεία παλινδρόμησης. Σε προβλήματα μηχανικής μάθησης η συνάρτηση αυτή λέγεται συνάρτηση υπόθεσης και συμβολίζεται ως  h_\theta(x) = \theta_0 + \theta_1x (το \hat\alpha \hat\beta είναι οι παράμετροι \theta_0 και \theta_1 αντίστοιχα).