-
Notifications
You must be signed in to change notification settings - Fork 0
/
Copy pathalternativa.txt
37 lines (31 loc) · 2.16 KB
/
alternativa.txt
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
\section{Margina razdvajajuće hiperravnine} \label{margina}
Za razliku od drugih klasifikatora koji samo traže razdvajajuću hiperravninu kako bi klasificirali podatke,
stroj s potpornim vektorima uzima u obzir i udaljenosti primjeraka od hiperravnine.
Intuitivno se može zaključiti kako je sigurnije odrediti razred za one primjerke koji su udaljeniji od
hiperravnine. Udaljenost primjerka od hiperravnine nazivamo \textbf{margina}.
\par Neka je zadan $i$-ti primjerak $(\mathbf{x}^{(i)}, y^{(i)})$ gdje je $\mathbf{x}^{(i)}$ vektor značajki,
a $y^{(i)}$ pripadajuća oznaka razreda.
\textbf{Funkcijska margina} primjerka $(\mathbf{x}^{(i)}, y^{(i)})$,
u odnosu na hiperravninu \hiperravnina{}, definirana je jednadžbom:
\begin{equation}
m^{(i)} = y^{(i)}(b + \mathbf{w}^T\mathbf{x}^{(i)}).
\end{equation}
\begin{figure}
\centering
\includegraphics{distance.pdf}
\caption{Margina primjerka $(\mathbf{x}^{(i)}, y^{(i)})$}
\label{fig:mex}
\end{figure}
\par Na slici \ref{fig:mex} prikazana je udaljenost primjerka od razdvajajuće hiperravnine.
Valja uočiti kako za pozitivne oznake razreda, $y^{(i)} = 1$, vrijednost $b + \mathbf{w}^T\mathbf{x}^{(i)}$ je pozitivna.
Analogno, za $y^{(i)} = -1$ vrijednost $b + \mathbf{w}^T\mathbf{x}^{(i)}$ je negativna.
Može se zaključiti kako je vrijednost margine za svaki primjerak strogo pozitivna.
U slučaju hiperravnine koja ne razdvaja podatke to svojstvo ne vrijedi.
\par Uz svojstvo pozitivnosti, valja pogledati još jedno svojstvo funkcijske margine.
Neka su $\mathbf{w}'=k\mathbf{w}$ i $b'=kb$, $k>0$. Tada margina $m'^{(i)}$ za $i$-ti primjerak iznosi:
$$m'^{(i)}=y^{(i)}(kb + k\mathbf{w}^T\mathbf{x}^{(i)})=ky^{(i)}(b + \mathbf{w}^T\mathbf{x}^{(i)})=km^{(i)}.$$
\par Može se zaključiti kako se prilikom skaliranja težina skalira i vrijednost margine, no samo skaliranje ne utječe
na klasifikaciju. Stoga moguće je normalizirati vektor težina tj. postaviti vrijednost skalara $k$ na
$\frac{1}{\|\mathbf{w}\|}$. Ovo nam omogućuje skaliranje parametara bez utjecaja na iznos margine.
Margina dobivena ovim skaliranjem naziva se \textbf{geometrijska margina.}
\par Nakon definiranja margine za pojedini primjerak, potrebno je definirati i marginu klasifikatora.