Technical ReportPDF Available

Tutorial sobre Máquinas de Vectores Soporte (SVM)

Authors:

Abstract and Figures

Este tutorial presenta una introducción al mundo de las máquinas de vectores soporte (SVM, del inglés Support Vector Machine), aplicadas a resolver tareas tanto de clasifi cación como de regresión. En el primer tipo de tareas, la descripción se restringe al caso de clasi ficación binaria y, atendiendo al tipo de separabilidad de los ejemplos de entrada, se consideran distintas opciones. Así, en primer lugar, se aborda el caso ideal de ejemplos perfectamente separables linealmente para, seguidamente, abordar el caso más realista de ejemplos que, aunque afectados por ruido, se consideran linealmente cuasi-separables y, finalmente, se considera el caso de ejemplos no separables linealmente, donde las SVM demuestran su gran potencialidad. La descripción de las SVMs aplicadas a la tarea de regresión corre también de forma paralela, abarcando los casos tanto de regresión lineal como no lineal. Finalmente, se presentan algunas herramientas software de uso libre que implementan este tipo de paradigma de aprendizaje y con las que el usuario puede empezar a experimentar.
Content may be subject to copyright.
min f(x),x
gi(x)0, i = 1, . . . , n
xgi(x)0f(x)f(x)xgi(x)
0i= 1, ..., n f gi
f(x)
gi(x)
L(x,α) = f(x) +
n
X
i=1
αigi(x)
αi0
αi
gi(x)
max ϕ(α) = inf
xL(x,α)
αi0, i = 1, . . . , n
x α
gi(x)0αi0i= 1, ..., n ϕ(α)f(x)
ϕ(α) = f(x)α x
|ϕ(α)f(x)|
L(x,α)xL(x,α)
α
x
f:
RdRgi:RdR, i = 1, . . . , n
αi0, i = 1, . . . , n
∂f (x)
∂xj
+
n
X
i=1
αi
∂gi(x)
∂xj
= 0 j= 1, . . . , d
αigi(x)=0 i= 1, . . . , n
x
ϕ(α)
ϕ(α) = f(x)
infxL(x,α)
αi0
S={(x1, y1),...,(xn, yn)}xiRdyi
{+1,1}
D(x)=(w1x1+... +wdxd) + b=<w,x>+b
wRdbR<x1,x2>
x1x2xi
<w,xi>+b0yi= +1
<w,xi>+b0yi=1, i = 1, ..., n
yi(<w,xi>+b)0, i = 1, . . . , n
yiD(xi)0, i = 1, . . . , n
τ
+1
1
Hiperplano óptimo
τ
τm´ax
+1
1
1
+1
D(x)
x0
Distancia D(x),x0=|D(x0)|
kwk
|·| k·k w
b D(x)
yiD(xi)
kwkτ, i = 1, . . . , n
yiD(xi)
kwk=τ, iVS
VS
Hiperplano óptimo, D(x)=0
1 / ||w||
|D(xi)| / ||w||
xi
D(x)= +1
D(x)= -1
D(x)> +1
D(x)< -1
xi
|D(xi)|/kwk1/kwk
|D(x)|= 1
τ,
kwkwλ(<w,x>+b)λR
τw
τkwk= 1
yiD(xi)1, i = 1, . . . , n
yi(<w,xi>+b)1, i = 1, . . . , n
wb f(w) = kwk
min 1
2kwk21
2<w,w>
s.a. yi(<w,xi>+b)10, i = 1, . . . , n
f(w) = kwk1/2kwk2
L(w, b, α) = 1
2<w,w>
n
X
i=1
αi[yi(<w,xi>+b)1]
αi0
∂L (w, b, α)
ww
n
X
i=1
αiyixi= 0
∂L (w, b, α)
∂b
n
X
i=1
αiyi= 0
αi[1 yi(<w,xi>+b)] = 0, i = 1, . . . , n
w
αi
w=
n
X
i=1
αiyixi
αi
n
X
i=1
αiyi= 0
b
αi
L(w, b, α) = 1
2<w,w>
n
X
i=1
αiyi<w,xi>b
n
X
i=1
αiyi+
n
X
i=1
αi
g(x)0g(x)0
L(α) = 1
2 n
X
i=1
αiyixi!
n
X
j=1
αjyjxj
n
X
i=1
αiyixi!
n
X
j=1
αjyjxj
+
n
X
i=1
αi
L(α) = 1
2 n
X
i=1
αiyixi!
n
X
j=1
αjyjxj
+
n
X
i=1
αi
L(α) =
n
X
i=1
αi1
2
n
X
i=1
αiαjyiyj<xi,xj>
α
αi0
max L(α) = Pn
i=1 αi1
2Pn
i,j=1 αiαjyiyj<xi,xj>
Pn
i=1 αiyi= 0
αi0, i = 1, . . . , n
n d
α
D(x) =
n
X
i=1
α
iyi<x,xi>+b
b
αi0αi>
0
yi(<w,xi>+b)=1
(xi, yi)αi>0i
αi>0
αj= 0
b
b=yvs<w,xvs>
(xvs, yvs)
αi
b
b=1
NVSX
jVS
(yj<w,xj>)
VSNVS
b
α
ξi, i = 1,...n
yi(<w,xi>+b)1ξi, ξi0, i = 1, . . . , n
(xi, yi)ξi
yi
D(x)=0
xi
D(x)= +1
D(x)= -1
D(x)> +1
D(x)< -1
ξk=1+|D(xk)|
ξj=1+|D(xj)|
ξi=1-|D(xi)|
xk
xj
xi
xixjxk
ξi, ξj, ξk>0xixjxk
Pn
i=1 ξi
f(w,ξ) = 1
2kwk2+C
n
X
i=1
ξi
C
C ξi
C→ ∞ ξi0
C ξi
C0
ξi→ ∞ C
wb
min 1
2<w,w>+CPn
i=1 ξi
s.a. yi(<w,xi>+b) + ξi10
ξi0, i = 1, . . . , n
L(w, b, ξ,α,β) = 1
2<w,w>+C
n
X
i=1
ξi
n
X
i=1
αi[yi(<w,xi>+b) + ξi1]
n
X
i=1
βiξi
∂L
ww
n
X
i=1
αiyixi= 0
∂L
∂b
n
X
i=1
αiyi= 0
∂L
∂ξiCαiβi= 0 i= 1, . . . , n
αi[1 yi(<w,xi>+b)ξi] = 0, i = 1, . . . , n
βi·ξi= 0, i = 1, . . . , n
(w, b, ξ)
(α,β)
w=
n
X
i=1
αiyixi
n
X
i=1
αiyi= 0
αi0βi0
i= 1,...,n
g(x)0g(x)0
C=αi+βii= 1, . . . , n
L(α) =
n
X
i=1
αi1
2
n
X
i,j=1
αiαjyiyj<xi,xj>
max Pn
i=1 αi1
2Pn
i,j=1 αiαjyiyj<xi,xj>
Pn
i=1 αiyi= 0
0αiC, i = 1, . . . , n
α
D(x) =
n
X
i=1
α
iyi<x,xi>+b
b
αi= 0 C=βi
ξi= 0
xiαi
ξi= 0
xiξi>0
βi= 0
αi=C
xiαi=C ξi>0
αi6= 0
1yi(<w,xi>+b)ξi= 0
1yiD(xi) = ξi
xi
yiD(xi)0ξi= 1 − |D(xi)|
0ξi1xi
yiD(xi)<0ξi= 1 + |D(xi)|ξi>1
0< αi< C
βi6= 0 ξi= 0
0< αi< C
ξi= 0
1yi(<w,xi>+b)=0
αiC αi, βi0
xi
xi0< αi< C
b
b=yi<w,xi>i0< αi< C
b
xiαi>0
0< αi< C
b
b=1
NV0
SX
jV0
S
(yj<w,xj>)
V0
Sαi0< αi< C NV0
S
b
b=yi
n
X
j=1
α
iyi<xj,xi>αi0< αi< C
α
i, i = 1, . . . , n
α
i6= 0 0 < α
i< C
α
i=C
C
F
x
x = (x1,x2) Φ(x) = [Φ1(x), Φ2(x)]
X1
X2
Φ1(x)
Φ2(x)
Espacio de entradas Espacio de características
χ F
Φ: X F
X1
X2
Espacio de entradas
Φ : F X
x = (x1,x2)
χ
-1
Φ : X→ F
xFΦ(x) = [φ1(x), . . . , φm(x)]
φi(x), i = 1, ..., m φi(x)
D(x) = (w1φ1(x) + ... +wmφm(x)) =<w,Φ(x)>
D(x) =
n
X
i=1
α
iyi<Φ(x),Φ(xi)>
<Φ(x),Φ(xi)>
K:X×XR
X
F
K(x,x0) =<Φ(x),Φ(x0)>=φ1(x)φ1(x0) + ... +φm(x)φm(x0)
b
φ1(x) = 1
w w Rd+1
Φ : X→ F
D(x) =
n
X
i=1
α
iyiK(x,xi)
Φ = {φ1(x), . . . , φm(x)}
α
i, i = 1,...n
max Pn
i=1 αi1
2Pn
i,j=1 αiαjyiyjK(xi,xj)
Pn
i=1 αiyi= 0
0αiC, i = 1, . . . , n
αi, i = 1,...n
(xi, y), i = 1, . . . , n K
C
x=
(x1, x2)
φ1(x1, x2) = 1 φ2(x1, x2) = x1φ3(x1, x2) = x2
φ4(x1, x2) = x1x2φ5(x1, x2) = x2
1φ6(x1, x2) = x2
2
φ7(x1, x2) = x2
1x2φ8(x1, x2) = x1x2
2φ9(x1, x2) = x3
1
φ10 (x1, x2) = x3
2
K:X×XR
Φ : X→ F
K(x,x0) =<Φ(x),Φ(x0)>x,x0X
Φ(x)=(φ1(x), . . . , φm(x))
K
K:X×XR
KL(x,x0) =<x,x0>
p
KP(x,x0) = γ < x,x0>+τp, γ > 0
KG(x,x0) = exp γ
xx0
2exp γ < xx0,xx0>, γ > 0
KS(x,x0) = tanh(γ < x,x0>+τ)
γ τ p
K:X×XRK(x,x0) = K(x0,x)x,x0X
K:X×XRPn
i=1 Pn
i=1 cicjK(xi,xj)0
x1,...,xnXc1,...cnRn > 0
−2 −1 0 1 2
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x1
x2
(x1, x2)y
1 (+1,+1) +1
2 (1,+1) 1
3 (1,1) +1
4 (+1,1) 1
p= 2 γ= 1 τ= 1
KP(x,x0) = <x,x0>+12
α
i, i = 1,...n
max
4
X
i=1
αi1
2
4
X
i,j=1
αiαjyiyjKP(x,xi)
s.a.
4
X
i=1
αiyi= 0,0αiC, i = 1,...,4
α
i= 0.125, i = 1, . . . 4
i α
i= 0
α
D(x) =
n
X
i=1
α
iyiK(x,xi)=0.125
4
X
i=1
yiKP(x,xi)=0.125
4
X
i=1
yi[hx,xii+ 1]2
K(x,x0) =<Φ(x),Φ(x0)>=<x,x0>+12=
<(x1, x2),x0
1, x0
2>+12=
x2
1x0
12+x2
2x0
22+ 2x1x2x0
1x0
2+ 2x1x0
1+ 2x2x0
2+ 1 =
<1,2x1,2x2,2x1x2, x2
1, x2
2,1,2x0
1,2x0
2,2x0
1x0
2,x0
12,x0
22>
Φ2={φ1(x), . . . , φ6(x)}
φ1(x1, x2) = 1 φ2(x1, x2) = 2x1φ3(x1, x2) = 2x2,
φ4(x1, x2) = 2x1x2φ5(x1, x2) = x2
1φ6(x1, x2) = x2
2
D(x) = 0.125 ·P4
i=1 yiKP(x,xi)=0.125 ·P4
i=1 yi<Φ2(x),Φ2(xi)>=
0.125 · {[φ1(x) + 2φ2(x) + 2φ3(x) + 2φ4(x) + φ5(x) + φ6(x)]+
[(φ1(x)) + 2φ2(x)2φ3(x) + 2φ4(x)φ5(x)φ6(x)]+
[φ1(x)2φ2(x)2φ3(x) + 2φ4(x) + φ5(x) + φ6(x)]+
[(φ1(x)) 2φ2(x) + 2φ3(x) + 2φ4(x)φ5(x)φ6(x)]}=
0.125 42φ4(x)=1
2·φ4(x)
φ4(x)
# (x1, x2) (φ1(x), φ2(x), . . . , φ6(x)) y
1 (+1,+1) 1,2,2,2,1,1+1
2 (1,+1) 1,2,2,2,1,11
3 (1,1) 1,2,2,2,1,1+1
4 (+1,1) 1,2,2,2,1,11
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
φ4(x)
D(x)=0
D(x)=+1 D(x)= −1
τ=2τ=2
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
x1
x2
D(x1,x2)= +1D(x1,x2)= −1
D(x1,x2)= +1 D(x1,x2)= −1
D(x1,x2)= 0
φ4(x) = 2
y= +1 φ4(x) = 2y=1
D(x) = 0
1
2φ4(x)=0 φ4(x)=0
D(x) = +1 D(x) = 1
φ4(x)=+2
φ4(x) = 2
τ=2
kwk
wα
i, i = 1, . . . 4
w=
4
X
i=1
α
iyixi=0,0,0,1
2,0,0
xi, i = 1, . . . 4
τ=1
kwk=2
x
φ4(x)
D(x) = x1x2
D(x)=0
x1x2= 0
x1= 0
x2= 0
D(x) = +1 D(x) = 1
x1x2= +1 x2= 1/x1
x1x2=1x2=1/x1
S={(x1, y1),...,(xn, yn)}
xiRdyiRyiS
w= (w1, . . . , wd)b
f(x)=(w1x1+... +wdxd) + b=<w,x>+b
 L
2
L(y, f (x)) =
0|yf(x)| ≤
|yf(x)| −
±
ξ+
iξ
i
ξ+
i>0
f(xi)yi
f(xi)yi>  ξ
i>0
ξ
i, ξ+
j
L
 yif(xi)> 
ξ+
i>0ξ
i>0
ξ+
i·ξ
i= 0
min 1
2<w,w>+CPn
i=1 ξ+
i+ξ
i
(<w,xi>+b)yiξ+
i0
yi(<w,xi>+b)ξ
i0
ξ+
i, ξ
i0, i = 1, . . . , n
Lw, b, ξ+,ξ,α+,α,β+,β=1
2<w,w>+CPn
i=1 Pn
i=1 ξ+
i+ξ
i+
Pn
i=1 α+
i(<w,xi>+b)yiξ+
i+
Pn
i=1 α
iyi(<w,xi>+b)ξ
i
Pn
i=1 β+
iξ+
iPn
i=1 β
iξ
i
∂L
ww+
n
X
i=1
α+
ixi
n
X
i=1
α
ixi= 0
∂L
∂b
n
X
i=1
α+
i
n
X
i=1
α
i= 0
∂L
∂ξ+
iCα+
iβ+
i= 0, i = 1, . . . , n
∂L
∂ξ
iCα
iβ
i= 0, i = 1, . . . , n
α+
i(<w,xi>+b)yiξ+
i= 0, i = 1, . . . , n
α
iyi(<w,xi>+b)ξ
i= 0, i = 1, . . . , n
β+
iξ+
i= 0, i = 1, . . . , n
β
iξ
i= 0, i = 1, . . . , n
w, b, ξ+,ξ
α+,α,β+,β
w=
n
X
i=1 α
iα+
ixi
n
X
i=1 α+
iα
i= 0
β+
i=Cα+
i, i = 1, . . . , n
β
i=Cα
i, i = 1, . . . , n
L(α+,α) = Pn
i=1 α
iα+
iyiPn
i=1 α
i+α+
i
1
2Pn
i,j=1 α
iα+
iα
jα+
j<xi,xj>
max Pn
i=1 α
iα+
iyiPn
i=1 α
i+α+
i
1
2Pn
i,j=1 α
iα+
iα
jα+
j<xi,xj>
Pn
i=1 α+
iα
i= 0
0α+
i, α
iC, i = 1, . . . , n
α+
iC α+
i, β+
i0α
iC
α
i, β
i0
f(x) =
n
X
i=1 α∗−
iα+
i<x,xi>+b
α+α∗−
b
Cα+
iξ+
i= 0
Cα
iξ
i= 0
(xi, yi)
ξ
i= 0 ξ+
i= 0
α+
i= 0 α
i= 0
α+
i>0
(<w,xi>+b)yiξ+
i= 0 α+
i>0
α+
i< C
ξ+
i= 0 α+
i< C
(<w,xi>+b)yi= 0 0 < α+
i< C
α
i>0α
i< C
yi(<w,xi>+b)= 0 0 < α
i< C
b
b=yi+<w,xi>0< α+
i< C
b=yi<w,xi>0< α
i< C
b
0< α+
i< C
α
i= 0
0< α
i< C α+
i= 0
(xi, yi)
 ξ
i= 0 ξ+
i>0ξ
i>0ξ+
i= 0 α+
i=C
α
i=C
α+
iα
i
α+
i=C α
i= 0 α
i=C α+
i= 0
α+
i=α
i= 0
0< α+
i< C α
i= 0
0< α
j< C α+
j= 0 α+
i=C α
i= 0
α
j=C α+
j= 0
f(x) =
n
X
i=1 α∗−
iα+
iK(x,xi)
b
φ(x)=1 α+
iα+
i
max Pn
i=1 α
iα+
iyiPn
i=1 α
i+α+
i
1
2Pn
i,j=1 α
iα+
iα
jα+
jK(xi,xj)
Pn
i=1 α+
iα
i= 0
0α+
i, α
iC, i = 1, . . . , n
 C
C
C
light
light
Struct
... La SVM consiste en un modelo de clasificación que sirve como herramienta para distinguir objetos pertenecientes a distintas categorías o clases. Para obtener el modelo de clasificación es necesario cumplir dos fases: entrenamiento y prueba [9,10,11]. ...
... En este sentido, para encontrar el hiperplano equidistante a las dos clases linealmente separables Figura 4: Margen máximo de separación e hiperplano óptimo de ejemplos linealmente separables [10] en el espacio de entrada, es necesario encontrar solución al problema de optimización de la ecuación (8). ...
... Inicialmente se construye un problema de optimización sin restricciones, utilizando el Lagrangiano del problema primario, como la ecuación (10). Donde α i ≥ 0 representa los multiplicadores de Lagrange, los cuales indican la dificultad intrínseca en el cumplimiento de cada una de las restricciones de la función objetivo, mientras mayor es el valor del multiplicador, más difícil es cumplir con la restricción asociada a (y i ( w, ...
Article
Full-text available
Dado que la máquina sincrónica en su funcionamiento como generador constituye un elemento vital en los sistemas eléctricos de potencia, el desarrollo de programas y técnicas de mantenimiento predictivo, a fin de identificar y solucionar problemas en la máquina antes de que se produzcan daños irreversibles en la misma es prioridad. A continuación se establece una metodología para detectar fallas incipientes en rodamientos de un generador sincrónico de prueba a través de máquinas de vectores de soporte (SVM por sus siglas en inglés). Se presenta el análisis de las corrientes de fase, utilizando métodos variados para la reducción de los datos y algoritmos de aprendizaje automático basados en las máquinas de vectores de soporte como elemento clasificador de datos; a fin de obtener un modelo que sea capaz de discriminar la condición de una máquina, en cuanto a fallas mecánicas se refiere. El entrenamiento de las máquinas de vectores de soporte para obtener los criterios de clasificación se ejecutó utilizando los comandos para SVM de MatLab, las funciones que brinda este software permitieron: el entrenamiento, la optimización y la posterior validación de los clasificadores. Los resultados obtenidos demostraron que el método aplicado basado en la SVM posee una buena capacidad de reconocimiento de fallas presentadas en los diferentes componentes del rodamiento, para distintas condiciones de operación.
... Support vector machine is a supervised binary classification Machine Learning model. The SVM defines a maximum margin separating hyperplane between the data of each class [12]. Let's consider the training set be linearly separable. ...
... where y k is the sign resulting from evaluating a vector x k in Eq. (12). If the training set is considered as quasi-linearly separable, the SVM model requires greater flexibility. ...
Conference Paper
In recent years, some novel methods have been developed for the detection of diseases based on biomedical signals. In this article, a method for the automated detection of epilepsy seizures is presented by analyzing electroencephalogram (EEG) signals based on the wavelet transform. In the first step, the EEG signals are pre-processed with the Savitzky-Golay filters (SGF) for noise elimination. The filtered signals are decomposed with Discrete Wavelet Transform (DWT) to construct spontaneous alpha and beta brain rhythms. The mean, standard deviation, skewness, kurtosis, energy and entropy characteristics are extracted from healthy and seizure intervals. By using support vector machine (SVM), the signals are classified in the categories of normal and epileptic, reaching precision levels of 92.82% in the alpha rhythm in comparison with other previous works.
... For SVM, the many separation boundaries that are capable of completely separating classes are called hyperplanes. A decision plane that separates a set of objects with different class members is a hyperplane [99]. ...
... The margin is calculated as the perpendicular distance of the support points closest to the vectors. A good margin is the one which has the greatest distance between classes, a lowers margin is a bad one [99]. ...
Article
Full-text available
Internet traffic classification aims to identify the kind of Internet traffic. With the rise of traffic encryption and multi-layer data encapsulation, some classic classification methods have lost their strength. In an attempt to increase classification performance, Machine Learning (ML) strategies have gained the scientific community interest and have shown themselves promising in the future of traffic classification, mainly in the recognition of encrypted traffic. However, some of these methods have a high computational resource consumption, which make them unfeasible for classification of large traffic flows or in real-time. Methods using statistical analysis have been used to classify real-time traffic or large traffic flows, where the main objective is to find statistical differences among flows or find a pattern in traffic characteristics through statistical properties that allow traffic classification. The purpose of this work is to address statistical methods to classify Internet traffic that were little or unexplored in the literature. This work is not generally focused on discussing statistical methodology. It focuses on discussing statistical tools applied to Internet traffic classification Thus, we provide an overview on statistical distances and divergences previously used or with potential to be used in the classification of Internet traffic. Then, we review previous works about Internet traffic classification using statistical methods, namely Euclidean, Bhattacharyya, and Hellinger distances, Jensen-Shannon and Kullback–Leibler (KL) divergences, Support Vector Machines (SVM), Correlation Information (Pearson Correlation), Kolmogorov-Smirnov and Chi-Square tests, and Entropy. We also discuss some open issues and future research directions on Internet traffic classification using statistical methods.
... 1. We formulate the objective function: The objective function for the optimization problem is known as the 'Lagrangian for optimization problems' [13], which, for estimating the separating plane, is given by: ...
Article
Full-text available
This article aims to illustrate the internal computation details of binary classification algorithms using Support Vector Machines (SVM). Specifically, a detailed example of the algorithm’s usage and the precise computation of parameters associated with the training system using a quadratic kernel is presented. The computations and definitions presented in this work may be of benefit to students of computer science, engineering, mathematics, and anyone interested in learning about artificial intelligence
... This process helps to reduce overfitting. "The convexity property required for its resolution guarantees a unique solution, in contrast to the non-uniqueness of the solution produced by an artificial neural network" 23 . ...
Article
Full-text available
This article presents a study, intending to design a model with 90% reliability, which helps in the prediction of school dropouts in higher and secondary education institutions, implementing machine learning techniques. The collection of information was carried out with open data from the 2015 Intercensal Survey and the 2010 and 2020 Population and Housing censuses carried out by the National Institute of Statistics and Geography, which contain information about the inhabitants and homes. in the 32 federal entities of Mexico. The data were homologated and twenty variables were selected, based on the correlation. After cleaning the data, there was a sample of 1,080,782 records in total. Supervised learning was used to create the model, automating data processing with training and testing, applying the following techniques, Artificial Neural Networks, Support Vector Machines, Linear Ridge and Lasso Regression, Bayesian Optimization, Random Forest, the first two with a reliability greater than 99% and the last with 91%.
Article
In the present work a method was established for semantic segmentation of cartographic images of Colombian tropical landscapes through the supervised analysis of groups of píxels in three classes: vegetation, water sources and other objects or strange elements in the nature of the tropical landscape that have Mainly human influence, the study of these classes allows recognizing those areas of píxels in a cartographic photograph where there may be events such as deforestation, illegal mining or illicit crops, it also allows detecting other phenomena such as flood zones or with the risk of erosion and landslides. The proposed technique allows integrating the characteristics of color, texture and edges present in the context of groups of píxels and transform the space of multiple channels directly into a Euclidean vector space. This is achieved by improving the machine processing time by having a statistical representation of the data instead of a large amount of raw data píxel by píxel and allows classifying the data using machine learning techniques. The images for the investigation came from a video database taken obliquely taken from manned aerial platforms which were previously selected and classified according to the existence of each of the defined classes, in addition expert knowledge was required for the manual segmentation of certain images, which served as a contrast to develop the algorithm and compare the effectiveness in the classification of píxels. Finally, an-error analysis was made in the training of the machine as well as in the classification process.
Chapter
Full-text available
El propósito general de esta investigación es realizar un estudio para la optimización de la cadena de distribución en el proceso de producción y comercialización de panela pulverizada certificada orgánica, en la Asociación de Familias Productoras Indígenas de la Sierra Nevada de Santa Marta “ASOSEYNEKUN”, fundamentado en los postulados teóricos de (Castellanos, 2015), (Mora, 2008), (Ballou, 2004) (Palella & Martins, 2012) (Hernández, 2010), entre otros. La metodología de la investigación es de tipo explicativa, con diseño no experimental, transaccional y de campo. Del total de 170 productores de caña, afiliados a la asociación, se trabajó con una muestra representativa de 118, de los cuales se tomó el 10% para medir la confiabilidad a través del alfa de Cronbach, que fue de (0,924). Los resultados obtenidos con el instrumento validado por 10 expertos, arrojaron con la técnica Anova, que existen diferencias entre los resultados obtenidos (significancia de 0,0000), y con el post hoc de Tukey se obtuvo que para la primera dimensión hay gran diferencia entre los indicadores de aprovisionamiento y almacenamiento y para la segunda dimensión, el procesamiento de pedidos tienen gran diferencia con el transporte, concluyendo que existen deficientes conocimientos en el manejo de su cadena productiva y comercial. Se concluye que en la Asociación, se deben implementar acciones que lleven a una optimización de su cadena de distribución, ya que se evidenciaron debilidades en indicadores, como la sistematización de pedidos, la relación comercial entre los demás servicios prestados, la tercerización de servicios de distribución física, y por último, un deficiente flujo de información entre las áreas encargadas, lo cual se convierte en uno de sus principales problemas para desarrollar de manera óptima la producción y comercialización de sus productos.
Article
Full-text available
El estudio tuvo como propósito analizar la aplicación de técnicas de minería de datos para identificación de factores determinantes en la deserción estudiantil del programa de Ingeniería de Sistemas de la Universidad de La Guajira sede Maicao. Para tal fin se consideraron las teorías de diversos autores de corte científico. Fue una investigación con enfoque cuantitativo, de tipo descriptivo. La metodología para captar la información fue a través de encuesta, la representación de los datos fue a través de estadística descriptiva, la información conseguidos mediante la diligencia de los cuestionarios, fue calculada, usando el árbol de decisión CHAID del programa SPSS Microsoft Excel. Los resultados obtenidos a partir de la aplicación del instrumento fueron tabulados y analizados estadísticamente mediante frecuencias absolutas y relativas y el promedio generado por las alternativas tanto correctas como incorrectas. Finalmente, en la investigación se corrobora que la minería de datos es una herramienta fundamental en la toma de decisiones que, implementada con inteligencia de negocios, contribuirá de gran manera a una mejor planeación en el área administrativa, docente y a los procesos psicopedagógicos para evitar la suspensión estudiantil y apoyar en todo momento a los estudiantes.
Article
Full-text available
El uso de técnicas cuantitativas para la clasificación de segmentos poblacionales es una fase crítica para evaluar sus condiciones de materiales de existencia, información que sirve como input para los procesos de planificación de estrategias dirigidas a paliar la pobreza y la intervención discrecional de tales grupos, bajo los criterios de racionalidad económica e instrumental. En este artículo se construye un modelo de máquinas de soporte vectorial, entendido éste como un algoritmo de aprendizaje supervisado que proporciona un clasificador lineal no probabilístico con un superlativo nivel de precisión. De este modo, se segmenta una muestra de núcleos familiares residentes en Cartagena de Indias, en función de ciertas variables económicas y sociodemográficas. La obtención de los resultados analíticos refrenda el hecho de que los factores con mayor poder de discriminación entre los agentes económicos son el estatus laboral, la accesibilidad a servicios públicos y la renta percibida por los núcleos familiares. Por otra parte, se corrobora que las condiciones de vecindario y la recepción de transferencias monetarias corrientes tienen un poder clasificatorio reducido.
Chapter
Wind energy is a growing market, due to improved monitoring systems, decreased downtime, and optimal predictive maintenance. Classification algorithms based on machine learning efficiently categorize large volumes of complex data. K-Fold cross-validation is a competent tool for measuring the success rate of classification algorithms. The purpose of this research is to compare the performance of various kernel functions for the support vector machine algorithm, as well as to analyze the different values of K-fold cross-validation and holdout validation. The approach is applied to a real dataset of wind turbine, with the aim to detect false alarms. The results indicate an accuracy of 99.2%, and the F1 is 0.996. These values indicate that the methodology proposed is efficient to detect and identify false alarms.KeywordsWind turbineMaintenance managementSCADAFalse alarmSupport vector machineAccuracyPrediction modelCross-validation
Article
Full-text available
A training algorithm that maximizes the margin between the training patterns and the decision boundary is presented. The technique is applicable to a wide variety of classifiaction functions, including Perceptrons, polynomials, and Radial Basis Functions. The effective number of parameters is adjusted automatically to match the complexity of the problem. The solution is expressed as a linear combination of supporting patterns. These are the subset of training patterns that are closest to the decision boundary. Bounds on the generalization performance based on the leave-one-out method and the VC-dimension are given. Experimental results on optical character recognition problems demonstrate the good generalization obtained when compared with other learning algorithms. 1
Article
The support-vector network is a new learning machine for two-group classification problems. The machine conceptually implements the following idea: input vectors are non-linearly mapped to a very high-dimension feature space. In this feature space a linear decision surface is constructed. Special properties of the decision surface ensures high generalization ability of the learning machine. The idea behind the support-vector network was previously implemented for the restricted case where the training data can be separated without errors. We here extend this result to non-separable training data. High generalization ability of support-vector networks utilizing polynomial input transformations is demonstrated. We also compare the performance of the support-vector network to various classical learning algorithms that all took part in a benchmark study of Optical Character Recognition.
A training algorithm for optimal margin classiers
  • B E Boser
  • I M Guyon
  • V N Vapnik
Boser, B. E., Guyon, I. M., & Vapnik, V. N. (1992). A training algorithm for optimal margin classiers. In Proceedings of the Fifth Annual Workshop on Computational Learning Theory, COLT '92 (pp. 144152). New York, NY, USA: ACM.