24-04-2012, 02:55 PM
Elemente de calcul neuronal. Reţele neuronale artificiale
Elemente de calcul neuronal. Reţele neuronale artificiale.pdf (Size: 531.53 KB / Downloads: 223)
1. Neuronul artificial
Definit prin analogie cu celula nervoasă, neuronul artificial reprezintă unitatea de prelucrare de bază din cadrul calculului neuronal, unitate care procesează o serie de intrări (inputuri informaţionale) şi produce un rezultat (output informaţional) considerat drept nivelul de activitate al neuronului.
1.1 Neuronul McCulloch-Pitts
Primul tip de neuron artificial a fost definit în 1943 de către W. McCulloch şi W. Pitts. În prezent, el este cunoscut sub numele de unitate prag - TU (threshold unit) sau neuron McCulloch-Pitts. Un neuron de tip TU primeşte pe fiecare dintre conexiunile sale de intrare un semnal boolean (0 sau 1) şi emite la ieşire tot un semnal boolean. Conexiunile de intrare pot fi de două tipuri şi anume: inhibatoare şi excitatoare (figura 1). Dacă într-un interval de timp dat neuronul beneficiază de o intrare 1 pe una dintre conexiunile sale inhibatoare, el va trece în stare inactivă (echivalentul unei ieşiri 0). Atunci când neuronul beneficiază de semnale de intrare numai prin conexiuni excitatoare şi numărul acestor semnale depăşeşte un prag fixat, (pragul de excitabilitate) neuronul devine activ (generează o ieşire 1), altfel este inactiv.
Fig. 1 – Neuronul McCulloch-Pitts
Cu ajutorul unui neuron de tip TU se pot implementa numeroase funcţii logice simple, prin asocierea lui 1 cu valoarea logică adevărat şi a lui 0 cu valoarea fals. Neuronii TU fără conexiuni inhibatoare pot implementa numai funcţii logice monotone.
1.2. Perceptronul simplu
În 1950 este definit un nou model al neuronului artificial şi anume neuronul de tip LTU (linear threshold unit), denumit şi perceptron simplu. Spre deosebire de neuronul de tip TU, percepronul simplu introduce noţiunea de intensitate a unei conexiuni k, notată cu wk, sub forma unui factor multiplicator al semnalului de intrare care circulă prin conexiunea k. Intensitatea unei conexiuni prezintă valori reale şi constituie o formă de modelare atât a tipului de conexiune, inhibatoare sau excitatoare, prin semnul valorii intensităţii, cât şi a eficienţei sinaptice, prin nivelul absolut al acestei valori. Astfel, o valoare pozitivă a intensităţii semnifică eficienţa sinaptică a unei conexiuni excitatoare, în timp ce o valoare negativă are aceeaşi semnificaţie, dar pentru o conexiune inhibatoare.
Semnalele inhibatoare nu mai sunt atât de importante în stabilirea nivelului de activitate a neuronului ca în cazul neuronului de tip TU, deoarece ieşirea se determină în raport de valoarea totală a intrărilor, indiferent de tipul de conexiune prin care au fost recepţionate aceste intrări.
x1
x2
xn
y1
ym
2
Inputul total la nivelul perceptronului simplu este calculat ca o sumă ponderată a intrărilor, conform relaţiei:
input w x
total k k
k
n
1
unde: xk reprezintă inputul care circulă prin conexiunea k. Outputul perceptronului simplu este generat pe
baza unei funcţii prag de forma:
output f(input , )
1, daca input
total 0, altfel
total
unde: reprezintă valoarea prag. Funcţia f este cunoscută sub numele de funcţie de transfer sau funcţie de
activare, întrucât permite stabilirea nivelului de activitate a neuronului în raport de inputul total şi de valoarea
prag. Valoarea prag mai este denumită şi factor al deplasărilor de scală, pe scurt deplasament sau bias.
Frecvent, outputul unui neuron este exprimat în raport de inputul net, pe scurt net (figura 2), cu ajutorul unei
relaţii de forma:
output f(net)
1, daca net
0,
0
altfel
unde: net este definit de relaţia:
net input
total
În acest caz, biasul este asimilat unei intrări recepţionate de neuron printr-o conexiune cu intensitate - pe
care circulă valoarea 1 (figura 3.b). Prin urmare:
net input w x w x
total k k k k
k
n
k
n
( ) 1 ( ) 1
1
1
1
(1)
unde: x
n 1
1şi w
n 1
.
x1
xn
w1
wn
x1
xn
0
w1
wn
1
-
a) fără extinderea vectorilor x şi w b) cu extinderea vectorilor x şi w
Fig. 3. - Perceptronul simplu
0
1
output
net
0
1
output
input total
Fig. 2. - Inputul total şi inputul net în cazul perceptronului simplu
3
Spre deosebire de neuronul de tip TU, perceptronul simplu funcţionează pe baza unor valori de intrare reale,
numai outputul fiind în continuare binar. Vectorul de intrare x = (x1, x2, ... , xn) este extins prin includerea
elementului 1 (figura 3.b). Vectorul (x1, x2, ... , xn, 1) poartă numele de vector de intrare extins. Similar,
vectorul (w1, w2, ..., wn, - ) este denumit vectorul extins al conexiunilor intensităţilor.
În cadrul unui sistem bazat pe calcul neuronal sunt utilizaţi mai mulţi neuroni, organizaţi sub formă de reţea
neuronală. Din această cauză, un neuron este referit drept unitate Uj a unei reţele neuronale, cu inputuri
provenind de la alte unităţi sau din afara reţelei. Notând cu Oi outputul unităţii Ui, relaţia de calcul a inputului
total pentru unitatea Uj care recepţionează intrări din reţea se va rescrie sub forma:
input j
total
w O
ij
i
n
i
1
unde: w
ij
reprezintă intensitatea conexiunii dintre Ui şi Uj, conexiune prin care Oi, outputul unităţii Ui, este
transmis ca input unităţii Uj. Sensul în care circulă informaţia în reţea este important, motiv pentru care
conexiunile sunt reprezentate atât prin valoarea intensităţii cât şi prin sensul de circulaţie a informaţiilor
(figura 4).
Cu ajutorul unui perceptron simplu pot fi implementate funcţii logice liniar separabile. Două seturi de puncte
A şi B dintr-un spaţiu n-dimensional sunt liniar separabile dacă există n + 1 numere reale w1, w2, ... , wn+1
astfel încât orice punct (x1, x2, ... , xn) A satisface relaţia: w x w
i i n
i
n
1
1
şi orice punct (x1, x2, ... , xn) B
satisface relaţia: w x w
i i n
i
n
1
1
.
Prelucrările realizate de către perceptronul simplu pot fi interpretate ca o separare liniară a spaţiului intrărilor.
Procesul de identificare a intensităţilor conexiunilor care să realizeze în mod corespunzător această separare a
spaţiului intrărilor este mai uşor de urmărit în spaţiul intensităţilor conexiunilor dacât în cel al intrărilor. Ori
de câte ori se alege un punct în spaţiul intensităţilor se stabileşte practic o anumită separare liniară a spaţiului
intrărilor. Acest lucru înseamnă că fiecare punct din spaţiul (n + 1)-dimensional al intensităţilor poate fi
asociat cu un hiperplan din spaţiul (n + 1)-dimensional al intrărilor (figura 5).