Rozpoznawanie choroby Parkinsona na podstawie głosu przy wykorzystaniu sztucznych sieci neuronowych



Pobieranie 332.6 Kb.
Strona2/5
Data27.04.2016
Rozmiar332.6 Kb.
1   2   3   4   5

1Wstęp do sieci neuronowych


W ostatnich dekadach zarysowuje się burzliwy rozwój badań nad dziedziną wiedzy zwaną Sztucznymi Sieciami Neuronowymi (SSN). Badania te prowadzone są w celu zdobycia informacji dotyczących fizjologii układu nerwowego organizmów żywych, a zwłaszcza funkcjonowania ludzkiego mózgu. Wciąż jednak fundamentalne pytania związane z działaniem mózgu człowieka pozostają bez odpowiedzi. Czym jest ludzka myśl? W jaki sposób funkcjonuje świadomość człowieka?
Zdumieniem napawa fakt niezwykłych zdolności mózgu: podejmowanie prawidłowych decyzji w dynamicznie zmieniającym się otoczeniu, abstrakcyjne myślenie oraz prawidłowe działanie przy niewielkich uszkodzeniach struktury. [KrobSN]

.1.1Historia


Pierwsze badania nad sieciami neuronowymi pochodzą z prac naukowców zajmujących się neurofizjologią oraz bioniką w latach czterdziestych. Za swoisty początek rozwoju dziedziny wiedzy SSN uważa się rok 1943. McCulloch i Pitts utworzyli wówczas pierwszy model matematyczny neuronu. W oparciu o ich badania prowadzono dalsze analizy dotyczące potencjalnego sprzężenia kilku neuronów w sieć neuronową. Hebb w 1949 wyjaśnił zasadę uczenia się SSN, studiując zasady adaptacji w systemach nerwowych. Za pierwszy historyczny model SSN uważa się perceptron opracowany i zbudowany przez Rosenblatta (1958).  

Już w tym pionierskim okresie zauważono najważniejszą zaletę SSN: zdolność do uczenia się. Właściwość ta pozwalała na całkowicie odmienne spojrzenie na kwestię programowania, gdyż SSN przetwarzają informacje w sposób równoległy, który stanowi niejako przeciwieństwo do tradycyjnej szeregowej pracy komputera.

Najbardziej intensywny rozwój prac nad interdyscyplinarną dziedziną wiedzy SSN przypada na drugą połowę lat osiemdziesiątych. Inspiracją do prowadzenia tego typu badań była próba dokonania matematycznego opisu procesów zachodzących w ludzkim mózgu.

.1.2Podstawy


W części tej zostaną opisane podstawowe terminy związane z sztucznymi sieciami neuronowymi. Przedstawione będą poszczegóne modele neuronów oraz typy sieci neuronowych. Nastąpi również porównanie SSN z modelem biologicznym ludzkiego mózgu.

.1.2.1Inspiracje biologiczne


Porównanie SSN z własnościami ludzkiego mózgu jest interesujące, ponieważ w przetwarzaniu numerycznym ludzki mózg jest dużo wolniejszy od superkomputerów. Jednakże, w przypadku zadań obliczeniowych takich jak rozpoznawanie obrazów lub mowy jest dużo dokładniejszy i szybszy (zdolność SSN do generalizacji).

Komórka nerwowa zwana też neuronem stanowi najbardziej podstawowy element systemu nerwowego.



Rys.1 Wygląd typowego neuronu i jego części składowych [AnRTeqq]

Typowy neuron, zbudowany z błony komórkowej, która otacza cytoplazmę, przedstawiony jest na rys. 1. W centrum neuronu znajduje się jądro komórkowe. W jego skład wchodzą również liczne, krótkie, rozgałęzione wypustki zwane dendrytami oraz jedna dłuższa, zwana aksonem. Akson pozwala na bezpośrednie połączenia nawet bardzo odległych komórek nerwowych w układzie. [RtadSN]

R
ozpatrując neuron z cybernetycznego punktu widzenia można traktować go jako swoisty przetwornik sygnału o wielu wejściach (synapsach) i jednym wyjściu (aksonie).

Rys. 2 Cybernetyczny model neuronu [KjozSN]
Transmisja sygnałów stanowi skomplikowany proces chemiczno-elektryczny (rys. 2). Wydzielanie specjalnych substancji chemicznych  zwanych neuromediatorami powodujących zmianę potencjału elektrycznego błony komórki, odpowiada za przekazywanie impulsów elektrycznych z jednej komórki do drugiej. Dzieje się to na podstawie otrzymywanych od synaps bodźców. Ilość neuromediatora wydzielanego na poszczególnych synapsach odpowiada wagom, współczynnikom liczbowym, jakie można przypisywać danym wejściom. Wagi synaptyczne są liczbami rzeczywistymi i mogą przyjmować zarówno wartości dodatnie jak i ujemne.

.1.2.2Sieci neuronowe


Sieci neuronowe człowieka to cały zbiór neuronów wraz z systemem wzajemnych połączeń synaptycznych. Struktura tych połączeń jest bardzo skomplikowana. Poszczególne obszary mózgu posiadają połączenia o różnej gęstości. Schematy połączeń między neuronami w mózgu są znane jedynie w stosunkowo niewielkim stopniu. Badania czynności mózgowych wykazały, że odpowiednie części mózgu pełnią odmienne role. Widzenie i analiza obszarów przesyłanych z oczu położone są w tylnej części płatów czołowych. W płatach czołowych znajdują się również ośrodki odpowiedzialne za myślenie abstrakcyjne. Główne ośrodki mowy występują w skroniowej i czołowej części mózgu. Obszar kory mózgowej wykazuje funkcje związane z wyższymi czynnościami nerwowymi, takimi jak: percepcja, zapamiętywanie oraz świadomość.

Ludzki mózg ma zazwyczaj objętość ok. 1400 cm3, powierzchnię ok. 2000 cm2 i masę 1,5 kg. Jednakowoż, nie są to dane istotne dla jego intelektualnej sprawności. Zasadniczy wpływ na umysłową sprawność ma pokrywająca półkule kora mózgowa o grubości 3mm i zawierająca 1010 komórek nerwowych i 1012 komórek glejowych. Liczba połączeń jest szacowana na 1015 przy dystansie od 0,01 mm do 1 m. Dokonano próby oceny szybkości pracy mózgu i określono ją na 10 operacji x 1015 synaps x 100 Hz = 1018 operacji/s [RtadSN].

Bardzo duża liczba neuronów i powiązań między nimi powoduje, że błąd działania jednostki nie prowadzi do ogólnego, niepoprawnego funkcjonowania całej sieci. Sieć neuronowa charakteryzuje się dużą odpornością na zakłócenia. Stanowi to zasadniczą różniczę pomiędzy systemami nerwowymi, a układami elektronicznymi utworzonymi przez człowieka. [OstaSN]

.1.2.3Podstawowe modele neuronów


Sztuczny neuron stanowi podstawową jednostkę strukturalną SSN. W stosunku do swoich biologicznych odpowiedników elementy te znacząco się różnią. Sztuczne neurony odpowiadają tylko wybranym czynnikom neuronu biologicznego. Nie są więc jego wiernymi kopiami, a elementami spełniającymi określone funkcje w sieci neuronowej. [KjozSN]

Neurony są powiązane w sieć za pomocą odpowiednich połączeń. Ich cechą charakterystyczną są wagi modyfikowane w trakcie procesu uczenia sieci. Stanowią one o zachowywaniu się całego neuronu. Model sztucznego neuronu składa się z dwóch bloków: bloku sumowania Σ i bloku aktywacji F. Zakłada się w pewnym przybliżeniu, że blok sumowania odpowiada biologicznemu ciału komórki. Aktywność neuronu jest ustalana na podstawie sygnałów wejściowych, które są mnożone przez odpowiednie współczynniki wag, a następnie sumowane. Blok aktywacji F w zależności od potrzeb może być opisywany różnymi funkcjami: funkcja liniowa, funkcja skoku jednostkowego, funkcja sigmoidalna. [RtadSN]

Jednym z pierwszych modeli neuronów był model McCullocha-Pittsa. Traktował on neuron jako jednostkę binarną. Sygnały wejściowe xj(j = 1, 2, ..., N) są sumowane z odpowiednimi wagami Wy w sumatorze oraz porównywane z progiem bi. Sygnał neuronu można wyrazić wówczas zależnością yi (wzór 1):

(1)

Funkcja f(u) stanowi funkcję aktywacji. W opisywanym modelu jest to funkcja skokowa (wzór 2):



(2)

Model McCullocha-Pittsa (rys. 3):



Rys. 3 Model matematyczny McCullocha-Pittsa. [OstaSN]

to model dyskretny. Stan neuronu w określonej chwili t + 1 można określić na podstawie stanu sygnałów wejściowych w chwili poprzedniej t. [OstaSN]

Istotny jest wybór strategii uczenia neuronu. Wyróżnia się dwa podejścia uczenia: z nauczycielem i bez nauczyciela. Wybierając tryb uczenia z nauczycielem, przyjmuje się, że pożądany sygnał wyjściowy neuronu (di) jest znany. Wagi są przyporządkowywane wówczas w taki sposób, aby aktualny sygnał wyjściowy neuronu yi był jak najbliższy zadanej wartości di..

W uczeniu bez nauczyciela możemy przyjąć inne strategie. Jedna polega na konkurencji między neuronami (Winner takes all) lub na zastosowaniu metodyki uczenia Hebba. Nie jesteśmy w stanie przewidzieć sygnału wyjściowego neuronu - przeciwnie do uczenia z nauczycielem, kiedy wynik uczenia jest wcześniej ustanowiony przez wybór wartości uczących. [OstaSN]

.1.2.3.1Perceptron

Perceptron stanowi zwykły model McCullocha-Pittsa o odpowiednio przyjętej strategii uczenia. Matematyczny opis funkcjonowania percepetronu można przedstawić za pomocą zależności (wzór 3):

(3)

Nieliniowa funkcja aktywacji perceptronu to funkcja nieciągła typu skokowego. Wyjściowy sygnał neuronu yi przyjmuje jedną z dwóch wartości 1 lub 0. ui stanowi wyjście sumatora (opisane zależnością we wzorze 4).



(4)

Uczenie perceptronu opiera się na uczeniu z nauczycielem. Dodatkowo uczenie tego modelu neuronu jest typu heteroasocjacyjnego. Oznacza to, że podanym próbkom zbioru uczącego, towarzyszy wartość zadana na wyjściu danego neuronu.

Za najpopularniejszą metodę nauki perceptronu uznaje się tzw. regułę perceptronu. Zgodnie z nią dobór wag odbywa się w następującym cyklu: mając na wstępie określone wagi Wi oraz polaryzację bi, dokonuje się prezentacji wektoru uczącego X i oblicza się wartość sygnału wyjściowego yi. Na podstawie porównania aktualnej wartości yi oraz wartości zadanej di odpowiednio aktualizowane są wagi. Opisywany cykl powtarza się wielokrotnie na wszystkich próbkach uczących do momentu osiągnięcia założonego progu tolerancji błędu[OstaSN]

Próg tolerancji błędu wyznaczany jest na podstawie minimalizacji określonej funkcji błędu (funkcji celu) E, definiowanej jako:



(5)

gdzie p oznacza liczbę zadanych wzorców uczących. Minimalizacja tego typu w regule perceptronu przebiega zgodnie z metodą bezgradientową optymalizacji[AnKIZCZSN].


.1.2.3.2Neuron sigmoidalny

Neuron sigmoidalny charakteryzuje się strukturą zbliżoną do modelu McCullocha-Pittsa. Różnica tkwi w funkcji aktywacji. W neuronie sigmoidalnym jest ona ciągła oraz ma postać funkcji sigmoidalnej unipolarnej (0,1) lub bipolarnej (-1,1). Funkcja unipolarna opisywana jest z reguły wzorem (wzór 6):

(6)

natomiast bipolarna (wzór 7):



(7)

Przebieg obydwu funkcji jest silnie uzależniony od parametru. Małe wartości powodują, że funkcja ma charakter niezbyt stromy. W miarę wzrostu poziom stromości funkcji również wzrasta. Przy wartościach dążących do ∞ następuje przejście funkcji sigmoidalnej w funkcję skokową identyczną z funkcją aktywacji perceptronu. [OstaSN]

Cechą, która zdecydowanie stanowi niewątpliwą zaletę neuronów sigmoidalnych to różniczkowalność funkcji aktywacji. Pochodne tych funkcji są łatwe do obliczania, ponieważ przybierają one następującą postać:

(8)

dla funkcji unipolarnej (wzór 8) oraz:



(9)

dla funkcji bipolarnej. Sygnał wyjściowy dla neuronu sigmoidalnego dany jest wzorem (wzór 10):



(10)

Miara błędu neuronu sigmoidalnego (wzór 11) zdefiniowana jest jako kwadrat różnicy wartości wzorcowej i otrzymanej wartości na wyjściu neuronu [RlesSN]:



(11)

Uczenie neuronu sigmoidalnego opiera się na trybie uczenia z nauczycielem, minimalizując funkcję energetyczną, która w przypadku jednej pary uczącej definiowana jest według wzoru (wzór 12):



(12)

W przypadku założenia ciągłej funkcji aktywacji możliwe jest zasotosowanie w uczeniu metody gradientowej. Zazwyczaj przyjmowana jest metoda najszybszego spadku, w której aktualizacja wag W=[wi1, wi2, wi3,...,win] odbywa się w kierunku ujemnego gradientu funkcji energetycznej. [OstaSN]


.1.2.3.3Neuron Adaline

Model neuronu Adaline (Adaptive Linear Neuron) zaprojektował profesor Bernard Widrow w 1960 roku. Schemat tego modelu, podobnie jak poprzednio opisywane schematy modeli neuronów, jest wzorowany na utworzonym przez McCullocha-Pittsa. Metoda wyznaczania sygnału wyjściowego jest identyczna ze sposobem wyznaczania sygnałów wyjściowych w perceptronie. [KjozSN].

Rys.4. Schemat procesu uczenia Adaline [AnNEKYL ]

Reguła uczenia Adaline opiera się na metodzie minimalizacji błędu średniokwadratowego. [AnNEKYL ] Model Adaline cechuje się adaptacyjnym sposobem doboru wag, który odbywa się poprzez minimalizację błędu kwadratowego.

. (13)

Adaline posiada funkcję aktywacji typu signum (wzór 13):



. (14)

Podobnie jak w przypadku neuronu sigmoidalnego, podczas minimalizacji funkcji energetycznej stosuje się metodę największego spadku. Uaktualnianie wag zachodzi w dwojaki sposób. W sposób dyskretny:



(15)

lub analogowo, rozwiązując równanie różniczkowe:



. (16)

Mimo że Adaline posiada na wyjściu blok nieliniowy typu signum, przyjęło się, że uważana jest za model liniowy. W definicji funkcji energetycznej nieliniowość zostaje pominięta, a w doborze wag blok nieliniowy jest pomijany.

W zastosowaniach praktycznych neurony typu Adaline występują z reguły w grupach. Tworzą wówczas warstwę znaną jako Madaline (Many Adaline). Każdy neuron z warstwy uczy się zgodnie z regułą Adaline. Poszczególne neurony z warstwy mają możliwość posiadania różnie zorganizowanych wyjść. W modelu występują trzy podstawowe rodzaje połączeń: OR, AND i Majority. W sumowaniu sygnałów yi próg każdego z nich jest ustawiany odmiennie. [OstaSN]

.1.2.4Sztuczne sieci neuronowe


Operacje elementarne wykonywane przez poszczególne neurony nie stanowią szczególnego przedmiotu zainteresowania. Faktyczna moc sieci neuronowych pojawia się dopiero, gdy wiele neuronów jest połączonych w sieci o różnej strukturze. [KjozSN]

SSN stanowią bardzo uproszczony model mózgu. Ilość N sztucznych neuronów jest zależna od zastosowań sieci. Układ do rozpoznawania obrazów telewizyjnych będzie charakteryzował się większą liczbą neuronów niż do rozpoznawania pewnej klasy zapachów. Wzrost wielkości sieci powoduje jej gorszą wydajność (obniżenie prędkości działania).

W konstruowaniu SSN istotne jest ustalenie połączeń synaptycznych między neuronami. Każde połączenie synaptyczne posiada określoną wartość obrazującą siłę sprzężenia danej pary neuronów. Występują dwa rodzaje sprzężeń: symetryczne i asymetryczne (jednokierunkowe działanie synapsy w sieci żywej). Ważną klasę sieci neuronowych stanowią „sieci całkowicie połączone”. Każdy neuron w tej sieci ma połączenie do wszystkich pozostałych. Sieci o niecałkowitych połączeniach między neuronami nazywane są „sieciami z rozrzedzeniami połączeń synaptycznych” bądź „sieciami rozrzedzonymi”.

Uczenie sieci neuronowej polega na wytwarzaniu określonych połączeń synaptycznych. Topologia i rodzaj połączeń określa zadanie jakie ma wykonywać dana sieć. [KrobSN] Przyjmuje się się, że za pomocą sieci neuronowych można rozwiązać co najmniej cztery różne typy zadań:



  • Autoasocjacja – rekonstrukcja przez sieć faktycznego zbioru danych z niekompletnego lub obarczonego zakłóceniami.

  • Heteroasocjacja – realizowanie przez sieć odwzorowania wejście-wyjście. Przykładem może być sytuacja, w której na wejściu sieć otrzymuje zbiór danych „1”, to na wyjściu generuje zbiór danych „2”.

  • Klasyfikacja – sieć dokonuje klasyfikacji (przypisuje do odpowiednich klas) różnych zbiorów wejściowych. Dosknałym przykładem wydaje się być tutaj zadanie rozpoznawania liter i liczb.

  • Detekcja regularności – wykrywanie statystyczne cech charakterystycznych w zbiorze wejściowym. Tworzone są własne kategorie reprezentujące dane cechy. [KjozSN]

.1.2.5Typy sieci neuronowych


Oprócz opisywanego w poprzednim punkcie podziału sieci ze względu na rodzaje zadań jakie wykonują, można je klasyfikować również według architektury, na której opiera się ich budowa.

Wyróżnia się podział na co najmniej trzy podstawowe typy sieci pod względem architektury:



  • sieci jednokierunkowe – sieci, w których sygnał przepływa w jednym kierunku,

  • sieci rekurencyjne – sieci, w których występuje sprzężenie zwrotne,

  • sieci komórkowe. [KjozSN]

Dobór odpowiedniej liczby warstw oraz neuronów w każdej sieci powinno otrzymywać się na podstawie analizy problemu, do rozwiązania którego ma służyć dana sieć.
.1.2.5.1Sieci jednokierunkowe

Sieci jednokierunkowe charakteryzują się przepływem sygnału tylko w jednym kierunku (od wejścia do wyjścia).

W sieciach jednokierunkowych jednowarstwowych (rys. 5) neurony ułożone są w jednej warstwie, która jest zasilana z węzłów wejściowych. Każde wejście połączone jest do każdego neuronu. [AnKOPSN]



Rys. 5 Model sieci jednokierunkowej jednowarstwowej. [AnKOPSN] //TODO:poprawić ilości (i,j)

Sieci jednokierukowe wielowarstwowe charakteryzują się występowaniem co najmniej jednej warstwy ukrytej, która pośredniczy w przekazywaniu sygnałów pomiędzy warstwą wejściową a wyjściową. Sygnały otrzymywane przez warstwę wejściową przekazywane są na pierwszą warstwę ukrytą, która staje się sygnałem źródłowym dla warstwy kolejnej. W SSN jednokierunkowych, wielowarstwowych występują połączenia pełne pomiędzy warstwami. W niektórych zastosowaniach jednak połączenia pomiędzy pewnymi neuronami mogą nie wystąpić. Mowa jest wówczas o połączeniu częściowym, lokalnym SSN. [OstaSN2]

Najbardziej klasycznym typem SSN jednokierunkowej, wielowarstwowej jest perceptron wielowarstwowy (rys. 6).



Rys. 6 Model perceptronu wielowarstwowego [KjozSN] //TODO:poprawić ilości (i,j)

Model ten tworzą neurony ułożone w warstwach o tym samym kierunku przepływu sygnałów. Połączenia międzywarstwowe występują jedynie międy sąsiednimi warstwami. Sieć typu perceptronowego charakteryzuje się jedną warstwą wejściową, wyjściową oraz posiada jedną lub więcej warstw ukrytych. Wstępne przetwarzanie zbioru wejściowego u = [u1, u2, u3,...,um] odbywa się przy pomocy elementów z warstwy wejściowej. Przetwarzanie zasadnicze odbywa się w warstwach ukrytych oraz wyjściowej. Warstwy te zbudowane są z elementów stanowiących sztuczne modele neuronów. Każdy z elementów warstwy poprzedniej połączony jest z każdym elementem warstwy następnej. Połączenia mają przypisane odpowiednie współczynniki wag, które są wyznaczane w każdym przypadku osobno (w zależności od zadania jakie dana sieć ma wykonywać). Odwzorowanie ogólne (wejście-wyjście) zdefiniowane może być poniższym wzorem (wzór 17):

(17)

gdzie stanowi wektor sygnałów wyjściowych; - macierz współczynników wag połączeń między warstwą wyjściową i H-tą ukrytą; , - operatory przetwarzania neuronowego warstwy wyjściowej; - macierz współczynników wag połączeń między warstwami h i (h – 1); h = 1, 2, ..., H; H – liczba warstw ukrytych. [KjozSN]

Celem uczenia perceptronu wielowarstwowego jest ustalenie odpowiednich wartości wag dla wszystkich warstw sieci, aby przy danym wektorze wejściowym uzyskać na wyjściu wartości sygnałów odpowiadające z pewną dokładnością wartościom zadanym.

W sieci wielowarstwowej algorytm propagacji wstecznej ustala strategię doboru wag w sieci, wykorzystując do tego gradientowe metody optymalizacji. Uważany jest za jeden z najskuteczniejszych algorytmów uczenia sieci wielowarstwowej. Jego podstawę stanowi funkcja celu opisywana z reguły jako suma kwadratów różnic między wartościami aktualnymi sygnałów wyjściowych sieci, a wartościami zadanymi. W przypadku j (j = 1, 2, ..., p) próbek uczących funkcja celu wyrażana jest jako suma E po wszystkich próbkach (wzór 18):



(18)

gdzie p – liczba próbek uczących; Milość wartości zadanych; y – wartość sygnału wyjściowego; d – wartość zadana. Aktualizacja wag może odbywać się po każdorazowej prezentacji próbki uczącej lub jednorazowo - po zaprezentowaniu wszystkich próbek z cyklu uczącego.

Nauka sieci przy wykorzystaniu algorytmu propagacji wstecznej opiera sie na kilku fazach. W pierwszej prezentowana jest próbka ucząca i obliczana jest wartość sygnałów dla poszczególnych neuronów w sieci. Dla danego wektora przeprowadzane są obliczenia wartości sygnałów wyjściowych neuronów z warstwy ukrytej, a następnie wartości, które odpowiadają neuronom warstwy wyjściowej. Po dokonaniu obliczeń wartości sygnałów wyjściowych możliwe staje się określenie aktualnej wartości funkcji celu. W drugiej fazie algorytmu wykonywana jest minimalizacja wartości tej funkcji.[OstaSN3]

.1.2.5.2Rekurencyjne sieci neuronowe

Rekurencyjnymi sieciami neuronowymi nazywane są sieci o połączeniach dwukierunkowych pomiędzy elementami przetwarzającymi lub posiadającymi sprzężenia zwrotne między warstwami: wyjściową i wejściową. Sieci tego typu są skomplikowane w o wiele większym stopniu niż sieci jednokierunkowe, a reguły projektowania dużo trudniejsze w praktycznej implementacji. [KjozSN]

Na rys. 7 przedstawiona została typowa sieć rekurencyjna, jednowarstwowa (sieć Hopfielda).



Rys. 7. Schemat sieci rekurencyjnej, jednowarstwowej. [OstaSN2]

Sygnały wyjściowe stanowią jednocześnie wektor wejściowy dla następnego cyklu (z-1 – jednostkowy operator opóźnienia). W sieci tej nie występuje zwykle sprzężenie zwrotne neuronu od własnego sygnału wyjściowego. Na rys. 8 przedstawiony został model sieci rekurencyjnej z jedną ukrytą warstwą neuronów.

Rys. 8 Schemat sieci rekurencyjnej z jedną warstwą ukrytą neuronów. [OstaSN2]

Neurony od 1 do m stanowią neurony wyjściowe sieci, a warstwą ukrytą są neurony od 1 do K. Połączenie sygnałów warstwy wyjściowej i ukrytej z ewentualnymi sygnałami wejściowymi są wektorem wejściowym sieci w następnym cyklu obliczeniowym.

Ustalanie się sygnałów wyjściowych sieci neuronowych to proces dynamiczny, ponieważ występują jednostki operatorów opóźnienia. Rozważając również nieliniowość funkcji aktywacji neuronów, można stwierdzić, że jest to dynamika liniowa, która stanowi istotny element tego rodzaju sieci. [OstaSN2]


.1.2.5.3Sieci komórkowe

Sieci neuronowe, komórkowe (rys. 9) są przykładem układu, który dokonuje rozproszonego i równoległego przetwarzania informacji należącej do sygnału wejściowego. Rodzaj przetwarzania informacji tego typu jest charakterystyczny dla mózgu. Umożliwia również osiąganie przez komputery bardzo dużych mocy obliczeniowych (1012 operacji na sek. ). Pozwala to na pracę w czasie rzeczywistym, np. zdolność do bieżącej reakcji na obrazy dostarczane z kamery.

Rys. 9 Ogólna struktura sieci komórkowej [KjozSN].

Struktura sieci neuronowych, komórkowych opiera się na kształtach geometrycznych – kwadrat lub prostokąt. Każdy neuron ma ustalone położenie, podobnie jak element macierzy. Opisany jest dwoma indeksami i, j. [KrobSN2] Sprzężenia wzajemne pomiędzy elementami przetwarzającymi powiązane są wyłącznie z najbliższymi z sąsiedztwa. [KjozSN] Neurony, które występują bliżej krawędzi posiadają odpowiednio mniej sąsiadów. Cechą wyróżniającą sieci komórkowe jest to, że każdy neuron ma identyczny układ połączeń synaptycznych (położenia i wartości połączeń synaptycznych). Taki powtarzający się układ połączeń synaptycznych nazywany bywa „szablonem sieci”. Szablon sieci komórkowej jest opisywany przy wykorzystaniu macierzy A i B. W zastosowaniach dobierana jest odpowiednia postać szablonu, tak aby sieć mogła realizować wymagane zadania.

W wyniku przetwarzania sygnałów wejściowych w sieci komórkowej otrzymywany jest zbiór wartości sygnałów wyjściowych. Powstaje on w chwili osiągnięcia przez sieć stanu równowagi stabilnej. Zależy od funkcji aktywacji i postaci macierzy A i B. Wystąpienie stanu równowagi stabilnej jest następstwem spełnienia przez sieć określonego warunku (wzór 19):



(19) [KrobSN2]

Największą trudnością w stosowaniu tego rodzaju sieci jest opracowanie efektywnej, skutecznej i uniwersalnej metody projektowania. Klasycznym przykładem sieci komórkowej jest mapa cech Kohonena. [KjozSN]


.1.2.6Zastosowania sieci neuronowych


SSN mogą być stosowane w niemalże każdej sytuacji, gdzie pomiędzy zmiennymi zależnymi i niezależnymi występuje rzeczywista zależność lub zespół zależności. Nawet wtedy, gdy są one bardzo skomplikowane lub niewyrażalne w klasyczny sposób – poprzez korelacje lub różnice między grupami danych przypadków. [StsoftSN]

Możliwe jest ujęcie funkcji pełnionych przez sieć w kilka podstawowych grup: aproksymacja, interpolacja, kompresja, predykcja, identyfikacja i sterowanie oraz asocjacja.

W każdym z wyżej wymienionych zastosowań SSN pełni rolę uniwersalnego aproksymatora funkcji wielu zmiennych. Realizuje funkcję nieliniową (wzór 20):

(20)

gdzie x stanowi wektor wejściowy, a y wektorową funkcję wielu zmiennych.

W dziedzinie klasyfikacji i rozpoznawania wzorców SSN uczy się cech tych wzorców. W uczeniu uwypuklane są różnice, które występują we wzorcach. Stanowią one podstawę do podejmowania decyzji o przypisywaniu ich do odpowiednich klas. SSN często dokonują klasyfikacji szybciej i skuteczniej niż zwyczajne programy klasyfikacyjne (są zdecydowanie łatwiej przestrajalne i łatwiej przystosowują się do nowych warunków).

W predykcji zadaniem SSN jest określanie przyszłych odpowiedzi programu na podstawie danych wartości z przeszłości. Posiadając wiedzę o wartościach zmiennej z przeszłości (w chwilach poprzedzających predykcję), sieć podejmuje decyzję o tym, jaka wartość badanego ciągu będzie estymowana w danej chwili. W aktualizacji wag wykorzystywane są informacje o obecnym błędzie predykcji i jego wartości w chwilach poprzedzających.

W zagadanieniach związanych ze sterowaniem procesami dynamicznymi i identyfikacji SSN pełni kilka funkcji. Tworzy model nieliniowy danego procesu, pozwalając na określanie odpowiedniego sygnału sterującego.

SSN odgrywają również istotną rolę w kojarzeniu (asocjacji). Wyróżnia się tutaj pamięć autoasocjacyjną polegającą na kojarzeniu poszczególnych składowych wektora oraz heteroasocjacyjną, w której kojarzone są ze sobą dwa wektory. Jest to przydatna cecha np. w procesach filtracji szumów. SSN, otrzymując wektor zniekształcony, jest w stanie na jego podstawie w wielu przypadkach odtworzyć wektor oryginalny. [OstaSN3]

SSN mogą być wykorzystywane do wielu celów i w różnych dziedzinach. Do przykładowych zastosowań SSN można zaliczyć: prognozowanie finansowych szeregów czasowych, ocena wiarygodności kredytowej, monitorowanie stanu maszyn, sterowanie pracą silnika, badania psychiatryczne, dobór surowców, dobór pracowników, optymalizacja utylizacji odpadów, prognozowanie postępów w nauce, analiza spektralna, diagnostyka układów elektronicznych, sterowanie procesami przemysłowymi. [StsoftSN, RtadSN]

Niebywale istotną rolę SSN odgrywają w medycynie i lecznictwie. Badania prowadzone przez naukowców dowiodły, że są w stanie rozpoznawać raka piersi u kobiet w bardzo wczesnym stadium, odkrywać problemy z sercem – np. zwężenia tętnic wieńcowych, śledzić postępy w procesie rehabilitacji oraz diagnozwać problemy neurologiczne, np. choroba Parkinsona, epilepsja. [BresSN]

Najważniejszą cechą SSN, która świadczy o ich bardzo szerokich możliwościach zastosowań jest równoległe przetwarzanie informacji przez wszystkie neurony. Uzyskuje się dzięki temu znacznie przyspieszenie procesu przetwarzania informacji. Wraz z rozwojem architektur sprzętowych komputerów i zwiększaniem ich mocy obliczeniowej możliwe jest przetwarzanie coraz większej liczby operacji w czasie rzeczywistym (np. dokonywanie ekstrakcji cech obiektów dostarczanych w obrazach z kamer telewizyjnych).

1   2   3   4   5


©absta.pl 2016
wyślij wiadomość

    Strona główna