SADRŽAJ 1. UVOD..................................................... ............................................................................ .............................................. ............................................. .................................. ............ 1
2. OBRADA INFORMACIJA U NEURONSKOJ MREŢI ........................................... ....................................................... ............ 2 3. NA KOJI NAČIN SE UČENJEM STVARA NEURONSKA MREŢA? .............................. .............................. 4 3.1. Učenje ........................................... ................................................................. ............................................ ............................................. ....................................... ................ 4 3.2. Testiranje mreţe ........................................... .................................................................. ............................................. ............................................ ........................ 6 4. MREŢA "ŠIRENJE UNAZAD" (eng. backpropagation) ............................................. .................................................... ....... 11 5. OSTALI ALGORITMI NEURONSKIH MREŢA ............................................. ............................................................... .................. 13 6. PRIMENA VEŠTAČKIH NEURONSKIH MREŢA ............................................ .......................................................... .............. 13 7. NEURONSKO RAČUNARSTVO PREĐENO SA TRADICIONALNIM RAČUNARSTVOM........................................... .................................................................. ............................................. ............................................ ......................... ... 14 8. ZAKLJUČAK ......................................... ............................................................... ............................................. .............................................. ................................. .......... 15 LITERATURA ........................................... .................................................................. ............................................. ............................................. ................................. .......... 16
1. UVOD
Neuronske mreţe predstavljaju sistem programa i struktura koji aproksimira funkcionisanje čovječijeg mozga. Pogodne su za prepoznavanje finih, skrivenih i novootkrivenih šema odnosa u kompleksnim podacima, kao i za interpretaciju, razumevanje nekompletnih ulaznih podataka. Mozak se sastoji od nekoliko desetina m ilijardi neurona povezanih u mreţu koji
mogu
paralelno obraĎivati informacije. Neuroni su povezani na različite načine, pa mogu oblikovati nizove, krugove i mreţe. Neuron, kao osnovna jedinica ţivčanog sistema, prima informacije od drugih neurona putem den drita,
obraĎuje ih, a zatim šalje impuls putem aksona i sinapsi
drugim neuronima u mreţi. Učenje se odvija menjanjem jačine sinaptičkih veza, odnosno teţina u mreţi. Neuronsko računarstvo pokušava oponašati taj sistem.
Slika 1. – Biološki neuron
Umjetni neuron, jedinica za obradu podataka (varijabli), prima ponderisane ulazne vrednosti
od drugih varijabli, te ih prema nekoj formuli transformiše i šalje kao izlaz drugim
varijablama. Učenje se odvija promjenom vrednosti “teţina” meĎu varijablama (teţine ponderi kojima se mnoţe ulazne vrednosti u neki “neuron”).
Slika 2. – Veštački neuron
1
su
2. OBRADA INFORMACIJA U NEURONSKOJ MREŽI U
veštačkoj neuronskoj mreţi obrad a informacija se takoĎe izvodi u jedinicama koje
zovemo neuronima ili elementi ma
za obradu. Izraz neuron označava osnovnu jedinicu u
modelu neuronske mreţe koja je namenjena obradi podataka (zbog toga su izrazi "jedinica obrade" ili "elementi za obradu" korišteni često kao sinonimi za neuron). Veštački neuron takoĎer ima više ulaza od kojih prima informacije (oni su analogni dendritima kod ţivih neurona), sabira ih s pomoću neke zbirne funkcije i tako stvara svoju internu aktivaciju. Zatim
se u neuronu s pomoću funkcije prenosa menja taj zbirni ulaz. Funkcija prenosa moţe biti diskontinuirana funkcija skoka, ili neka kontinuirana funkcija, kao npr. sigmoida ili tangenshiperbolna funkcija. Primer obrade
informacije na neuronskoj mreţi koja se naziva širenje unazad (engl.
Backpropagation). Ta mreţa se intenzivno upotrebljava za različite klase problema te ima jednostavan model koji se moţe lako opisati i naučiti. Matematički model obrade informacija u računarskom neuronu je slijedeći: Ulazi u neurone indeksirani sa i = 1 , ..., n primaju ulazne vrednosti xi. Ulazne vrednosti neki su realni brojevi. Svaka ulazna vrijednost xi
mnoţi se s teţinskom vrednosti
ponderisanih veličina zove se interna aktivacija I.
. Zbir S svih
Ona je jednaka:
Tako dobijen broj S (ili interna aktivacija I )
obraĎuje se pomoću funkcije obrade f .
Izlaz iz neuronske mreţe jednak je y:
Primjer obrade informacija u jednom neuronu.
Neuroni su spojeni u mreţu na način da izlaz svakog neurona predstavlja ulaz u jedan ili više drugih neurona. Prema smjeru, veza izmeĎu neurona moţe biti jednosmjerna ili dvosmjerna, a prema intenzitetu moguća je pobuĎujuća (egzitatorna) ili smirujuća (inhibitorna) veza. Neuroni su obično u veštačkoj neuronskoj mreţi organizovani u grupe ili slojeve u kojima se informacije paralelno obraĎuju.
Tipična neuronska mreţa sastoji se od nekoliko slojeva, najčešće dva vanjska, te od jednog ili više meĎuslojeva ili t zv. skrivenih slojeva (slika 3). Vanjski slojevi su: ulazni sloj koji učitava podatke iz okoline i izlazni sloj koji prikazuje rezultat mreţe za zadani ulaz. 2
Upravo je skriveni sloj onaj u kojem se uče meĎuzavisnosti u modelu, informacije neurona se ovde obraĎuju i šalju u
neurone izlaznog sloja.
Slika 3. – Neuronska mreža
Slika 4. - Prikaz neurona s oznakama koje objašnjavaju njegov smještaj u mreži.
Kada ulazni sloj šalje podatke u prvi skriveni sloj, svaka jedinica skrivenog sloja prima vagani ulaz iz ulaznog sloja (početne teţine su postavljene slučajno, često u intervalu od -0.1 do 0.1) prema formuli (Masters, 1993):
3
je teţina veze od neurona j (u sloju s) prema
ulaz u neuron j u sloju s,
gde je
neuronu i (u sloju s-1), a (slika 4).
je ulazna vrednost koja se šalje iz prethodnog sloja s-1
Npr. ako je skriveni sloj označen sa s, tada je ulazni sloj označe n sa s-1.
Jedinice u skrivenom sloju prenose svoje ulaze prema formuli:
izlaz neurona j u sloj s, a f je prenosna funkcija (sigmoida, tangens-hiperbolna ili
gde je
neka druga funkcija).
Ako postoji više od jednog skrivenog sloja, gore navedena prijenosna funkcija upotrebljava se kroz sve skrivene slojeve sve dok se ne dostigne izlazni sloj.
3. NA KOJI NAČIN SE UČENJEM STVARA NEURONSKA MREŽA? Rad
veštačke neuronske mreţe odvija se u dvije osnovne faze: najpre se odvija faza
učenja ili treniranja mreţe, a zatim sledi faza testiranja. 3.1. Učenje
Učenje je proces menjanja teţina u mreţi, a odvija se kao odgovor na podatke izvana koji su predstavljeni ulaznom sloju i u nekim mreţama izlaznom sloju. Podaci koji se predstavljaju izlaznom sloju su ţelj ene vrednosti izlaznih varijabli. Ukoliko su one poznate, radi se o tzv. nadgledanom učenju. Na primer, nadgledani algoritmi su: mreţa širenje unazad, mreţa s radijalno zasnovanom funkcijom, modularna mreţa, mreţa verovatnoće, LVQ (mreţa linearne vektorske kvantizacije), i drugi. Ukoliko je ulazni vektor jednak izlaznom vektoru,
radi se o autoasocijativnim mreţama, a ukoliko je različit, radi se o heteroasocijativnim mreţama. Kod nekih mreţa ţeljeni izlaz ne mora biti predstavljen mreţi. U tom slučaju radi se o tzv. Ne
nadgledanom učenju. Najčešći ne nadgledani algoritmi su Kohonenova mreţa,
mreţa konkurentskog učenja, te ART (mreţa adaptivne rezonantne teorije). 4
Prije samog učenja potrebno je definisati model (ulazne i izlazne varijable), te prikupiti podatke iz prošlosti na kojima će se primijeniti mreţa. Prikupljene podatke treba podeliti u dva pod-uzorka (uzorak za treniranje i uzorak za testiranje), a ukoliko se za vreme
učenja planiraju koristiti op timizacijske tehnike za optimizovanje duţine učenja i strukture mreţe, potrebno je ukupan uzorak podeliti na tri poduzorka (za treniranje, testiranje i konačnu validaciju). Pravila za ovu podjelu nema, osim što se preporučuje najveći dio podataka ostaviti
za treniranje mreţe, a manji dio podataka za testiranje i validaciju (npr. 70% za
treniranje, 10% za testiranje i 20% za validaciju). Podaci se rasporeĎuju u poduzorke slučajno, osim kod vremenskih serija gdje treba poštovati vremenski sl ed nastajanja posmatranja, tj. trenirati mreţu na starijim,
a testirati na novijim podacima.
Nakon što je definisan model, pripremljeni ulazni podaci i izabran NM algoritam, te pravilo učenja i potrebne funkcije, mreţu treba učiti ili trenirati na pripremljenim podacima iz prošlosti, kako bi ona prepoznala vezu izmeĎu podataka i bila u mogućnosti na osnovu ulaznih vrednosti predviĎati
izlaze. Sama faza učenja je proces podešavanja teţina u mreţi,
koje se odvija u više iteracija ili prolaza kroz mreţu. Jedna iteracija predstavlja učitavanje jednog posmatranja
iz podataka (jednog ulaznog i izlaznog vektora), ali se zbog povećanja
brzine učenja ponekad preporučuje učitati više posmatranja odjednom, pri čemu se broj posmatranja koji se obraĎuju u jednoj iteraciji zove epoha. U svakoj iteraciji računaju se nove
teţine, a kod nadgledanih algoritama i nova greška. Obično se mreţa trenira u nekoliko hiljada iteracija.
Najvaţnije pitanje u ovoj fazi je koliko dugo trenirati mreţu kako bi ona dala što bolji rezultat, odnosno najmanju grešku. Ne postoje egzaktna pravila za duţinu treniranja, te odgovor na ovo pitanje treba potraţiti vlastitim eksperimentisanjem ili primenom optimizacionih
tehnika kao npr. tehnika unakrsnog testiranja. Ova se tehnika moţe opisati u
nekoliko koraka: -
mreţa se najprije trenira na odreĎenom broju iteracija (npr. 10000),
-
tako naučena mreţa se testira na uzorku za testiranje, i pohrani dobiveni re zultat i mreţa.
-
mreţa se zatim nastavlja trenirati na još tolikom broju iteracija (npr. još 10000), te se dobiveni rezultat usporeĎuje s prethodno pohranjenim. Ukoliko je u ponovnom učenju dobiven bolji rezultat, pohranjuje se novi rezultat i nova mreţa.
5
-
postupak se ponavlja sve dok se rezultat prestane poboljšavati, a najbolja pohranjena mreţa ulazi u daljni postupak validacije.
-
Rezultat (npr. RMS greška) dobiven u fazi učenja nije mjerodavan za ocenjivanje mreţe, jer ne pokazuje ponašanje mreţe na novim podacima. 3.2. Testiranje mreže
Testiranje mreţe je druga faza rada neuronske mreţe, i ona je odlučujuća za ocenjivanje fazi mreţa
mreţe. Razlika izmeĎu faze učenja i faze testiranja je u tome što u ovoj drugoj
više ne uči, a to znači da su teţine fiksirane na vrednostima koje su dobijene kao
rezultat prethodne faze učenja. Takvoj mreţi se predstavljaju novi ulazni vektori koji nisu učestvovali u procesu učenja, a od mreţe se očekuje da za predstavljen novi ulazni vektor proizvede izlaz. Ocenjivanje
mreţe obavlja se izračunavanjem greške ili nekog drugog merila
tačnosti (npr. stope tačnosti), na način da se izlaz mreţe poredi sa stvarnim izlazima. Dobijena ili neuspešnost
greška mreţe na uzorku za validaciju je rezultat kojim se tumači uspešnost
neuronske mreţe i njezina korisnost u primeni za predviĎanje na budućim
podacima. Najčešća greška koja se računa kod neuronskih mreţa je srednja kvadratna greška (Root mean square error), prema formuli:
gdje je ti
izračunati izlaz koji daje mreţa, oi je ţeljeni (stvarni) izlaz za slučaj (ulazni
vektor) i, a n je broj slučajeva u uzorku. Pravi se prosek greške prema broju izlaznih varijabli i
u odnosu na broj slučajeva u uzorku na kojem se računa. Kod problema kla sifikacije se u većini istraţivanja koristi stopa klasifikacije kao merilo ocenjivanja mreţe. Stopa klasifikacije prikazuje postotak ili udio ispravno klasifikovanih posmatranja .
Kod problema predviĎanja
najčešće se kao merila koriste RMS greška, MSE (Mean Square Error), MAE (Mean Absolute Error), koeficijent korelacije i dr.), dok se u novije vreme (Masters, 1998) posebno kod
financijskih problema naglašava potreba korišćenja financijskih merila (npr. ostvareni simulacioni profit, prosječni profit i sl.).
U slučaju upotrebe više NM algoritama, potrebno je na osnovu rezultata na uzorku za validaciju mreţe doneti konačnu ocenu o najboljem modelu NM za dati problem. Merila na 6
osnovu kojih se ova odluka donosi ovise o tipu problema (predviĎanje vs. klasifikaci ja), prirodi problema (da li je profit ostvaren upotrebom mreţe značajniji od veličine njezine greške), i sl. Proces projektovanja
neuronske mreţe sastoji se od nekoliko faza: (1) definisanje
modela (izbor ulaznih i izlaznih varijabli, priprema ulaznih podataka), (2) izbor
najprikladnijeg algoritma (npr. backpropagation), (3) rasporeĎivanje neurona u slojeve (izbor broja skrivenih slojeva, te broja neurona u svakom skrivenom sloju), (4) odreĎivanje tipa veze meĎu neuronima, te ulaznih i prenosnih funkcija izmeĎu slojeva, (5) izbor pravila učenja, te nekih parametara učenja, npr. koeficijenta učenja i momentima koji utiču na brzinu i kvalitet učenja, (6) izbor merila za ocenjivanje mreţe (npr. RMS greška ili stopa klasifikacije), i (7) provoĎenje postupka uč enja. Zavisno o temeljnim
formulama koje se koriste za učenje, ulazne i izlazne funkcije,
postoje različiti algoritmi NM, a unutar svakog algoritma moguće su intervencije u strukturi mreţe (topologiji) i izboru parametara učenja, te tako postoji široki spe ktar NM arhitektura. One se meĎusobno razlikuju prema kriterijumima: -
broju slojeva (dvoslojne i višeslojne),
-
tipu veze izmeĎu neurona (inter -slojne veze i intra-slojne veze),
-
vezi izmeĎu ulaznih i izlaznih podataka (autoasocijativne i heteroasocijativne),
-
ulaznim i izlaznim (prijenosnim) funkcijama,
-
pravilu učenja,
-
ostalim parametrima (sigurnosti ispaljivanja, vremenskim karakteristikama, i dr.). Od gore navedenih karakteristika, za razlikovanje algoritama od presudnog je značenja
pravilo učenja. Pravilo učenja specificira način na koji se podešavaju teţine u mreţi. Opisaćemo način podešavanja teţina na jednostavnom Delta pravilu, koje je jedno od prvih razvijenih pravila učenja za neuronske mreţe.
7
Slika 5. a)
Računanje greške neuronske mreţe
c) korekcija teţina veza neurona u izlaznom b) računanje greške neurona u izlaznom sloju
sloju
d) računanje greške neurona u skrivenim
e) korekcija teţina veza neurona u izlaznom
slojevima
sloju
8
Teţina veze w je jačina veze izmeĎu dva neurona. Ako je, na primer, neuron j povezan s neuronom i, wji
označava teţinu veze od neurona j prema neuronu i (wij je teţina
obrnute veze od neurona i prema neuronu j). Ako je neuron i spojen s neuronima 1,2,...,n, njihove
teţine su pohranjene u varijablama w1i, w2i, ..., wni. Promjena teţina obavlja se
prema nekom od pravila učenja, a najčešće se koristi Delta pravilo učenja prema formuli:
vrednost prilagoĎavanja
gdje je
teţine veze od neurona j prema neuronu i
izračunatom prema:
, gdje je ycj vrednost
izlaza izračunatog u neuronu j, ei je sirova greška izračunata
prema:
ah
je koeficijent učenja. Neuron prima onoliko ulaza koliko ima ulaznih veza prema
tom neuronu, te proizvodi jedan izlaz u skladu s ugraĎenom prenosnom funkcijom. U izlaznom sloju izlaz mreţe uporeĎuje se s ţeljenim (stvarnim) izlazom, i odreĎuje se globalna greška E kao:
gdje je dk
ţeljeni (stvarni) izlaz, dok je xk izlaz mreţe, a k je indeks izlazne
komponente, tj. broj izlaznih jedinica. Svaka izlazna jedinica ima vlastitu lokalnu grešku e čiji je sirov oblik ( dk-xk ), ali ono što se propagira kroz mreţu je skalirana greška u obliku gradijent komponente:
9
Cilj procesa učenja u mreţi "širenje unazad " je minimizirati gornju globalnu grešku šireći je unazad u veze kroz mreţu sve do ulaznog sloja. U procesu menjanja teţina, svaka veza u mreţi korigira se kako bi se postigla manja globalna greška. Proces povećanja ili smanjenja teţina (učenje) izvodi se korišćenjem pravila gradijentnog opadanja:
gdje je h koeficijent učenja. Da bi se izračunale parcijalne derivacije u gornjoj jednačini, što daje:
Kada se gornji rezultat uvrsti u formulu za podešavanje teţina, dobija se:
što vodi do glavnog problema postavljanja odgovarajuće stope učenja. Postoje dve meĎusobno konfliktne smernice za odreĎivanje h. Prva smernica je odrţavati h na niskoj vrednosti jer
ona odreĎuje područje u kojem je površina greške lokalno linearna. Ako mreţa
teţi predviĎanju visoke zakrivljenosti, takvo područje trebalo bi biti vrlo malo. MeĎutim, vrlo mali koeficijent učenja znači vrlo sporo učenje. U cilju rešavanja ovog sukoba, prethodne razlike teţina u vremenu (t -1) dodane su u prethodnu jednačinu, tako da je trenutno podešavanje teţina:
gdje je
momentum, koji ubrzava učenje kada je koeficijent učenja nizak. Učenje se
moţe takoĎer ubrzati na način da se teţine ne podešavaju za svaki vektor treniranja, nego kumulativno, pri čemu se broj vektora treniranja nakon kojeg se teţine podešavaju zove epoha.
Epoha koja nije jako velika moţe unaprediti brzinu konvergiranja, ali vrlo velika
epoha moţe računanje greške učiniti mnogo sloţenijim i na taj način umanjiti prednosti.
10
4. MREŽA "ŠIRENJE UNAZAD" (eng. backpropagation)
Algoritam mreţe "širenje unazad " bio je presudan za široku komercijalnu upotrebu ove metodologije, te je neuronske mreţe učinio široko upotrebljavanom i popularnom metodom u različitim područjima. Njezin prvi kreator bio je Paul Werbos 1974., a proširena je od strane Rumelhart-a, Hinton-a i Williams-a 1986. Bila je to prva neuronska mreţa s jednim
ili više skrivenih slojeva. U osnovi, ova mreţa propagira input kroz mreţu od ulaznog do izlaznog sloja, a zatim odreĎuje grešku i tu grešku propagira unazad sve do ulaznog sloja ugraĎujući je u formulu za učenje. Standardni algoritam mreţe "širenje unazad " uključuje optimizaciju greške koristeći deterministički algoritam gradijentnog opadanja (eng. gradient descent). Glavni nedostatak ovog algoritma je problem čestog pronalaţenja lokalnog umjes to globalnog minimuma greške, stoga novija istraţivanja uključuju njegovo unapreĎivanje nekim drugim determinističkim (npr. metode drugoga reda) ili stohastički m metodama (npr. simulirano kalenje).
Strukturu mreţe čine ulazni sloj, izlazni sloja i najmanj e jedan skriveni sloj, s vezom unapred.
Tipična arhitektura "širenje unazad" prikazana je na sledećoj slici (zbog jasnoće je
prikazan samo jedan skriveni sloj):
Slika 5. - Arhitektura mreže "širenje unazad"
11
Tok podataka kroz mreţu moţe se ukratko opi sati u nekoliko koraka: 1)
od ulaznog sloja prema skrivenom sloju: ulazni sloj učitava podatke iz ulaznog vektora X, i šalje ih u prvi skriveni sloj,
2) u skrivenom sloju: jedinice u skrivenom sloju primaju vagani ulaz i prenose ga u naredni skriveni ili u izlaz ni sloj koristeći prenosnu funkciju, 3)
kako informacije putuju kroz mreţu, računaju se sumirani ulazi i izlazi za svaku jedinicu obrade,
4)
u izlaznom sloju: za svaku jedinicu obrade, računa se skalirana lokalna greška koja se upotrebljava u odreĎivanju povećanja ili smanjenja teţina,
5) propagiranje unazad od izlaznog sloja do skrivenih slojeva: skalirana lokalna
greška, te povećanje ili smanjenje teţina računa se za svaki sloj unazad, počevši od sloja neposredno ispod izlaznog sve do prvog skrivenog sloja, i teţine se podešavaju. Mreţa "širenje unazad" je univerzalni algoritam primenljiv na probleme previĎanja, gdje je potrebno predvideti vrijednost jedne
ili više izlaznih varijabli, ali moguće ga je
koristiti i za probleme klasifikacije, gdje se ulazni vektor ras poreĎuje u jednu od klasa zadanih
na izlazu, npr. odreĎivanje da li neka dionica pripada u grupu rastućih ili o padajućih dionica u nekom periodu.
U tu svrhu, standardni algoritam ove mreţe potrebno je proširiti Softmax
aktivacijskom funkcijom, koja osim što podstiče mreţu da što jasnije rasporedi ulazni vektor u jednu od klasa, omogućava i komparaciju rezultata sa statističkim metodama koje kod klasifikacije daju verovatnoću da će ulazni vektor pripadati u
neku od klasa.
Mreţa "širenje unazad" ne preporučuje se za upotrebu na ne stacionarnim podacima, ili za slučajeve kada podaci u sebi skrivaju više, u osnovi različitih, problema. Rješenje za takve
probleme moţe se pronaći u upotrebi nekoliko neuronskih mreţa od kojih će svaka
rješavati pojedini problem zasebno, ili u izboru nekog drugog algoritma.
12
5. OSTALI
ALGORITMI NEURONSKIH MREŽA
Nadgledani algoritimi, za koje su potrebne poznate ulazne i izlazne vrednosti iz
prošlosti, su: 1)
„širenje uanzad“
2)
za probleme predviĎanja:
a)
Modularna mreţa (eng. Modular Network)
b)
Mreţa sa radijalno zasnovanom funkcijom (eng. Radial -Basis Function Network, RBFN)
c)
Mreţa opšte regresije (eng. General Regression Network)
2) za probleme klasifikacije a)
Mreţa verovatnoće (eng. Probabilistic Network)
b)
LVQ (mreţa učeće vektorske kvantizacije, eng. Linear Vector Quantization) Ne nadgledani algoritmi, kojima su od podataka iz prošlosti
potrebne samo ulazne
varijable, dok izlazi nisu poznati, su: a)
Kohonenova mreţa,
b)
Mreţa adaptivne rezonantne teorije (eng. Adaptive Resonance Theory Network, ART)
6. PRIMENA VEŠTAČKIH NEURONSKIH MREŽA Primjenjuju se u svim segmentima ljudske delatnosti: medicina (medicinska
dijagnostika), financije, bankarstvo, ekonomija, računarstvo...
13
7. NEURONSKO RAČUNARSTVO
PREĐENO SA TRADICIONALNIM RAČUNARSTVOM
Anderson i McNeil dali su tabelarni
prikaz razlika izmeĎu neuronskih mreţa i
tradicionalnog računarstva: -
obrada je kod tradicionalnog računarstva sekvencijalna, uz pomoć pravila i logike, dok je kod neuronskih mreţa paralelna, uz pomoć prepoznavanja uzoraka .
-
memorija neuronske mreţe su teţine meĎu neuronima; vrednost teţina predstavlja trenutno stanje znanja u mreţi .
-
tolerancija greške kod neuronskih mreţa je velika, jer mogu dati zadovoljavajuće rešenje i u slučaju kad je dio neurona iz nekih razloga onesposobljen i ne učestvuje u računanj u, što nije slučaj kod tradicionalnih računanih sistema.
-
neuronske mreţe su sposobne prepoznati uzorke u većem stepenu od tradicionalnih sistema.
-
neuronske mreţe su u mogućnosti sintetizovati sloţene kontinualne funkcije, analogno biološkim sistemima koji mogu koordinisati više pokreta .
14
8. ZAKLJUČAK Vaţna osobina neuronskih mreţa je njihova sposobnost da uče na ograničenom skupu primjera te su zbog toga sposobne da izaĎu na kraj sa problemima koji se t radicionalnim pristupom teško rešavaju. S posobne su da bolje prepoznaju govor i oblike. One su dobro rešenje za one kompanije koje ne ţele previše da ulaţu u softver, a opet da dobiju visok stepen pouzdanosti i prilagoĎenost njihovoj delatnosti.
Ovdje je takoĎer dominantna uloga visokog stupnja stručnosti u p oznavanju metodologije data miniga.
Ovde se moţe računati na visoki stepen tehničke podrške
proizvoĎača softvera, pri čemu se ne sme zanemariti problematika povezivanja različitih softverskih koncepcija u h armoničnu celinu. Prednost ovakvog pristupa manji stepen
takoĎer je fleksibilnost u izgradnji analitičkih modela,
"krutosti" softvera nego što je to slučaj sa situacijom u kojoj se koristi open
source, te se samim time smanjuje potreba programske dorade sistema.
15
LITERATURA
– Radić G., „Upravljanje poslovnim informacionim sistemima“, Banja Luka 2009. – Wikipedia, http://bs.wikipedia.org/wiki/Neuronske_mre%C5%BEe – Klepac G., „Data mining sustavi - kako i čime stići do cilja“, www.goranklepac.com – Edukacijski Repozitorij za Inteligentne Sustav, http://eris.foi.hr/11neuronske/nnpredavanje.html
– Bašić B., „Sustavi koji uče i umjetne neuronske mreţe“, http://web.math.hr/hmd/BojanaDalbeloBasic_131207.pdf
– NeuroSolutions, http://www.neurosolutions.com/
16