Ordinea de lucru cu pachetul statistica rețele neuronale - stadopedia

După descoperirea datelor, ST Neural Networks va oferi o funcție de construire automată (fereastra Intelligent Problem Solver). În această etapă, trebuie să anulați această funcție (Anulare).







Când deschideți un fișier nou în rețelele ST Neural, toate variabilele sunt considerate a fi introduse. Trebuie să specificați variabilele de ieșire. Faceți clic dreapta pe câmpul cu numele variabilelor de ieșire din fereastra Editorul setului de date. În meniul contextual rezultat, selectați Ieșire, culoarea titlului coloanei se modifică în albastru.

Toate observațiile trebuie împărțite în două seturi: formarea (care servește pentru predarea NA) și controlul (necesar pentru evaluarea progresului instruirii).

În cel de-al doilea câmp al ferestrei Cases din editorul de seturi de date, specificați dimensiunea setului de control (de obicei jumătate din întregul set de date i se alocă), apăsați Enter. Liniile care conțin observații de control sunt marcate cu roșu (se află la sfârșitul listei de observații). Apoi, prin comanda Shuffle (Editare → Cazuri → Shuffle → Train and Verify), toate observațiile sunt repartizate aleatoriu în diferite tipuri.

O rețea cu parametrii și structura specificată este creată după ce faceți clic pe butonul Creare.

Parametrii Steps și Lookahead sunt utilizați numai în sarcinile din serii de timp și nu sunt utilizați în această lucrare.

Pentru rețelele de fiecare tip, sunt utilizați algoritmi de învățare specifici, care se află în elementul de meniu Tren. Atunci când alegeți un algoritm, se propune determinarea parametrilor de învățare. De exemplu, atunci când învățarea multistrat perceptor de propagare spate (tren → multistratificată perceptroni → Înapoi Propagarea) definită în caseta (Figura 12).

Epoci - Epoci. Specifică numărul de cicluri de învățare care apar atunci când este apăsată o dată o tastă Train. Valoarea implicită este de 100.

Rata de învățare - viteza de învățare, setează dimensiunea pas atunci când schimbă greutățile: algoritmul converge lent în viteză mică, cu o creștere în procesul de învățare viteză algoritm este mai rapid, dar în unele probleme care pot duce la instabilitate (mai ales în cazul în care datele sunt zgomotoase). Pentru antrenament rapid și dur, sunt potrivite valori cuprinse între 0,1 și 0,6; pentru a atinge valori mai mici de convergență necesare precise (de exemplu, 0,01 sau chiar 0,001, dacă mai multe mii de epoci). Uneori este utilă reducerea vitezei în procesul de învățare.

Momentum - inerție. Această opțiune de formare îmbunătățește (accelerează), în situațiile în care eroarea variază puțin, și oferă o stabilitate suplimentară a algoritmului, algoritmul ajută să nu se blocheze în zonele joase, și minimele locale. Valoarea acestui parametru trebuie să se situeze întotdeauna în intervalul [0; 1]. Adesea, se recomandă să utilizați o viteză mare de învățare, în combinație cu un coeficient mic de inerție și vice-versa.

Shuffle Cases - Amestecați observațiile. Folosind această funcție, ordinea în care sunt transmise observațiile la modificările introduse de rețea în fiecare nouă iterație. Acest lucru adaugă un zgomot la formare, astfel încât eroarea să poată avea fluctuații mici. Cu toate acestea, este mai puțin probabil ca algoritmul să se "blocheze", iar performanța generală a activității sale este de obicei îmbunătățită.







Verificarea încrucișată - modul standard de învățare a rețelelor neuronale este că rețeaua învață pe unul dintre seturi, iar pe de altă parte rezultatul este verificat; astfel, setul de control pentru formare nu este utilizat. Aceasta oferă o modalitate independentă de a verifica dacă rețeaua a învățat ceva util.

Reinițializați - resetați setările de rețea pe care le-ați primit în ciclul antrenament anterior sau pentru rețeaua anterioară.

Porniți algoritmul de învățare făcând clic pe butonul Tren. De fiecare dată când este apăsat butonul Train, algoritmul execută cicluri de învățare N, unde N este numărul de cicluri de învățare definite în Epoci.

Pe grafic (Statistici → Graficul de eroare de formare) puteți observa schimbarea erorii de rețea în timpul antrenamentului. Graficul de eroare de formare este o mapare a erorii pătrate medii-rădăcină a rezultatului pe întregul set de antrenament.

În grafic, puteți observa efectul nedorit al reinstruire (atunci când rețeaua învață bine pentru a da aceleași valori de ieșire ca și în setul de formare, dar nu este în măsură să rezume Legea cu privire la noile date). La început, eroarea de învățare și eroarea de control scad. De la începutul erorii de formare de re-educare continuă să scadă, iar eroarea de control (de obicei, de culoare roșie) începe să crească. Eroare de paritate de creștere semnalează începutul și reconversie profesională indică faptul că algoritmul de învățare începe să fie distructive (și, de asemenea, că poate fi mai mică rețea mai adecvată).

Dacă schimbați parametrii de rețea înainte de antrenament, trebuie să resetați greutățile (parametrii configurați) ai rețelei anterioare. Pentru rețeaua MLP, faceți clic pe Reinițializare.

Pachetul STATISTICA Neural Networks asigură memorarea automată a celei mai bune rețele în timpul experimentului. Pentru a restabili cele mai bune valori ale rețelei, accesați meniul Tren → Auxiliar → Cel mai bun rețea.

Pentru a calcula datele utilizând rețeaua, utilizați elementul de meniu Executare: set de date - calcul pentru toate datele din fișierul sursă;

Cazul unic - calculul unei singure observații;

One-off - calcul pentru un vector de intrare arbitrar.

Calculul se face făcând clic pe butonul Executare al ferestrei corespunzătoare.

Începe, la fel ca în cazul precedent, dar numai valorile efective de ieșire sunt afișate în tabele.

Deschideți meniul Run → One-off. introduceți valorile de intrare pentru care doriți să anticipați ieșirea, faceți clic pe Executare.

Pachetul STATISTICA Neural Networks oferă posibilitatea de a determina automat structura celei mai bune rețele pentru un set de date de antrenament (funcția este disponibilă prin File → New → Intelleigent Problem Solver).

Algoritmul de funcționare a rețelei în pachetul STATISTICA Neural Networks.

1 Normalizarea datelor de intrare:

unde este coeficientul de normalizare; . valorile maxime și minime ale variabilei j ale eșantionului de formare; i este numărul șirului de eșantion de antrenament.

2 Distribuiți vectorul de intrare în stratul următor cu factorul de ponderare corespunzător (consultați Editare → Rețea ...).

3 Scoateți valoarea pragului pentru fiecare neuron (vezi Editare → Câmpul ... Rețea).

4 Calcularea funcției de activare a neuronilor (vezi Run → Activations ... pentru rezultat).

5 Repetați pașii pentru toate straturile de rețea.

6 Calcularea producției de rețea ținând seama de factorul de normalizare:

. unde - valoarea minimă a variabilei de ieșire a eșantionului de formare, t - numărul variabilei de ieșire, - factorul de normalizare cu variabila de ieșire t. - Valoarea normalizată a ieșirii rețelei calculată pentru ultimul strat.

1 Ce este o rețea neurală și care sunt proprietățile ei principale?

2 Care este structura neuronului?

3 Ce ​​funcții de activare pot fi utilizate în rețelele neuronale?

4 Care sunt cerințele pentru funcțiile de activare?

5 Care sunt funcțiile stratului de intrare într-o rețea multi-strat?

6 Este posibilă formarea unei rețele neuronale fără un strat ascuns?

7 Care este formarea rețelelor neuronale?

8 De ce unul dintre algoritmii de învățare a devenit cunoscut ca "algoritmul de propagare înapoi"?

9 Care este diferența dintre studierea cu un profesor și învățarea fără un profesor?

10 De ce semnalele de intrare și ieșire ale unei rețele neuronale ar trebui normalizate, adică sunt date în intervalul [0,1]?

4 Rozenblatt F. Principiile neurodinamicii. Perceptronii și teoria mecanismelor creierului. -M. Lumea, 1965.

7 Sveshnikov S.V. Shkvar A.M. Sisteme neuro-tehnice de prelucrare a informațiilor. -Kyiv: Naukova Dumka, 1983. -222 p.







Articole similare

Trimiteți-le prietenilor: