Kas vainas ar aizmuguri?

Kas vainas ar aizmuguri?
Kas vainas ar aizmuguri?
Anonim

Īsi sakot, jūs nevar veikt atpakaļpavairošanu, ja jums nav mērķa funkcijas. Jums nevar būt mērķa funkcija, ja jums nav mēra starp prognozēto vērtību un iezīmēto (faktisko vai apmācības datu) vērtību. Tātad, lai sasniegtu "nepārraudzītu mācīšanos", iespējams, jums ir jāatsakās no gradienta aprēķināšanas iespējas.

Kādi ir aizmugures izplatīšanās ierobežojumi?

Atpakaļ izplatīšanās algoritma trūkumi:

Tas paļaujas uz ievadi, lai veiktu konkrētu problēmu. Jutīgs pret sarežģītiem/trokšņainiem datiem. Tam ir nepieciešami aktivizēšanas funkciju atvasinājumi tīkla projektēšanas laikam.

Kā labot atpakaļizplatīšanu?

Atpakaļpavairošanas process dziļajā neironu tīklā

  1. Ievadiet vērtības. X1=0,05. …
  2. Sākotnējais svars. W1=0,15 w5=0,40. …
  3. Aizvirzītās vērtības. b1=0,35 b2=0,60.
  4. Mērķa vērtības. T1=0,01. …
  5. Forward Pass. Lai atrastu H1 vērtību, mēs vispirms reizinim ievades vērtību no svariem kā. …
  6. Atpakaļpāreja izvades slānī. …
  7. Paslēptā slāņa pāreja atpakaļgaitā.

Vai atpakaļpavairošana ir efektīva?

Atpakaļpavairošana ir efektīva, kas ļauj apmācīt daudzslāņu tīklus, kas satur daudzus neironus, vienlaikus atjauninot svarus, lai samazinātu zaudējumus.

Kādu problēmu atrisina atpakaļpavairošana, strādājot ar neironu tīkliem?

Ievietojot neironu tīklu, atpakaļpavairošana aprēķina gradientuzaudēšanas funkcija attiecībā uz tīkla svariem vienam ievades-izejas piemēram, un tas tiek darīts efektīvi, atšķirībā no naivas tiešas gradienta aprēķina attiecībā uz katru svaru atsevišķi.

Ieteicams: