The paper characterizes classes of functions for which deep learning can be exponentially better than shallow learning. Deep convolutional networks are a special case of these conditions, though weight sharing is not the main reason for their exponential advantage.
Titolo: | Why and When Can Deep – but Not Shallow – Networks Avoid the Curse of Dimensionality: a Review |
Autori: | |
Data di pubblicazione: | 2017 |
Rivista: | |
Handle: | http://hdl.handle.net/11567/888631 |
Appare nelle tipologie: | 01.01 - Articolo su rivista |
File in questo prodotto:
File | Descrizione | Tipologia | |
---|---|---|---|
Why and When Can Deep – but Not Shallow – Networks Avoid the Curse of Dimensionality a Review.pdf | Documento in Post-print | Open Access Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.