The paper characterizes classes of functions for which deep learning can be exponentially better than shallow learning. Deep convolutional networks are a special case of these conditions, though weight sharing is not the main reason for their exponential advantage.
Titolo: | Theory I: Why and When Can Deep Networks Avoid the Curse of Dimensionality? | |
Autori: | ||
Data di pubblicazione: | 2016 | |
Handle: | http://hdl.handle.net/11567/888629 | |
Appare nelle tipologie: | 07.12 - Altro |
File in questo prodotto:
File | Descrizione | Tipologia | |
---|---|---|---|
Theory I Why and When Can Deep Networks Avoid the Curse of Dimensionality.pdf | Documento in versione editoriale | Open Access Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.