Viktklippning i WGAN kan leda till flera problem:
1. Försvinnande gradienter: När klippfönstret är för stort kan det leda till försvinnande gradienter, vilket kan göra att modellen misslyckas med att konvergera eller träna långsamt[1][2][4].
2. Långsam konvergens: När klippfönstret är för litet kan det leda till långsam konvergens, vilket kan göra att modellen tar lång tid att träna[1][2][4].
3. Pathological Value Surfaces: Viktklippning kan resultera i patologiska värdeytor för kritikern, vilket kan leda till suboptimala prestanda[2].
4. Kapacitetsunderanvändning: Implementering av en k-Lipshitz-begränsning via viktklippning fördomar kritiken mot mycket enklare funktioner, vilket kan leda till underutnyttjande av modellens kapacitet[2].
5. Instabil träning: Viktklippning kan leda till instabil träning, speciellt när modellen är djup eller har ett stort antal lager[1][2][4].
6. Träningssvårigheter: Viktklippning kan göra det svårt att träna modellen, speciellt när modellen är komplex eller har många lager[1][2][4].
7. Brist på robusthet: Viktklippning kan göra modellen mindre robust mot förändringar i datadistributionen eller modellarkitekturen[1][2][4].
Dessa problem kan mildras genom att använda alternativa metoder som gradientstraff, vilket är mer effektivt för att upprätthålla Lipschitz-begränsningen och förbättra träningsstabiliteten för WGAN:er[1][2][3][4].
Citat:
[1] https://www.cs.toronto.edu/~bonner/courses/2022s/csc2547/papers/adversarial/background/improved-training-of-WGANs,-gulrajani,-nips2017.pdf
[2] https://proceedings.neurips.cc/paper_files/paper/2017/file/892c3b1c6dccd52936e27cbd0ff683d6-Paper.pdf
[3] https://ceur-ws.org/Vol-2563/aics_34.pdf
[4] https://blog.paperspace.com/wgans/
[5] https://stackoverflow.com/questions/58723838/if-we-can-clip-gradient-in-wgan-why-bother-with-wgan-gp
hur jämför gradient penalty med viktklippning när det gäller träningsstabilitet
Gradientstraffet i Wasserstein GAN (WGAN) erbjuder flera fördelar jämfört med viktminskning när det gäller träningsstabilitet:
1. Kapacitetsunderanvändning: Viktklippning kan leda till underutnyttjande av kapaciteten, där kritikern lär sig mycket enkla funktioner på grund av den hårda begränsningen på Lipschitz-konstanten. Gradientstraffet, å andra sidan, tillåter kritikern att lära sig mer komplexa funktioner samtidigt som den uppfyller Lipschitz-begränsningen.
2. Exploderande och försvinnande gradienter: Samspelet mellan viktbegränsningen och förlustfunktionen i viktklippning kan leda till exploderande eller försvinnande gradienter, vilket gör träningsprocessen instabil. Gradientstraffet lider inte av denna fråga.
3. Pathological Value Surfaces: Viktklippning kan resultera i patologiska värdeytor för kritikern, vilket kan leda till suboptimala prestanda. Gradientstraffet uppvisar inte detta beteende.
4. Robusthet: Gradientstraffet är mer robust för arkitektoniska val och hyperparameterjustering jämfört med viktklippning, vilket gör det lättare att träna WGAN.
5. Förbättrad konvergens: Gradientstraffet kan leda till snabbare konvergens och bättre provkvalitet jämfört med viktklippning, som visas i det ursprungliga WGAN-GP-papperet.
Sammanfattningsvis ger gradientstraffet ett mer stabilt och effektivt sätt att upprätthålla Lipschitz-begränsningen i WGAN, vilket leder till förbättrad träningsstabilitet, konvergens och provkvalitet jämfört med viktklippning. Gradientstraffet tar itu med nyckelproblemen i samband med viktklippning, vilket gör det till den föredragna metoden för att träna WGAN.
Citat:[1] https://www.cs.toronto.edu/~bonner/courses/2022s/csc2547/papers/adversarial/background/improved-training-of-WGANs,-gulrajani,-nips2017.pdf
[2] https://proceedings.neurips.cc/paper_files/paper/2017/file/892c3b1c6dccd52936e27cbd0ff683d6-Paper.pdf
[3] https://towardsdatascience.com/demystified-wasserstein-gan-with-gradient-penalty-ba5e9b905ead
[4] https://stackoverflow.com/questions/58723838/if-we-can-clip-gradient-in-wgan-why-bother-with-wgan-gp
[5] https://datascience.stackexchange.com/questions/31077/wgan-is-too-slow-what-are-some-ways-to-tweak-for-speed-ups