Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Você pode fornecer exemplos de outras funções de perda usadas em Gans


Você pode fornecer exemplos de outras funções de perda usadas em Gans


Redes adversárias generativas (GANs) empregam muitas funções de perda além da perda padrão de GaN original, cada uma projetada para enfrentar desafios como instabilidade de treinamento, colapso do modo, gladientes de fuga e problemas de convergência. Abaixo estão os principais exemplos de funções diversificadas, amplamente pesquisadas e praticamente usadas para perda de GaN:

Perda padrão de GaN (perda de min-max)
A perda original de GaN do artigo seminal de 2014 de Goodfellow et al. Formula um jogo mínimo de dois jogadores entre o gerador e o discriminador. O discriminador tenta classificar corretamente dados reais e falsos, maximizando a probabilidade de atribuir rótulos corretos, enquanto o gerador tenta enganar o discriminador, minimizando a probabilidade do discriminador identificar corretamente dados falsos. Isso pode ser escrito como:

- Perda de discriminador: maximizar $$ \ log d (x) + \ log (1 - d (g (z)) $$
- Perda de gerador: minimize $$ \ log (1 - d (g (z))) $$

No entanto, essa perda geralmente sofre de saturação do gerador, onde o gerador recebe gradientes de fuga e para de melhorar durante o treinamento.

Perda de Gane não saturadora
Uma variante comum que melhora a estabilidade do treinamento ajusta o objetivo do gerador de maximizar $$ \ log d (g (z)) $$ em vez de minimizar $$ \ log (1 - d (g (z))) $$. Essa alternativa evita a saturação do gerador, fornecendo gradientes mais fortes no início do treinamento. Ele atualiza o gerador como maximizando a probabilidade de rotulagem do discriminador de rotular as amostras geradas como reais.

Wasserstein Gan Loss
A perda de Wasserstein, introduzida em 2017, substitui o discriminador de classificação binária padrão por um "crítico" que obtém amostras em uma escala contínua, em vez de classificá -las como reais ou falsas. A perda é baseada na distância da mira da terra (Wasserstein-1) entre as distribuições reais e geradas, o que fornece gradientes mais suaves e mitiga o colapso do modo e os gradientes de desaparecimento. A camada de saída do discriminador é alterada da ativação sigmóide para linear, e o corte de peso ou a penalidade de gradiente é introduzido para aplicar a continuidade de Lipschitz:

- Perda de crítica: maximize $$ \ mathbb {e} _ {x \ sim p_ {data> [d (x)] - \ mathbb {e} _ {z \ sim p_z} [d (g (z)] $$
- Perda de gerador: minimize $$ \ mathbb {e} _ {z \ sim p_z} [d (g (z)]] $$

Essa função de perda tornou -se um padrão para um treinamento mais estável de GaN.

PARA PENLIMENTO PERDA GAN
Proposta em 2016, essa perda substitui a perda binária de entropia cruzada pela perda de mínimos quadrados para penalizar amostras que estão longe do limite de decisão mais fortemente. O discriminador tenta regredir amostras reais para 1 e falsificar amostras para 0 usando o erro médio ao quadrado, enquanto o gerador tenta gerar amostras cujas previsões estão próximas de 1. Isso reduz os gradientes de fuga e melhora a qualidade do gradiente, ajudando o gerador a aprender melhor:

- Perda de discriminador: minimize $$ (d (x) - 1)^2 + (d (g (z))^2 $$
- Perda de gerador: minimize $$ (d (g (z)) - 1)^2 $$

Essa abordagem geralmente produz imagens de maior qualidade e treinamento mais estável.

Perda de dobradiça
A perda de dobradiça é outra variante de perda adversária que trata o treinamento do discriminador como um problema de classificação baseado em margem, em vez de probabilístico. O discriminador é treinado para maximizar a perda de dobradiça, empurrando amostras reais acima de uma margem e amostras falsas abaixo dela, enquanto o gerador tenta maximizar as pontuações do discriminador para amostras geradas. Formalmente:

- Perda de discriminador: $$ \ max (0, 1 - d (x)) + \ max (0, 1 + d (g (z))) $$
- Perda de gerador: $$- D (g (z)) $$

A perda de dobradiças tem sido usada em arquiteturas populares de GAN de alta qualidade, como o Biggan para promover um melhor fluxo e estabilidade de gradientes.

Penalidade de gradiente de Wasserstein (WGAN-GP)
Uma melhoria no Wasserstein Gan que substitui o corte de peso por uma penalidade de gradiente para fazer cumprir a restrição de Lipschitz com mais eficácia. A penalidade de gradiente acrescenta um termo de regularização que penaliza a norma do gradiente discriminador que se desvia de 1 em amostras interpoladas entre real e falsidade. Isso aumenta a estabilidade e o treinamento de convergência.

- Perda o mesmo que wgan plus $$ \ lambda \ mathbb {e} _ {\ hat {x> [(\ | \ nabla _ {\ hat {x> d (\ hat {x}) \ | _2 - 1)^2] $.
Aqui $$ \ hat {x} $$ são amostras interpoladas entre dados reais e gerados.

Perda de gan relativista
Essa perda compara as saídas discriminadoras em amostras reais e falsas de maneira relativística, em vez de probabilidades absolutas. O discriminador prevê se dados reais são mais realistas do que dados falsos, e o gerador treina de acordo, o que pode levar a melhores gradientes e menos colapso do modo.

- Discriminador tenta maximizar $$ \ log \ sigma (d (x) - d (g (z)) $$ onde $$ \ sigma $$ é sigmoid
- O gerador tenta maximizar $$ \ log \ sigma (d (g (z)) - d (x)) $$

Essa perspectiva relativa empurra o gerador e o discriminador a avaliar amostras entre si mais diretamente.

Perda ganética
Recentemente desenvolvido por meio de uma abordagem de programação genética para o design ideal de perdas, a perda ganética mostra desempenho e estabilidade superiores em diversos conjuntos de dados, incluindo imagens médicas. A perda ganética integra elementos de entropia cruzada binária com auto-regularização, melhorando a reprodutibilidade do treinamento e reduzindo o colapso do modo. Foi aplicado efetivamente para geração de imagens e detecção de anomalias em imagens médicas, superando as funções tradicionais de perda em estabilidade e qualidade. A perda pode ser adaptada para regimes de treinamento de gerador e discriminador para obter melhores resultados.

Perda de equilíbrio de fronteira (começou) perda
Essa perda equilibra o gerador e o discriminador por meio de um termo de equilíbrio que mede a proporção de perdas de reconstrução em um discriminador de autoencoder. O iniciado usa uma função de perda com base no erro de reconstrução do discriminador, promovendo a geração de imagens de qualidade por meio de um processo de busca de equilíbrio entre o gerador e a potência do discriminador.

- Perda de discriminador com base no erro de reconstrução do autoencoder para amostras reais e falsas
- Gerador tenta minimizar o erro de reconstrução do discriminador de amostras falsas

O começo melhora a estabilidade do treinamento com um parâmetro de troca controlado.

Dragan perda
Uma variação destinada a melhorar o GaN original, modificando a penalidade de gradiente a ser aplicada apenas em torno do coletor de dados, chamado Dragan (regularização do discriminador com penalidade de gradiente). Ele penaliza os gradientes de discriminadores em torno de dados reais perturbados com ruído para incentivar limites de decisão mais suaves e reduzir o colapso do modo.

- Perda semelhante ao WGAN-GP, mas com a penalidade de gradiente local em torno de pontos de dados reais perturbados.

Recursos de correspondência
Em vez de usar diretamente a saída do discriminador para perda, o gerador é treinado para corresponder aos recursos intermediários extraídos de amostras reais e geradas pelo discriminador. Isso leva a um treinamento mais estável e reduz o colapso do modo, incentivando o gerador a capturar estatísticas de ordem superior.

- Perda de gerador: minimize $$ \ | \ text {recursos} (x) - \ text {características} (g (z)) \ | $$ onde os recursos são extraídos em alguma camada do discriminador.

Modo buscando perda
Essa perda incentiva a diversidade nas saídas geradas, penalizando explicitamente o colapso do modo. Ele compara distâncias no espaço latente e no espaço de imagem entre pares de amostras geradas, promovendo o gerador para produzir amostras mais diversas.

- A perda do gerador inclui o termo que maximiza a distância no espaço de saída em relação à distância no espaço latente entre os pares de amostras.

Características de correspondência e perdas perceptivas
Essas perdas combinam perda adversária com perdas perceptivas ou baseadas em recursos adicionais calculadas usando redes pré-treinadas (por exemplo, redes VGG). Tais perdas aplicam que geraram imagens não apenas enganam o discriminador, mas também correspondem aos recursos perceptivos de imagens reais, levando a saídas mais nítidas e mais realistas.

- O gerador minimiza a soma ponderada de perda adversária e termos de perda perceptiva/de correspondência.

Desvios absolutos menos absolutos (L1) e mínimos quadrados (L2) perdas em gans condicional
Em Gans condicionais usados ​​para tarefas de tradução de imagem, perdas adicionais de L1 ou L2 entre imagens de verdade gerada e fundamental são incorporadas juntamente com perdas adversárias. Essas perdas incentivam a precisão do nível de pixel e reduzem os artefatos nas saídas.

- Perda de gerador = perda adversária + $$ \ lambda \ | G (z) - x \ | _1 $$ ou $$ \ lambda \ | G (z) - x \ | _2^2 $$ onde $$ x $$ é a imagem de destino.

Perda média relativística de GaN (Ragan)
Uma extensão do GaN relativista, Ragan usa a saída média do discriminador para imagens reais e falsas para estabilizar o treinamento, fornecendo uma comparação mais global do que em termos de amostra. Essa abordagem ajuda a reduzir a excesso de confiança nas previsões do discriminador e melhora o fluxo do gradiente.

- A perda envolve diferenças de saída do discriminador entre uma amostra e a produção média nas classes opostas.

Perda de variação total
Frequentemente combinado com a perda adversária para incentivar a suavidade espacial e reduzir o ruído, a perda de variação total penaliza as mudanças rápidas de intensidade nas imagens geradas, melhorando a qualidade visual.

- O gerador minimiza a norma total de variação das imagens geradas, juntamente com a perda adversária.

Perda de GaN de auto-atenção
Incorpora mecanismos de auto-atendimento nas arquiteturas discriminadoras e geradoras, modificando as funções de perda para refletir os recursos ponderados pela atenção para capturar dependências de longo alcance, o que ajuda a geração de imagens detalhadas e coerentes.

- As perdas permanecem como em GANs padrão, mas com redes aumentadas de auto-ataque.

Perda de limite para Gans de segmentação
Em Gans de segmentação, as funções de perda podem incluir penalidades com consciência de limites para melhorar a precisão perto das bordas do objeto, combinando perda adversária com termos de limite/arestão.

- A perda de gerador inclui objetivos de correspondência de limites, juntamente com os componentes adversários tradicionais.

Perda contrastiva em Gans
Algumas variantes de GaN incorporam componentes de perda contrastiva que visam aprender melhores incorporação de recursos, aproximando amostras semelhantes e afastando amostras diferentes, aprimorando o aprendizado de representação nas estruturas GaN.

- Perda contrastiva adicionada aos objetivos do gerador ou discriminador para melhorar a qualidade dos recursos.

Perda de GaN baseada em energia
Os Gans baseados em energia formulam o discriminador como uma função energética que atribui baixa energia a dados reais e alta energia a dados falsos. A perda de treinamento otimiza o cenário energético, em vez de probabilidades explícitas de classificação, o que pode levar a um treinamento mais estável.

- Energia discriminadora minimizada para amostras reais, maximizada para amostras falsas; O gerador otimiza para reduzir a energia em amostras geradas.

Esses exemplos ilustram a rica diversidade de funções de perda desenvolvidas para melhorar a estabilidade do treinamento de Gans, o desempenho e os resultados específicos de aplicativos. Cada função de perda tem como alvo desafios ou características específicas das distribuições de dados, com muitas arquiteturas GAN modernas geralmente combinando vários termos de perda para obter melhores resultados. A evolução contínua dessas funções de perda reflete os avanços contínuos na pesquisa de aprendizado adversário.