GANS (Generative Adversarial Networks)는 원래 표준 GAN 손실을 넘어 많은 손실 기능을 사용하며, 각각 교육 불안정성, 모드 붕괴, 사라지는 그라디언트 및 수렴 문제와 같은 문제를 해결하도록 설계되었습니다. 다음은 다양하고 널리 연구되고 실질적으로 사용되는 GAN 손실 기능의 주요 예입니다.
표준 간 손실 (Min-Max 손실)
Goodfellow et al. 발전기와 식별기 사이의 2 인 미니 맥스 게임을 공식화합니다. 판별자는 올바른 레이블을 할당 할 가능성을 최대화하여 실제 및 가짜 데이터를 올바르게 분류하려고 시도하는 반면, 발전기는 가짜 데이터를 올바르게 식별하는 판별 자의 가능성을 최소화함으로써 판별자를 속이려고합니다. 이것은 다음과 같이 쓸 수 있습니다.
- 판별 자 손실 : $$ \ log d (x) + \ log (1 -d (g (z))) $$ 최대화
- 생성기 손실 : $$ \ log (1 -d (g (z))) $$를 최소화합니다
그러나,이 손실은 종종 생성기 포화로 고통을 겪고 있으며, 여기서 발전기는 사라지는 그라디언트를 받고 훈련 중에 개선을 중단합니다.
비포화 간 손실
훈련 안정성을 향상시키는 일반적인 변형은 $$ \ log (1 -d (g (z))) $$를 최소화하는 대신 $$ \ log d (g (z)) $$를 대신 최대화하기 위해 발전기의 목표를 조정합니다. 이 대안은 훈련 초기에 더 강력한 그라디언트를 제공하여 생성기 포화를 피합니다. 그것은 생성 된 샘플을 실제로 표시 할 가능성을 최대화하는 것으로 발전기를 재구성합니다.
Wasserstein 간 손실
2017 년에 소개 된 Wasserstein 손실은 표준 바이너리 분류 판별자를 실제 또는 가짜로 분류하는 대신 연속 척도로 샘플을 점수를 매기는 "비평가"로 대체합니다. 손실은 실제 분포와 생성 된 분포 사이의 지구 무버 (Wasserstein-1) 거리를 기반으로하며, 이는 더 부드러운 그라디언트를 제공하고 모드 붕괴 및 사라지는 그라디언트를 제공합니다. 판별기 출력 층은 Sigmoid 활성화에서 선형으로 변경되었으며 Lipschitz 연속성을 시행하기 위해 중량 클리핑 또는 그라디언트 페널티가 도입됩니다.
- 비평가 손실 : $$ \ mathbb {e} _ {x \ sim p_ {data> [d (x)] - \ mathbb {e} _ {z \ sim p_z} [d (g (z))] $$
- 생성기 손실 : $$ \ mathbb {e} _ {z \ sim p_z} [d (g (z))] $$
이 손실 기능은보다 안정적인 GAN 훈련의 표준이되었습니다.
최소 제곱은 간 손실
2016 년에 제안 된이 손실은 바이너리 크로스-엔트로피 손실을 최소 제곱 손실로 대체하여 결정 경계와는 거리가 멀어 샘플을 더 크게 대체합니다. 식별기는 평균 제곱 오차를 사용하여 실제 샘플을 1로, 가짜 샘플을 0으로 회귀하려고 시도하는 반면, 발전기는 예측이 1에 가까운 샘플을 생성하려고 시도합니다. 이로 인해 사라지는 그라디언트가 줄어들고 그라디언트 품질을 향상시켜 발전기가 더 잘 배우도록 도와줍니다.
- 판별 자 손실 : $$ (d (x) -1)^2 + (d (g (z))^2 $$
- 생성기 손실 : $$ (d (g (z)) -1)^2 $$를 최소화합니다
이 접근법은 종종 더 높은 품질의 이미지와보다 안정적인 훈련을 산출합니다.
힌지 손실
힌지 손실은 차별자 훈련을 확률 적 문제보다는 마진 기반 분류 문제로 취급하는 또 다른 대적 손실 변형입니다. 판별자는 힌지 손실을 최대화하도록 훈련되어 실제 샘플을 마진 아래의 마진과 가짜 샘플 위로 밀고 발전기는 생성 된 샘플의 판별 자 점수를 최대화하려고합니다. 공식적으로 :
- 판별 자 손실 : $$ \ max (0, 1 -d (x)) + \ max (0, 1 + d (g (z)) $$
- 생성기 손실 : $$ -d (g (z)) $$
힌지 손실은 더 나은 구배 흐름과 안정성을 촉진하기 위해 Biggan과 같은 대중적인 고품질 GAN 아키텍처에서 사용되었습니다.
Wasserstein 그라디언트 페널티 (WGAN-GP)
중량 클리핑을 구배 페널티로 대체하여 Lipschitz 제약 조건을보다 효과적으로 시행하는 Wasserstein Gan의 개선. 그라디언트 페널티는 실제와 가짜 사이의 보간 된 샘플에 대해 1에서 벗어난 차별자 그라디언트의 표준을 처벌하는 정규화 용어를 추가합니다. 이것은 안정성과 훈련 수렴을 향상시킵니다.
-WGAN + $$ \ lambda \ mathbb {e} _ {\ hat {x> [(\ | \ \ \ \ nabla _ {\ hat {x> d (\ hat {x}) \ | _2-1)^2] $$ Gradient Canalty
여기 $$ \ Hat {x} $$는 실제 데이터와 생성 된 데이터 사이에 보간 된 샘플입니다.
상대 론적 간 손실
이 손실은 실제 및 가짜 샘플의 판별 자 출력을 절대 확률보다는 상대적인 방식으로 비교합니다. 판별자는 실제 데이터가 가짜 데이터보다 현실적인지 여부를 예측하고 그에 따른 발전기는 그에 따라 더 나은 그라디언트와 모드 붕괴가 줄어들 수 있습니다.
- 판별자는 $$ \ log \ sigma (d (x) -d (g (z))) $$를 최대화하려고합니다. $$ \ sigma $$는 sigmoid입니다.
- 생성기는 $$ \ log \ sigma (d (g (z)) -d (x)) $$를 최대화하려고합니다
이 상대적 관점은 생성기와 식별기가 서로보다 직접적으로 샘플을 평가하도록 밀어냅니다.
가연성 손실
최근 최적의 손실 설계에 대한 유전자 프로그래밍 방식을 통해 개발 된 Ganetic Loss는 의료 이미지를 포함한 다양한 데이터 세트에서 우수한 성능과 안정성을 보여줍니다. Ganetic Loss는 이진 교차 엔트로피의 요소를 자체 규제와 통합하여 훈련 재현성을 향상시키고 모드 붕괴를 줄입니다. 의료 영상의 이미지 생성 및 이상 탐지에 효과적으로 적용되어 안정성과 품질의 전통적인 손실 기능을 능가했습니다. 손실은 개선 된 결과를 위해 발전기 및 식별기 훈련 체제 모두에 적합 할 수 있습니다.
경계 평형 GAN (시작) 손실
이 손실은 자동 인코더 판별기에서 재구성 손실의 비율을 측정하는 평형 항을 통해 발전기와 판별기의 균형을 유지합니다. 시작은 판별 자의 재구성 오류에 따른 손실 함수를 사용하여 발전기와 판별 자 전력 사이의 평형 추구 프로세스를 통해 품질 이미지 생성을 촉진합니다.
- 실제 및 가짜 샘플의 자동 인코더 재구성 오류에 따른 판별기 손실
- 발전기가 가짜 샘플의 판별 자의 재건 오류를 최소화하려고합니다.
관리 된 트레이드 오프 매개 변수로 훈련 안정성을 향상 시켰습니다.
Dragan 손실
Dragan (Gradient 페널티를 사용한 판별 자 정규화)이라는 데이터 매니 폴드 주변에서만 적용 할 구배 페널티를 수정하여 원래 GAN을 개선하기위한 변형. 소음으로 인해 실제 데이터 주변의 차별자 그라디언트에 더 부드러운 의사 결정 경계를 장려하고 모드 붕괴를 줄입니다.
- WGAN-GP와 유사하지만 실제 데이터 포인트에 대한 지역 기울기 페널티가있는 손실.
기능 일치 손실
손실을 위해 판별기 출력을 직접 사용하는 대신, 발전기는 판별기에 의해 실제 및 생성 된 샘플에서 추출한 중간 기능과 일치하도록 훈련됩니다. 이로 인해 발전기가 고차 통계를 캡처하도록 장려함으로써보다 안정적인 훈련으로 이어지고 모드 붕괴가 줄어 듭니다.
- 생성기 손실 : $$ \ |를 최소화합니다 \ text {feactions} (x) - \ text {feactions} (g (z)) \ | $$ 여기서 판별 자의 일부 레이어에서 기능이 추출됩니다.
모드 추구 손실
이 손실은 모드 붕괴를 명시 적으로 벌칙하여 생성 된 출력의 다양성을 장려합니다. 그것은 잠복 공간의 거리와 생성 된 샘플 쌍 사이의 이미지 공간을 비교하여 발전기를 홍보하여보다 다양한 샘플을 생성합니다.
- 발전기 손실에는 샘플 쌍의 잠재 공간에서의 거리에 비해 출력 공간의 거리를 최대화하는 용어가 포함됩니다.
기능 일치 및 지각 손실
이러한 손실은 사전 상환 네트워크 (예 : VGG 네트워크)를 사용하여 계산 된 추가 지각 또는 기능 기반 손실과 적대적인 손실을 결합합니다. 이러한 손실은 이미지를 생성 한 이미지를 속일뿐만 아니라 실제 이미지의 지각 적 특징과 일치하여 더 선명하고 현실적인 출력으로 이어집니다.
- 발전기는 가중치의 적대적 손실 및 지각/기능 일치 손실 항을 최소화합니다.
최소 절대 편차 (L1) 및 최소 제곱 (L2) 조건부 간 인의 손실
이미지 번역 작업에 사용되는 조건부 간산에서 생성 된 L1 또는 L2 손실과 지상 진실 이미지 사이의 추가 L1 또는 L2 손실이 적대적 손실과 함께 통합됩니다. 이러한 손실은 픽셀 수준의 정확도를 장려하고 출력의 아티팩트를 줄입니다.
- 생성기 손실 = 적대적 손실 + $$ \ lambda \ | g (z) -x \ | _1 $$ 또는 $$ \ lambda \ | g (z) -x \ | _2^2 $$ 여기서 $$ x $$는 대상 이미지입니다.
상대 론적 평균 간 (라간) 손실
상대 론적 간의 연장 인 Ragan은 실제 및 가짜 이미지의 평균 판별 자 출력을 사용하여 샘플 측면보다는보다 전 세계적으로 비교를 제공함으로써 훈련을 안정화시킵니다. 이 접근법은 식별기 예측의 과신을 줄이고 구배 흐름을 향상시키는 데 도움이됩니다.
- 손실은 반대 클래스에서 샘플과 평균 출력 사이의 차별기 출력 차이를 포함합니다.
총 변화 손실
공간 부드러움을 장려하고 소음을 줄이기 위해 적대적 손실과 결합하여 총 변화 손실은 생성 된 이미지의 빠른 강도 변화를 불 태워 시각적 품질을 향상시킵니다.
- 발전기는 적대적 손실과 함께 생성 된 이미지의 총 변동 표준을 최소화합니다.
자기 변환 간 손실
차별기 및 발전기 아키텍처에 자체 변환 메커니즘을 통합하여 손실 기능을 수정하여주의 가중 기능을 반영하여 장거리 종속성을 캡처하여 상세하고 일관된 이미지를 생성하는 데 도움이됩니다.
- 손실은 표준 GAN에서와 같이 유지되지만 자체 변환 강화 네트워크는 남아 있습니다.
세분화 간 GANS의 경계 손실
세분화 GAN에서, 손실 함수는 객체 가장자리 근처의 정확도를 향상시키기위한 경계 인식 처벌을 포함하여 대적 손실을 경계/가장자리 인식 항을 결합 할 수 있습니다.
- 발전기 손실에는 경계 일치 목표와 전통적인 대적 구성 요소가 포함됩니다.
간스의 대조적 손실
일부 GAN 변형은 유사한 샘플을 더 가깝게 가져 와서 다른 샘플을 넓히고 GAN 프레임 워크 내에서 표현 학습을 향상시켜 더 나은 기능 임베딩을 배우는 대조적 인 손실 구성 요소를 통합합니다.
- 기능 품질을 향상시키기 위해 발전기 또는 식별기 목표에 추가 된 대비 손실.
에너지 기반 간 손실
에너지 기반 GANS는 실제 데이터에 낮은 에너지를 할당하고 가짜 데이터에 높은 에너지를 할당하는 에너지 기능으로 판별자를 공식화합니다. 훈련 손실은 명시 적 분류 확률보다는 에너지 환경을 최적화하여보다 안정적인 훈련으로 이어질 수 있습니다.
- 가짜 샘플에 대해 최대화 된 실제 샘플에 대해 최소화 된 판별기 에너지; 발전기는 생성 된 샘플에서 에너지를 줄이기 위해 최적화합니다.
이 예는 GANS의 훈련 안정성, 성능 및 응용 프로그램 별 결과를 향상시키기 위해 개발 된 다양한 손실 기능을 보여줍니다. 각 손실 함수는 데이터 분포의 특정 과제 또는 특성을 목표로하며, 많은 현대 GAN 아키텍처는 종종 최상의 결과를 위해 여러 손실 항을 결합합니다. 이러한 손실 기능의 지속적인 진화는 적대 학습 연구의 지속적인 발전을 반영합니다.