판별자는 정확도를 최대화 시키는 방향으로 학습 진행
진짜 데이터들의 판별 확률 로그값과 가짜 데이터들의 반전 판별 확률 로그값을 최대화 하는 방향으로 학습
해당 함수에 -1을 곱해 나오는 값을 최소화 하도록
→ $\text{minimize }-(\log D(x) + \log(1 - D(G(z))))$
생성자는 정확도를 최소화 시키도록 진행
가짜 데이터들의 반전 판별 확률 로그값을 최소화 하는 방향으로 학습
→ $\text {minimize } \log(1 - D(G(z)))$
학습 초기에 G가 불량한 경우 D는 학습 데이터와 분명히 달라짐
= 가짜 데이터를 판별할 확률이 높아짐
= 손실 함수의 포화를 유발
= 학습하기에 충분한 기울기를 제공할 수 없음
→ 따라서 비포화 손실함수를 사용