시드 고정1 딥러닝에서 왜 시드(seed) 고정할까? 딥러닝에서 열심히 학습을 시키다 보면 "시드 고정하라"라는 말을 들을 때가 있습니다. 가중치의 초기값을 어떻게 주는지에 따라 학습의 성능이 달라진다는 글을 작성했는데요. 그 말은 초기값이 다르면 학습 결과도 다르다는 이야기가 됩니다. 벌써 힌트가 다 나왔는데요. 딥러닝에서 시드를 고정하는 이유는 무엇일까요? 시드 고정이란? 시드(seed) 고정은 가중치 초기값 설정의 랜덤성을 고정(하나의 값으로 설정)한다는 개념입니다. 이는 모델의 재현성, 안정성 및 신뢰성을 보장하는 데 중요한 역할을 합니다. Xavier, He와 같은 알고리즘은 난수 생성으로 초기값을 결정합니다. 이런 가중치의 초기값을 고정하는 기법을 말합니다. 시드를 고정하는 이유는? 1. 재현성 딥러닝 모델 훈련 과정에서 시드(seed) 고정을 .. 2024. 2. 4. 이전 1 다음