LSTM Learning

여러 카테고리의 데이터를 기반으로 LSTM 모델을 학습 할 수 있습니다.
Download Data
LSTM Learning

epochs란?
• epochs 반복 학습 횟수(값이 크면 오래 학습하지만 과적합 위험)
• 예를 들어, 학습 데이터가 1,000개 있고 epochs=10이면, 이 1,000개의 데이터를 총 10번 반복해서 학습

batchSize란?
• 데이터를 batchSize개씩 묶어서 학습(배치 크기가 작을수록 학습이 세밀해지지만 시간이 오래걸림)
• 예를 들어, batchSize = 32이면, 한 번의 학습에서 32개의 데이터를 사용함.

validationSplit란?
• 전체 학습 데이터 중에서 일부를 검증(validation)용 데이터로 나누는 비율을 의미
• 모델을 학습시킬 때, **과적합(overfitting)**을 방지하기 위해 훈련 중간에 성능을 평가하는 용도로 사용

seqLen란?
• LSTM 모델에 입력으로 넣을 "과거 시점의 데이터 길이", 즉 몇 일치의 데이터를 기반으로 예측할지를 결정하는 값
• seqLen이 너무 작으면 → 과거 정보를 충분히 반영하지 못함 → 예측 정확도 낮음
• seqLen이 너무 크면 → 너무 오래된 정보까지 학습해서 모델이 과적합 되거나 불필요한 패턴까지 학습할 수 있음

predDays란?
• LSTM 모델이 예측할 미래의 시점을 결정하는 값
• pred_days = 1 → 입력된 데이터 이후 1일 뒤의 값을 예측
• pred_days = 3 → 입력된 데이터 이후 3일 뒤의 값을 예측

학습 진행 상황
pygwalker 그래프

학습이 완료된후에 표출됩니다.

결과 그래프

학습이 완료된후에 표출됩니다.