Skip to content

Navigation Menu

Sign in
Appearance settings

Search code, repositories, users, issues, pull requests...

Provide feedback

We read every piece of feedback, and take your input very seriously.

Saved searches

Use saved searches to filter your results more quickly

Sign up
Appearance settings

ClustProject/KUDataForecasting

Repository files navigation

KUDataForecasting

  • 원본 시계열 데이터를 입력으로 받아 미래 데이터 값을 예측하는 time series forecasting 대한 설명
  • 입력 데이터 형태 : 단변량 시계열 데이터(univariate time-series data)

Time series forecasting 사용 시, 설정해야하는 값

  • model : [‘lstm’, ‘gru’, ‘informer’, ‘scinet’] 중 선택

  • best_model_path : 학습 완료된 모델을 저장할 경로

  • 시계열 forecasting 모델 hyperparameter : 아래에 자세히 설명.

    • LSTM hyperparameter
    • GRU hyperparameter
    • Informer hyperparameter
    • SCINet hyperparameter

시계열 forecasting 모델 hyperparameter

1. LSTM

  • input_size : 데이터 변수 개수, int
  • window_size : input sequence의 길이, int
  • forecast_step : 예측할 미래 시점의 길이, int
  • num_layers : recurrent layers의 수, int(default: 2, 범위: 1 이상)
  • hidden_size : Hidden state의 차원, int(default: 64, 범위: 1 이상)
  • dropout : dropout 확률, float(default: 0.1, 범위: 0 이상 1 이하)
  • bidirectional : 모델의 양방향성 여부, bool(default: True)
  • num_epochs : 학습 epoch 횟수, int(default: 150, 범위: 1 이상)
  • batch_size : batch 크기, int(default: 64, 범위: 1 이상, 컴퓨터 사양에 적합하게 설정)
  • lr : learning rate, float(default: 0.0001, 범위: 0.1 이하)
  • device : 학습 환경, (default: 'cuda', ['cuda', 'cpu'] 중 선택)

2. GRU

  • input_size : 데이터 변수 개수, int
  • window_size : input sequence의 길이, int
  • forecast_step : 예측할 미래 시점의 길이, int
  • num_layers : recurrent layers의 수, int(default: 2, 범위: 1 이상)
  • hidden_size : hidden state의 차원, int(default: 64, 범위: 1 이상)
  • dropout : dropout 확률, float(default: 0.1, 범위: 0 이상 1 이하)
  • bidirectional : 모델의 양방향성 여부, bool(default: True)
  • num_epochs : 학습 epoch 횟수, int(default: 150, 범위: 1 이상)
  • batch_size : batch 크기, int(default: 64, 범위: 1 이상, 컴퓨터 사양에 적합하게 설정)
  • lr : learning rate, float(default: 0.0001, 범위: 0.1 이하)
  • device : 학습 환경, (default: 'cuda', ['cuda', 'cpu'] 중 선택)

3. Informer

  • input_size : 데이터 변수 개수, int
  • window_size : input sequence의 길이, int
  • forecast_step : 예측할 미래 시점의 길이, int
  • label_len : decoder의 start token 길이, int(default: 12, 범위: 1 이상)
  • d_model : 모델의 hidden dimension, int(default: 512, 범위: 1 이상)
  • e_layers : encoder layer 수, int(default: 2, 범위: 1 이상)
  • d_layers : decoder layer 수, int(default: 1, 범위: 1 이상)
  • d_ff : fully connected layer의 hidden dimension, int(default: 2048, 범위: 1 이상)
  • factor : 모델의 ProbSparse Attention factor, int(default: 5)
  • dropout : dropout ratio, int(default: 0.05)
  • attn : 모델의 attention 계산 방식, (default: 'prob', ['prob', 'full'] 중 선택)
  • n_heads : multi-head attention head 수, int(default: 8)
  • embed : time features encoding 방식, (default: 'timeF', ['timeF', 'fixed', 'learned'] 중 선택)
  • num_epochs : 학습 epoch 횟수, int(default: 150, 범위: 1 이상)
  • batch_size : batch 크기, int(default: 64, 범위: 1 이상, 컴퓨터 사양에 적합하게 설정)
  • lr : learning rate, float(default: 0.0001, 범위: 0.1 이하)
  • lradj : learning rate 조정 방식, (default: 'type1', ['type1', 'type2'] 중 선택)
  • device : 학습 환경, (default: 'cuda', ['cuda', 'cpu'] 중 선택)

4. SCINet

  • input_size : 데이터 변수 개수, int
  • window_size : input sequence의 길이, int ## 2의 지수승 input 필요 (ex,64,128,256 ...)
  • forecast_step : 예측할 미래 시점의 길이, int
  • levels : Tree의 depth, int(default: 2, 범위: input sequence의 로그 값 이하, 2~4 설정 권장)
  • stacks : SCINet 구조를 중첩하는 횟수 (default : 1, stack 값은 1을 고정적으로 사용)
  • num_epochs : 학습 epoch 횟수, int(default: 150, 범위: 1 이상)
  • batch_size : batch 크기, int(default: 64, 범위: 1 이상, 컴퓨터 사양에 적합하게 설정)
  • lr : learning rate, float(default: 0.0001, 범위: 0.1 이하)
  • device : 학습 환경, (default: 'cuda', ['cuda', 'cpu'] 중 선택)

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Contributors 5

AltStyle によって変換されたページ (->オリジナル) /