Skip to content

Multi-layer Recurrent Neural Networks (LSTM, GRU, RNN) for character-level language models in Torch

License

Notifications You must be signed in to change notification settings

Kinetic27/char-lstm-rnn-keras

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

89 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

char-lstm-rnn-keras, Kinetic

문장을 학습하고 샘플을 뽑아내는 다층 RNN은 Andrej Karpathy의 문서를 읽고 작성되었습니다.

요구사항

파이썬3와 케라스 딥러닝 라이브러리가 필요합니다.

입력 데이터

kdata 폴더안에 한글로 이루어진 txt데이터를 넣어둡니다.

사용법

기본 설정으로 모델 학습하기

$ python train.py

특정 파일을 특정 epochs까지 이어서 학습하기

$ python train.py --input 텍본.txt --epochs 1000 --resume

100 epoch의 샘플 뽑기

$ python sample.py 100

시작 시드 단어 지정 및 특정 글자수 만큼 뽑기

$ python sample.py 380 --len 200 --seed "테스트"

100 epoch의 그래프 그리기

$ python graph.py 100

학습 loss/accuracy는 logs/training_log.csv에 저장이 됩니다

학습 모델(weight 포함)은 model에 저장이 되고, sample.py에서 샘플을 추출할 때 사용됩니다.

또한 accloss에는 각 step의 accuracy와 loss가 기록되며 이를 이용하여 graph.py에서 정교한 그래프를 그릴 수 있습니다.

About

Multi-layer Recurrent Neural Networks (LSTM, GRU, RNN) for character-level language models in Torch

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 100.0%