LSTM
·
논문 리뷰 스터디
Long Short-Term Memory Based Recurrent Neural Network Architectures for Large Vocabulary Speech Recognition (https://arxiv.org/abs/1402.1128)1. 서론순환신경망 (RNN)의 한계점장기 의존성 문제Sequence의 길이가 길어질수록, 과거 정보 학습에 어려움이 발생 기울기 소실0~1 사이 gradient 값이 연쇄법칙을 통해 0으로 수렴하는 문제가 생김장기 과거 시점에 대한 모델 파라미터 업데이트가 안됨장기 과거 시점에 대한 모델 학습이 안됨. 순환신경망 (RNN)의 한계점2. LSTM 아키텍처 (LSTM Architectures)LSTM은 장기 의존성 문제를 완화한 RNN 개선 모델Cell st..