모두의연구소 딥러닝연구실 DeepLAB에서 진행중인 논문세미나 발표자료입니다.
논문제목 : Recurrent Memory Networks for Language Modeling
발표자 : 김선훈 연구원님
날짜 : 2016년 02월 29일
내용요약 : end-to-end memory network는 recurrent를 할필요가 없이, input memory에 모든 input을 다 때려 넣고 시작하는 방식입니다. 본 논문에서는 memory network 를 "recurrent" 하게 구성하여 update를 하는 구조를 제안합니다. 이러한 구조에서는 모든 input을 다 넣는게 아닌 sliding 하면서 넣어주며, attention의 용도 등으로도 쓸 수 있습니다.
논문 링크 : http://arxiv.org/abs/1601.01272
모두의연구소 페이지와 커뮤니티 그룹에 오시면 더 많은 정보를 만나보실 수 있습니다.
모두의연구소 페이지 https://www.facebook.com/lab4all
모두의연구소 커뮤니티 그룹 : https://www.facebook.com/groups/modulabs
'딥러닝연구실' 카테고리의 다른 글
[딥러닝 논문 세미나 021] Exploring the Neural Algorithm of Artistic Style (0) | 2016.03.23 |
---|---|
[딥러닝 논문 세미나 020] VGGNet and ResNet (3) | 2016.03.08 |
[딥러닝 논문 세미나 019] Recurrent Memory Network for Language Modeling (0) | 2016.03.08 |
[딥러닝 논문 세미나 018] Grid Long Short-Term Memory (0) | 2016.03.08 |
딥러닝 관련 블로그 및 페이지들 (0) | 2016.02.18 |
딥러닝 특강 <Deep Learning and Caffe> (0) | 2016.02.17 |