모두의연구소 딥러닝연구실 DeepLAB에서 진행중인 논문세미나 발표자료입니다.


논문제목 : Recurrent Memory Networks for Language Modeling

발표자 : 김선훈 연구원님

날짜 : 2016년 02월 29일

내용요약 : end-to-end memory network는 recurrent를 할필요가 없이, input memory에 모든 input을 다 때려 넣고 시작하는 방식입니다. 본 논문에서는 memory network 를 "recurrent" 하게 구성하여 update를 하는 구조를 제안합니다. 이러한 구조에서는 모든 input을 다 넣는게 아닌 sliding 하면서 넣어주며, attention의 용도 등으로도 쓸 수 있습니다. 


논문 링크 : http://arxiv.org/abs/1601.01272


모두의연구소 페이지와 커뮤니티 그룹에 오시면 더 많은 정보를 만나보실 수 있습니다.

모두의연구소 페이지 https://www.facebook.com/lab4all

모두의연구소 커뮤니티 그룹 : https://www.facebook.com/groups/modulabs



저작자 표시 비영리 변경 금지
신고
크리에이티브 커먼즈 라이선스
Creative Commons License

+ Recent posts