Stanford CS224N - 8. Self-Attention and Transformers
·
Stanford CS224N Lectures/강의정리
https://www.youtube.com/watch?v=LWMzyfvuehA&list=PLoROMvodv4rOaMFbaqxPDoLWjDaRAdP9D&index=88강 강의 링크이다. 2024 spring 재생목록인데 8강부터는 2023년 영상이고 매닝 교수님 말고 다른 분들이 등장하지만이분도 핵심만 잘 가르치고 질문에 대한 대답이 깔끔하시다. 이번 강의에서는 자연어처리 모델이 RNN 중심의 시대에서 self-attention, 그리고 Transformer 중심의 시대로 넘어온 과정을 다룬다. 2010년대 초중반까지는 순차적인 정보를 다루는 데 있어 RNN이 기본적인 선택지였지만, 데이터가 커지고 GPU는 강력해지지만 그 성능을 이끌어내지 못하는 효율성 때문에 한계가 명확해졌다. 오늘은 왜 recurr..