의식이 흐르는대로 해보는 프로그래밍

  • 홈
  • 태그
  • 방명록
  • About 윤기

Transformer 1

Attention Is All You Need : 아직도 어텐션이 전부야?

목차시작2017년 구글에서 발표한 "Attention Is All You Need"라는 공격적인 이름의 논문이다. 현재는 시기도 오래 지난 논문이지만, 아직까지 Attention이 전부인가?라고 묻는다면, 단연 아직도 "Yes."로 대답할 것이다. 논문을 읽어보고, 한 번도 글로 정리했던 적은 없었던 것 같아, 한참 늦었지만 시간이 비었을 때 내 생각을 정리하려고 한다. 자, 시작해 보자. 2024년에 읽는 Transformer 논문. 여담으로, 아직도 Attention이 전부인가를 표시해주는 사이트가 있다..  개요와 배경회귀 모델의 문제점순차적 모델링과 기계 독해, 언어 모델링과 같은 Transduction 문제(한국어로 해석하기가 힘들다)에서 RNN, LSTM, GRU, Encoder-Decoder..

딥러닝(Deep Learning)/논문 리뷰 2024.12.10
이전
1
다음
더보기
프로필사진

IT 개발 위주의 블로그입니다. 잡다한 내용이나 고양이, 강아지, 전자기기를 좋아합니다. 주된 관심사는 NLP, ML 전반의 내용

  • 분류 전체보기 (54)
    • 딥러닝(Deep Learning) (10)
      • 논문 리뷰 (4)
      • Etc. (3)
      • Memo. (0)
    • 알고리즘(Algorithm) (29)
    • 코딩 테스트 (1)
    • Kaggle (6)
    • 잡담 (6)
      • 일상 (1)
      • 취업 (4)
      • 체험기 (0)
    • 에러 메모 (2)

Tag

TRTIS, 위상 정렬, Python, 아나콘다, anaconda, COT, DFS, 캐글, server, qwen, tritonclient, 파이참, 백준, DP, Inference, kaggle, Tir, triton, pycharm, 재귀,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright ©One-Way-People All rights reserved.

  • Github

티스토리툴바