민성 Skystarry의 연구 창고

  • 홈
  • 태그
  • 방명록

deeplearning 1

[딥러닝] 트랜스포머 Attention 완벽 이해: Q, K, V의 역할과 원리

"Attention을 안다"고 말하는 사람들이 많습니다. Transformer 논문도 읽었고, 코드도 돌려봤고, 심지어 직접 구현까지 해봤다고 합니다.하지만 막상 물어보면 대답이 막힙니다.$Q, K, V$가 왜 세 개로 나뉘는지, $K$를 전치하는 이유가 뭔지, Attention Score만으로는 왜 안 되는지. 정확히 설명할 수 있는 사람은 드뭅니다.이 글은 어텐션 메커니즘의 설계 철학을 다룹니다. 수식과 코드는 최소한으로, 원리 자체에 집중합니다.왜 이런 설계가 필요했는가Attention을 이해하려면 역사적 맥락을 알아야 합니다.RNN의 한계Transformer 이전, 시퀀스 처리는 RNN과 LSTM의 영역이었습니다. 하지만 치명적인 문제가 있었습니다.재귀(recurrence) 구조입니다. $h_t$..

트랜스포머 시리즈 2026.01.08
이전
1
다음
더보기
프로필사진

민성 Skystarry의 연구 창고

현재 AI/ML에 몰두하고 있는 10년차 청소년 개발자입니다.

  • 분류 전체보기 (2) N
    • 트랜스포머 시리즈 (2) N

Tag

positional encoding, nlp, Transformer, deeplearning, 인공지능, 면접질문, 트랜스포머,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/01   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :
벨로그

Copyright © 민성 Skystarry. All rights reserved.

티스토리툴바