junny1997 개발 일지

  • 홈
  • 태그
  • 방명록

파이썬 딥러닝 ai 스쿨 기초/lecture15 1

lecture15 1교시 Transformer 기초

Transformer Seq2seq보다 성능, 속도 높아 관심 (Seq2seq은 RNN 사용해 순차적처리, 병렬처리 어려워 시간 오래걸림) self attention machanism만을 사용해 문장 인코딩, 번역 수행, 병렬처리 가능 Attention Q 번역 대상 단어의 hidden state , K 비교할 모든 단어들의 벡터, V Self attention은 순차없이 자신을 포함한 모든 단어와의 관계를 한번에 연산 Multi head attention 여러관점의 여러 attention을 병렬로 사용, 여러시각 주목(모호함 해소) Positional encoding Self attention을 사용하는 Transformer는 순차적이지 않기 때문에 어순을 파악 못하는 문제 발생 단어 벡터에 위치정보 ..

파이썬 딥러닝 ai 스쿨 기초/lecture15 2021.04.20
1
더보기
프로필사진

  • 분류 전체보기 (29)
    • 파이썬 딥러닝 ai 스쿨 기초 (28)
      • lecture01 (3)
      • lecture02 (3)
      • lecture03 (3)
      • lecture04 (3)
      • lecture05 (3)
      • lecture06 (1)
      • lecture07 (2)
      • lecture08 (1)
      • lecture09 (2)
      • lecture10 (3)
      • lecture11 (1)
      • lecture12 (1)
      • lecture13 (1)
      • lecture14 (0)
      • lecture15 (1)

Tag

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바