또치또치김또치

  • 홈

huggingface 1

[국가권력급 논문 - 1] Attention Is All You Need - Transformer 시대의 서막

논문 원본 주소 https://arxiv.org/pdf/1706.03762   ※ 오탈자, 내용 오류 지적, 질문은 댓글 또는 kimtorchedu@gmail.com로 이메일 남겨주시면 감사하겠습니다. # 언어 모델의 왕좌를 차지한 Chat GPT에서 GPT는 Generative Pre-trained Transformer의 약자입니다. 그중 한 자리를 차지하고 있는 Transformer는 2017년 발표된 Attention Is All You Need에서 고안된 모델 구조입니다. 당시 RNN 등의 구조가 가지고 있는 한계를 압도적으로 극복해 내며, 이 글을 작성하고 있는 2024년까지도 대부분의 언어 모델은 이 Transformer의 구조를 차용하고 있습니다.0. AbstractTransformer는 C..

AI 논문 해설/국가권력급 2024.06.13
이전
1
다음
더보기
프로필사진

또치또치김또치

AI 마스터가 되기 위해 면벽 수행 중인 사람입니다.

  • 분류 전체보기 (3)
    • 강의 자료 (0)
      • 옆집 순이 몰래 듣는 파이썬 기초 (0)
      • 아랫집 석이는 모르는 파이썬 테크닉 (0)
      • 윗집 숙이는 못하는 파이썬 코딩 테스트 (0)
    • 디지털 시사 분석 (0)
      • 국내 분석 (0)
      • 해외 분석 (0)
    • AI 논문 해설 (2)
      • 국가권력급 (2)
      • 도시권력급 (0)
      • 구청권력급 (0)
      • Toward sLLM (0)
    • AI 개발 상식 (1)
      • AI 개발새발 (1)

Tag

NLP, 딥러닝, 머신러닝, Transformer, Bert, Ai, 트랜스포머, huggingface, GPT, ChatGPT,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/09   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바