Skip to content

[Abstract] The Annotated BERT #10

@codertimo

Description

@codertimo

Abstract

17개의 NLP task에서 새로운 SOTA를 갈아치우고, SQuAd 데이터셋에서 사람을 이긴 화제의 논문 BERT와 Transformer에 대해서 하나하나 알아갈 수 있는 교과서를 만들고자 합니다. 시각적인 모델 구조와, GIF를 기반으로한 Attention Mechanism 설명을 통해 직관적인 이해를 하고, 깔끔하게 구현된 BERT코드를 리뷰하며 practical 하게 어떻게 구현이 되었는지 알아보는 과정으로 이루어질 예정입니다.

  1. Attention All you need 로 시작된 Transformer의 기초, 역사 그리고 활용된 논문들을 간략히 다룹니다.
  2. The Annotated Transformer 처럼 BERT-pytorch implementation 코드를 한줄한줄을 세세하게 다루는 튜토리얼을 제공합니다.

References

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions