Bini-log

  • 홈
  • 태그
  • 방명록

nlp모델 1

[텍스트 생성 요약] BART 알아보기

BART Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension (2019, ACL, Facebook) Transformer의 bidirectional Encoder와 autoregressive Decoder 둘다 활용한 seq2seq 형태의 모델 자연어이해(NLU)와 자연어생성(NLG)에서 모두 좋은 성능 각각 Transformer의 Encoder와 Decoder만 활용한 BERT 및 GPT의 단점을 해결 사전학습단계 텍스트를 임의적인 noising 적용을 통해 오염 원본 텍스트를 복원하기 위해 seq2seq모델 학습 사전 학습 단계 중 텍스트 noising의 유연성..

AI 2023.04.27
이전
1
다음
더보기
프로필사진

인공지능(자연어처리) 개발자 / AI(NLP) Developer

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
  • 분류 전체보기 (31)
    • 미국생활 (4)
    • 해외여행 (1)
    • 끄적임 (2)
    • AI (12)
    • 코딩이야기 (11)
      • 코딩테스트 (1)
      • Github (1)
      • IT 5분 잡학사전 (9)
    • 에즈마이야(Ezemiah) (1)

최근글과 인기글

  • 최근글
  • 인기글

방문자수Total

  • Today :
  • Yesterday :

최근댓글

Copyright © Kakao Corp. All rights reserved.

티스토리툴바