반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 면접왕 이형
- 면접왕이형
- nlp
- 베스트 모델
- 로지스틱 회귀법
- 학습 자동 중단
- andoriod with kotlin
- 경사하강법
- GPT-3
- 독서 #독서후기 #피로사회 #행동과잉 #긍정과잉
- k겹 교차검증
- 딥페이크
- 밑시딥2
- 보이스피싱
- ESG
- ESG 채권
- 밑시딥
- 과적합
- 안드로이드
- 안드로이드 구조
- 선형회귀
- 예측선
- 밑바닥부터 시작하는 딥러닝
- gradiant descent
- 모두의 딥러닝
- 뉴로 심볼릭
- MRC
- 다중분류
- 코틀린
- 경제신문스크랩
Archives
- Today
- Total
Practice makes perfect!
Week9 (3) BERT 학습 본문
1) BERT 모델 학습
BERT 학습 단계
- Tokenizer 만들기
- 데이터셋 확보 : BERT는 모델 사이즈가 매우 크기 때문에 모델의 파라미터를 하나로 수렴하기 위해서는 대용량의 corpus를 필요로 함
- Next sentence prediction (NSP)
- Masking
BERT [MASK] token 공격
BERT 모델은 [MASK] token을 잘 예측하기 위해 학습한다.
그래서 [MASK] token을 예측하는 task를 통해 개인정보를 획득할 수도 있다.
따라서 언어모델 학습 시 반드시 개인 정보가 마스킹 처리 되거나 없는 데이터를 이용해야 한다!
반응형
'Study > AI Tech' 카테고리의 다른 글
Week 11 (1) MRC Intro (0) | 2021.10.12 |
---|---|
Week 10 (1) GPT 언어 모델 (0) | 2021.10.05 |
Week 9 (4) 한국어 언어 모델 학습 및 다중 과제 튜닝 (0) | 2021.10.01 |
Week9 (2) BERT 언어모델 (0) | 2021.09.28 |
Week 9 (1) 인공지능과 자연어 처리 (0) | 2021.09.27 |
Comments