나무모에 미러 (일반/밝은 화면)
최근 수정 시각 : 2025-03-27 14:08:33

BERT


이 문서는 토막글입니다.

토막글 규정을 유의하시기 바랍니다.


BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
<colbgcolor=#646464><colcolor=#fff> 논문 저자 Jacob Devlin
분야 NLP
발표 년도 2018
논문 링크




1. 개요2. 활용


1. 개요

BERT는 구글에서 개발한 자연어 처리 모델이다. Transformer 구조에 Encoder를 여러 층 쌓은 모델이다.

학습은 다음 문장 예측(Next Sentence Prediction (NSP))과 문장의 가려진 단어 예측(Masked Language Modeling (MLM))으로 학습된다.

GPT-3와 함께 대표적인 트랜스포머 활용 구조로 알려져 있다.

2. 활용


* 다크버트(DarkBERT)는 BERT 기반 구조를 활용해 다크웹 데이터를 이해하고 분석하는 데 특화된 언어 모델로, 특정 도메인에 맞춘 BERT 응용 사례 중 하나라 할 수 있다. ‘Dark’라는 명칭은 해당 모델이 다크웹 환경을 중심으로 학습되었음을 의미한다.