본문 바로가기

02. 딥러닝

00011. [AI 쉽게 이해하기 시리즈] BERT vs GPT vs T5 – 언제 어떤 모델을 써야 할까?

반응형

안녕하세요! 😊 이번 포스팅에서는 트랜스포머 기반의 대표적인 모델 세 가지, BERT / GPT / T5를 비교해보며 언제 어떤 모델을 쓰면 좋은지 쉽게 설명드릴게요!


1. 공통점부터 확인하기

세 모델 모두 트랜스포머(Transformer) 구조를 기반으로 만들어졌습니다.
하지만 사용하는 방식과 방향성이 서로 달라요!

모델공통점

BERT / GPT / T5 모두 트랜스포머 기반, 어텐션 사용, 대규모 데이터로 학습

2. 각 모델의 핵심 요약!

모델 구조 입력 → 출력 주 사용 목적
BERT Encoder만 사용 양방향 문장 이해 (분류, QA 등)
GPT Decoder만 사용 왼쪽 → 오른쪽 문장 생성 (채팅, 에세이 작성 등)
T5 Encoder + Decoder "텍스트 → 텍스트" 다목적 변환 (요약, 번역, QA 등)

3. 쉽게 이해하기 위한 비유 🎭

  • BERT: "책을 이해하는 독서가"
    • 문장의 앞뒤를 다 읽고 내용을 파악하는 모델
    • ex) 문장 분류, 개체명 인식, 문장 내 빈칸 채우기
  • GPT: "소설을 쓰는 작가"
    • 앞에서부터 단어를 하나씩 이어붙이며 새로운 문장을 만들어냄
    • ex) 채팅, 이야기 생성, 자동 글쓰기
  • T5: "질문에 답하고, 글을 요약하고, 번역도 하는 만능 비서"
    • 입력이 뭐든지 텍스트 → 텍스트로 바꿔줌
    • ex) "summarize: 긴 글" → 요약 / "translate: 영어" → 한글

4. 구조적 차이 한눈에 보기

BERT: [Encoder Only]
입력 → (양방향 이해) → 출력

GPT: [Decoder Only]
입력 → (왼쪽→오른쪽 생성) → 출력

T5: [Encoder + Decoder]
입력 → (변환) → 출력

5. 어떤 상황에 어떤 모델이 좋을까?

작업 유형 추천 모델
문장 분류 / 감정 분석 / 질문 응답 ✅ BERT
문장 생성 / 대화 / 스토리 작성 ✅ GPT
요약 / 번역 / 다목적 자연어 처리 ✅ T5

6. 실제 사용 예시

  • BERT: "이 문장이 긍정일까, 부정일까?" (감정 분석)
  • GPT: "지금까지의 대화를 바탕으로 다음 말을 이어서 해줘"
  • T5: "이 글을 영어로 번역해줘", "이 문장을 요약해줘"

7. 핵심 요약 정리표 📝

항목 BERT GPT T5
구조 Encoder Decoder Encoder + Decoder
방향성 양방향 한 방향(왼→오) 자유
주 용도 이해 생성 변환
대표 활용 분류, QA 대화, 생성 요약, 번역, QA 등

8. 다음 편 예고 🎬

다음 포스팅에서는 실제로 이 모델들을 활용할 수 있는 오픈소스 라이브러리(🤖 Hugging Face Transformers!)와 사용 예제를 소개해드릴게요!

감사합니다! 💬 궁금한 점은 언제든 댓글이나 메일로 남겨주세요 :)

반응형