[LLM] ChatGPT Fine-tuning, RAG, Assistant API 비교
·
LLM
1. Fine-tuning (파인 튜닝)정의: 이미 학습된 대규모 언어 모델(LLM)에 새로운 도메인 데이터나 특정 작업 데이터셋을 추가 학습시켜 모델의 성능을 최적화하는 방법목적: 모델이 특정 도메인의 언어나 표현 방식에 맞게 더 정확하게 답변하도록 개선모델: OpenAI (GPT-3.5, GPT-4), Meta (LLaMA), HuggingFace Transformers비용OpenAI GPT-3.5 Fine-tuning: 1,000 토큰당 $0.008GPT-4 Fine-tuning: 1,000 토큰당 $0.03추가 비용: Fine-tuned 모델 사용 시에도 API 사용 비용 발생장점도메인 특화된 높은 정확도반복적인 사용 사례에서 높은 효율성단점학습 비용 및 시간 소요새로운 데이터 업데이트 시 재학습..