본문 바로가기

LLM

검색 증가 생성 (RAG, Retrieval-Augmented Generation) 란?

 

RAG는 LLM이 가지고 있는 한계(예: 최신 정보 부족, 기억 왜곡)를 극복하기 위해 등장한 기술입니다.
LLM이 단순히 학습된 데이터만으로 답변하는 게 아니라, 외부 지식 저장소(문서, DB, 검색엔진 등) 에서 관련 정보를 찾아와 그걸 바탕으로 더 정확하고 신뢰성 높은 답변을 생성하는 방식입니다.

즉, "모르는 건 찾아본 다음에 대답한다"는 식으로, LLM을 똑똑하게 만드는 방법 중 하나라고 보면 됩니다.

예시:
예를 들어, A가 "삼성전자 2025년 1분기 실적 어때?" 라고 질문한다고 가정했을 떄,
기본 LLM만 쓰면 학습된 데이터가 과거 정보라 대답을 제대로 못할 수 있습니다.

그러나 RAG 시스템을 쓰면,

  1. LLM이 외부 금융 뉴스/공시 자료를 검색하고,
  2. 관련 내용을 찾아서,
  3. 그걸 요약하고 가공해서 답변을 만들어줍니다.

이 과정 덕분에 최신 정보 기반으로 정확한 답변이 가능해집니다.

 

RAG의 활용:

  • 정확도 향상: 학습 시점 이후의 최신 데이터도 활용 가능
  • hallucination(환각) 방지: LLM이 지어내는 답변 줄어듦
  • 특정 도메인 강화: 예를 들어 의료, 법률, 금융 같은 전문 분야에서는 기존 모델만으로 부족한 디테일을 외부 문서 검색을 통해 메꿔줄 수 있음

특히 기업에서는 자체 문서(사내 매뉴얼, 정책, 제품 설명서 등)를 기반으로 RAG 시스템을 구축해서, 사내 챗봇이나 고객 상담에 활용하는 케이스가 많아지고 있습니다.

 

'LLM' 카테고리의 다른 글

RAG (Retrieval-Augmented Generation) 심화 개념  (0) 2024.11.09