Skip to main content

Rag Checker

RAG Checker 페이지에서는 질문-응답 데이터를 기반으로 문서를 업로드하고, 응답이 문서(Context)에 근거했는지를 자동 평가할 수 있습니다.

이 기능은 아래 두 모델을 활용합니다:

  • Decomposition 모델을 통해 응답 내용을 Claim 단위로 분해합니다.
  • Entailment 모델을 활용해 각 Claim이 문서에 기반하는지를 판별합니다.

이 기능은 RAG 정확도 분석, hallucination 검출, 모델 간 비교 평가에 유용하게 활용됩니다.




프로젝트 생성

① RAG Checker Project 생성

좌측 네비게이션에서 [RAG Checker] 항목을 클릭하면 평가 화면으로 이동합니다.
기존 프로젝트 목록이 나타나며, 원하는 프로젝트를 선택해 상세 페이지로 들어갈 수 있습니다.

새로운 프로젝트를 만들려면, 화면 우측에 있는 RAG Checker 아이콘을 클릭한 뒤 + Add Project 버튼을 선택합니다.




프로젝트 생성 페이지에서는 프로젝트명, 설명, 그리고 LLM 응답 모델인 타겟 모델명을 입력합니다.
이후 [Create] 버튼을 클릭해 프로젝트를 생성합니다.




New Dataset

Step 2. 평가 데이터셋 문서 업로드


② 데이터셋 생성 화면 진입

평가를 진행할 프로젝트를 클릭한 후, 상단의 [Dataset] 탭으로 이동 한 뒤,
우측 상단의 [New Dataset] 버튼을 클릭하여 데이터셋 생성을 시작합니다.


③ 문서 업로드

Upload File 영역에 평가용 문서를 업로드합니다.
형식을 모르겠다면 샘플 문서를 다운받아 내용을 채워주세요.

  • 지원 형식: .csv, .xlsx
  • 필수 컬럼: query expected_response target_response retrieved_context1



Dataset Detail & Evaluation

④ 샘플 문서 확인

파일 업로드가 완료되면, 최대 100건의 샘플 데이터가 자동으로 미리보기 형태로 표시됩니다.
⚠️ 데이터 수정 및 삭제가 필요한 경우, 파일을 수정한 후 다시 업로드해야 합니다.

업로드 후 샘플로 최대 100개의 데이터 미리보기가 제공됩니다.
각 문서는 Data Detail 화면에서 상세 내용을 확인할 수 있습니다.

⑤ 데이터셋 저장

샘플 검수 후, 데이터셋 이름을 입력하고 저장합니다. 데이터셋 저장이 완료되면, 해당 프로젝트 내에서 평가 대상으로 바로 사용할 수 있습니다

우측 하단 [Upload Full Dataset] 버튼 클릭




⑥ 자동 평가 실행

업로드한 데이터셋 화면에서 Evaluation Dataset > Start Evaluation 버튼을 클릭하면 자동 평가가 시작됩니다.



평가에 사용할 모델(Decomposition, Entailment)을 선택 후 [Start] 버튼을 클릭하여 평가를 실행하세요.







View Result_Table View

⑦. 평가 결과 확인 및 분석


자동 평가가 완료되면, Table View 화면에서 각 샘플의 평가 결과를 확인하고 상세 분석을 진행할 수 있습니다. 특정 셀을 클릭하면 우측 Detail 패널이 열려, 해당 응답의 세부 평가 내역을 확인할 수 있습니다.

※ 평가 지표에 대한 상세한 설명은 [평가 지표 제공] 을 참고 해주시기 바랍니다.