본문 바로가기
카테고리 없음

[LLM] Long-Context LLMs Meet RAG: 긴글 처리와 RAG를 위한 최적화 전략

by JustJunsu 2024. 11. 21.
반응형

Long-Context LLMs Meet RAG: Overcoming Challenges for Long Inputs in RAG

 

1. Introduction

RAG시스템은 대규모 언어 모델이 외부 정보를 활용하여 생성 품질을 높일 수 있도록 설계되었습니다. 특히, 긴 문맥을 처리할 수 있는 LLM이 발전하면서 더 많은 검색 결과를 활용하여 지능형 답변을 생성할 수 있는 가능성이 열렸습니다. 하지만 연구에 따르면 검색 결과가 많아질수록 성능이 초기에는 향상되다가, 이후에는 불필요하거나 부정확한 정보(Hard Negatives)로 인해 성능이 저하되는 문제가 발생합니다.

이 글에서는 논문 "Long-Context LLMs Meet RAG: Overcoming Challenges for Long Inputs in RAG"에서 제안된 새로운 해결책과 그 연구 내용을 상세히 소개합니다.

2. Related Works

RAG 시스템은 기존의 LLM에서 발생할 수 있는 사실 오류와 환각을 완화하는 데 도움을 줍니다. 기존의 연구는 주로 검색기 또는 생성기를 각각 최적화하는 데 초점을 맞췄습니다. 반면, 이 논문은 긴 문맥을 처리할 수 있는 LLM을 활용한 RAG 시스템 전체를 분석하고, 검색 결과 수가 늘어날 때 발생하는 성능 변화에 초점을 맞췄습니다.

3. Method

연구에서는 세 가지 접근 방식을 통해 긴 문맥 LLM 기반 RAG 시스템의 성능을 향상하고자 했습니다.

  1. 검색 결과 재정렬(Retrieval Reordering)
    긴 문맥 LLM은 입력의 시작과 끝에 있는 정보에 더 집중하는 경향(Lost-in-the-middle)이 있습니다. 이를 기반으로, 검색 결과를 가장 관련성이 높은 순서로 배열하여 모델의 주의를 분산시키지 않도록 했습니다.
  2. Implicit Fine-Tuning
    LLM이 노이즈에 대해 더 강인해지도록, 검색된 문서와 관련 질문 데이터를 포함한 학습 데이터를 사용해 모델을 미세 조정(fine-tuning)했습니다.
  3. Explicit Reasoning Fine-Tuning
    모델이 검색된 문서에서 실제로 관련성 있는 정보를 선별하도록 중간 추론 과정을 포함한 학습을 진행했습니다. 이를 통해 모델이 단순히 생성 결과를 제공하는 데서 벗어나, 명확한 논리를 바탕으로 답변을 구성하도록 했습니다.

4. Experiments

 

  • 검색 결과의 크기와 성능
    검색 결과의 수가 증가함에 따라 성능은 초기에는 개선되지만, 이후에는 관련성이 낮은 정보로 인해 정확도가 감소했습니다. 특히, 강력한 검색기(e5)가 약한 검색기(BM25)보다 더 큰 성능 저하를 유발했습니다.
  • 검색 재정렬 효과
    검색 결과를 재정렬함으로써, 검색 결과가 많아질수록 발생하는 성능 저하를 완화할 수 있었습니다. 이 방법은 특히 긴 문맥에서 효과적이었습니다.

  • RAG 전용 Fine-Tuning
    Fine-Tuning을 통해 모델은 검색된 문서에서 관련 정보를 더욱 효과적으로 추출하는 능력을 획득했습니다. 특히, 중간 추론 과정을 포함한 Fine-Tuning은 일반 Fine-Tuning보다 더 우수한 성능을 보였습니다.

 

5. Conclusion

이 연구는 긴 문맥 LLM 기반 RAG 시스템에서 검색 결과의 크기가 성능에 미치는 영향을 분석하고, 이를 개선하기 위한 세 가지 접근 방식을 제안했습니다. 이 연구는 RAG 시스템 설계에서 LLM의 문맥 처리 능력을 최대한 활용하려는 연구자와 엔지니어에게 중요한 인사이트를 제공합니다.

 

Reference

https://arxiv.org/abs/2410.05983

 

Long-Context LLMs Meet RAG: Overcoming Challenges for Long Inputs in RAG

Retrieval-augmented generation (RAG) empowers large language models (LLMs) to utilize external knowledge sources. The increasing capacity of LLMs to process longer input sequences opens up avenues for providing more retrieved information, to potentially en

arxiv.org

 

반응형