브랜즈모어 RAG 시스템은 최신 AI/ML 기술과 검색 알고리즘을 통합하여 엔터프라이즈급 성능을 제공합니다.
고성능 벡터 검색 엔진으로 HNSW(Hierarchical Navigable Small World) 알고리즘 기반 인덱싱을 지원합니다.
기업의 필요에 따라 다양한 임베딩 모델을 선택하거나 멀티 모델로 사용할 수 있습니다. Foundation 모델부터 한국어 특화 상용 모델까지 유연하게 구성 가능합니다.
Dense 벡터와 Sparse 벡터를 RRF(Reciprocal Rank Fusion)로 결합하여 검색 정확도를 극대화합니다.
여러 독립적인 컬렉션이나 데이터 소스를 통합하여 검색하는 기술입니다. 각 소스의 검색 결과를 병합하여 종합적인 답변을 제공합니다.
OpenRouter를 통해 Foundation LLM부터 최신 모델까지 대부분의 주요 LLM을 지원합니다. Claude, GPT, Gemini, Llama 등 다양한 모델을 선택하여 사용할 수 있습니다.
문서 처리
🧠 3단계 AI 분석 파이프라인
관측 & 모니터링
브랜즈모어 RAG 시스템은 엔터프라이즈 환경에 최적화된 다음과 같은 핵심 기능을 제공합니다.
Dense(의미론적) + Sparse(키워드) 검색을 RRF(Reciprocal Rank Fusion)로 결합하여 최적의 검색 결과를 제공합니다.
Qdrant의 Named Vectors를 활용하여 하나의 포인트에 여러 벡터 타입을 저장하고 효율적으로 검색합니다.
일반적인 RAG 시스템과 달리, 브랜즈모어는 3단계 AI 분석 파이프라인을 통해 문서를 지능적으로 처리합니다. LLM을 활용한 구조 분석과 청크별 심층 분석으로 풍부한 메타데이터를 생성하고, 검색 정확도를 극대화합니다.
Phase 1: 문서 구조 분석
LLM이 전체 문서를 분석하여 섹션 구조, 개체, 키워드, 복잡도를 추출합니다.
Phase 2: 지능형 청킹
단순 청킹 후 Phase 1의 구조 정보를 태깅하고, 청크 최적화(병합/분할)를 수행합니다.
Phase 3: AI 심층 분석
각 청크를 전체 문서 맥락에서 분석하여 요약, 키워드, 중요도, 의미적 역할, 관계 등을 추출합니다.
검색된 컨텍스트를 LLM에 전달하여 정확하고 맥락있는 답변을 실시간으로 생성합니다.
브랜즈모어 RAG 시스템은 다음과 같은 레이어로 구성됩니다.
지원 파일 형식: PDF, DOCX, PPTX, TXT, MD, CSV, JSON, XLSX, XLS
청킹 전략: 3단계 AI 파이프라인 (구조 분석 → 지능형 청킹 → 심층 분석)
특화 청킹: CSV/Excel 시맨틱 그룹 청킹 (카테고리별 자동 그룹화)
임베딩 모델: OpenAI text-embedding-3-small (1536차원)
하이브리드 임베딩: Dense + Sparse (BM25) 병렬 생성
Named Vectors: text-dense (1536차원, Cosine 거리), text-sparse (BM25)
메타데이터 구조: 문서/청크/구조/의미/검색 최적화 정보
AI 분석 메타데이터: 요약, 키워드, 중요도, 의미적 역할, 관계, 인사이트
인덱싱: HNSW (Hierarchical Navigable Small World)
검색 모드: Dense, Sparse, Hybrid (Named Vectors 활용)
재순위화: RRF (Reciprocal Rank Fusion, k=60)
타이밍 메트릭: 임베딩 생성, 벡터 검색, 응답 시작/완료 시간 추적
결과 제한: 5개 (기본값, 조정 가능)
LLM 플랫폼: OpenRouter (다중 LLM 지원)
기본 모델: Claude Haiku 4.5 (속도 최적화)
지원 모델: Claude, GPT, Gemini, Llama 등 주요 Foundation LLM
모델 선택: 요구사항에 따라 유연하게 변경 가능
컨텍스트 크기: 검색된 상위 5개 청크
시스템 프롬프트: 브랜즈모어 전용 RAG 어시스턴트
출력: 구조화된 답변 + 출처 정보
실제 운영 환경에서 측정된 성능 지표입니다.
응답 정확도
평균 검색 시간
검색 시간 단축
지식 접근성
다양한 산업군에서 브랜즈모어 RAG 시스템을 활용하고 있습니다.