생성형 AI의 '환각(할루시네이션)' 현상을 최소화할 수 있는 대안으로 'RAG' 기술이 주목받고 있습니다.
RAG는 ‘Retrieval Augmented Generation’의 약자로, 한국어로는 '검색 증강 생성'이라는 용어로 통용되고 있는데요. 이름만으로 정확한 의미를 유추하기가 모호한 게 사실입니다. 검색을 어떻게 증강시켜서 유의미한 결과를 생성해낸다는 걸까요?
RAG의 원리를 이해하기 위해서는 우선 생성형 AI의 답변 원리를 먼저 알아야 합니다.
아래 2개의 기사를 함께 살펴보겠습니다.
[기획특집] 생성형 AI의 한계 ‘환각’, 대안으로 주목받는 RAG - 아이티데일리
[그게 뭔가요] 생성AI 환각 줄이는 ‘RAG’ 바이라인네트워크 - 바이라인네트워크
생성형 AI는 한 글자 다음에 어떤 글자가 올지에 대해 문맥 등을 고려해 확률적으로 계산합니다. 이때 확률이 낮은 글자들의 조합이 형성되면 환각이 발생하는 것이죠. 특정 질문에 대해 AI 모델에 사전 학습된 데이터가 없을 경우, 생성형 AI는 확률에 의거해서 답을 생성해 낼 수밖에 없습니다.
반면 RAG는 LLM(거대언어모델)이 사전 학습한 데이터만을 활용하는 게 아닌, 기업 내부 데이터 등 이미 존재하는 데이터에서 답을 찾아내는 기술입니다. 관련 데이터가 들어있는 데이터베이스를 연결하고, 원천 정보에서 답을 찾는 원리이므로 보다 높은 정확도를 보일 수밖에 없습니다. 특정 문서를 참고해서 답변을 제공하기 때문에 AI가 학습하지 않은 내용이나 최신 자료에 기반한 답변이 가능해집니다.
데이터에서 특정 답을 찾아낸다는 점에서 단순한 검색 기술로 느껴질 수도 있지만, 생각처럼 간단하지 않습니다. AI 솔루션 기업은 검색어 판단을 통해 LLM이 학습한 데이터를 기반으로 답변을 생성해야 할지, 데이터를 찾아내서 답변을 도출해야 할지에 대해 실시간으로 판단할 수 있어야 합니다. 인터넷 검색이 필요한 부분은 외부 검색 영역으로 분류하고, 기업 내부의 데이터에 필요한 자료가 있는 부분은 내부 DB 영역으로도 분류할 수 있어야겠죠. 결국 RAG를 제대로 활용하려면 LLM의 활용 분야에 맞게 세부적으로 조정 가능한 엔지니어링 능력이 선행돼야 하는 셈입니다.
아래 기사는 RAG를 꾸준히 고도화하고 있는 올거나이즈 신기빈 CAIO님의 인터뷰 내용입니다. 올거나이즈는 기업이 보유한 방대한 데이터 중 사용자가 원하는 대답을 즉시 찾아주는 RAG 기술인 '리트리버 AI'에 대한 특허를 출원하기도 했습니다.
신기빈 올거나이즈 CAIO "프롬프트 넘어 데이터로 검색 강화...'오류 없는 챗봇' 개발 도전" - AI타임
AI 열기가 뜨거워질수록, 나에게 실질적으로 필요한 대답과 근거를 내놓는 '맞춤형 AI'에 대한 니즈 역시 커져갈 것으로 보입니다. RAG를 비롯해서 생성형 AI의 답변 정확도를 높이려는 기술적 노력이 어디까지 고도화될지 기대되는 이유입니다.
생성형 AI의 '환각(할루시네이션)' 현상을 최소화할 수 있는 대안으로 'RAG' 기술이 주목받고 있습니다.
RAG는 ‘Retrieval Augmented Generation’의 약자로, 한국어로는 '검색 증강 생성'이라는 용어로 통용되고 있는데요. 이름만으로 정확한 의미를 유추하기가 모호한 게 사실입니다. 검색을 어떻게 증강시켜서 유의미한 결과를 생성해낸다는 걸까요?
RAG의 원리를 이해하기 위해서는 우선 생성형 AI의 답변 원리를 먼저 알아야 합니다.
아래 2개의 기사를 함께 살펴보겠습니다.
[기획특집] 생성형 AI의 한계 ‘환각’, 대안으로 주목받는 RAG - 아이티데일리
[그게 뭔가요] 생성AI 환각 줄이는 ‘RAG’ 바이라인네트워크 - 바이라인네트워크
생성형 AI는 한 글자 다음에 어떤 글자가 올지에 대해 문맥 등을 고려해 확률적으로 계산합니다. 이때 확률이 낮은 글자들의 조합이 형성되면 환각이 발생하는 것이죠. 특정 질문에 대해 AI 모델에 사전 학습된 데이터가 없을 경우, 생성형 AI는 확률에 의거해서 답을 생성해 낼 수밖에 없습니다.
반면 RAG는 LLM(거대언어모델)이 사전 학습한 데이터만을 활용하는 게 아닌, 기업 내부 데이터 등 이미 존재하는 데이터에서 답을 찾아내는 기술입니다. 관련 데이터가 들어있는 데이터베이스를 연결하고, 원천 정보에서 답을 찾는 원리이므로 보다 높은 정확도를 보일 수밖에 없습니다. 특정 문서를 참고해서 답변을 제공하기 때문에 AI가 학습하지 않은 내용이나 최신 자료에 기반한 답변이 가능해집니다.
데이터에서 특정 답을 찾아낸다는 점에서 단순한 검색 기술로 느껴질 수도 있지만, 생각처럼 간단하지 않습니다. AI 솔루션 기업은 검색어 판단을 통해 LLM이 학습한 데이터를 기반으로 답변을 생성해야 할지, 데이터를 찾아내서 답변을 도출해야 할지에 대해 실시간으로 판단할 수 있어야 합니다. 인터넷 검색이 필요한 부분은 외부 검색 영역으로 분류하고, 기업 내부의 데이터에 필요한 자료가 있는 부분은 내부 DB 영역으로도 분류할 수 있어야겠죠. 결국 RAG를 제대로 활용하려면 LLM의 활용 분야에 맞게 세부적으로 조정 가능한 엔지니어링 능력이 선행돼야 하는 셈입니다.
아래 기사는 RAG를 꾸준히 고도화하고 있는 올거나이즈 신기빈 CAIO님의 인터뷰 내용입니다. 올거나이즈는 기업이 보유한 방대한 데이터 중 사용자가 원하는 대답을 즉시 찾아주는 RAG 기술인 '리트리버 AI'에 대한 특허를 출원하기도 했습니다.
신기빈 올거나이즈 CAIO "프롬프트 넘어 데이터로 검색 강화...'오류 없는 챗봇' 개발 도전" - AI타임
AI 열기가 뜨거워질수록, 나에게 실질적으로 필요한 대답과 근거를 내놓는 '맞춤형 AI'에 대한 니즈 역시 커져갈 것으로 보입니다. RAG를 비롯해서 생성형 AI의 답변 정확도를 높이려는 기술적 노력이 어디까지 고도화될지 기대되는 이유입니다.