πŸš€ Master Prompt Engineering and building AI Agents in our NEW courses! Use PROMPTING20 for 20% off ➜ Enroll now
Retrieval Augmented Generation

Retrieval Augmented Generation (RAG)

General-purpose μ–Έμ–΄ λͺ¨λΈμ€ 일반적인 μž‘μ—…μ„ λ‹¬μ„±ν•˜λ„λ‘ 감정 뢄석 및 λͺ…λͺ…λœ μ—”ν‹°ν‹° 인식을 λ―Έμ„Έ μ‘°μ • ν•  수 μžˆμŠ΅λ‹ˆλ‹€. μ΄λŸ¬ν•œ μž‘μ—…μ—λŠ” 일반적으둜 좔가적인 배경지식이 ν•„μš”ν•˜μ§€ μ•ŠμŠ΅λ‹ˆλ‹€.

더 λ³΅μž‘ν•œ 지식을 λͺ¨μ•„ μš”μ•½ν•˜λŠ” μž‘μ—…μ˜ 경우 μ™ΈλΆ€ 지식 μ†ŒμŠ€μ— μ•‘μ„ΈμŠ€ν•˜μ—¬ μ™„λ£Œν•˜λŠ” μ–Έμ–΄ λͺ¨λΈ 기반 μ‹œμŠ€ν…œμ„ ꡬ좕할 수 μžˆμŠ΅λ‹ˆλ‹€. 이λ₯Ό 톡해 사싀적 일관성을 높이고, μƒμ„±λœ μ‘λ‹΅μ˜ 신뒰성을 ν–₯μƒμ‹œν‚€λ©°, "ν™˜κ°" 문제λ₯Ό μ™„ν™”ν•˜λŠ” 데 도움이 λ©λ‹ˆλ‹€.

Meta AI 연ꡬ원듀은 μ΄λŸ¬ν•œ 지식을 λͺ¨μ•„ μš”μ•½ν•˜λŠ” μž‘μ—…μ„ ν•΄κ²°ν•˜κΈ° μœ„ν•΄ Retrieval Augmented Generation (RAG) (opens in a new tab) λΌλŠ” 방법을 λ„μž…ν–ˆμŠ΅λ‹ˆλ‹€. RAGλŠ” 정보 ꡬ성 μš”μ†Œλ₯Ό κΈ€μž 생성기 λͺ¨λΈκ³Ό κ²°ν•©ν•©λ‹ˆλ‹€. RAGλŠ” λ―Έμ„Έ 쑰정이 κ°€λŠ₯ν•˜λ©° 전체 λͺ¨λΈμ„ μž¬κ΅μœ‘ν•  ν•„μš” 없이 λ‚΄λΆ€ 지식을 효율적으둜 μˆ˜μ •ν•  수 μžˆμŠ΅λ‹ˆλ‹€.

RAGλŠ” μž…λ ₯을 λ°›μ•„ μ£Όμ–΄μ§„ μ†ŒμŠ€(예: μœ„ν‚€ν”Όλ””μ•„)μ—μ„œ κ΄€λ ¨λœ/μ§€μ›ν•˜λŠ” λ¬Έμ„œλ“€μ„ μ°ΎμŠ΅λ‹ˆλ‹€. λ¬Έμ„œλŠ” μ›λž˜ μž…λ ₯ ν”„λ‘¬ν”„νŠΈμ™€ μ»¨ν…μŠ€νŠΈλ‘œ μ—°κ²°λ˜μ–΄ μ΅œμ’… 좜λ ₯을 μƒμ„±ν•˜λŠ” ν…μŠ€νŠΈ 생성기에 κ³΅κΈ‰λ©λ‹ˆλ‹€. λ”°λΌμ„œ μ‹œκ°„μ΄ 지남에 따라 RAGλŠ” μ–΄λ–€ μƒν™©μ΄λ˜ μ‚¬μ‹€μ μœΌλ‘œ 적응할 수 μžˆμŠ΅λ‹ˆλ‹€. μ΄λŠ” LLM의 맀개 λ³€μˆ˜ 지식이 정적이기 λ•Œλ¬Έμ— 맀우 μœ μš©ν•©λ‹ˆλ‹€. RAGλŠ” μ–Έμ–΄ λͺ¨λΈλ“€μ˜ 재ꡐ윑 우회λ₯Ό ν—ˆμš©ν•˜μ—¬, 검색 기반 생성을 톡해 μ‹ λ’°ν•  수 μžˆλŠ” 좜λ ₯물을 μƒμ„±ν•˜μ—¬ μ΅œμ‹  μ •λ³΄λ‘œ 접속할 수 μžˆμŠ΅λ‹ˆλ‹€.

Lewis et al.,(2021)은 RAG에 λŒ€ν•œ λ²”μš© λ―Έμ„Έ μ‘°μ • λ ˆμ‹œν”Όλ₯Ό μ œμ•ˆν–ˆμŠ΅λ‹ˆλ‹€. 사전 ν›ˆλ ¨λœ seq2seq λͺ¨λΈμ€ νŒŒλΌλ©”νŠΈλ¦­ λ©”λͺ¨λ¦¬λ‘œ μ‚¬μš©λ˜κ³  μœ„ν‚€ν”Όλ””μ•„μ˜ λ°€μ§‘ν•œ 벑터 μΈλ±μŠ€λŠ” λ…ΌνŒŒλΌλ©”νŠΈλ¦­ λ©”λͺ¨λ¦¬λ‘œ μ‚¬μš©λ©λ‹ˆλ‹€(사전 ν›ˆλ ¨λœ μ‹ κ²½ λ¦¬νŠΈλ¦¬λ²„λ₯Ό μ‚¬μš©ν•˜μ—¬ ν—ˆμš©λ¨). λ‹€μŒμ€ μ ‘κ·Ό λ°©μ‹μ˜ κ°œμš”μž…λ‹ˆλ‹€:

RAG

이미지 μ†ŒμŠ€: Lewis et el. (2021) (opens in a new tab)

RAGλŠ” μžμ—°μŠ€λŸ¬μš΄ 질문 (opens in a new tab), μ›Ή 질문 (opens in a new tab), νλ ˆμ΄λ“œ νŠΈλž™κ³Ό 같은 μ—¬λŸ¬ λ²€μΉ˜λ§ˆν¬μ—μ„œ κ°•λ ₯ν•œ μ„±λŠ₯을 λ°œνœ˜ν•©λ‹ˆλ‹€. RAGλŠ” ​​MS-MARCO와 Jeopardy μ§ˆλ¬Έλ“€μ„ ν…ŒμŠ€νŠΈν•  λ•Œ 보닀 사싀적이고 ꡬ체적이며 λ‹€μ–‘ν•œ 응닡을 μƒμ„±ν•©λ‹ˆλ‹€. RAGλŠ” β€‹β€‹λ˜ν•œ FEVER 사싀 검증 κ²°κ³Όλ₯Ό κ°œμ„ ν•©λ‹ˆλ‹€.

이것은 지식을 λͺ¨μ•„ μš”μ•½ν•˜λŠ” μž‘μ—…μ—μ„œ μ–Έμ–΄ λͺ¨λΈμ˜ 좜λ ₯을 ν–₯μƒμ‹œν‚€κΈ° μœ„ν•œ μ‹€ν–‰ κ°€λŠ₯ν•œ μ˜΅μ…˜μœΌλ‘œμ„œ RAG의 잠재λ ₯을 λ³΄μ—¬μ€λ‹ˆλ‹€.

μ΅œκ·Όμ—λŠ” μ΄λŸ¬ν•œ λ¦¬νŠΈλ¦¬λ²„ 기반 μ ‘κ·Ό 방식이 λ”μš± λŒ€μ€‘ν™”λ˜μ—ˆμœΌλ©° κΈ°λŠ₯κ³Ό 사싀적 일관성을 ν–₯μƒμ‹œν‚€κΈ° μœ„ν•΄ ChatGPT와 같은 인기 μžˆλŠ” LLM이 κ²°ν•©λ˜μ—ˆμŠ΅λ‹ˆλ‹€.

LangChain λ¬Έμ„œμ—μ„œ μ†ŒμŠ€λ₯Ό μ‚¬μš©ν•œ 질문 닡변에 λ¦¬νŠΈλ¦¬λ²„μ™€ LLM을 μ‚¬μš©ν•˜λŠ” 방법에 λŒ€ν•œ κ°„λ‹¨ν•œ μ˜ˆμ‹œ (opens in a new tab)λ₯Ό 찾을 수 μžˆμŠ΅λ‹ˆλ‹€.