![[OSSCA] AI 시대, 꼭 알아야 할 세 가지 키워드 : RAG, MCP, A2A](https://image.inblog.dev?url=https%3A%2F%2Finblog.ai%2Fapi%2Fog%3Ftitle%3D%255BOSSCA%255D%2520AI%2520%25EC%258B%259C%25EB%258C%2580%252C%2520%25EA%25BC%25AD%2520%25EC%2595%258C%25EC%2595%2584%25EC%2595%25BC%2520%25ED%2595%25A0%2520%25EC%2584%25B8%2520%25EA%25B0%2580%25EC%25A7%2580%2520%25ED%2582%25A4%25EC%259B%258C%25EB%2593%259C%2520%253A%2520RAG%252C%2520MCP%252C%2520A2A%26logoUrl%3Dhttps%253A%252F%252Finblog.ai%252Finblog_logo.png%26blogTitle%3Dcode-with-me&w=2048&q=75)
✨ 외부 지식, 도구 연결, 에이전트 협업까지 — AI의 확장 기술 소개
인공지능이 점점 똑똑해지고, 다양한 작업을 도와주는 시대가 되었습니다. 그런데 이런 AI가 단순히 말을 잘하는 걸 넘어서, 외부 정보를 찾아보고(RAG), 앱과 연결되고(MCP), 다른 AI랑 소통도 한다면(A2A)?
이제는 AI도 혼자 일하지 않고, 협업하고, 자동화도 하고, 더 많은 일을 똑똑하게 처리할 수 있게 되었어요. 이번 글에서는 AI 기술의 핵심 키워드로 떠오르고 있는 RAG
, MCP
, A2A
를 쉽게 풀어봅니다.
각 개념이 무엇을 하는 기술인지, 왜 등장했는지, 그리고 우리가 만드는 서비스에 어떻게 활용될 수 있는지를 실생활 예시와 함께 알아보겠습니다.
RAG (Retrieval-Augmented Generation)
✅ 무엇을 하는 기술인가요?
RAG는 검색과 생성을 결합한 AI 기술입니다. 사용자의 질문에 대해 LLM이 단순히 기존 지식으로만 답하는 게 아니라, 외부 지식 소스에서 실시간으로 정보를 검색해 그 내용을 바탕으로 답변을 생성합니다.
❓ 왜 등장했나요?
LLM은 기본적으로 학습된 데이터까지만 알고 있습니다. 예를 들어 GPT가 2023년까지의 정보만 안다면, 2025년 정책이나 트렌드에 대해선 정확한 답을 할 수 없습니다.
그래서 모델이 외부 문서를 검색해 최신 정보를 가져올 수 있게 만든 게 RAG입니다. 이로써 지식의 최신성과 정확성을 확보할 수 있죠.
💡 어떻게 활용할 수 있나요? (실생활 예시)
🎮 리그 오브 레전드 공략 AI 비서
유저가 “탑 리븐 상대할 때 어떤 챔피언이 좋아요?”라고 물으면,
→ RAG는 OP.GG, Reddit, LoL Wiki, 프로 경기 리뷰, 유튜브 공략 영상 등에서 관련 데이터를 검색하고,
→ 현재 패치 버전 기준으로 승률이 높은 카운터 챔피언을 요약해서 알려줘.
또는 “미드 아리로 라인전 이기는 법 알려줘”라고 하면,
→ RAG는 상성 정보, 아이템 빌드, 스킬 활용 팁, 유저 팁 등을 찾아서
→ 라인전에서 우위 잡는 전략을 상황에 맞춰 설명해줄 수 있어.
만약 유저가 자신의 전적 데이터를 연동하면,
→ RAG는 본인의 플레이 스타일과 평균 데스 수, 딜량 등을 참고해서
→ 개인 맞춤형 공략도 제공 가능!
예: “당신은 초반 과감한 싸움을 많이 걸기 때문에, 주문 도둑의 검 대신 부패 물약이 더 안정적일 수 있어요.”
이런 식으로 RAG 기반 LoL 공략 비서는 실시간 정보 반영 + 개인화 공략 추천이 가능해서
기존 챗봇보다 훨씬 유용합니다.
차이를 정리해보면 다음과 같습니다.
🤖 그냥 LLM (예: GPT-4)
📅 지식 업데이트 시점이 고정되어 있음 (예: 2023년까지 학습됨)
🔍 LoL의 최신 패치 정보, 티어별 메타 변화, 밸런스 패치 내용 등을 반영할 수 없음
💬 질문에 대한 답이 일반적이고 보편적인 수준에 머무를 수 있음
예: “리븐은 딜이 세니 CC 챔피언으로 카운터쳐요.”
🔍 RAG 기반 LLM (예: LoL 공략 AI 비서)
🌐 외부 지식 출처(OP.GG, 포럼, 패치노트 등)를 검색해서 최신 정보 반영 가능
🧠 LLM이 이해하고 요약해서 사용자에게 자연스럽게 설명함
예: “현재 14.8 패치 기준, 말파이트가 리븐 상대로 56% 승률을 보여요. 특히 탑에서 리븐의 진입 각을 잘 끊기 때문에 유리합니다.”
👤 유저의 실시간 전적 데이터를 반영해서 개인 맞춤형 조언 제공 가능
🧩 LLM이 모르는 지식도 검색 → 이해 → 생성 흐름으로 다룰 수 있음
🎯 핵심 차이
LLM은 이미 알고 있는 걸 답하는 모델
RAG는 외부에서 최신 정보를 "찾아와서" 답하는 모델
🧩 어떻게 구현할까?
Step 1. 시스템 구성도 이해하기
컴포넌트 | 역할 |
---|---|
🧠 LLM (예: GPT, Claude 등) | 사용자 질문에 답을 생성 |
🔍 검색기 (Retriever) | 외부 데이터에서 관련 문서 찾기 |
📚 벡터 데이터베이스 (예: Pinecone, Weaviate) | 문서들을 임베딩해 저장하고 검색 |
📄 문서 소스 (OP.GG, 리그 공략 블로그, 패치노트 등) | 컨텍스트로 활용할 외부 지식 |
🌐 프론트엔드 | 사용자 인터페이스 (챗봇 UI 등) |
🛠 백엔드 | 사용자 요청 처리, 검색/생성 연결 등 |
Step 2. 데이터 수집 및 정제
공식 패치노트 크롤링 (ex. https://www.leagueoflegends.com/ko-kr/news/tags/patch-notes/)
OP.GG 챔피언 통계, 유저 공략글, NGA 포럼 등에서 데이터 확보
문서 단위로 나누고, 텍스트 청크로 분할 (e.g. 문단 단위)
각 청크를 임베딩하고, 벡터 DB에 저장
Step 3. 검색-증강 생성(RAG) 파이프라인 구축
사용자가 “리븐 상대로 뭐 픽해야 해요?”라고 질문
질문 → 임베딩 → 벡터 DB에서 유사한 문서 검색
검색된 문서를 컨텍스트로 넣어서 LLM에게 질의
LLM이 최신 메타 반영된 자연어 답변 생성
사용자에게 결과 출력
Step 4. 사용 기술 예시
기술 요소 | 추천 기술 |
---|---|
임베딩 모델 | OpenAI Embeddings, BGE, Cohere |
벡터 DB | Pinecone, Weaviate, Qdrant |
LLM | GPT-4, Claude, Mistral 등 |
데이터 수집 | BeautifulSoup, Scrapy (Python 크롤러) |
백엔드 | FastAPI, Flask, Node.js 등 |
프론트엔드 | React, Flutter, Jetpack Compose 등 |
💡 확장 아이디어
사용자 닉네임을 입력하면 해당 유저의 전적을 불러와서 개인화된 공략 제시
LLM이 챔피언 티어 리스트, 승률 추세 등을 요약해주는 기능 추가
챔피언별 추천 룬, 스펠, 빌드까지 자동 제공
MCP (Model Context Protocol)
✅ 무엇을 하는 기술인가요?
MCP는 LLM이 외부 툴, 시스템, 기능과 연결될 수 있도록 만든 표준화된 통신 프로토콜입니다.
쉽게 말해, LLM이 정보를 '이해하고 생성'하는 것에서 나아가, 실제 외부 작업까지 실행할 수 있도록 도와주는 연결 다리입니다.
예를 들어, LLM이 외부 툴과 ‘정확하게 대화’하려면 서로 약속된 요청 형식과 응답 규칙이 필요합니다. MCP는 바로 이 ‘대화의 규칙’을 정해 놓은 설명서 또는 매뉴얼이라고 할 수 있습니다.
❓ 왜 등장했나요?
기존 LLM은 정보를 요약하거나 정리해주는 데는 강했지만, 실제 업무까지 처리하진 못했어요.
하지만 “이 문서 메일로 보내줘” “캘린더에 일정 추가해줘” 같은 실제 작업을 시키려면, LLM이 외부 시스템과 직접 대화하고 작업까지 실행할 수 있어야 했죠.
MCP는 바로 그 통로를 열어주는 역할을 합니다.
💡 어떻게 활용할 수 있나요? (실생활 예시)
예를 들어, 회의 후 “오늘 회의록 요약해서 슬랙에 공유해줘”라고 LLM에게 말하면,
MCP를 통해 LLM은 회의록 문서를 분석 → 요약 작성 → 슬랙 API 호출 → 메시지 전송까지 자동으로 처리할 수 있어요.
A2A (Agent2Agent)
✅ 무엇을 하는 기술인가요?
Google이 오픈 소스로 공개한 A2A는 AI 에이전트끼리 서로 통신하며 협업할 수 있게 해주는 표준 프로토콜입니다. 각 에이전트가 서로를 ‘인식하고’, ‘작업을 주고받고’, ‘결과를 반환’할 수 있도록 해줘요.
A2A는 에이전트에게 유용한 도구와 컨텍스트를 제공하는 Anthropic의 모델 컨텍스트 프로토콜(MCP)을 보완하는 개방형 프로토콜입니다.
❓ 왜 등장했나요?
LLM은 똑똑하지만 만능은 아닙니다. 텍스트 생성은 잘해도 이미지 분석은 약할 수 있고, 복잡한 연산이나 특정 도메인 작업은 전용 에이전트가 더 잘할 수 있죠.
그래서 서로 다른 전문성을 가진 에이전트들이 협력할 수 있도록 한 게 A2A입니다.
💡 어떻게 활용할 수 있나요? (실생활 예시)
예를 들어 AI 디자이너 봇과 기획자 봇이 있다고 해볼게요. 기획자 봇이 “카페 앱 UI를 디자인해줘”라고 하면, 이 메시지를 A2A로 디자이너 봇에게 전송. 디자이너 봇은 UI 시안을 만들고 다시 결과를 전달합니다. 다양한 역할의 AI가 연계되어 팀처럼 협업하는 형태입니다.