Model Context Protocol
AI Model Context Protocol (MCP)
Interacting with Artificial Intelligence (AI) models, especially Large Language Models (LLMs), often makes us expect the model to ‘remember’ previous conversations or specific information and respond based on that. One of the key mechanisms enabling this expectation is the Model Context Protocol (MCP). MCP is an open and universal protocol that standardizes how applications provide context information to LLMs.
Simply put, MCP is like the HTTP protocol for the AI world. Just as HTTP allows different websites and browsers to exchange information according to the same rules, MCP enables various AI models to connect with diverse data sources and tools in a standardized way. This standardization makes it easier for developers to build AI applications without needing to create special interfaces for each model or data source.
What is Context?
In AI, context refers to the collection of all relevant information a model needs to understand a task and generate an appropriate response at a given moment. This can include previous conversation turns, instructions provided by the user, information retrieved from external databases, and even the model’s internal state. The richer the context, the more accurate, consistent, and relevant the model’s responses can be.
Why MCP is Necessary: Overcoming LLM Limitations
Large Language Models (LLMs) are powerful, but they face several significant limitations. MCP helps overcome these limitations, enabling LLMs to access external resources and build more robust AI applications.
- Knowledge Limitations and Update Issues: LLMs only know the information they were trained on. For example, an LLM’s knowledge might be capped at April 2023. Training large language models requires enormous computational resources and time, often taking months or more to complete new versions. This creates a difficult problem: model knowledge is always ‘outdated,’ and updates are costly and time-consuming.
- Lack of Specialized Domain Knowledge: LLMs are typically trained on publicly available general data. This means they lack a deep understanding of specific business scenarios, internal processes, or proprietary knowledge. For instance, internal processes of a particular company, its product catalog, or an organization’s proprietary knowledge aren’t included in the model’s training scope.
- No Unified Standard for External Data Access: Currently, there are many methods for providing additional information to LLMs, such as Retrieval-Augmented Generation (RAG), local knowledge bases, and internet searches. Different development teams offer diverse integration solutions, increasing integration costs between systems. It’s difficult to seamlessly integrate LLMs with systems containing specialized domain data like CRM, ERP, or medical record systems, as each integration requires custom development without a common standardized method.
- Maintaining Conversation Continuity: In conversational AI systems like chatbots or virtual assistants, MCP allows previous conversation turns to be provided back to the model, ensuring the conversation flows smoothly.
- Retaining Instructions and Constraints: When instructions for a specific task (e.g., writing style, response format) are given, MCP ensures these instructions remain applicable in subsequent interactions.
For these reasons, MCP provides a standardized protocol that allows LLMs to access external information and tools consistently, thereby addressing all the issues mentioned above.
Key Benefits of MCP
MCP offers several significant advantages:
- Rich Pre-built Integrations: MCP provides numerous pre-built server integrations for file systems, databases (PostgreSQL, SQLite), development tools (Git, GitHub, GitLab), network tools (Brave Search, Fetch), and productivity tools (Slack, Google Maps). This means you don’t need to build these integrations from scratch, allowing LLMs to access data from these systems directly.
- Flexible Switching Between LLM Providers: With MCP, developers can switch between different LLMs like GPT-4, Claude, or Gemini without rewriting the entire application’s integration logic. All data and tool integrations remain consistent, unaffected by underlying model changes.
- Building Complex AI Workflows: MCP enables the creation of complex agents and workflows on top of LLMs. For example, you can build sophisticated AI applications like a legal document analysis system that queries multiple databases, uses specific tools for document comparison, and generates reports.
How Does MCP Work? Core Roles and Workflow
MCP operates through the collaboration of three core roles: the MCP Server, the MCP Client, and the MCP Host.
- MCP Server:
- An MCP Server is a program that provides tools and data access capabilities for LLMs to use. Unlike traditional remote API servers, an MCP Server can run as a local application on the user’s device or be deployed on a remote server.
- Each MCP Server offers a specific set of tools for retrieving information from local data or remote services. If an LLM decides it needs to use a particular tool while processing a task, the MCP Server uses its provided tools to obtain the necessary data and returns it to the LLM.
- MCP Client:
- The MCP Client acts as a bridge connecting the LLM and the MCP Server. It’s embedded within the LLM and is responsible for:
- Receiving requests from the LLM.
- Forwarding requests to the appropriate MCP Server.
- Returning results from the MCP Server to the LLM.
- The MCP Client acts as a bridge connecting the LLM and the MCP Server. It’s embedded within the LLM and is responsible for:
- MCP Host:
- The MCP Host is an application, such as Claude Desktop, an Integrated Development Environment (IDE) like VS Code (Cursor), or any AI tool that wants to access data via MCP. These applications provide an interface for users to interact with the LLM and integrate the MCP Client to extend LLM capabilities using tools provided by the MCP Server.
Example MCP Workflow: Burp MCP Server and VS Code Copilot Integration
Let’s look at a concrete example of how MCP works in a development environment.
- MCP Server: Burp Suite, a web security tool, can act as an MCP Server. Burp Suite offers various tools for web application security testing (e.g., proxy, scanner), which can be utilized as ‘tools’ by the MCP Server. For instance, a Burp MCP Server could expose a tool that provides web vulnerability scan results.
- MCP Host: Your daily VS Code (Visual Studio Code), with the integrated AI coding assistant GitHub Copilot, acts as the MCP Host. VS Code provides the interface for users to interact with the LLM, and Copilot includes the LLM and MCP Client.
- MCP Client: An MCP Client is built into GitHub Copilot. It serves as the link between the LLM and the Burp MCP Server, enabling interaction related to the code you’re writing or web application questions within the VS Code environment.
Example Workflow in this Configuration:
- A developer is writing web application code in VS Code and asks Copilot about the security vulnerabilities of a specific API endpoint.
- Copilot (including the MCP Client) forwards this question to the LLM. The LLM determines that real-time web security analysis information is needed to answer the question.
- The MCP Client embedded in the LLM requests the ‘web vulnerability scan’ tool provided by the Burp MCP Server to obtain this information.
- The Burp MCP Server receives the request, performs a scan on the pre-configured web application, or queries existing scan results, and returns the vulnerability-related data for that API endpoint to the MCP Client.
- The MCP Client forwards the security vulnerability information received from the Burp MCP Server to the LLM.
- Based on this information, the LLM generates a response, including security insights and solutions, such as “This API endpoint might be vulnerable to XSS. Review code Y,” and provides it to the developer via VS Code (Copilot).
In this way, MCP allows the LLM to interact with specialized security tools within a familiar IDE environment, providing richer and more practical information, which revolutionary expands the utility of LLMs.
Conceptualizing a Burp MCP Server
Utilizing Burp Suite as an MCP Server means exposing Burp’s functionalities in a way that LLMs can directly ‘call’ them. While Burp Suite itself might not natively support the MCP protocol, you can build a separate server that leverages Burp Suite’s API or extension capabilities to act as the MCP Server, applying the principles of MCP.
This separate server could operate as follows:
- Tool Definition: Map Burp Suite’s functionalities (e.g., starting a web scan, fetching a vulnerability report for a specific URL, modifying HTTP requests/responses) to tools as defined in the MCP protocol. Each tool would have a clear description and necessary input parameters that an LLM can understand.
- For example, you could define functions like
start_active_scan(url: str)
orget_vulnerability_report(url: str)
.
- For example, you could define functions like
- Burp Suite API Integration: The internal implementation of each defined tool would call Burp Suite’s Extender API (primarily in Java or Python) or its REST API (if available) to execute the actual Burp functionality.
- For instance, the
start_active_scan
tool could command the Burp Scanner to initiate an active scan on a specific URL using the Burp Extender API. - The
get_vulnerability_report
tool might parse stored scan results from Burp’s project file or trigger Burp’s reporting feature to retrieve results.
- For instance, the
- MCP Protocol Compliance: This server would receive requests from the LLM in accordance with the MCP protocol, execute the requested tool, and return the results in a format the LLM can understand, likely through JSON-based API calls.
Considerations for Implementation:
- Security: Since Burp Suite handles sensitive web traffic, strong authentication and authorization mechanisms must be applied for communication between the MCP server and Burp Suite, as well as between the LLM and the MCP server. The use of Personal Access Tokens (PATs) is recommended.
- Environment Setup: Burp Suite must be running in the background, and necessary project and settings should be correctly configured.
- Error Handling: Implement robust error handling for various exceptions that might occur during integration with Burp Suite, such as scan failures or API call errors, to provide meaningful feedback to the LLM.
Through this approach, powerful specialized tools like Burp Suite can be leveraged as MCP Servers to extend the capabilities of LLMs into specific domains, such as web security.
Securing Data Exchange Between MCP (AI Model) and External Systems
When implementing an MCP Server that connects AI models with external systems, there are two primary security challenges:
- Authentication: Unlike traditional applications, in an MCP environment, users cannot log in through conventional login flows (e.g., username/password, email/verification code) to access external systems.
- Access Control for MCP Server Requests: Users accessing a system via an AI tool are typically individuals who can directly use that same system. The MCP Server acts as their proxy when interacting through AI tools. Designing new access control mechanisms specifically for the MCP Server would require immense effort and cost.
A key solution to these challenges is implementing Personal Access Tokens (PATs). PATs provide a way for users to securely access resources without needing to share their credentials or require interactive logins.
Workflow Utilizing PATs:
- Users generate PATs for external services (e.g., GitHub, Slack, Notion).
- The MCP Host securely stores and manages these PATs.
- When a user attempts to access an external service via the AI model, the MCP Host retrieves the stored PATs and passes them to the MCP Server via the MCP Client.
- The MCP Server uses the received PATs to securely authenticate with the external service and then retrieves the data or performs the actions requested by the LLM.
This approach allows existing services to maintain their authentication mechanisms while securely implementing MCP integrations.
AI 모델 컨텍스트 프로토콜(MCP)
인공지능(AI) 모델, 특히 대규모 언어 모델(LLM)과의 상호작용은 모델이 이전 대화나 특정 정보를 ‘기억’하고 그에 기반하여 응답하기를 기대하게 만들죠. 이러한 기대를 가능하게 하는 핵심적인 메커니즘 중 하나가 바로 모델 컨텍스트 프로토콜(Model Context Protocol, MCP)입니다. MCP는 애플리케이션이 LLM에 컨텍스트 정보를 제공하는 방식을 표준화하는 개방적이고 보편적인 프로토콜이에요.
간단히 말해, MCP는 AI 세계의 HTTP 프로토콜과 같습니다. HTTP가 서로 다른 웹사이트와 브라우저가 동일한 규칙에 따라 정보를 교환할 수 있도록 하는 것처럼, MCP는 다양한 AI 모델이 다양한 데이터 소스와 도구에 표준화된 방식으로 연결할 수 있게 합니다. 이러한 표준화 덕분에 개발자들은 각각의 모델이나 데이터 소스를 위한 특수한 인터페이스를 만들 필요 없이 AI 애플리케이션을 더 쉽게 구축할 수 있습니다.
컨텍스트란 무엇인가?
AI에서 컨텍스트(Context)는 모델이 특정 시점에 작업을 이해하고 적절한 응답을 생성하는 데 필요한 모든 관련 정보의 집합을 의미합니다. 이는 이전 대화 내용, 사용자에게 제공된 지침, 외부 데이터베이스에서 검색된 정보, 심지어 모델의 내부 상태까지 포함할 수 있어요. 컨텍스트가 풍부할수록 모델은 더 정확하고 일관성 있는, 그리고 관련성 높은 응답을 제공할 수 있습니다.
MCP가 필요한 이유: LLM의 한계 극복
대형 언어 모델(LLM)은 강력한 능력을 지녔지만, 몇 가지 주요 한계에 직면해 있습니다. MCP는 이러한 한계를 극복하고 LLM이 외부 리소스에 액세스하여 더 강력한 AI 애플리케이션을 구축할 수 있도록 돕습니다.
- 지식의 한계와 업데이트 문제: LLM은 훈련 데이터에 포함된 정보만 알고 있어요. 예를 들어, 특정 LLM의 지식이 2023년 4월에 종료될 수 있죠. 대형 언어 모델을 훈련하는 데는 엄청난 컴퓨팅 자원과 시간이 필요하며, 새로운 버전을 완성하는 데 몇 달 이상이 걸리기도 합니다. 이는 모델 지식이 항상 ‘구식’이며, 업데이트는 비용이 많이 들고 시간 소모적이라는 어려운 문제를 만듭니다.
- 전문 도메인 지식의 부족: LLM은 일반적으로 공개 데이터를 기반으로 훈련돼요. 이는 특정 비즈니스 시나리오에서 깊이 있는 데이터와 정보를 이해할 수 없다는 것을 의미합니다. 예를 들어, 특정 기업의 내부 프로세스, 제품 카탈로그 또는 조직의 독점적인 지식은 모델의 훈련 범위에 포함되지 않죠.
- 외부 데이터 액세스를 위한 통일된 표준 부재: 현재, LLM에 추가 정보를 제공하는 데는 RAG(검색 증강 생성), 로컬 지식 기반, 인터넷 검색 등 다양한 방법들이 존재합니다. 다양한 개발팀이 다른 통합 솔루션을 제공함으로써 시스템 간 통합 비용이 높아지고, CRM, ERP, 의료 기록 시스템과 같은 전문 도메인 데이터를 가진 시스템은 LLM과 매끄럽게 통합하기가 어렵습니다. 각 통합은 공통된 표준화된 방법 없이 사용자 정의 개발을 필요로 해요.
- 대화의 연속성 유지: 챗봇이나 가상 비서와 같은 대화형 AI 시스템에서 MCP는 이전 대화 내용을 모델에 다시 제공하여 대화의 흐름을 끊김 없이 이어갈 수 있도록 합니다.
- 지침 및 제약 조건 유지: 특정 작업에 대한 지침이 주어졌을 때, MCP는 이 지침이 후속 상호작용에서도 계속 적용되도록 보장합니다.
이러한 이유로 MCP는 LLM이 외부 정보와 도구에 일관된 방식으로 접근할 수 있게 하는 표준화된 프로토콜을 제공하여 위의 모든 문제를 해결합니다.
MCP의 주요 이점
MCP를 통해 다음과 같은 주요 이점들을 얻을 수 있습니다:
- 풍부한 사전 구축 통합: MCP는 파일 시스템, 데이터베이스(PostgreSQL, SQLite), 개발 도구(Git, GitHub, GitLab), 네트워크 도구(Brave Search, Fetch), 생산성 도구(Slack, Google Maps) 등을 포함한 다수의 사전 제작된 서버 통합을 제공합니다. 이는 이러한 통합을 처음부터 구축할 필요 없이 LLM이 이러한 시스템에서 데이터를 액세스할 수 있도록 합니다.
- LLM 제공자 간의 유연한 전환: 개발자는 MCP를 사용하면 전체 애플리케이션의 통합 로직을 다시 작성할 필요 없이 GPT-4, Claude, Gemini와 같은 다른 LLM 간에 유연하게 전환할 수 있습니다. 모든 데이터 및 도구 통합은 하위 모델 변경에 영향을 받지 않고 그대로 유지됩니다.
- 복잡한 AI 워크플로우 구축: MCP는 LLM 위에 복잡한 에이전트와 워크플로우를 구축할 수 있게 합니다. 예를 들어, 여러 데이터베이스를 쿼리하고 문서 비교를 위한 특정 도구를 사용하며 보고서를 생성해야 하는 법률 문서 분석 시스템과 같은 복잡한 AI 애플리케이션을 만들 수 있습니다.
MCP는 어떻게 작동하나요? 핵심 역할과 워크플로우
MCP는 MCP 서버, MCP 클라이언트, 그리고 MCP 호스트라는 세 가지 핵심 역할이 협력하여 작동합니다.
- MCP 서버:
- MCP 서버는 LLM이 사용할 수 있는 도구와 데이터 액세스 기능을 제공하는 프로그램입니다. 전통적인 원격 API 서버와는 달리, MCP 서버는 사용자의 장치에서 로컬 애플리케이션으로 실행되거나 원격 서버에 배포될 수 있습니다.
- 각 MCP 서버는 로컬 데이터나 원격 서비스에서 정보를 검색하는 특정 도구 세트를 제공합니다. LLM이 작업을 처리하는 동안 특정 도구를 사용해야 한다고 결정하면, MCP 서버가 제공하는 도구를 사용하여 필요한 데이터를 얻고 이를 LLM에 반환합니다.
- MCP 클라이언트:
- MCP 클라이언트는 LLM과 MCP 서버를 연결하는 브리지 역할을 합니다. LLM에 포함되어 다음과 같은 역할을 담당합니다:
- LLM으로부터 요청 수신
- 적절한 MCP 서버로 요청 전달
- MCP 서버로부터 결과를 LLM에 반환
- MCP 클라이언트는 LLM과 MCP 서버를 연결하는 브리지 역할을 합니다. LLM에 포함되어 다음과 같은 역할을 담당합니다:
- MCP 호스트:
- MCP 호스트는 LLM과 MCP 클라이언트를 통합하여 사용자가 LLM과 상호작용할 수 있는 인터페이스를 제공하며, MCP 서버가 제공하는 도구를 사용하여 LLM 기능을 확장하는 애플리케이션입니다.
MCP 워크플로우 예시: Burp MCP 서버와 VS Code Copilot 연동
개발 환경에서 MCP가 어떻게 작동하는지 구체적인 예시를 통해 살펴보겠습니다.
- MCP 서버: 웹 보안 도구인 Burp Suite가 MCP 서버 역할을 할 수 있습니다. Burp Suite는 웹 애플리케이션 보안 테스트를 위한 다양한 도구(예: 프록시, 스캐너)를 제공하며, 이를 MCP 서버의 ‘도구’로 활용할 수 있습니다. 예를 들어, 웹 취약점 스캔 결과를 제공하는 도구를 Burp MCP 서버가 노출할 수 있습니다.
- MCP 호스트: 여러분이 매일 사용하는 VS Code (Visual Studio Code)와 그 안에 통합된 AI 코딩 도우미인 GitHub Copilot이 MCP 호스트 역할을 합니다. VS Code는 사용자가 LLM과 상호작용하는 인터페이스를 제공하며, Copilot은 LLM과 MCP 클라이언트를 포함합니다.
- MCP 클라이언트: GitHub Copilot 내부에 MCP 클라이언트가 내장되어, VS Code 환경에서 여러분이 작성하는 코드나 웹 애플리케이션 관련 질문에 대해 LLM과 Burp MCP 서버를 연결하는 역할을 합니다.
이러한 구성에서의 워크플로우 예시:
- 개발자가 VS Code에서 웹 애플리케이션 코드를 작성하면서, 특정 API 엔드포인트의 보안 취약점 여부를 Copilot에게 묻습니다.
- Copilot (MCP 클라이언트 포함)은 이 질문을 LLM에 전달합니다. LLM은 답변을 위해 실시간 웹 보안 분석 정보가 필요하다고 판단합니다.
- LLM에 내장된 MCP 클라이언트는 이 정보를 얻기 위해 Burp MCP 서버가 제공하는 ‘웹 취약점 스캔’ 도구에 요청을 보냅니다.
- Burp MCP 서버는 요청을 받아 사전에 설정된 웹 애플리케이션에 대한 스캔을 수행하거나, 기존 스캔 결과를 조회하여 해당 API 엔드포인트의 취약점 관련 데이터를 MCP 클라이언트에 반환합니다.
- MCP 클라이언트는 Burp MCP 서버로부터 받은 보안 취약점 정보를 LLM으로 전달합니다.
- LLM은 이 정보를 바탕으로 “해당 API 엔드포인트는 XSS 취약점에 취약할 수 있으니 Y 코드를 검토하세요”와 같이 보안 관련 통찰력과 해결책을 포함한 답변을 생성하여 VS Code (Copilot)를 통해 개발자에게 제공합니다.
이처럼 MCP는 개발자가 익숙한 IDE 환경 내에서 LLM이 전문 보안 도구와 상호작용하여 더욱 풍부하고 실용적인 정보를 제공할 수 있도록 지원하며, 이는 LLM의 활용성을 혁신적으로 확장하는 예시가 됩니다.
Burp MCP 서버 구축 방식 (개념적 설명)
Burp Suite를 MCP 서버로 활용하는 것은 Burp의 기능을 LLM이 직접 ‘호출’할 수 있는 형태로 노출하는 것을 의미합니다. 실제 Burp Suite 자체는 MCP 프로토콜을 직접 지원하지 않을 수 있지만, MCP의 개념을 적용하여 Burp Suite의 API 또는 확장 기능을 활용하는 별도의 서버를 구축하여 MCP 서버 역할을 수행하게 할 수 있습니다.
이 별도의 서버는 다음과 같은 방식으로 작동할 수 있습니다:
- 도구 정의: Burp Suite가 제공하는 기능(예: 웹 스캔 시작, 특정 URL에 대한 취약점 보고서 가져오기, HTTP 요청/응답 수정)을 MCP 프로토콜에 정의된 도구로 매핑합니다. 각 도구는 LLM이 이해할 수 있는 명확한 설명과 필요한 입력 매개변수를 가집니다.
- 예를 들어,
start_active_scan(url: str)
이나get_vulnerability_report(url: str)
같은 함수를 정의할 수 있습니다.
- 예를 들어,
- Burp Suite API 연동: 정의된 각 도구의 내부 구현은 Burp Suite의 Extender API(주로 Java 또는 Python)를 호출하거나, Burp Suite의 REST API(만약 있다면)를 통해 실제 Burp 기능을 실행합니다.
- 예를 들어,
start_active_scan
도구는 Burp Extender API를 사용하여 Burp 스캐너에게 특정 URL에 대한 활성 스캔을 시작하도록 명령할 수 있습니다. get_vulnerability_report
도구는 Burp의 프로젝트 파일에서 저장된 스캔 결과를 파싱하거나, Burp의 리포트 생성 기능을 트리거하여 결과를 가져올 수 있습니다.
- 예를 들어,
- MCP 프로토콜 준수: 이 서버는 MCP 프로토콜에 따라 LLM의 요청을 수신하고, 요청된 도구를 실행하며, 결과를 LLM이 이해할 수 있는 형식으로 반환합니다. 이는 JSON 기반의 API 호출일 수 있습니다.
구현 시 고려사항:
- 보안: Burp Suite는 민감한 웹 트래픽을 다루므로, MCP 서버와 Burp Suite 간의 통신, 그리고 LLM-MCP 서버 간의 통신에서 강력한 인증 및 권한 부여 메커니즘을 적용해야 합니다. 개인 액세스 토큰(PATs) 사용이 권장됩니다.
- 환경 설정: Burp Suite가 백그라운드에서 실행되고 필요한 프로젝트 및 설정이 올바르게 구성되어 있어야 합니다.
- 오류 처리: 스캔 실패, API 호출 오류 등 Burp Suite와의 연동 과정에서 발생할 수 있는 다양한 예외 상황을 처리하여 LLM에게 의미 있는 피드백을 제공해야 합니다.
이러한 방식으로, Burp Suite와 같은 강력한 전문 도구를 MCP 서버로 활용하여 LLM의 능력을 특정 도메인(여기서는 웹 보안)으로 확장할 수 있습니다.
MCP(AI 모델)와 외부 시스템 간의 데이터 교환 보안 방법
AI 모델과 외부 시스템을 연결하는 MCP 서버를 구현할 때, 두 가지 주요 보안 과제가 있습니다.
- 인증: 전통적인 애플리케이션과 달리, MCP 환경에서는 사용자가 외부 시스템에 접근하기 위해 전통적인 로그인 플로우(예: 사용자 이름/비밀번호, 이메일/인증 코드 등)를 통해 로그인할 수 없습니다.
- MCP 서버 요청의 접근 제어: AI 도구를 통해 시스템에 접근하는 사용자는 동일한 시스템을 직접 사용할 수 있는 사람입니다. MCP 서버는 AI 도구를 통해 상호작용할 때 사용자의 대리인 역할을 합니다. MCP 서버에 맞는 접근 제어 메커니즘을 새로 설계하려면 막대한 노력과 비용이 필요합니다.
이러한 과제에 대한 주요 해결책은 개인 액세스 토큰(PATs)을 구현하는 것입니다. PATs는 사용자가 자격 증명을 공유하거나 인터랙티브 로그인을 필요로 하지 않고 안전하게 접근할 수 있도록 제공합니다.
PATs를 활용한 워크플로우:
- 사용자는 외부 서비스(예: GitHub, Slack, Notion)에 PATs를 생성합니다.
- MCP 호스트는 이러한 PATs를 안전하게 저장하고 관리합니다.
- 사용자가 AI 모델을 통해 외부 서비스에 액세스하려고 하면, MCP 호스트는 이전에 저장된 PATs를 검색하여 MCP 클라이언트를 통해 MCP 서버로 전달합니다.
- MCP 서버는 수신된 PATs를 사용하여 외부 서비스에 안전하게 인증하고, LLM이 요청한 데이터를 검색하거나 작업을 수행합니다.
이 접근 방식은 기존 서비스가 인증 메커니즘을 유지하면서 MCP 통합을 안전하게 구현할 수 있게 합니다.