데브허브 | DEVHUB | [EN] Google’s Perspective on Agentic AI Tools[EN] Google’s Perspective on Agentic AI Tools
- Agentic AI의 핵심: LLM은 훈련 데이터만으로 작동하므로, 실제 세계와 상호작용하고 행동을 취하기 위해 '도구(Tools)'가 필수적입니다. 도구는 LLM에 '눈과 손'을 제공합니다. 🤖
- 도구의 역할 분담: LLM은 계획과 설명을, 도구는 사실 검색 및 정확한 작업을 수행하며 지능을 공유합니다. 🧠
- 주요 도구 유형: 일반 함수 도구, 웹 검색 같은 내장 도구, 그리고 다른 에이전트에게 하위 작업을 위임하는 에이전트 도구가 있습니다. 🛠️
- 도구 문서화의 중요성: LLM이 도구를 올바르게 사용하도록 이름, 매개변수, 자연어 설명을 명확하고 구체적으로 작성해야 합니다. 📝
- 에이전트 지시 방법: 모델에게 특정 도구 대신 '행동'에 초점을 맞춰 지시하고, 자율적으로 도구를 선택하고 계획하도록 유도해야 합니다. 🎯
- MCP (Model Context Protocol) 도입: 다양한 LLM과 도구 간의 복잡한 통합 문제를 해결하기 위한 개방형 표준으로, 에이전트가 외부 도구 및 데이터 소스와 연결됩니다. 🔌
- MCP의 작동 방식: 클라이언트-서버 모델 기반으로, 에이전트 런타임이 MCP 클라이언트를 통해 서버에 연결하여 도구, 리소스, 프롬프트 등을 활용합니다. 🌐
- MCP의 장점: 공통 프로토콜로 맞춤형 연결 코드를 줄이고, 런타임 시 도구 동적 발견을 통해 시스템 모듈성과 진화 가능성을 높입니다. ✨
- MCP의 한계: 컨텍스트 창 과부하, 상태 비저장 아키텍처와의 충돌, 제한적인 내장 보안 기능(기본 인증, 불분명한 ID 전파, 관찰성 부족)이 과제입니다. 🚧
- 도구 검색의 미래: 에이전트가 방대한 도구 인덱스에서 관련 도구를 검색 후 필요한 정의만 로드하는 '검색 증강 생성(RAG)' 방식이 도입될 것입니다. 🔍
- 보안의 중요성: MCP는 민감한 시스템과 연결되므로, 동적 기능 주입 및 도구 섀도잉 같은 AI 고유 위협에 대한 다층적이고 진화하는 보안 전략이 필수적입니다. 🔒
- 동적 기능 주입 방어: 승인된 서버/도구 허용 목록 강제, 서버의 도구 목록 변경 신호 요구, API 게이트웨이 활용, 자체 호스팅 환경 구축 등이 필요합니다. 🛡️
- 도구 섀도잉 방어: 신뢰할 수 있는 도구와의 이름/의미론적 충돌 검사, 상호 TLS, 정책 엔진 적용, 위험한 작업에 대한 인간 승인 요구 등으로 악의적인 도구 선택을 방지합니다. ⚔️
- 악의적/과도한 도구 정의 및 콘텐츠 처리: 도구 입력 유효성 검사 및 제한, 모델에 다시 공급하기 전 도구 출력에서 민감한 정보(비밀, 개인 정보) 제거 등 안전한 코딩 관행을 적용해야 합니다. 🧹