AI 시대의 보안 중요성: AI 기술의 급부상으로 컨퍼런스 세션의 30~40%가 AI 관련 주제일 정도로 그 활용 능력이 중요해졌으며, 이에 따라 보안 팀은 AI 활용의 리스크를 관리하면서도 혁신을 저해하지 않는 균형 잡힌 접근 방식을 모색해야 합니다. ⚖️
생성형 AI와 LLM의 이해: 텍스트, 이미지, 코드 등 새로운 콘텐츠를 생성하는 생성형 AI와 방대한 텍스트 데이터를 학습하여 인간 언어를 이해하고 생성하는 LLM(대규모 언어 모델)은 AI 시대의 핵심 기술입니다. 🧠
LLM의 한계와 펑션 콜링: LLM은 학습 데이터 기반으로만 응답할 수 있어 실시간 정보나 최신 데이터에 취약하며, 이를 보완하기 위해 외부 도구 호출을 요청하는 '펑션 콜링' 개념이 등장했습니다. 📞
MCP(모델 컨텍스트 프로토콜)의 필요성: 펑션 콜링 방식이 LLM마다 달라 발생하는 비효율성을 해결하기 위해 엔트로픽이 제안한 MCP는 LLM과 외부 도구 간의 통신을 표준화하여 개발 편의성을 높이고, 스테이트풀 통신을 지원하여 연속적인 작업 관리를 용이하게 합니다. 🔌
AI 에이전트의 자율성: AI 에이전트는 목표 달성을 위해 스스로 계획하고, 도구를 사용하며, 결과를 평가하고 추론하는 과정을 자율적으로 반복하는 시스템으로, 단순한 LLM 응답을 넘어 복잡한 문제 해결 능력을 제공합니다. 🤖
AI 활용 자체의 보안 문제점: AI 서비스 자체의 취약점(예: 커서 RCE), 사내 기밀 정보의 모델 학습 활용 우려, 악성 MCP 서버로 인한 공급망 공격 등 AI 활용 과정에서 발생하는 다양한 보안 위협에 대한 인식이 필요합니다. 🚨
AI 활용 보안의 대응 방안: AI 서비스 취약점의 신속한 패치, 엔터프라이즈 계약 및 MDM을 통한 사내 정보 학습 방지, 가드레일(Guardrails)을 통한 입력 필터링, MCP 서버 중앙 관리 및 검토 등을 통해 AI 활용 보안을 강화할 수 있습니다. 🛡️
AI를 활용한 보안 강화 사례: 우아한형제들은 연 1회 이상 의무적으로 수행해야 하는 인프라 취약점 진단 시, 수백 개에 달하는 보안/네트워크 장비의 수동 인터뷰 부담을 줄이기 위해 AI 에이전트를 활용한 인터뷰 자동화 시스템을 구축했습니다. 🚀
인프라 보안 진단 자동화 아키텍처: 스트림릿(프론트엔드), FastAPI(백엔드), 랭체인/랭그래프(AI 에이전트), AWS 베드락(LLM), S3(체크리스트), AWS Knowledge Base(RAG)를 활용하여 담당자 인터뷰를 자동화하고, 점검 결과를 DB에 저장하는 시스템을 구현했습니다. 📊
AI 에이전트 기반 인터뷰 프로세스: AI 에이전트가 체크리스트를 기반으로 질문을 생성하고, 담당자의 답변을 평가하며, 필요시 추가 질의를 통해 최종적으로 '양호', '취약', 'NA' 중 하나의 결과를 도출하여 인프라 보안 진단의 효율성과 정확성을 높입니다. ✅