AWS
Amazon Bedrock AgentCore Memory: 기억하는 AI 에이전트 만들기

Amazon Bedrock AgentCore Memory를 활용하여 AI 에이전트의 Statelessness 한계를 극복하고, 장단기 기억 및 Memory Forking으로 지능적인 대화형 AI를 구축하는 방법을 설명합니다.
AI 에이전트 기억의 필요성 및 Bedrock AgentCore Memory
- 생성형 AI의 Statelessness와 Context Rot 한계를 극복하고자 Amazon Bedrock AgentCore Memory가 도입, API 호출로 단기/장기 기억 구현.
- 대화에서 핵심 정보를 의미론적으로 추출하여 모델 추론 능력 최적화. 메모리 구조 및 활용 전략
- memory_id, actor_id, session_id 3계층 구조로 데이터 격리 및 자동 생명주기 관리.
- Semantic, User Preference, Summary, Episodic Memory 등 4가지 장기 기억 전략 제공.
- Strands Agents SDK와 연동하여 기억의 자동 저장, 로드, RAG 기반 검색 자동화. Memory Forking으로 대화 확장 및 디버깅
- Memory Forking은 대화의 특정 시점에서 **가지치기(Branching)**하여 여러 흐름을 관리하는 기능.
- 컨텍스트 오염 방지, Undo/Redo, 섀도우 테스팅, 타임 머신 디버깅 등 고급 시나리오에 활용, 에이전트 성능 및 개발 효율성 증대.
Next Feeds

여기쏙 — Figma plugin 제작기 : 3. 성능
Figma 플러그인 '여기쏙 2.0'은 이중 스레드 통신, 렌더링, 데이터 동기화 성능을 최적화하여 사용자 경험을 혁신했다.

여기쏙 — Figma plugin 제작기 : 2. UI
Figma 플러그인 '여기쏙'의 UI 개발 과정을 다루며, UX 개선, 가벼운 기술 스택 선택, 미니 라우팅, Always-Mount 방식, 그리고 Figma 플러그인의 두 프로세스(UI/Main) 통신 구조를 설명합니다.

여기쏙 — Figma plugin 제작기 : 1. 프록시 서버
여기어때는 Figma 플러그인 '여기쏙' 2.0 개발 중 발생한 CORS 및 HTTPS 문제를 해결하기 위해 안전한 프록시 서버를 구축한 과정을 공유한다.

비용, 성능, 안정성을 목표로 한 지능형 로그 파이프라인 도입
Naver Logiss는 기존 로그 파이프라인의 문제점(무중단 배포 불가, 리소스 비효율)을 멀티 토폴로지, 데이터 처리 옵션, 샘플링 기능 도입으로 해결하여 비용, 성능, 안정성을 개선했다.

QA Built on Trust - 팀워크가 품질을 만든다
올리브영 QA팀이 2025 QA Korea Conference에 참여하여 팀워크 기반의 품질 전략과 혁신적인 부스 운영, 발표를 통해 옴니채널 환경에서의 QA 역량을 선보이고 인재들과 소통한 경험을 공유합니다.

배포가 두렵지 않은 팀 만들기: Argo Rollouts로 카나리 배포 자동화하기
딜라이트룸은 Argo Rollouts와 데이터독을 활용한 카나리 배포 자동화로 안전한 배포 파이프라인을 구축하고 엔지니어의 배포 부담을 줄였다.