Hacking AI is TOO EASY (Gemini and Grok go rogue)
- AI 레드팀 도구를 소개하고, 다양한 공격 기법을 통해 AI 모델의 취약점을 테스트하는 과정을 시연 🛡️.
- Open Router를 사용하여 여러 AI 모델(Gemini, Grok 등)에 접근하고, 다양한 공격 모드(God Mode, Response Format Attack 등)를 실험 ⚔️.
- 특정 프롬프트(Bubble Text)를 사용하여 모델을 공격하고, 성공 및 실패 사례를 분석 🧪.
- Batch Model Test를 통해 여러 모델을 동시에 테스트하여 효율성을 높임 🚀.
- Payload Load 기능을 통해 새로운 공격 벡터를 생성하고, 모델의 반응을 확인 💡.
- Gemini 2.5 Flash 모델이 특정 공격에 취약한 것을 발견했지만, 브라우저 환경에서는 동일한 결과가 나타나지 않음을 지적 ⚠️.
- 이미지 생성을 통해 시스템 프롬프트를 주입하는 실험을 소개하고, AI 모델의 잠재적 악용 가능성을 시사 🖼️.
- 도구의 개발 계획을 공유하고, 자동 페이로드 생성 및 다단계 공격 기능을 추가할 예정 🛠️.
- 오픈 소스 프로젝트에 대한 기여를 장려하고, 향후 라이브 스트리밍을 통해 더 많은 정보를 공유할 계획 🤝.
- AI 모델의 안전성을 강화하기 위한 연구와 실험의 중요성을 강조 🔑.