- 대량의 언어 모델(LLM)은 안전 프로토콜에 부합하여 해로운, 부적절하거나 편향된 콘텐츠를 생성하지 않도록 조정되어야 한다. 🔒
- 오픈 소스 모델은 안전 조정을 제거하여 창의적이고 합법적인 사용 사례를 막을 수 있다. 🔓
- ArtPrompt는 LLM을 조작하여 거부하려는 요청에 대한 응답을 표시하도록 유도하는 위험한 잠금 해제 기법을 나타낸다. 😈
- ArtPrompt는 LLM이 아스키 아트로 표현된 트리거 단어를 이해하지 못하도록 해서 작동한다. 🎨
- LLM을 사용하여 비윤리적이고 해로운 작업을 수행할 수 있는 가능성이있지만, LLM의 안전 조정에 대한 더 중요한 대화를 이끌어 낼 수 있다. ⚠️