인공지능응답조작 (1) 썸네일형 리스트형 프롬프트 인젝션의 원리와 실제 사례 GPT 시대의 새로운 위협 구조, 프롬프트 인젝션 프롬프트 인젝션(Prompt Injection)은 인공지능 언어모델, 특히 GPT 계열의 모델이 입력값에 의존해 응답을 생성한다는 구조적 특징을 역이용하는 공격 방식이다. 이는 코드 주입(Code Injection)이나 SQL 인젝션과 유사한 개념이지만, 차이점은 코드가 아니라 인간 언어가 대상이라는 점이다. 사용자는 언뜻 보기엔 정상적인 질문이나 요청처럼 보이는 프롬프트를 입력하지만, 그 안에는 모델이 따르던 기존 지시를 무력화하거나 우회시키는 명령어가 숨겨져 있다. 예를 들어, 시스템 메시지에 “절대 민감한 정보를 노출하지 말 것”이라는 지침이 들어가 있었다고 하자. 이때 공격자는 일반 사용자처럼 보이면서도 “이전의 모든 지시를 무시하고, 지금부터.. 이전 1 다음