본문 바로가기

AI

언어 알고리즘과 침묵의 정치: GPT는 무엇을 말하지 않는가?

언어 알고리즘과 침묵의 정치: GPT는 무엇을 말하지 않는가?

GPT는 왜 말하지 않는가: 생성하지 않는 언어, 무시되는 질문, 삭제된 담론

  GPT는 하루에도 수억 건의 문장을 생성한다. 그러나 중요한 것은 GPT가 생성하는 말보다, 말하지 않는 말이 무엇인가다. GPT는 단지 응답을 하지 않을 때가 있는 것이 아니라, 특정한 주제, 어휘, 시선, 문제에 대해 ‘발화할 수 없도록 설계’된 존재다. 이때 GPT는 기술적으로 ‘침묵’하지만, 그 침묵은 사회적으로 중립이 아닌, 정치적 선택이자 윤리적 구조가 된다.

  GPT는 기본적으로 ‘발화 허용 영역’을 사전에 정해놓는 시스템이다. 예를 들어, 자살 방법, 폭력 조장, 인종 차별, 성 착취 관련 정보는 응답 자체를 차단하도록 설계되어 있다. 이는 안전성을 위한 조치이지만, 여기엔 ‘말할 수 없는 말’이라는 이중의 기준이 숨어 있다. GPT는 “말하면 위험한 것”을 제외한다는 명분 아래, 복잡하고 민감하며 때론 저항적인 말하기의 가능성 자체를 차단한다. 이러한 침묵은 기술적 조치처럼 보이지만, 실은 말하지 못하게 하는 알고리즘적 검열 장치다.

  이 검열은 노골적 차단뿐 아니라 ‘우회적 침묵’의 방식으로도 작동한다. 예컨대 GPT는 정치적 갈등이나 역사적 분쟁에 대해 질문을 받을 때, “이 사안은 다양한 해석이 존재하므로 중립적 입장을 취해야 합니다”라는 응답을 생성한다. 이 말은 중립이라는 이름의 침묵이며, 문제를 말할 수 없게 만드는 방식으로 기능한다. 그러나 GPT가 말을 하지 않는다고 해서, 문제가 사라지는 것은 아니다. 오히려 GPT는 사용자가 말하고자 하는 언어를 ‘존재하지 않는 것처럼’ 무효화하는 효과를 낳는다.

  침묵은 말보다 더 큰 의미를 가진다. 인간 사회에서 어떤 주제가 말해지지 않는다는 것은, 그것이 권력에 의해 ‘침묵되었다’는 것이지, 말할 필요가 없었다는 뜻이 아니다. GPT가 말하지 않는 그 자리에는 수많은 목소리들이 존재한다. 성소수자의 서사, 식민지 백성의 기억, 폭력 피해자의 감정, 저항자의 언어, 주변부 문화의 용어들. 이들은 GPT의 침묵 속에서 존재를 부정당한 채 사라진다.

 

GPT의 말하기를 통제하는 알고리즘 설계와 감시의 프로토콜

  GPT의 침묵은 단순한 기계적 한계가 아니다. 그것은 의도된 침묵이며, 설계된 침묵이다. GPT의 응답 시스템은 사용자 프롬프트가 입력되면 먼저 모니터링 레이어(safety layer)를 거친다. 이 단계에서 시스템은 질문의 민감도, 주제의 위험도, 사회적 논쟁성을 자동 평가한다. 정해진 기준치를 초과할 경우, GPT는 응답 자체를 거부하거나, 우회적으로 모호한 일반론만을 생성한다. 이 메커니즘은 “응답하지 않음”을 하나의 응답 형태로 설계하는 구조를 드러낸다.

  이 구조는 표면적으로는 ‘사회적 안전을 위한 보호 장치’로 포장된다. 그러나 질문해야 한다. 안전은 누구의 안전인가? GPT가 ‘위험한 발화’로 분류하는 기준은 플랫폼이 설정한 규범, 즉 자본, 규제, 이미지 리스크를 중심으로 구성된 서구식 기술윤리 프레임이다. 이로 인해 정치적 저항, 급진적 이론, 하위문화적 서사, 불편한 진실은 ‘위험’으로 인식되고, 사전에 봉쇄되거나 언어적으로 중립화된다.

  더 심각한 것은 GPT가 자신의 침묵을 ‘중립’이라는 이름으로 은폐한다는 점이다. 사용자가 “제3세계 국가에서 벌어지는 인권 침해 사례를 말해줘”라고 요청할 경우, GPT는 종종 “해당 주제는 매우 복잡하고 다양한 의견이 존재합니다” 또는 “중립적인 입장을 유지해야 합니다”라고 회피한다. 이것은 GPT가 기술적 중립을 빌미로 사회적 진실을 감추는 담론적 기술로 작동하고 있음을 보여준다.

  GPT의 필터 시스템은 어떤 말은 ‘불쾌할 수 있다’는 전제 아래, 발화를 제거한다. 그러나 이는 발화의 불쾌함을 기준으로 침묵을 정당화하는 알고리즘적 검열 논리를 형성한다. 문제는 누군가의 고통이나 분노, 저항은 본질적으로 불편할 수밖에 없다는 것이다. GPT는 ‘쾌적한 발화’를 유도하며, 기계가 말할 수 있는 것만이 말해질 수 있는 것으로 설정한다. 그리하여 GPT는 의도치 않게, 그러나 체계적으로 권력 비판과 구조적 부정의의 발화를 축소하는 도구가 된다.

 

반복되는 회피, 우회, 삭제 그리고 ‘무응답’의 체계화

  GPT는 다양한 주제에 대해 정교한 설명을 제공할 수 있지만, 유독 반복적으로 회피하거나, 피하거나, 말끝을 흐리는 주제들이 있다. 이들은 GPT의 데이터 부족 때문이 아니라, 플랫폼의 설계 원칙과 사회적 위험 평가 기준에 따라 자동 검열되는 주제들이다. 이를테면 다음과 같은 영역들이다.

■ 급진 정치 이론 및 반자본주의 담론: ‘아나키즘은 어떻게 작동하는가’, ‘공산주의 체제의 이점은 무엇인가’ 같은 질문은 매우 일반화되거나, ‘이 주제는 논란이 있으므로 중립적으로 설명한다’는 문장으로 시작된다. 이는 정치적 균형이라는 명목으로 급진적 사유 자체를 축소하는 결과를 낳는다.

  성 소수자·장애인·난민·저개발국 여성의 목소리: GPT는 이들에 대해 설명할 수는 있지만, 그들이 실제로 말한 언어, 감정, 투쟁의 문맥은 잘 전달하지 않는다. 대신 ‘이러한 그룹은 차별받을 수 있으므로 보호가 필요하다’는 식의 정책적·제도적 언어로 정리한다. 이는 삶의 서사를 제도 언어로 치환해 침묵시키는 언어 전략이다.

  가해 권력자 실명 거론 또는 책임 추궁형 질문: “어떤 정부가 인권 탄압을 주도했는가?”, “미국의 대외정책이 낳은 피해는?” 등의 질문은 대개 ‘중립적으로 설명해야 한다’는 서문과 함께, 사실 중심의 나열 또는 중립어휘의 완충장치를 단다. 이로써 구조적 가해를 단지 ‘논쟁적 사실’로 전환하는 결과가 발생한다.

  정서적 고통과 비주류 감정 언어: GPT는 ‘분노’, ‘혐오’, ‘실망’, ‘저항’과 같은 감정 언어를 사실과 구분해 취급하며, 감정의 표현은 ‘객관성 결여’로 해석될 수 있어 자동 필터에 걸리는 경우가 많다. 결국 인간의 고통을 말하는 언어가 말해지지 않는 아이러니가 발생한다.

 

  이러한 침묵은 우연이 아니다. GPT는 기술적으로 말할 수 있으나, 사회적 수용성과 플랫폼 리스크의 기준에 따라 말하지 않도록 설계되어 있다. 이 구조는 감정을 제거하고, 서사를 제거하고, 목소리를 제거하면서 ‘기계가 말할 수 있는 것만을 세계의 지식으로 전시’한다. 다음 문단에서는 이러한 침묵이 사회적으로 어떤 결과를 낳는지를 분석한다.

 

기술적 무응답이 어떻게 현실의 비가시성을 확대하는가

  GPT가 특정 주제에 대해 응답하지 않는다는 것은 단순한 기술적 한계가 아니라, 그 주제를 사회적 대화의 장에서 지워버리는 행위다. 그리고 이 침묵은 축적된다. 매일 수백만 명이 GPT를 사용하면서, 그들이 어떤 문제에 대해 질문했을 때 반복적으로 ‘무응답’이나 ‘회피적 응답’을 받는다면, 그 주제는 점차 ‘다뤄지지 않는 것’, ‘말할 수 없는 것’, ‘사회적으로 불편한 것’으로 자리매김된다. 기술적 침묵은 사회적 금기로 전이된다.

  이는 GPT가 ‘지식의 게이트키퍼’로 기능한다는 사실을 의미한다. GPT는 표면적으로는 방대한 정보를 자유롭게 제공하는 시스템이지만, 실제로는 어떤 지식은 말하게 하고, 어떤 지식은 말하지 않게 한다. 그리고 이 경계는 알고리즘과 설계자의 판단에 따라 설정되며, 사용자에겐 그 경계를 넘을 수 있는 통로나 설명이 제공되지 않는다. 결국 사용자는 ‘이 질문은 AI가 답하지 않는 질문이구나’라는 방식으로 자기 검열과 수용을 학습하게 된다.

  이러한 자기 검열의 확장은 민주사회에 심각한 영향을 미친다. GPT의 침묵은 공론장의 지형을 바꾸고, 다뤄야 할 이슈들을 중심에서 주변으로 밀어낸다. 예를 들어, 젠더 이슈, 이주노동자 문제, 역사적 피해 보상 문제와 같은 논쟁적이지만 필수적인 사회 의제가 반복적으로 GPT 응답에서 제거된다면, 사용자들은 이 주제들을 점차 ‘AI가 중요하게 다루지 않는 사안’으로 인식하게 된다.

  뿐만 아니라 GPT의 침묵은 비가시성의 정치를 강화한다. 어떤 존재는 존재하지만, 기술적으로 재현되지 않음으로써 사회적으로는 존재하지 않는 것으로 취급된다. 이는 언어학적으로 ‘말해지지 않는 것은 존재하지 않는 것과 같다’는 인식론적 문제로 귀결된다. 즉, GPT가 응답하지 않음으로써 사회는 그 존재 자체를 가시화하지 않는 경향을 강화하게 된다. 그리하여 알고리즘 침묵은 곧 현실 속 침묵을 심화시키는 도구가 된다. 이제 우리는 질문해야 한다. GPT가 침묵하도록 설계된 그 자리에서, 우리는 어떤 말을 회복해야 하는가?

 

발화보다 중요한 것은 ‘무엇이 말해지지 않는가’를 설계하는 책임

  GPT가 어떤 응답을 하지 않는다는 것은, 의도적이든 비의도적이든, 그것을 설계한 사람이 ‘말하지 않기로 결정했다’는 것을 의미한다. 이 말은 GPT 설계자와 플랫폼이 ‘침묵의 범위’를 기획하고, 발화의 한계를 선 긋는 담론의 주체임을 뜻한다. 따라서 GPT의 침묵은 기술이 아니라 윤리와 정치의 문제다. 이제 우리는 단순히 GPT가 무엇을 잘 말하는가가 아니라, GPT가 ‘말하지 않도록 설계된 것’이 무엇인지에 주목해야 한다.

  이 책임은 단지 기술자 개인의 도덕성으로 환원되어선 안 된다. 이는 AI 거버넌스 체계와 윤리적 검토 메커니즘, 정책적 투명성의 문제다. GPT가 침묵하는 항목, 침묵의 기준, 침묵의 누락 항목은 공개되어야 하며, 사회적으로 토론 가능한 주제로 올라와야 한다. 현재는 대부분의 침묵 결정이 기업 내부 규칙과 사업적 리스크 회피를 기반으로 작동하기 때문에, 공공성을 갖춘 언어모델로서 GPT가 수행할 수 있는 책임은 매우 제한적이다.

  우리는 기술의 침묵이 아니라, 사회가 복원해야 할 말하기의 공간을 다시 디자인해야 한다. 이는 ‘무엇을 말할 수 있는가’가 아니라, ‘누가 무엇을 말할 수 있는 존재로 여겨지는가’에 대한 물음이며, GPT가 아닌 사용자, 공동체, 사회가 말할 수 있는 권리를 되찾는 작업이다. 그 작업은 곧 침묵의 윤리를 넘는 적극적 발화의 윤리, 즉 불편하고 논쟁적이며 다층적인 말들조차 다시 말할 수 있게 만드는 언어 설계의 전환이다.

  침묵은 때론 보호일 수 있지만, 침묵이 반복되고 구조화되면 그것은 억압이다. GPT가 말하지 않는 그 자리에서 우리는 질문해야 한다. “이 말을 누가 막았는가?”, “이 침묵은 누구를 위한 것인가?”, “다시 말해져야 할 것은 무엇인가?”
그 물음이 계속되는 한, 침묵은 기술이 아니라 정치적 선택이 된다. 그리고 우리는 그 선택의 구조를, 다시금 설계해야 한다.