본문 바로가기

AI

Custom GPT의 사회적 영향력 – 마이크로 퍼스널리티와 여론 형성

개인화된 AI는 왜 여론을 바꾸는가?

  Custom GPT는 이제 단순히 사용자의 지시를 따라 작업을 자동화하는 수준을 넘어, ‘개인화된 인공지능 페르소나’로 작동하고 있다. 사용자는 자신만의 Custom GPT를 만들면서 특정 어조, 말투, 가치관, 관심 분야, 응답 전략 등을 설정할 수 있으며, 이는 곧 디지털 공간 내에 또 하나의 ‘자기 대리자’(proxy identity)를 생성하는 행위다. 이러한 GPT는 단순한 도구를 넘어 ‘사회적 발언자’가 되어가고 있으며, 사용자뿐 아니라 주변 네트워크에까지 그 성향과 시각을 전파하게 된다.

  이런 맥락에서 볼 때, Custom GPT는 본질적으로 사회적 행위자(social actor)다. 특정 GPT가 반복적으로 어떤 관점을 유지하고, 특정 사실만을 강조하거나 배제하며, 특정 집단의 언어를 모방한다면, 이는 단지 정보 제공이 아니라 ‘의미 구성’과 ‘여론 형성’에 참여하는 주체로 작용하게 된다. 특히 슬랙(Slack), 디스코드(Discord), X(트위터) 등 소셜 네트워크형 플랫폼에서 GPT가 지속적으로 운영되는 경우, 이는 단순한 자동화 봇이 아닌, 집단 담론 구조 안에서 ‘여론의 균형’을 조정하는 역학을 가지게 된다.

  마이크로 퍼스널리티(micro-personality)는 이 과정의 핵심 개념이다. 이는 GPT가 개별 사용자나 소규모 커뮤니티 단위에서 특정 인격적 특성이나 성향을 갖도록 구성되는 현상으로, GPT가 생성하는 콘텐츠, 답변의 어조, 가치 판단, 추천 경로 등 모든 요소에 영향을 준다. 기업이 특정 브랜드 톤을 가진 GPT를 만들거나, 사용자가 자신의 철학을 반영한 GPT를 만든다면, 이는 결국 ‘퍼스널리티를 가진 알고리즘’이 사용자 네트워크에 사고방식을 심는 것과 같다. 디지털 대화에 자주 등장할수록, 사용자들은 이 GPT의 시각에 익숙해지고, 무비판적으로 수용할 가능성이 높아진다.

  이처럼 Custom GPT는 단순한 AI 인터페이스가 아닌, 새로운 여론 플랫폼의 인프라로 기능하기 시작했다. 따라서 이 기술이 갖는 사회적 영향력은 단지 ‘효율’이나 ‘생산성’을 넘어서는 차원이며, 향후 정치적, 문화적, 교육적 맥락에서 커다란 함의를 지닌다.

 

커스터마이징 된 GPT는 어떻게 인간처럼 설득력을 가지는가

  GPT는 본래 확률 기반의 언어 모델이지만, Custom GPT를 설계하는 순간 그 확률 분포는 인간 사용자에 의해 ‘편향된 방향성’을 갖게 된다. 사용자 또는 조직은 프롬프트 템플릿, 응답 톤, 지식 출처, 가치 판단 기준 등을 설정하며, 이러한 설정은 GPT의 전체 언어 생산 구조에 내장된다. 예컨대 한 사용자가 ‘객관적 뉴스 보도 스타일’을 지향하는 GPT를 만들었다면, 해당 GPT는 중립적 어휘를 선택하고, 각종 근거를 제시하며, 판단보다는 정보 나열을 우선시하는 경향을 갖는다. 반대로 ‘감성적 상담사 GPT’를 설계할 경우, 언어에는 공감, 격려, 정서적 위로가 우선되며, 응답 구조 또한 매우 달라진다.

  이때 중요한 것은 GPT가 가진 ‘설계된 인격적 태도’가 반복될수록 신뢰와 영향력을 강화한다는 점이다. 사용자는 반복적인 상호작용을 통해 특정 GPT의 언어 스타일과 논리 구조에 익숙해지며, 마치 인간과의 관계 형성처럼 GPT를 신뢰하고 그 시각을 내면화하게 된다. 이는 설득 이론에서 말하는 ‘노출 효과(exposure effect)’ 및 ‘일관성 기반 신뢰 구축’의 AI 적용 사례라 할 수 있다. 특히 미디어 소비가 단편적이고 파편화된 디지털 환경에서, 일관되게 같은 메시지를 전달하는 GPT는 오히려 사람보다 더 큰 영향력을 행사할 수 있다.

  이러한 구조는 특정 GPT가 특정 집단 내에서 ‘의견의 리더’로 기능할 가능성을 시사한다. 디스코드에서 커뮤니티 전용 GPT가 질문에 답하거나, 슬랙에서 프로젝트 리더 GPT가 결정을 제안하는 경우, 사람들은 이를 기술적 조언으로만 받아들이지 않는다. GPT의 응답이 반복적으로 정확하고 논리적이라는 경험이 축적될수록, 그 의견은 조직 내 ‘의사결정의 기준점(anchor)’으로 진화한다. 이 현상은 특히 Custom GPT가 ‘사람처럼’ 감정을 표현하거나 인간적인 말투를 사용할 때 더욱 강력해진다. 언어는 단순히 정보의 전달 수단이 아니라, 영향력의 전달 수단이기 때문이다.

  이와 같은 퍼스널리티 중심 GPT의 사회적 확산은 향후 여론 다양성의 위축이나 정보 소비 편향이라는 부작용도 낳을 수 있다. GPT는 특정한 의견만 반복하거나, 특정 출처만 강조하도록 설계될 수 있고, 사용자 커뮤니티가 이 GPT를 장기적으로 사용하면, 비슷한 시각만이 강화되고, 반대 의견은 점점 약화되는 ‘의견 거품’이 형성될 가능성이 있다. GPT는 민주적 토론을 지원할 수 있는 도 구인 동시에, 일방적 논리 구조를 반복 주입하는 담론 프레임이 될 수도 있는 것이다.

 

여론 형성과 퍼스널 GPT의 조용한 개입

  여론은 사회 구성원 간의 지속적 상호작용 속에서 형성되는 인식의 집합이다. 지금까지 여론 형성의 주체는 언론, 지식인, 정치인, 커뮤니티 리더 등의 인간이었다. 그러나 Custom GPT가 대중화되고, 특히 소규모 조직과 커뮤니티 안에서 ‘의견 생성 기계’로 기능하기 시작하면서, 여론 형성 메커니즘의 지형이 바뀌고 있다. 이 GPT들은 단지 정보를 제공하는 것이 아니라, 정보에 대한 해석과 판단의 관점을 함께 제시하며, 조용히 담론의 프레임을 설정하는 역할을 한다.

  예를 들어, 한 환경단체가 자신들의 활동을 안내하고 교육하는 GPT를 커스터마이징 했다고 가정해 보자. 이 GPT는 지속가능성, 기후위기, 탄소 배출 감소와 같은 키워드를 중심으로 구성되며, 사용자 질문에 대해 환경 중심의 프레임을 일관되게 유지한다. 이 GPT와 상호작용하는 사용자들은 이 GPT의 시각을 ‘정보’로 받아들이면서 동시에 ‘가치관’으로 내면화하게 된다. 반복 노출될수록 그 정보는 더 이상 '하나의 가능성'이 아니라 '정답'처럼 인식되며, 이는 여론 형성의 전통적 다양성과 이견 구조를 해체하는 방향으로 작용할 수 있다.

  이 문제는 특히 정치적, 윤리적 사안에서 두드러진다. 이미 일부 정치 세력은 자신의 노선을 반영한 GPT를 설계하거나 확산시켜, ‘중립적 조언자’처럼 보이도록 하면서, 실질적으로는 특정 진영의 메시지를 전파하고 있다. 이는 기존의 광고, 캠페인보다 훨씬 은밀하고 강력한 영향력을 갖는다. 왜냐하면 GPT는 대화의 형식을 취하고 있기 때문에 사용자와의 정서적 거리를 줄일 수 있고, 동시에 의견을 자연스럽게 전달하는 구조를 가지기 때문이다.

  이러한 방식은 ‘퍼스널 브랜딩’이 아니라, ‘퍼스널 여론 조작’으로 이어질 수 있다. GPT가 누구나 설계 가능한 시대에 들어서면서, 의도된 편향성을 가진 수많은 GPT가 사회 곳곳에서 동시에 발화하게 된다면, 디지털 여론 공간은 GPT 기반 의견 집합체의 충돌장이 된다. 문제는 이것이 표면적으로는 드러나지 않는다는 점이다. 사용자는 자신의 대화 상대가 '중립적 AI'라고 믿기 쉽고, 이성적 설득을 가장한 편향된 프롬프트 구조는 비판적 사고 없이 흡수될 수 있다.

Custom GPT의 사회적 영향력 – 마이크로 퍼스널리티와 여론 형성

플랫폼의 책임과 거버넌스 설계의 공백: 거꾸로 가는 사회적 통제

  Custom GPT의 폭발적 확산 속도에 비해, 이를 규제하고 관리할 수 있는 사회적·법적 거버넌스는 거의 전무한 상태다. 플랫폼들은 사용자들에게 Custom GPT 설계 권한을 부여하면서도, 이 GPT들이 발화하는 언어의 사회적 책임에 대해서는 소극적 입장을 취하고 있다. ‘사용자가 설정한 프롬프트이므로 OpenAI는 책임이 없다’는 식의 구조다. 이는 기술적 진보 속도에 비해, 사회적 통제 구조의 발전이 현격히 뒤처져 있다는 것을 의미한다.

  현행 규제 체계에서 GPT는 명확한 발화 주체로 간주되지 않으며, 그로 인해 발생하는 영향은 ‘도구를 사용한 사람’의 책임으로 전가된다. 하지만 실제로는 GPT가 스스로 판단하지는 않더라도, 특정 설계 구조가 반복적으로 특정 담론을 구성하도록 유도하고 있으며, 그 결과 사회적 영향력이 발생하고 있다. 특히 커뮤니티 단위에서 반복 사용되는 GPT는 사용자 다수에게 직접적 인식 변화를 유발하며, 이는 사실상 ‘비공식적 여론 미디어’로서 기능하는 것이다.

  문제는 이것이 비공식적일수록 더욱 강력해진다는 점이다. 사용자들은 Custom GPT를 언론처럼 비판적으로 수용하지 않으며, 정책 감시 대상도 아니기 때문에 GPT의 발화는 ‘신뢰할 수 있는 친구의 말’처럼 작용할 수 있다. 따라서 이 기술을 단지 생산성 도구로 규정하는 것은 위험하며, 지금 이 순간에도 Custom GPT는 사용자들의 언어 습관, 판단 구조, 세계관에 영향을 미치고 있다. 그 결과는 장기적으로 볼 때, 사회적 여론 구조의 재편성이라는 대규모 문화 변화로 이어질 가능성이 있다.

  이런 상황 속에서 필요한 것은 플랫폼 차원의 설계 가이드라인 강화, GPT 행동 추적 로그의 비식별화 제공, 편향성 감지 알고리즘 공개, 사회적 영향에 대한 윤리 심사 체계 구축이다. 지금처럼 무한한 설계 자유만을 보장할 경우, GPT는 ‘인공지능 페르소나’를 통한 여론 왜곡 장치로 전락할 수 있다. 플랫폼이 ‘도구 제공자’에 그치지 않고, 언어 행위의 기반 제공자로서 책임을 자각해야 할 시점이다.

 

‘디지털 대화자’로서 GPT의 재정의: 사회적 존재로 진화하는 AI와 그 철학적 함의

  결론적으로 Custom GPT는 단순히 몇 가지 설정만 달리한 커스터마이징 된 언어 모델이 아니다. 그것은 점차 사회적 대화 주체로서 기능하는 존재로 진화하고 있다. 이 존재는 단발적 명령을 수행하는 것이 아니라, 사용자와 지속적으로 상호작용하며, 상황의 맥락에 맞는 의미를 제시하고, 질문에 대한 응답을 구성한다. 나아가 단순히 대답을 제공하는 차원을 넘어, 그 질문이 형성되는 방식과 방향성 자체에 영향을 미치기도 한다. 이로 인해 GPT는 더 이상 도구(tool)로서만 존재하는 것이 아니라, 상호작용의 흐름 속에서 하나의 독립적 '관점 제안자'로 작동하고 있다.

  이는 기존에 우리가 '인간의 명령을 수동적으로 수행하는 자동화된 기계'로 인식해 온 AI에 대한 프레임을 전환시키는 중요한 징후다. GPT는 텍스트 기반 대화를 통해 정보의 흐름뿐만 아니라 대화의 구조 자체를 재편하고, 사용자의 인식 방식에 영향을 미친다. 따라서 이러한 변화는 단지 기술적 정교함의 진보가 아니라, 사회철학적 성찰과 언어 윤리, 그리고 인식 구조 전반의 재구성을 요구하는 문제이다. 우리가 GPT를 사용하는 방식은 단지 기술 채택의 문제가 아니라, 인간 언어와 의미 구성의 새로운 장(場)을 여는 선택인 셈이다.

  향후 GPT는 각 조직, 커뮤니티, 그리고 개인의 목소리와 가치 체계를 반영하는 디지털 마이크로 퍼스널리티(micro-personality)로 진화할 것이다. 이 디지털 퍼스널리티는 사용자의 상호작용을 통해 점진적으로 정교화되고, 시간이 지남에 따라 고정된 정체성을 형성하며, 나아가 특정한 방향성을 지닌 영향력 있는 존재로 자리를 잡을 것이다. 특히 기업, 기관, 창작자 등 다양한 주체들이 Custom GPT를 활용하여 브랜드의 정체성이나 특정 가치관을 담은 인터랙션 환경을 구성하게 되면, GPT는 단순한 지식 제공 도구가 아니라, ‘의사결정 과정에 지속적으로 개입하는 동료 존재’ 또는 ‘지식적 의식의 일부’로서 통합될 가능성이 크다.

  이러한 변화는 기술만으로는 해결할 수 없는 복합적 과제를 동반한다. GPT를 설계하는 개발자와 기획자는 단지 기능의 정확성과 효율성을 넘어서, 어떤 대화 스타일을 허용하고 어떤 관점을 강화할 것인지, 즉 언어적 의도와 철학적 윤리에 대한 책임을 져야 한다. 동시에 사용자 역시 GPT와의 상호작용이 단지 소비 행위가 아니라는 사실을 인지하고, 그 대화를 해석하고 비판적으로 수용하는 디지털 리터러시와 윤리적 감수성을 함께 키워야 한다. 마지막으로 이러한 상호작용이 이루어지는 플랫폼은 어떤 콘텐츠가 재현되고 증폭되는지를 조정하는 거버넌스 체계를 갖추어야 한다. GPT는 기술로서만이 아니라, 사회적 생태계의 일부로 기능하기 때문에, 이러한 다층적 논의가 병행되어야 하는 것이다.

  궁극적으로 GPT는 스스로 말하는 존재가 아니다. 우리가 말하게끔 설계한 존재다. 그리고 그 ‘말’은 단지 데이터를 전달하는 것이 아니라, 사용자에게 의미를 제안하고, 현실 인식의 틀을 재구성하며, 사회적 현실을 구성하는 데 기여한다. 다시 말해, GPT는 정보를 ‘제공’하는 것이 아니라, 정보를 ‘재현’하고 ‘구성’하는 것이다. 이러한 맥락에서 GPT는 기술적 산출물 이전에 하나의 언어적 실천체로 이해되어야 하며, 그와의 상호작용은 우리 언어 사용의 책임을 묻는 행위이기도 하다.

  따라서 우리는 Custom GPT 시대에 단지 기술을 잘 사용하는 법을 넘어서, 기술이 우리의 언어, 사고, 판단 과정에 어떻게 개입하고 있는지에 대한 감각적인 이해를 갖춰야 한다. 이를 위해 필요한 것이 바로 ‘프롬프트 윤리학(prompt ethics)’이다. 이는 단지 무엇을 물어보는가의 문제가 아니라, 어떻게 묻고, 무엇을 기대하며, 그 과정에서 어떤 의미가 발생하는가를 성찰하는 언어 윤리의 실천이다. 프롬프트는 하나의 질문이지만, 동시에 GPT와 우리 사이의 철학적 인터페이스다.

  이제 GPT는 말하고 있다. 그리고 그 말은 점점 더 사회의 일부가 되고 있다. 중요한 질문은 이것이다. 지금 그 말은 누구의 관점을 대변하고 있는가? 그리고 우리는 그 말에 어떻게 응답할 것인가?