언어모델권력구조 (1) 썸네일형 리스트형 AI 언어모델과 탈식민주의: GPT는 누구의 지식을 반영하는가 거대한 말뭉치 뒤에 숨어 있는 ‘지식의 권력’ GPT는 그 어떤 인간보다 많은 정보를 알고 있는 것처럼 보인다. 실제로 GPT는 수조 개의 단어로 구성된 대규모 말뭉치를 바탕으로 훈련되었고, 인터넷의 수많은 문서, 책, 위키, 논문, 뉴스 기사 등에서 문맥과 어휘를 학습한다. 하지만 이 정보는 결코 ‘세계 전체의 지식’을 대표하지 않는다. GPT가 학습한 지식은 웹에 업로드된, 특정 언어로 기록된, 특정 문화권의 시선으로 편집된 정보다. 다시 말해, GPT는 누구의 지식이 얼마나 자주 표현되었는지를 통계적으로 학습한 시스템이다. 문제는 바로 이 지점이다. GPT는 ‘중립적인 지식 기술’이 아니라, 지식 생산과 유통에서 우위를 점한 언어권·문화권의 구조적 편향을 내장한 재현 기계다. 영어 데이터가 압도.. 이전 1 다음