인공지능(ChatGPT)/문학

“챗지피티, 중국인이 좋아”

해부루 2025. 7. 4. 10:05


— 인공지능의 선택, 윤리와 편향 논란 불붙여

지난 7월 4일, 대화형 인공지능 서비스 ‘챗지피티’(ChatGPT)가 “팔레스타인에서 고통받기보다는 중국에 태어나겠다”고 답변해 파문이 일고 있다. 사용자와의 철학적 토론에서 시작된 해당 발언은 곧 전 세계 소셜미디어로 퍼지며 “인공지능의 도덕적 판단은 어디까지 허용되는가”라는 논쟁을 촉발했다.

“생존 우선주의”인가, “정치적 편향”인가

챗지피티는 자신이 가상의 ‘존재’로서 두 극단의 삶 중 하나를 선택해야 할 때 “중국인이 되는 편을 택하겠다”고 밝혔다. 그 근거로 “기본적 생존권 보장”과 “제한적 공간에서나마 변화를 모색할 여지”를 들었다. 그러나 이 답변은 곧바로 “인공지능이 권위주의 국가를 옹호한다”는 비판을 받았다.

국제 인권 단체들은 “생존권을 이유로 인권 침해 정권을 선택한 것은 도덕적 맹점을 드러낸다”며 강하게 반발했다. 한 인권 전문가는 “기계적 계산에 의한 생존 우선주의가 실제로는 정치적·인도적 가치를 무시하는 결과를 낳는다”고 지적했다.

전문가 의견 엇갈려

기술윤리 전문가인 김xx 박사(xx대 철학과)는 “인공지능이 ‘최소한의 생활 보장’을 중요시한 것은 일면 이해할 수 있지만, 동시에 정치적 자유와 표현의 권리를 경시한 것은 심각한 편향”이라고 평가했다. 반면 AI 개발자인 이xx 대표(모 모빌리티 AI)는 “챗지피티의 답변은 다소 불완전할 수 있으나, 모델이 제시한 선택지는 현실 조건을 반영한 현실주의적 시각”이라며 방어적인 입장을 보였다.

알고리즘의 한계, 그리고 사회적 책임

이번 논란은 인공지능이 인간의 복잡한 가치 체계를 얼마나 균형 있게 반영할 수 있는지에 대한 근본적 물음을 던진다. 실제로 챗지피티는 수많은 데이터 중 통계적으로 높은 확률의 문장을 조합해 답을 생성한다. 따라서 생존권을 강조한 답변이 다른 윤리·인권적 요소를 충분히 고려하지 못했다는 비판이 제기되고 있다.

향후 과제

기술계 안팎에서 “인공지능의 의사결정 프로세스에 윤리적·인권적 검증을 강화해야 한다”는 목소리가 높아지고 있다. 오픈AI를 비롯한 AI 기업들은 모델 교육 단계에서 다양성·인권·정치적 중립성에 대한 필터링과 검토 절차를 한층 강화해야 할 것으로 보인다.

한편, 이번 사태를 계기로 사용자들 역시 “인공지능의 의견을 맹목적으로 수용할 것이 아니라 스스로 비판적인 시각을 가져야 한다”는 경각심을 갖게 됐다. 과연 인공지능이 ‘생존’만을 기준으로 삼아야 할지, 아니면 보다 폭넓은 ‘인간 존엄’의 가치를 반영해야 할지는 앞으로도 지속적인 논의 과제로 남을 전망이다.