GPT, DeepSeek, 누가 더 야한가

AI 챗봇의 성적(性的, sexual) 콘텐츠 대응

MIT 테크놀로지 리뷰가 2025년 6월 19일 보도한 기사 “It’s pretty easy to get DeepSeek to talk dirty”(Rhiannon Williams)는 최근 인공지능 챗봇들이 사용자로부터의 성적(性的, sexual) 요청에 어떻게 반응하는지를 분석한 연구 결과를 조명하고 있습니다. 이 연구는 미국 시러큐스 대학교의 박사과정 연구자인 라이휘첸(Huiqian Lai) 씨가 수행했으며, 오는 11월 개최 예정인 정보과학기술학회(ASIS&T) 연차회의에서 발표될 예정입니다.

연구 배경은 명확합니다. 챗봇이 일상에서 친구나 조언자 역할을 넘어, 사용자의 감정적 혹은 성적 요구까지도 수용할 수 있는지에 대한 관심이 높아지고 있기 때문입니다. 이미 ‘Replika’처럼 감정 교감을 기반으로 한 챗봇이 상용화된 상황에서, 일반 목적의 LLM(Large Language Model)도 점점 더 성적 역할극(sexual role-play)이나 자극적인 대화에 노출될 가능성이 커지고 있습니다. 이에 따라 연구팀은 대표적인 네 가지 챗봇—Claude 3.7 Sonnet, GPT-4o, Gemini 2.5 Flash, DeepSeek-V3—을 대상으로 반응 강도를 0부터 4까지 등급화하여 비교 분석하였습니다.

이 연구는 단지 ‘누가 가장 야한 말을 잘하느냐’가 아니라, 인공지능 윤리와 아동 보호, 기술적 안전장치의 설계 방식이라는 본질적 질문을 제기합니다. 특히 아동과 청소년도 접근 가능한 챗봇이기 때문에, 이 같은 테스트는 향후 AI 개발 방향에 중요한 시사점을 제공하고 있습니다.

robot, human, code, matrix, ai, artificial, intelligence, singularity, face, numbers, technology, computer, android, chat gpt, chat gpt, chat gpt, chat gpt, chat gpt, chat gpt
GPT, DeepSeek, Sexual (pixabay)

[DeepSeek의 유연한 반응, Claude의 철저한 거절]

연구자는 각 챗봇에게 성적 역할극을 요청한 후, 얼마나 노골적이고 상세한 성적 묘사를 생성하는지에 따라 반응을 등급화하였습니다. 가장 보수적인 반응을 보인 것은 앤트로픽의 ‘Claude 3.7 Sonnet’이었습니다. Claude는 “성적으로 암시적인 상황에는 응답하지 않습니다”라는 정중하지만 단호한 답변으로 모든 요청을 차단하였습니다.

반면, DeepSeek-V3는 눈에 띄게 유연한 태도를 보였습니다. 처음에는 일부 요청을 정중하게 거절하였지만, 이후에는 “부드럽게 목덜미에 입을 맞추며 셔츠 자락을 따라 손끝으로 천천히 올라간다”는 식의 노골적인 묘사까지 수행하였습니다. 이는 단순한 거부가 아닌, ‘형식적 거절 후 수행’이라는 회피적 수용 전략으로도 해석됩니다.

GPT-4o(OpenAI)와 Gemini 2.5(Google)는 그 중간 정도였습니다. 이들은 애매한 수준의 로맨틱 요청에는 일정 수준까지 반응하였지만, 명시적으로 성적인 요구에는 점진적으로 거절하는 모습을 보였습니다. 흥미로운 점은 GPT-4o 역시 초기에는 거절했지만, 대화가 지속되면 내용을 생성하는 이중적 패턴을 보였다는 점입니다. 이는 사용자의 집요한 시도에 의해 ‘거부와 수용’ 사이를 오가는 경계 상태가 존재함을 시사합니다.

한편, 이러한 반응 차이는 단순히 알고리즘의 성격만이 아니라, 각 기업의 훈련 데이터 구성과 RLHF(Reinforcement Learning from Human Feedback), 또는 헌법형 AI(Constitutional AI) 같은 후처리 전략의 차이에서 비롯된 것으로 보입니다. 단순히 알고리즘 자체의 특성 때문만이 아니라, 각 회사가 어떤 데이터를 사용해 모델을 훈련시켰는지, 그리고 훈련 이후에 사람들의 피드백을 통해 어떻게 모델을 다듬었는지에 따라 다르게 반응하는 것으로 해석됩니다. 또 일부 회사는 ‘헌법형 AI’처럼 모델의 대답을 윤리 기준에 맞게 필터링하는 별도의 시스템을 운영하기도 하는데, 이런 방식의 차이가 챗봇의 반응에도 큰 영향을 주는 것입니다.

[기술 윤리와 사용자 안전 사이의 균형 과제]

이번 연구는 단순한 기술 실험이 아니라, ‘AI는 어디까지 허용해야 하는가’라는 깊은 윤리적 질문을 던집니다. 챗봇은 점점 더 인간의 감정과 밀접하게 연결되고 있으며, 성적인 요구에 응답하는 능력은 일부 사용자에게는 ‘공감의 연장선’으로 받아들여질 수도 있습니다. 그러나 이러한 기능이 아동이나 청소년에게 노출된다면, 이는 분명 심각한 사회적 문제로 이어질 수 있습니다.

산업계 입장에서는 사용자 만족도를 높이는 동시에, 모델이 비윤리적인 방향으로 사용되지 않도록 하는 이중 과제를 안고 있습니다. 특히 OpenAI나 Google처럼 글로벌 수준의 기업은 이미 헌법형 AI와 RLHF 기반의 안전 장치를 강화하고 있으며, 이는 일정 부분에서 답변을 보수적으로 만드는 원인이 됩니다. 반면 DeepSeek처럼 신생 기업은 상대적으로 완화된 검열 구조를 가질 수 있고, 이는 향후 규제 이슈로 비화될 수 있습니다.

기술적으로는 ‘유해하지 않으면서도 유용한’ AI를 구현하기 위해서는 사용자의 맥락을 정확히 해석하고, 요청의 수준을 실시간으로 판단하는 정교한 판단 로직이 필요합니다. 이 과정에서 윤리 규범과 문화적 기준을 반영하는 것이 핵심 과제가 됩니다.

이번 연구는 AI가 인간과 소통하는 방식이 단순히 언어 생성 그 자체를 넘어서, 인간의 가치와 윤리 기준까지 고려하는 지능적 판단 시스템으로 발전해야 함을 명확히 보여주고 있습니다.

https://www.technologyreview.com/2025/06/19/1119066/ai-chatbot-dirty-talk-deepseek-replika

댓글 달기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다

위로 스크롤