최근 몇 년 사이, ChatGPT나 미드저니(Midjourney)와 같은 생성형 인공지능 기술은 우리 삶의 많은 부분을 변화시키고 있습니다. 기사를 쓰고, 그림을 그리고, 심지어 음악을 작곡하는 일까지 AI의 손길이 닿지 않는 곳이 없을 정도입니다. 이러한 기술의 발전은 놀라운 창의성을 선사하지만, 동시에 새로운 윤리적 질문들을 던지고 있습니다. 특히, AI가 생성한 콘텐츠를 재사용하거나 복제할 때, 우리는 과연 어떤 도덕적 잣대를 적용해야 할까요? 인간이 만든 창작물을 무단으로 사용하는 것이 명백한 표절이자 비윤리적인 행위로 간주되는 것과 달리, AI가 만든 결과물에 대해서도 똑같은 엄격함을 유지할 수 있을까요?
이 질문은 단순한 기술적 문제가 아니라, 우리가 인공지능을 어떻게 인식하고, 그들의 ‘노동’에 어떤 가치를 부여하는지에 대한 근본적인 물음과 연결됩니다. 예를 들어, AI가 그린 그림을 가져다 쓰는 것과 인간 화가가 그린 그림을 가져다 쓰는 것이 과연 동일한 무게의 윤리적 비난을 받아야 할까요? 만약 AI가 생성한 텍스트를 마치 자신이 쓴 것처럼 발표한다면, 이는 인간의 글을 표절한 것과 같은 수준의 도덕적 해이일까요? 이러한 고민들은 인공지능 시대의 저작권, 소유권, 그리고 창작의 가치에 대한 우리의 인식을 재정립하게 만듭니다. 우리는 아직 인공지능이라는 새로운 창작 주체에 대한 사회적 합의나 명확한 윤리적 기준을 마련하지 못한 채, 빠르게 변화하는 기술의 속도를 따라가고 있는 중입니다.
AI 콘텐츠 복제, 인간보다 관대한 이유
AI가 창작한 콘텐츠를 복제하는 행위를 사람들이 어떻게 판단하는지에 대한 심층 분석
이러한 복잡한 윤리적 질문에 답하기 위해, 최근 고려대학교의 정혜선(Hyesun Choung) 연구원과 김수종(Soojong Kim) 교수는 흥미로운 연구를 진행했습니다. 이들은 사람들이 AI가 만든 콘텐츠의 재사용에 대해 어떤 윤리적 판단을 내리는지, 그리고 그 판단의 기저에는 어떤 심리적 요인들이 작용하는지를 탐구했습니다. 연구팀은 특히 두 가지 핵심 개념에 주목했습니다. 하나는 ‘도덕적 인내력(moral patiency)’으로, 타인이 해를 입을 수 있는 능력, 즉 고통을 느끼거나 피해를 입을 수 있는 존재로 인식하는 정도를 의미합니다. 다른 하나는 ‘소유권 인식(ownership perceptions)’으로, 특정 창작물에 대한 소유 주체가 누구라고 생각하는지에 대한 인식입니다.
정혜선 연구원과 김수종 교수는 한 가지 정교한 실험을 설계했습니다. 참가자들에게 내용상으로는 유사하지만, 원본 출처가 다르게 묘사된 두 편의 가상 원고를 평가하도록 했습니다. 첫 번째 조건에서는 원고가 인간 저자에 의해 작성되었다고 설명했고, 두 번째 조건에서는 일반적인 AI 시스템에 의해 작성되었다고 했습니다. 마지막 세 번째 조건에서는 인간적인 이름(예: ‘아이리스’와 같은)을 가진 AI 에이전트에 의해 작성되었다고 제시하며, AI의 의인화 정도를 달리했습니다. 그리고 참가자들에게 이 AI 생성 원고를 복사하여 사용하는 행위에 대해 얼마나 비윤리적인지, 표절성이 있는지, 그리고 죄책감을 유발하는지 등을 평가하게 했습니다.
실험 결과는 매우 명확했습니다. 참가자들은 AI가 생성한 저작물을 복사하는 행위를 인간이 작성한 저작물을 복사하는 것보다 덜 비윤리적이고, 덜 표절적이며, 덜 죄책감을 유발하는 행위로 판단했습니다. 다시 말해, 우리는 AI가 만든 콘텐츠에 대해 훨씬 더 관대한 윤리적 잣대를 적용하고 있었던 것입니다. 이러한 관대함이 어디에서 비롯되는지 알아보기 위해 추가 분석을 진행한 결과, 두 가지 핵심적인 심리적 메커니즘이 밝혀졌습니다. 첫째, 사람들은 AI가 인간처럼 피해를 입거나 고통을 겪을 능력이 낮다고 인식했기 때문(낮은 도덕적 인내력)에 AI 콘텐츠 복제를 덜 심각하게 여겼습니다. 둘째, AI가 생성한 콘텐츠를 재사용하는 인간 저자에게 더 큰 소유권을 부여했기 때문입니다. 즉, AI는 단순한 도구일 뿐이고, 그 결과물을 활용한 인간에게 최종적인 소유권이 있다고 본 것입니다. 흥미롭게도, ‘아이리스’와 같은 인간적인 이름이 부여된 AI, 즉 의인화된 AI는 오히려 소유권 인식에 간접적으로 영향을 미쳐 윤리적 판단을 완화하는 경향을 보였습니다. 이는 AI가 인간의 특성을 가질수록 사람들이 AI의 노동에 대한 ‘권리’를 덜 중요하게 여기는 역설적인 결과로 해석될 수 있습니다.
AI 시대의 창작, 새로운 윤리적 경계
AI가 만든 결과물에 대한 우리의 윤리적 판단이 가져올 파급효과와 미래
이 연구 결과는 인공지능 시대의 창작물과 윤리적 판단에 대한 중요한 시사점을 던져줍니다. 우리가 AI의 창작물을 인간의 것과 다르게 취급하는 경향은 저작권 및 지적 재산권 논의에 복잡성을 더합니다. 만약 AI가 만들어낸 결과물에 대해 인간만큼의 보호를 부여하지 않는다면, 이는 AI 기술의 발전과 활용에 어떤 영향을 미칠까요? AI를 활용하여 콘텐츠를 만드는 창작자들은 자신들의 ‘노력’이 어디까지 인정받을 수 있을지, 그리고 AI가 생성한 부분은 어느 정도까지 자유롭게 사용될 수 있는지에 대한 불확실성에 직면하게 될 것입니다.
특히, 이 연구는 우리가 AI에 대해 ‘도덕적 비활성화(moral disengagement)’를 경험할 수 있음을 보여줍니다. 즉, AI가 고통을 느끼지 못한다고 판단함으로써, AI의 창작물을 무단으로 사용하는 행위에 대한 도덕적 부담을 덜어내는 경향이 있다는 것입니다. 이러한 경향은 장기적으로 AI와의 협업 방식이나 AI의 역할 설정에 대한 우리의 태도에 영향을 미칠 수 있습니다. AI를 단순한 도구로만 볼 것인가, 아니면 일종의 ‘창작 동반자’로 볼 것인가에 대한 사회적 합의가 더욱 중요해지는 이유입니다. 또한, 이는 딥페이크(Deepfake)와 같은 AI 생성 콘텐츠의 오남용 문제와도 연결될 수 있습니다. AI가 만든 콘텐츠에 대한 윤리적 관대함이 자칫하면 기술 오용에 대한 경각심을 낮추는 결과를 초래할 수도 있기 때문입니다.
인간과 AI, 공존의 윤리 재정립
생성형 AI 시대, 우리의 도덕적 나침반은 어디를 향해야 하는가
정혜선 연구원과 김수종 교수의 연구는 우리가 인공지능과 상호작용할 때 우리의 도덕적 나침반이 어떻게 작동하는지를 명확히 보여줍니다. 핵심은 우리가 AI를 ‘피해를 입을 수 있는 존재’로 보지 않는 경향, 그리고 AI의 창작물에 대한 인간의 소유권을 더 높게 평가하는 심리가 AI 콘텐츠 복제에 대한 윤리적 판단을 완화시킨다는 점입니다. 이는 단순히 기술적인 문제가 아니라, 인간이 인공지능을 어떻게 정의하고 받아들일 것인지에 대한 철학적, 사회적 질문과 맞닿아 있습니다.
생성형 AI의 시대는 이제 막 시작되었습니다. 앞으로 우리는 AI가 만들어내는 놀라운 결과물들을 더욱 자주 접하게 될 것이며, 그 과정에서 수많은 윤리적 딜레마에 직면할 것입니다. 이 연구는 우리가 이러한 딜레마에 어떻게 접근해야 할지에 대한 중요한 단서를 제공합니다. AI의 ‘도덕적 인내력’과 ‘소유권’에 대한 우리의 인식을 명확히 이해하는 것이, 인간과 AI가 공존하며 번영할 수 있는 새로운 윤리적 프레임워크를 구축하는 첫걸음이 될 것입니다. 이 연구를 통해 우리는 인공지능 기술의 발전 속도만큼이나, 그 기술을 둘러싼 인간의 윤리적, 심리적 측면을 깊이 성찰해야 할 필요성을 다시금 깨닫게 됩니다.
참고문헌
Choung, H., & Kim, S. (2026). Can AI be a moral victim? The role of moral patiency and ownership perceptions in ethical judgments of using AI-generated content. arXiv preprint arXiv:2604.26956. https://arxiv.org/abs/2604.26956
AI FOCUS에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.