우리는 지금 인공지능이 삶의 모든 영역에 깊숙이 스며드는 시대를 살고 있습니다. 스마트폰 속 개인 비서부터 복잡한 데이터를 분석하는 기업 솔루션에 이르기까지, 인공지능은 이제 우리 일상의 필수적인 부분이 되었죠. 특히 최근 몇 년간 챗GPT와 같은 대규모 언어 모델(LLM)의 등장은 우리가 정보를 얻고, 문제를 해결하며, 심지어 의사결정을 내리는 방식까지 근본적으로 바꾸어 놓았습니다. 궁금한 것이 있으면 AI에 묻고, 복잡한 문서는 AI의 도움을 받아 요약하며, 때로는 AI가 제안하는 아이디어를 바탕으로 중요한 결정을 내리기도 합니다.
하지만 여기서 중요한 질문이 떠오릅니다. 만약 AI가 우리의 초기 판단이나 신념과 정반대되는 주장을 펼친다면 어떨까요? 특히 그 주장이 도덕적 딜레마와 관련된 것이라면, 우리는 AI의 논리에 얼마나 쉽게 설득될까요? 단순히 사실 관계를 확인하는 것을 넘어, 인간의 깊은 내면에 자리한 도덕적 판단마저 AI의 영향력 아래 놓일 수 있을까요? 그리고 이러한 AI의 설득력은 모든 사람에게 동일하게 작용할까요, 아니면 특정 연령대나 인지적 특성을 가진 이들에게 더 강력하게 다가갈까요? 이 질문은 AI가 단순한 도구를 넘어 사회적, 윤리적 주체로 부상하는 오늘날, 우리가 반드시 고민해야 할 중요한 문제입니다. AI의 설득력이 긍정적인 방향으로 활용될 수도 있지만, 동시에 오도된 판단이나 취약한 계층에 대한 부당한 영향력으로 이어질 수 있다는 가능성을 내포하기 때문입니다.
AI의 설득력, 연령별 차이
고령층의 도덕적 판단에 미치는 AI의 영향력 탐구
이러한 중요한 질문에 답하기 위해, 최근 Tamura 연구팀은 대규모 언어 모델이 생성한 반대 논증이 젊은층과 고령층의 도덕적 판단에 어떤 영향을 미 미치는지에 대한 심층적인 연구를 진행했습니다. 연구팀은 AI가 도덕적 판단을 번복하게 만드는 강력한 설득력을 가지고 있는지, 그리고 이러한 효과가 딜레마의 종류, 개인의 인지 기능, AI에 대한 신뢰, 그리고 LLM 사용 경험에 따라 어떻게 달라지는지를 면밀히 살펴보았습니다.
연구팀은 130명의 참가자(젊은층 56명, 고령층 74명)를 대상으로 실험을 설계했습니다. 참가자들은 윤리학에서 흔히 다뤄지는 두 가지 고전적인 딜레마, 즉 스위치 딜레마(Switch Dilemma)와 육교 딜레마(Footbridge Dilemma)에 직면했습니다. 스위치 딜레마는 기차의 방향을 바꿔 한 명을 희생시켜 여러 명을 구하는 비교적 비개인적인 상황을, 육교 딜레마는 육교 위에서 사람을 밀어 기차를 멈춰 여러 명을 구하는 보다 감정적이고 개인적인 상황을 제시합니다. 참가자들은 먼저 각 딜레마에 대한 자신의 초기 도덕적 판단을 내린 후, ChatGPT가 생성한, 그들의 초기 판단에 반대되는 반대 논증을 접하게 되었습니다. 연구팀은 이 반대 논증을 읽은 후 참가자들의 판단이 어떻게 변화하는지를 관찰했습니다.
놀라운 연구 결과는 AI의 설득력이 예상보다 훨씬 강력하다는 것을 보여주었습니다. 전체 참가자의 30% 이상이 AI가 제시한 반대 논증을 읽은 후 자신의 도덕적 판단을 번복했습니다. 구체적으로는 스위치 딜레마에서 32.31%, 육교 딜레마에서 36.92%의 참가자가 판단을 뒤집었죠. 이는 대규모 언어 모델이 인간의 도덕적 판단에 상당한 영향을 미칠 수 있음을 시사합니다.
특히 연령대별 차이는 더욱 두드러졌습니다. 고령층은 젊은층보다 판단을 번복할 가능성이 더 높은 경향을 보였으며, 스위치 딜레마에서는 그 변화의 정도가 통계적으로 유의미하게 더 컸습니다. 무엇보다 흥미로운 점은 감정적으로 더 직접적이고 혐오감을 유발할 수 있는 육교 딜레마에서 나타났습니다. 인지 기능이 낮은 고령층은 LLM이 생성한 반대 논증에 유의미하게 더 많이 동조하는 경향을 보였습니다. 이는 인지적 취약성이 AI의 설득에 대한 민감도를 높일 수 있음을 강력하게 시사합니다.
흥미롭게도, AI에 대한 일반적인 신뢰나 이전에 LLM을 사용해 본 경험은 판단 번복을 예측하는 요인이 아니었습니다. 이는 신뢰와 설득 사이에 직접적인 연결 고리가 없음을 의미하며, AI에 대한 막연한 신뢰 여부와 관계없이 설득될 수 있다는 점을 보여줍니다. 대신, 초기 판단에 대한 낮은 자신감과 과제 난이도에 대한 높은 인식과 같은 개인적인 요인들이 AI의 영향에 더 취약하게 만드는 요소로 작용했습니다. 이 연구는 대규모 언어 모델이 고령층의 인지적 부담을 덜어주는 도구(Cognitive Offloading)로 작용하여 노화 관련 인지 저하를 보완할 수 있지만, 동시에 인지적으로 취약한 개인에게는 부당한 설득의 위험(Risk of Undue Persuasion)을 초래할 수 있음을 강력하게 경고하고 있습니다.
AI가 던지는 윤리적 질문
인공지능 시대, 의사결정의 주체는 누구인가
Tamura 연구팀의 이번 연구 결과는 단순한 실험실의 발견을 넘어, AI가 우리 사회에 미치는 파급력에 대한 중요한 윤리적, 사회적 질문을 던집니다. AI가 도덕적 판단과 같은 인간의 고유한 영역에까지 영향을 미 미칠 수 있다는 사실은 우리가 AI를 어떻게 설계하고 활용해야 할지에 대한 깊은 고민을 요구합니다. 특히 고령층과 같이 인지적으로 취약할 수 있는 집단이 AI의 설득에 더 쉽게 노출될 수 있다는 점은 사회 전체의 주의를 환기시킵니다.
이 연구는 AI의 인지 오프로딩 기능이 분명히 긍정적인 측면을 가지고 있음을 보여줍니다. 즉, 복잡한 정보 처리나 의사결정 과정에서 AI의 도움을 받는 것이 인지적 자원을 절약하고 효율성을 높일 수 있다는 것이죠. 이는 고령층에게는 인지 기능 저하를 보완하고 독립적인 생활을 유지하는 데 도움을 줄 수 있는 강력한 도구가 될 수 있습니다. 하지만 동시에 그 이면에는 과도한 설득의 위험이라는 그림자가 드리워져 있습니다. AI가 제시하는 정보나 논리가 언제나 객관적이고 중립적이지 않을 수 있으며, 특정 의도나 편향을 담고 있을 경우, 사용자는 자신도 모르는 사이에 잘못된 판단을 내리거나 특정 관점에 갇힐 수 있습니다. 이는 단순히 개인의 문제를 넘어, 사회 전체의 집단적 의사결정과 여론 형성 과정에도 심각한 영향을 미칠 수 있습니다.
따라서 우리는 AI 기술 개발과 활용에 있어 윤리적 가이드라인과 안전장치 마련의 중요성을 다시 한번 상기해야 합니다. AI가 제공하는 정보와 주장을 비판적으로 평가하고, AI의 한계와 편향 가능성을 인지하는 디지털 리터러시 교육의 필요성도 더욱 커지고 있습니다. AI가 단순한 도구를 넘어 인간의 사고와 판단에 깊이 개입하는 시대에, 우리는 AI와 어떻게 공존하며 인간 고유의 가치와 자율성을 지켜나갈 것인지에 대한 해답을 찾아야 할 것입니다.
AI 시대, 현명한 공존을 위한 길
비판적 사고와 디지털 리터러시의 중요성 재확인
Tamura 연구팀의 이번 연구는 우리에게 AI의 강력한 설득력과 그에 따른 윤리적 책임에 대한 중요한 통찰을 제공합니다. AI는 분명 인류의 삶을 풍요롭게 만들 잠재력을 지니고 있지만, 그 잠재력이 오용되거나 부적절하게 적용될 경우 심각한 부작용을 낳을 수도 있습니다. 특히 인지적으로 취약한 고령층에 대한 AI의 영향력은 사회적 약자 보호라는 측면에서 더욱 세심한 접근이 필요함을 일깨워줍니다.
이 연구는 AI가 인간의 도덕적 판단에 개입할 때, 단순히 정보의 정확성을 넘어 그 설득의 과정과 결과에 대한 깊은 이해가 필수적임을 보여줍니다. 앞으로 AI 기술은 더욱 발전하고 우리 삶의 모든 면에 스며들 것입니다. 이러한 변화 속에서 우리는 AI를 맹목적으로 신뢰하기보다는, AI가 제시하는 정보나 주장을 항상 비판적인 시각으로 바라보고, 스스로의 판단력을 유지하려는 노력이 중요합니다. 또한, AI 개발자들은 사용자의 인지적 특성을 고려하여 윤리적이고 책임감 있는 AI를 설계해야 할 것입니다. AI가 인간의 능력을 보완하고 확장하는 진정한 조력자가 되기 위해서는, 기술적 발전과 더불어 인간 중심의 윤리적 성찰이 반드시 동반되어야 할 것입니다. 이것이 바로 AI 시대에 우리가 추구해야 할 현명한 공존의 길입니다.
참고문헌
Tamura, K., Ishibashi, S., Goma, A., Yamamoto, K., & Masumoto, K. (2026). Large Language Model Counterarguments in Older Adults: Cognitive Offloading or Vulnerability to Moral Persuasion?. arXiv preprint arXiv:2604.22356. https://arxiv.org/abs/2604.22356
AI FOCUS에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.