사람은 말의 내용을 믿기보다 말투를 믿습니다. “확실합니다”보다 “확실하진 않지만…”이라는 말이 더 신뢰를 줄 때도 있습니다. 이유는 간단합니다. 사람은 타인의 확신보다는 자기 인식(self-awareness)을 더 중요한 신뢰의 기준으로 삼기 때문입니다. 자신이 알고 있는 것과 모르는 것을 구분해 표현하는 사람에게 우리는 본능적으로 신뢰를 보내게 됩니다.
심리학적으로 이런 표현은 에피스테믹 모달리티(epistemic modality)라고 부릅니다. 이는 화자가 자신의 인식 상태, 즉 ‘나는 지금 이 정보를 얼마나 확신하는가’를 언어로 드러내는 장치입니다. 일상 대화 속에서 “그럴 수도 있어요”, “모르겠지만…” 같은 말은 단순한 겸손이 아니라, 상대방에게 판단의 여지를 주는 심리적 신호로 작용합니다. 이런 표현은 인간 사이의 신뢰를 조율하는 데 핵심적인 역할을 하죠.
그렇다면, 인공지능도 그런 말투를 사용할 수 있을까요? 그리고 사람들이 그런 AI를 더 신뢰하게 될까요?
이 질문을 정면으로 다룬 연구가 최근 발표되었습니다. 프린스턴 대학교와 Google DeepMind, Allen Institute for AI의 연구진은 공동으로 발표한 논문 “I’m Not Sure, But…: Examining the Impact of Large Language Models’ Uncertainty Expression on User Reliance and Trust”에서, 언어모델이 사용하는 불확실성 표현이 사용자 신뢰와 판단에 어떤 영향을 주는가를 실험을 통해 분석했습니다. 특히 “I’m not sure, but…”이라는 표현이 사람들에게 어떤 반응을 유도하는지를 정밀하게 측정한 것입니다.
[망설이는 말, 더 믿게 되는 심리]
연구팀은 실제 의료 상황을 시뮬레이션한 사용자 실험을 설계했습니다. 400명 이상의 참가자에게 AI가 답변하는 형태의 건강 정보를 제시하고, 그 표현 방식에 따라 사용자 반응이 어떻게 달라지는지를 살펴본 것입니다.
실험에서 사용된 AI 응답은 다음과 같이 세 가지 유형으로 나뉘었습니다:
- 확신형 표현: “The answer is X.”
- 일반적 불확실 표현: “It’s unclear, but X may be correct.”
- 1인칭 망설임 표현: “I’m not sure, but X might be the answer.”
각 그룹에 따라 참가자들은 AI의 조언을 얼마나 신뢰했는지, 그리고 실제 판단의 정확도에 어떤 차이가 생겼는지 평가되었습니다.
그 결과는 매우 흥미로웠습니다. “I’m not sure, but…” 같은 1인칭 불확실성 표현을 들은 사용자들은 AI에 대한 신뢰는 낮췄지만, 정답을 맞출 확률은 오히려 높아졌습니다. 즉, 사용자가 AI의 말을 더 신중하게 받아들이고, 자신의 판단력을 적극적으로 사용하게 된 것입니다.
이것은 인지심리학의 핵심 개념 중 하나인 메타인지(metacognition)를 자극하는 효과로 볼 수 있습니다. 외부에서 들어오는 불확실한 표현은, 뇌의 ‘논리적 판단 모드(시스템 2)’를 활성화시킵니다. 쉽게 말해, “이 AI가 확신하지 못하는구나”라는 신호를 받은 사람은 스스로 더 생각하게 됩니다.
[말투는 판단을 조절하는 장치다]
사람들은 누군가가 자신의 판단을 조심스럽게 말할 때, 그것을 더 진실되고 신뢰할 만한 태도로 받아들이는 경향이 있습니다. 이는 ‘정보의 정확성’보다 ‘화자의 태도’를 신뢰의 기준으로 삼는 인간 특유의 심리적 작동입니다. 누군가 “잘 모르겠지만 제 생각엔…”이라고 말하면, 듣는 사람은 그 말을 무시하지 않고 오히려 더 신중하게 듣게 됩니다.
이러한 반응은 단지 친절해서가 아닙니다. 사회심리학 연구들은 일관되게, 자신의 지식 상태를 솔직하게 드러내는 사람을 더 정직하고 신뢰할 수 있는 존재로 평가하는 경향을 보여줍니다. 주관적 진술일수록 진실하다고 느끼는 이러한 심리는, 우리가 타인의 자기 인식을 매우 중요한 사회적 신호로 여긴다는 증거이기도 합니다.
이와 동시에, 이런 말투는 상대방의 자율성과 판단 여지를 존중하는 방식으로도 작동합니다. 언어학 이론인 페이스 이론(Face Theory)에 따르면, “I’m not sure” 같은 표현은 상대의 선택권을 침해하지 않고 정보를 제시하는, 관계를 조율하는 전략적 말하기 방식입니다. 단정적인 말보다 신중한 어조가 더 신뢰를 유도하는 것은, 단순히 정보의 불확실성 때문이 아니라, 상대에게 “내 판단이 절대적이지 않다”는 메시지를 전달하기 때문입니다.
결국 이런 언어 표현은 단순한 문장을 넘어, 상호작용의 심리적 질서를 세우는 커뮤니케이션 도구라고 할 수 있습니다.
[AI가 인간처럼 말할 때, 우리는 어떻게 반응하는가]
이러한 인간의 반응은 AI에게도 동일하게 작용합니다. AI가 “I’m not sure”라고 말할 때, 우리는 그 표현 뒤에 판단의 주체가 존재한다고 느끼는 착각을 하게 됩니다. 마치 AI가 나처럼 사고하고, 조심스럽게 판단하고 있다고 여겨지는 것이죠.
이런 감각은 ‘의도 유추(inferred intentionality)’, 또는 ‘인지적 유사성(cognitive similarity)’을 바탕으로 형성됩니다. AI의 표현 방식이 사람과 비슷해질수록, 우리는 그 존재를 인간적으로 해석하고, 그 말에 더 많은 신중함과 신뢰를 부여하게 됩니다.
물론, 실제로 AI는 자각이나 판단 능력을 가진 존재가 아닙니다. 그럼에도 불구하고 우리는 AI의 언어적 선택을 사회적 신호로 해석하고, 그것에 따라 우리의 행동과 판단을 조절합니다.
[불확실한 표현이 만든 새로운 가능성]
이 연구는 AI의 성능을 단순히 정답률이나 정확도로만 평가하는 시대가 지났음을 보여줍니다. 이제는 AI가 언어를 통해 인간과 어떻게 상호작용하고, 사용자의 인지와 판단을 어떻게 조절하는가를 함께 고려해야 할 시점입니다.
우리는 AI에게 더 빠르고 정확한 답을 원하면서도, 때로는 “잘 모르겠다”고 말할 줄 아는 겸손한 태도를 기대합니다. 그리고 그 말투 하나가, AI를 더 신뢰하거나 경계하게 만드는 결정적인 단서가 되기도 합니다.
[AI 설계의 다음 기준: 인간의 이해를 반영하라]
이제 중요한 질문은 이것입니다. 우리는 AI가 어떻게 말하길 원하는가?
AI가 인간과 자연스럽게 대화하기 위해서는, 단지 문법이나 어휘만이 아니라, 인간의 언어적·심리적 수용 방식을 이해하고 반영해야 합니다. “I’m not sure”라는 말이 인간에게 어떤 작용을 하는지 이해하지 못한 채, 그 문장을 흉내내는 것만으로는 진정한 신뢰를 얻을 수 없습니다.
결국 AI 설계의 본질은 ‘정보를 제공하는 방식’을 인간이 받아들이는 방식에 맞추는 것입니다. AI의 언어는 점점 더 사람처럼 정교해지고 있습니다. 그렇다면 이제는 사람의 방식으로 말하는 AI가, 사람의 방식으로 이해받을 수 있는 구조를 설계하는 것, 그것이 다음 과제가 되어야 하지 않을까요?
[참고 문헌]
Kim, B., Kadam, A., Chi, E. H., & Dodge, J. (2024). I’m Not Sure, But…: Examining the Impact of Large Language Models’ Uncertainty Expression on User Reliance and Trust. arXiv preprint arXiv:2403.08512.
AI FOCUS에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.