AI와 사람이 함께 판단을 내리는 시대, AI가 항상 정답을 알려주는 것이 최선일까요? 혹시 AI가 “잘 모르겠다”고 한발 물러서야 오히려 사람이 더 똑똑한 결정을 내릴 수 있는 상황은 없을까요?
이 흥미로운 질문에 답하는 연구가 있습니다. 하버드 대학교, DeepMind, Google Brain 소속 연구진이 공동 발표한 논문 “Role of Human-AI Interaction in Selective Prediction”은 인간-AI 협업 환경에서 ‘언제, 무엇을, 어떻게 말해야 할지’에 대한 새로운 기준을 제시합니다. 연구진은 특히 AI가 스스로 판단을 유보하는 ‘선택적 예측(Selective Prediction)’ 상황에서, 사람에게 AI의 판단과 그 자신감 수준을 어떤 방식으로 전달하는 것이 최선인가를 실험적으로 분석했습니다.
이전까지의 많은 연구는 “AI가 스스로 판단을 유보할 경우, 인간이 대신 결정하게 되며, 그 과정은 AI의 존재 여부와 관계없이 사람마다 일정하다”는 가정을 해왔습니다. 즉, 사람이 AI를 단순히 ‘보조 도구’로만 활용하고, AI가 판단을 유보해도 자신의 판단 방식에는 큰 차이가 없을 것이라는 전제였습니다. 하지만 이번 연구는 그 가정을 정면으로 반박합니다. AI가 사람에게 어떤 정보를 주느냐에 따라, 사람의 판단 방식과 결과는 극적으로 달라질 수 있다는 점을 밝혔습니다.
[AI가 던지는 단서: 말할까, 말지 말까]
연구진은 총 198명의 참가자들에게 사파리 카메라로 촬영한 야생 동물 이미지를 분류하게 했습니다. 각 참가자는 80장의 이미지를 보고, ‘어떤 동물인지’를 직접 판단해야 했습니다. 하지만 모든 이미지를 참가자 혼자 판단한 것은 아닙니다. 일부 이미지는 AI가 먼저 분석해보고, 자신이 확신이 없다고 느낄 경우 사람에게 판단을 넘기는 구조였습니다.
이렇게 AI가 판단을 넘긴 이미지에 대해, 사람에게는 네 가지 방식 중 하나로 정보가 주어졌습니다:
- AI가 아무 말도 하지 않음 (기본값)
- “AI가 이 이미지를 판단하기 어렵다고 생각했습니다”라는 메시지만 제공
- AI가 내린 예측 결과만 제공 (예: ‘이건 표범일 가능성이 높습니다’)
- 보류 메시지와 예측 결과 모두 제공
놀랍게도, AI가 ‘이건 어렵다’고만 말했을 때, 사람의 정답률이 가장 높았습니다 (61.9%). 반대로, AI가 예측 결과만 보여줬을 때 정답률은 오히려 가장 낮았고, AI가 틀린 경우엔 참가자들도 그대로 틀리는 경우가 많았습니다(정답률 42%).
이 실험은 단순한 정보 전달이 아니라, 정보가 인간에게 주는 **심리적 신호(신호값)**가 중요하다는 점을 보여줍니다. 예를 들어, AI가 예측만 주면 사람은 “AI가 이렇게 말하니 그럴 거야”라며 쉽게 따라갑니다. 이게 바로 ‘신뢰를 높이는 것’이 오히려 위험할 수 있는 상황입니다. 반면, AI가 “난 잘 모르겠다”고 말하면, 사람은 “그럼 내가 좀 더 신중히 봐야겠네”라고 경계심을 높이고, 실제로 더 정확한 판단을 하게 됩니다.
[정답보다 더 중요한 것: 정보 설계]
이 연구는 인간-AI 협업 시스템에서 AI가 항상 ‘많은 정보’를 제공한다고 해서 좋은 결과가 나오지는 않는다는 점을 분명히 보여줍니다. 오히려 사람의 판단력은 ‘정보의 양’보다 ‘정보의 맥락과 의미’에 더 민감하게 반응합니다.
흥미롭게도, AI가 판단을 넘기는 방식—특히 “이건 어렵다”는 메시지 하나만 전달하는 방식—은 사람의 인지적 주의를 환기시키는 강력한 자극이 되었습니다. 이는 ‘앵커링 편향’과도 연결됩니다. 사람이 자신감이 낮을 때, AI가 어떤 예측을 했는지를 보면 그것에 끌려가버리기 쉬운 심리적 경향입니다.
연구진은 AI가 “이건 어렵다”는 메시지를 던지면서도 구체적인 예측 결과는 오히려 숨기는 것이 인간의 사고력과 판단력을 더 살릴 수 있는 방법이라고 제안합니다.
[AI는 침묵을 선택할 줄 알아야 한다]
결론적으로 이 연구는 인간-AI 협업에서 ‘신뢰를 쌓자’는 일반적인 접근에 반기를 듭니다. 단순히 AI가 사람에게 더 많은 정보, 더 정교한 예측을 제공하는 것이 꼭 좋은 것은 아닙니다. 때로는 AI가 말을 아끼고 한 발 물러설 줄 아는 것이 오히려 사람의 역량을 더 잘 끌어낼 수 있습니다.
실제로 ‘잘 모르면 말을 아끼는 AI’는 사람에게 더 많은 책임감을 느끼게 하고, 자신의 판단을 더 신중하게 돌아보게 만듭니다. AI가 정답을 내놓기보다, “이건 어렵다”는 신호만 던지는 것. 그 한 마디가 팀워크를 바꾸고, 결과를 바꿉니다.
이 연구는 의료 영상 판독, 법률 판단, 생태계 보호 등 정답이 애매하고 실수가 치명적인 분야에서 특히 중요한 시사점을 던집니다. 향후 연구진은 이 같은 ‘선택적 설명’이 다양한 분야에서 어떻게 작동하는지, 그리고 AI의 ‘침묵’이 신뢰와 책임에 어떤 변화를 가져오는지도 더 깊이 연구할 계획입니다.
결국, AI가 말을 멈출 때, 인간은 더 똑똑해진다는 이 아이러니가 미래 협업 시스템 설계의 중요한 방향이 될 것입니다.
[참고 자료]
Bondi et al., The Role of Human-AI Interaction in Selective Prediction, AAAI 2022.
AI FOCUS에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.