현대 사회를 살아가는 우리에게 ‘명쾌함’은 점점 희귀한 자원이 되어가고 있습니다. 과거에는 어떤 문제가 발생했을 때 그 원인을 추적하고 결과를 분석하는 과정이 비교적 선형적이었습니다. 기계가 고장 나면 부품을 갈면 되었고, 공정에서 실수가 생기면 그 단계의 매뉴얼을 수정하면 됐죠. 하지만 오늘날 우리가 마주하는 문제들은 마치 복잡하게 얽힌 실타래와 같습니다. 기술과 사회, 인간의 욕망이 층층이 쌓여 있어, 이제는 무엇이 시작이고 무엇이 끝인지조차 분간하기 어려운 경우가 많습니다.
특히 기술의 진보는 이 복잡성에 기름을 부었습니다. 클라우드, 사물인터넷(IoT), 수많은 소프트웨어가 실시간으로 연결된 생태계에서는 아주 작은 나비의 날갯짓이 네트워크 전체를 뒤흔드는 폭풍이 되기도 합니다. 그리고 그 중심에 **인공지능(AI)**이 등장하면서, 우리는 이전에 경험하지 못한 거대한 ‘불투명성’의 시대로 진입했습니다.
AI라는 새로운 의사결정자의 등장
이제 AI는 단순한 도구를 넘어 조직의 중요한 의사결정 파트너로 자리 잡았습니다. 채용 프로세스에서 이력서를 스크리닝하고, 자율주행차가 도로 위에서 생사를 가를 판단을 내리며, 알고리즘이 수십억 건의 트레이딩을 수행합니다. 문제는 AI가 내리는 결정이 인간의 논리로는 단번에 이해되지 않는 ‘블랙박스’와 같을 때가 많다는 점입니다.
조직 내에서 AI가 관여한 업무에 문제가 생겼을 때를 상상해 보십시오. 과연 누구에게 책임을 물어야 할까요? 코드를 짠 개발자일까요, 학습 데이터를 제공한 팀일까요, 아니면 최종적으로 그 시스템을 도입하기로 한 경영진일까요? 혹은 그저 ‘기술적 오류’라는 이름 뒤로 모두가 숨어버려야 할까요?
기술적으로 앞서가는 글로벌 기업들은 이미 이 지점에서 깊은 고민을 시작했습니다. 단순히 ‘누가 잘못했나’를 따지는 과거의 방식으로는 AI 시대의 지속 가능한 성장이 불가능하다는 것을 깨달은 것입니다. 실수를 숨기거나 특정 개인에게 화살을 돌리는 문화는 결국 조직의 학습 능력을 마비시키고 더 큰 재앙을 부르기 마련입니다.
MIT Sloan Management Review가 제시하는 ‘서사적 책임’
이러한 혼란 속에서 최근 MIT Sloan Management Review에 게재된 프랑수아 그자비에 드 보나니(François-Xavier de Vaujany)와 오렐리 르클레르크-반델라노이트(Aurélie Leclercq-Vandelannoitte)의 연구(“Rethink Responsibility in the Age of AI”)는 매우 시의적절하고도 통찰력 있는 해법을 제시합니다.
저자들은 과거의 **’고전적 책임 모델’**이 더 이상 작동하지 않는다고 단언합니다. 기존의 모델은 세상을 선형적인 인과관계로 보고, 특정 개인이 의도를 가지고 내린 결정이 결과를 만든다고 가정했습니다. 하지만 AI 시대의 사고는 수많은 사람과 기계가 상호작용한 결과로 나타나는 ‘분산된 주체성’의 산물입니다.
이에 대한 대안으로 저자들은 서사적 책임(Narrative Responsibility)이라는 개념을 제안합니다. 이는 사고가 터졌을 때 단 한 명의 ‘범인’을 지목해 처벌하고 상황을 종료하는 것이 아니라, 그 사건이 일어나기까지의 **’진짜 이야기’**를 함께 재구성하는 과정이고 조직의 체질을 바꾸는 구체적인 행동 지침입니다.
앞서 언급한 세 가지 핵심 전략을 구체적인 사례와 함께 깊이 있게 살펴보겠습니다.
1. 진짜 이야기를 지도화하기 (Map the real story)
문제가 발생했을 때 대부분의 조직은 ‘기술적 결함’이나 ‘담당자의 실수’라는 단편적인 원인에서 조사를 멈춥니다. 하지만 서사적 책임은 사고의 수면 아래 숨겨진 거대한 빙하를 그려내는 작업입니다.
- 기술 너머의 맥락 읽기: 단순한 사후 분석(Post-mortem)이 “코드가 왜 깨졌는가?”를 묻는다면, 서사적 지도는 “왜 그 코드가 검증 없이 배포되었는가?”를 묻습니다. 여기에는 시장의 압박, 마감 기한을 맞추기 위한 무리한 일정, 혹은 상급자의 권위에 눌려 아무도 이의를 제기하지 못한 조직 내 ‘침묵의 카르텔’까지 포함됩니다.
- 구체적 사례: 2024년 초 구글 제미나이(Gemini)의 이미지 생성 오류를 떠올려 보십시오. 구글은 단순히 알고리즘 수치만 수정한 것이 아니라, 내부 메모를 통해 ‘출시 프로세스의 구조적 문제’와 ‘레드팀(Red-teaming)의 한계’를 인정했습니다. 이는 기술적 오류 뒤에 숨은 조직적 역동성을 지도화하여, 재발 방지를 위한 진짜 원인을 직시한 사례입니다.
2. 비난이 아닌 소유권의 분산 (Distribute ownership, not blame)
AI 시스템의 결정은 여러 부서의 데이터와 알고리즘이 얽혀 만들어진 ‘공동의 작품’입니다. 따라서 결과에 대한 책임 역시 특정 개인에게 몰아넣는 대신, 관계된 모든 주체가 나누어 가져야 합니다.
- 항공 업계의 ‘정당한 문화(Just Culture)’: 이는 서사적 책임의 가장 강력한 모델입니다. 비행 사고가 발생했을 때, 항공 업계는 조종사를 처벌하는 데 급급하지 않습니다. 만약 조종사가 고의로 법을 어긴 것이 아니라면, 시스템의 허점을 보고하고 공유한 것에 대해 면책권을 부여합니다.
- 왜 하는가? 처벌이 두려워 실수를 숨기면 더 큰 재앙이 오기 때문입니다. 대신 ‘사건 검토 패널’을 구성해 정비사, 설계자, 관제사 모두가 “나의 역할이 이 결과에 어떤 영향을 미쳤는가”를 고백하고 함께 대안을 찾습니다. 책임을 ‘비난(Blame)’이 아닌 시스템 개선을 위한 ‘기여(Contribution)’로 재정의하는 것입니다.
- 실천 방안: 조직 내에 ‘사고 검토 위원회’나 ‘다학제적 자문 그룹’을 상설화하여, 문제가 터졌을 때 방어적인 자세가 아니라 “우리가 함께 무엇을 놓쳤는가”를 논의하는 심리적 안전지대를 구축해야 합니다.
3. 일상에 성찰을 내재화하기 (Embed reflection in everyday practice)
서사적 책임은 소 잃고 외양간 고치는 식의 ‘사후 약방문’이 되어서는 안 됩니다. 학습은 조직의 숨쉬는 일상이 되어야 합니다.
- 루틴으로서의 성찰: 거창한 위기 상황이 아니더라도, 매주 열리는 주간 회의나 프로젝트의 각 단계(Sprint) 끝에 ‘성찰 세션’을 배치하는 것입니다.
- 질문의 전환: “누가 이 일을 맡았지?”라는 질문 대신, **”우리가 세운 가정이 여전히 유효한가?”, “데이터의 편향성을 점검할 목소리가 충분히 반영되었는가?”**를 습관적으로 물어야 합니다.
- 구체적 사례: 네덜란드의 ING 은행은 애자일(Agile) 루틴 속에 ‘회고 세션(Retrospective Learning Sessions)’을 강제적으로 포함시킵니다. 이들은 성공한 프로젝트에서도 “운이 좋았던 부분은 무엇인가?”를 찾아내고, 실패한 프로젝트에서는 그 교훈을 ‘살아있는 문서’로 남겨 다음 프로젝트의 매뉴얼로 활용합니다. 기록된 서사는 시간이 지나며 조직의 강력한 지식 자산이 됩니다.
결론: AI와 함께 성장하는 ‘학습하는 조직’
AI라는 강력하고도 복잡한 파트너와 함께 나아가기 위해 리더가 갖춰야 할 핵심 역량은 **’서사를 엮어내는 힘’**입니다. 개별적인 실수들을 점으로 남겨두지 않고, 그것들을 이어 조직 전체의 근육을 키우는 학습의 선으로 만드는 것이죠.
전통적인 책임 모델이 ‘과거의 잘못’에 집중했다면, 서사적 책임은 **’미래의 복원력’**에 집중합니다. 우리 조직이 AI와 협력하며 더 안전하고 현명한 결정을 내리길 원한다면, 이제 비난의 손가락을 거두고 질문의 노트를 펼쳐야 할 때입니다. 그 노트에 적힌 우리만의 정직한 서사가, 거친 기술의 파도 속에서 조직을 지켜줄 가장 단단한 닻이 되어줄 것입니다.
AI FOCUS에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.