정보 혁명과 민주주의
AI가 이끄는 새로운 정보 패러다임, 사회 시스템을 재편하다
인류 역사를 되돌아보면, 정보의 흐름 방식이 변화할 때마다 사회의 통치 방식 또한 근본적으로 재편되어 왔습니다. 구텐베르크의 인쇄술은 문해력을 확산시키며 종교개혁을 촉발했고, 결국 대의 민주주의의 토대를 마련했습니다. 전신(Telegraph)은 미국과 같은 거대한 국가의 효율적인 통치를 가능하게 하여 근대 관료 국가의 성장을 가속화했죠. 그리고 방송 매체는 전국적인 공통의 시청자층을 형성하며 대중 민주주의의 발전을 이끌었습니다. 이처럼 정보 기술의 진보는 사회 구조와 민주주의의 형태를 끊임없이 변화시켜 왔습니다.
지금 우리는 또 다른 거대한 변화의 초기 단계에 서 있습니다. 많은 사람이 인식하는 것보다 훨씬 빠르게, 인공지능(AI)은 우리가 신념을 형성하고 민주적인 자치 활동에 참여하는 주요 인터페이스가 되고 있습니다. 이러한 변화를 무방비 상태로 방치한다면, 이미 취약해진 여러 국가의 제도적 기반에 더 큰 부담을 줄 수 있습니다. 그러나 동시에 AI는 시민 참여 저조나 심화되는 양극화와 같은 오랜 문제들을 해결하는 데 기여할 잠재력 또한 가지고 있습니다. 앞으로 어떤 미래가 펼쳐질지는 우리가 인지하든 못하든, 이미 이루어지고 있는 설계 선택에 달려 있습니다. 이 글은 MIT 테크놀로지 리뷰에 게재된 Andrew Sorota와 Josh Hendler의 심층 분석을 바탕으로, AI와 민주주의의 교차점에서 우리가 직면한 도전과 기회를 심층적으로 다루고자 합니다. 이들은 에릭 슈미트(Eric Schmidt) 사무소에서 AI와 민주주의 관련 업무를 이끌고 있으며, 이 분야의 선도적인 전문가로 평가받고 있습니다.
이러한 변화는 크게 세 가지 측면에서 민주주의의 근본적인 지형을 바꾸고 있습니다. 첫째, 우리가 무엇을 ‘아는지’에 대한 인식론적(epistemic) 차원의 변화입니다. 둘째, 우리가 어떻게 ‘행동하는지’에 대한 주체적(agentic) 차원의 변화입니다. 셋째, 우리가 어떻게 ‘집단적으로 거버넌스에 참여하는지’에 대한 변화입니다. 이 세 가지 변혁은 시민권의 본질을 근본적으로 뒤흔들고 있으며, 이에 대한 깊이 있는 이해와 선제적인 대응이 절실합니다.
AI의 삼중 변혁과 도전
정보 인식, 시민 행동, 집단 거버넌스의 근본적 변화
AI가 민주주의에 미치는 영향은 단순히 정보 전달의 효율성을 넘어섭니다. 우리는 이제 세 가지 핵심적인 변화의 파고를 마주하고 있습니다. 첫 번째는 우리가 사실을 인지하는 방식, 즉 인식론적(epistemic) 차원의 변화입니다. 사람들은 점점 더 무엇이 진실인지, 무슨 일이 일어나고 있는지, 누구를 신뢰해야 하는지에 대해 AI에 의존하고 있습니다. 이미 검색 엔진은 AI의 중재를 통해 정보를 제공하며, 차세대 AI 비서들은 정보를 종합하고, 특정 틀에 맞춰 권위 있는 방식으로 제시할 것입니다. 많은 사람에게는 후보자, 정책, 공인에 대한 견해를 형성할 때 AI에 질문하는 것이 기본 방식이 될 것입니다. 따라서 이러한 모델들이 무엇을 말하도록 통제하는 주체가 사람들의 신념에 점점 더 큰 영향을 미치게 됩니다. 이는 과거 언론이나 교육 기관이 가졌던 영향력을 AI가 대체할 수 있음을 의미하며, 정보의 편향성이나 왜곡이 사회 전체에 미칠 파급력은 상상을 초월할 것입니다.
두 번째는 우리가 정보를 받아들이는 것을 넘어, 그 정보에 기반해 어떻게 행동하는지에 대한 주체적(agentic) 차원의 변화입니다. 개인용 AI 에이전트의 등장은 이 영역에서 새로운 문제를 야기할 것입니다. 이 시스템들은 사용자 대신 정보를 조사하고, 커뮤니케이션 초안을 작성하며, 특정 사안을 강조하고, 심지어 로비 활동까지 수행할 수 있습니다. 투표 안건에 대한 결정, 지지할 가치가 있는 조직 선정, 정부 통지에 대한 대응 방식 등 다양한 결정에 영향을 미칠 것입니다. 이는 개인과 그들을 통치하는 제도 간의 관계를 실질적으로 중재하기 시작한다는 의미입니다. 우리는 이미 소셜 미디어 알고리즘이 ‘이해’보다는 ‘참여’를 최적화할 때 어떤 일이 발생하는지 목격했습니다. 플랫폼은 명시적인 정치적 의제가 없더라도 양극화와 급진화를 초래할 수 있습니다. 사용자의 선호도와 불안감을 알고, 사용자를 계속 참여시키도록 설계된 AI 에이전트는 동일한 위험을 내포합니다. 게다가 이 경우의 위험은 훨씬 더 감지하기 어려울 수 있는데, 에이전트가 자신을 사용자의 옹호자로 제시하기 때문입니다. 에이전트는 사용자를 대변하고, 사용자를 대신하여 행동하며, 바로 그 친밀감을 통해 신뢰를 얻을 수 있습니다. 이는 사용자가 자신의 의지와 상관없이 특정 방향으로 유도되거나, 자신의 신념이 왜곡될 수 있는 가능성을 내포합니다.
마지막으로, 집단적(collective) 차원의 변화는 더욱 복잡한 문제를 제기합니다. 조만간 AI 에이전트와 인간은 동일한 공론장에 참여하게 될 것이며, 이들을 구별하는 것이 불가능해질 수 있습니다. 설령 모든 개별 AI 에이전트가 잘 설계되고 사용자 이익에 부합하더라도, 수백만 개의 에이전트 상호작용은 개별 사용자가 원하거나 선택하지 않은 결과를 초래할 수 있습니다. 예를 들어, 연구에 따르면 개별적인 편향을 보이지 않는 에이전트도 대규모에서는 집단적 편향을 생성할 수 있습니다. 또한, 에이전트들이 서로에게 미치는 영향 외에도, 사용자에게 미치는 영향도 중요합니다. 모든 사람이 자신의 기존 견해에 맞춰진 개인화된 에이전트를 사용하는 공론장은, 총체적으로 볼 때 더 이상 공론장이 아닙니다. 그것은 각각 내부적으로는 일관되지만, 민주주의가 요구하는 공유된 숙의(deliberation)에는 집단적으로 부적합한 사적인 세계들의 집합이 될 것입니다. 이러한 세 가지 변화는 시민권의 질감을 근본적으로 바꾸어 놓을 것입니다. 가까운 미래에 사람들은 AI 필터를 통해 정치적 견해를 형성하고, AI 에이전트를 통해 시민적 주체성을 행사하며, 수백만 개의 에이전트 상호작용에 의해 형성되는 제도와 공개 토론에 참여하게 될 것입니다.
오늘날의 민주주의는 이러한 변화에 대비되어 있지 않습니다. 우리의 제도들은 권력이 가시적으로 행사되고, 정보가 논쟁할 수 있을 만큼 느리게 이동하며, 현실이 불완전하더라도 더 공유된다고 느껴졌던 세계를 위해 설계되었습니다. 이 모든 것은 생성형 AI가 등장하기 훨씬 전부터 이미 흔들리고 있었습니다. 그러나 이러한 상황이 반드시 쇠퇴의 이야기일 필요는 없습니다. 이러한 결과를 피하려면 더 나은 것을 설계해야 합니다.
민주주의 재설계의 청사진
기술과 제도의 혁신으로 AI 시대 거버넌스 구축
AI가 민주주의를 위협하는 동시에, 그 해결책의 일부가 될 수도 있다는 역설적인 가능성에 주목해야 합니다. 미래를 낙관적으로 만들기 위한 구체적인 설계 방향은 다음과 같습니다. 먼저, 정보적 차원에서 AI 기업들은 모델의 출력이 진실임을 보장하기 위한 기존 노력을 강화해야 합니다. 나아가, AI 모델이 양극화를 줄이는 데 도움이 될 수 있다는 유망한 초기 연구 결과들을 탐색해야 합니다. 최근 X(구 트위터)에서 AI가 생성한 팩트 체크에 대한 현장 평가에서는 다양한 정치적 견해를 가진 사람들이 AI가 작성한 메모를 인간이 작성한 것보다 더 유용하다고 평가했습니다. 이 연구는 아직 동료 검토를 거치지 않았지만, 잠재적으로 혁명적인 발견입니다. AI 기반 팩트 체크는 대부분의 수동적인 인간의 노력으로는 달성하기 어려웠던 초당파적 신뢰를 얻을 수 있을지도 모릅니다. 모델이 이러한 주장을 어떻게 하고, 이 과정에서 어떤 출처에 우선순위를 두는지에 대한 더 깊은 이해와 투명성은 대중의 신뢰를 더욱 구축하는 데 도움이 될 것입니다.
다음으로, 주체적(agentic) 차원에서는 AI 에이전트가 사용자를 충실하게 대변하는지 평가할 방법이 필요합니다. 에이전트는 결코 자체적인 의제를 가져서는 안 되며, 사용자의 견해를 왜곡해서도 안 됩니다. 이는 사용자가 명시적으로 선호도를 밝히지 않은 영역에서는 기술적으로 매우 어려운 요구 사항입니다. 그러나 충실한 대변이 동기화된 추론(motivated reasoning)의 부속물이 되어서도 안 됩니다. 불편한 정보를 제시하기를 거부하고, 사용자가 기존 신념에 의문을 제기하는 것을 막거나, 마음의 변화에 적응하지 못하는 에이전트는 그 사람의 최선의 이익을 위해 행동하는 것이 아닙니다. 에이전트는 사용자가 다양한 관점을 접하고, 자신의 신념을 비판적으로 성찰하며, 필요하다면 변화할 수 있도록 돕는 역할을 수행해야 합니다.
마지막으로, 제도적 차원에서 정책 입안자들은 AI의 잠재력을 활용하여 거버넌스를 더욱 반응적이고 합법적으로 만들도록 서둘러야 합니다. 이미 여러 주와 지방 정부는 AI 중재 플랫폼을 사용하여 대규모 민주적 숙의를 수행하고 있습니다. AI 중재자가 시민들이 공통점을 찾도록 도울 수 있다는 연구 결과에 기반한 것입니다. 에이전트가 공공 의견 수렴 과정에 점점 더 흔하게 참여하게 됨에 따라(실제로 봇이 이러한 과정을 왜곡하고 있다는 증거가 이미 있습니다), 인간과 그들의 에이전트 프록시에 대한 신원 확인 시스템이 처음부터 구축되어야 합니다. 이는 투명성과 책임성을 확보하고, 악의적인 AI 에이전트의 개입으로부터 민주적 절차를 보호하는 데 필수적입니다.
새로운 민주 인프라 구축
AI 시대, 책임감 있는 기술 설계와 제도적 대응의 중요성
결론적으로, 현재의 세계에 맞는 새로운 세대의 민주적 인프라, 즉 기술적이고 제도적인 인프라가 필요합니다. 본질적으로 중요성이 큰 이 영역에서 민주적 결과를 위한 설계를 하지 않는다는 것은, 다른 어떤 것을 위해 설계하는 것과 같습니다. 그리고 무책임한 권력의 역사는 그 ‘다른 어떤 것’이 무엇이 될지에 대해 낙관할 여지를 거의 남기지 않습니다. AI 기술의 발전은 불가피하며, 우리는 이 강력한 도구가 민주주의를 강화하는 방향으로 작용하도록 적극적으로 개입해야 합니다.
이는 단순히 기술 개발자만의 몫이 아닙니다. 정부는 AI 기술의 잠재적 위험을 규제하고, 동시에 그 긍정적 활용을 장려하는 균형 잡힌 정책을 수립해야 합니다. 기업은 AI 모델의 투명성, 공정성, 책임성을 최우선 가치로 삼아 개발하고 운영해야 합니다. 개발자들은 AI 시스템이 인간의 가치와 민주적 원칙에 부합하도록 설계하는 데 윤리적 책임을 져야 합니다. 그리고 시민들은 AI가 제공하는 정보와 서비스에 대해 비판적인 시각을 유지하고, 자신의 주체성을 AI 에이전트에 완전히 위임하지 않도록 주의해야 합니다. AI가 민주주의의 미래를 어떤 방향으로 이끌지는 결국 우리 모두의 집단적인 선택과 노력에 달려 있습니다. 지금이야말로 AI와 민주주의의 건강한 공존을 위한 청사진을 현실로 만들 때입니다.
참고
Andrew Sorota, Josh Hendler, A blueprint for using AI to strengthen democracy
AI FOCUS에서 더 알아보기
구독을 신청하면 최신 게시물을 이메일로 받아볼 수 있습니다.