최근 안와르 이브라힘 말레이시아 총리는 젊은 IT 개발자와 기술 전문가들에게 이슬람 가치를 인공지능(AI) 시스템에 통합할 것을 촉구하면서 AI가 보다 윤리적이고 정의로운 방식으로 인류에게 봉사할 수 있을 것이라고 주장하면서 헤드라인을 장식했습니다. 안와르는 2022년 말 취임한 이후 말레이시아의 AI와 기술 개발을 국가 경제 의제의 우선순위로 삼았습니다. 점점 더 인공 지능이 주도하는 세상에서 우리 삶을 형성하는 알고리즘에 종교적 원칙을 내장한다는 개념은 흥미롭기도 하고 매우 골치 아픈 아이디어입니다. 안와르의 의도는 AI에 대한 도덕적 나침반을 만드는 것일 수 있지만, 이 제안은 인공 지능에 모든 형태의 종교적 또는 이념적 교리를 주입하는 것의 위험성에 대한 근본적인 질문을 제기합니다. 말레이시아가 천천히 미디어에 대한 통제력을 강화하고 검열을 강화하고 있기 때문에 더욱 그렇습니다. 사회적 조화를 구실로.
위험을 이해하려면 먼저 AI에 일련의 지침 원칙을 부여한다는 것이 무엇을 의미하는지 파악하는 것이 중요합니다. 가장 단순한 형태의 인공 지능은 도구입니다. 고급 도구이지만 그럼에도 불구하고 도구입니다. 대규모 언어 모델이라고도 알려진 AI 시스템은 방대한 양의 데이터로부터 학습하고 특정 규칙 세트를 따르도록 프로그래밍할 수 있습니다. 그러나 AI에 이슬람과 같은 종교적 프레임워크를 제공함으로써 개발자는 단순히 일련의 지침을 프로그래밍하는 것이 아닙니다. 그들은 심오하고 심지어 통제할 수 없는 결과를 초래할 수 있는 신념 체계를 강요하고 있습니다. 이는 이미 실현의 불안한 조짐을 보인 시나리오인 AI에 정치적 이데올로기를 내장하는 위험과 유사하므로 깊이 반성할 가치가 있는 개념입니다.
종교 AI의 위험성
문제의 핵심은 종교적 교리가 본질적으로 주관적이며 종종 모순적이라는 생각에 있습니다. 예를 들어 이슬람교는 모든 주요 종교와 마찬가지로 다양한 문화와 사상 학파에 걸쳐 다양한 방식으로 해석됩니다. 종교적 갈등이 종종 심각한 분열과 폭력의 원인이 되는 세상에서 AI의 도덕적 나침반의 이러한 다양성은 위험하고 광범위한 영향을 미칠 수 있습니다.
마가렛 애트우드(Margaret Atwood)의 디스토피아 소설인 ‘시녀 이야기(The Handmaid’s Tale)’에 묘사된 오싹한 시나리오를 생각해 보십시오. 이 소설에서는 신정 정권이 왜곡되고 선별적인 성경 해석을 바탕으로 사회를 통치합니다. 종교적 도덕을 적용하려는 시도로 시작된 것이 억압의 도구가 되고, 정치적 예속을 위해 여성의 신체를 통제하는 것을 정당화한다. 이제 종교 문헌의 엄격한 해석에 뿌리를 둔 유사한 AI 시스템을 상상해보세요. 그러한 AI가 의료, 형사 사법, 교육을 담당하면 어떻게 될까요? 신의 뜻이라는 이름으로 차별적 관행이나 도덕적 절대주의를 정당화할 수 있을까요?
AI가 자신의 행동을 안내하기 위해 일부 윤리적 프레임워크를 준수해야 한다고 주장할 수도 있습니다. 그러나 문제는 여전히 남아 있습니다. 그 틀이 종교적이어야 하는가? 공정성, 투명성, 책임을 우선시하는 윤리적 AI는 훨씬 더 미묘한 접근 방식을 나타냅니다. 그러나 AI 시스템은 영적 구원의 문지기 역할을 해서는 안 됩니다.
동시에, AI에 종교를 주입하는 것은 도덕적 선택 의지의 포기를 의미하며, 이는 도덕적 우월한 힘의 반영으로서 인간을 도덕적 존재로 보는 대부분의 일신론적 신학 개념을 실제로 위협합니다. 인간이 AI 알고리즘에 윤리적 평가를 위임한다면 신중한 숙고와 분별에 참여할 의무를 포기할 수 있습니다.
AI의 정치적 이념의 위험성
종교적 관점이 우려된다면 AI에 정치적 이데올로기를 포함시키는 것도 똑같이 문제가 됩니다. 최근 몇 년 동안 우리는 정치 세력이 AI에 대한 이야기를 어떻게 형성하려고 하는지 살펴보았습니다. 예를 들어, 중국 정부는 AI를 사용해 시민을 감시하고 통제하는 등 사회적 화합과 국가의 정치적 의제를 우선시하는 AI 시스템을 추진하고 있습니다. 비슷한 맥락에서, 서구 국가, 특히 미국에서 AI의 부상은 그 자체의 위험을 안겨줍니다. 권위주의적 의제를 반영하고 강화하여 좁은 정치적 가치에 따라 결정을 내릴 수 있는 AI 시스템을 생각해 보세요.
AI의 본질, 즉 방대한 양의 데이터를 처리하고 인간 사용자에게 불투명해 보일 수 있는 방식으로 결정을 내리는 능력은 이념적 목적으로 쉽게 조작될 수 있습니다. AI 시스템이 특정 정치적 이념을 다른 이념보다 우선시하도록 프로그래밍되면 억압이나 강압의 도구로 기능할 수 있습니다. 예를 들어, 국가가 통제하는 AI는 종교적 동기를 지닌 AI가 불신자를 소외시키는 것처럼 기본적인 자유를 침해하는 결정을 내릴 수 있습니다. 알고리즘이 정치적 또는 종교적 이념과 일치하게 되면 더 이상 중립적인 도구가 아니며 특정 신념을 옹호하는 당파적인 집행자로 변모합니다.
이런 AI는 다원주의와 토론, 개인의 권리가 존중되는 민주사회에 근본적인 위협이 된다. 확인하지 않은 채 놔두면 현 상태를 강화하고 반대 의견을 억누를 수 있습니다. 역사는 종교적이든 정치적이든 이데올로기가 억압을 정당화하는 데 어떻게 사용되었는지에 대한 수많은 사례를 제공합니다. 기술 개발의 차세대 개척자인 AI에게 그러한 실수를 반복하도록 요청해서는 안 됩니다.
안와르의 발표는 국영 언론의 통제와 종교 당국의 권력이 강화되는 말레이시아 상황에서 더욱 문제가 된다. 안와르 정부는 말레이인들이 대체로 야당에 충성을 유지하고 있기 때문에 말레이인 보수층에게 호소하는 전략의 약점을 이미 보여주었습니다. 오히려 안와르의 종교적 의제 추진은 자신의 지지자들을 억제하는 것이며 말레이시아 소수 종교인들의 취약한 권리를 위태롭게 할 수 있습니다.
종교적이 아닌 윤리적인 AI에 대한 요구
이슬람 가치를 AI에 통합하라는 안와르 총리의 요청은 새롭고 강력한 기술에 도덕적 명확성을 도입하려는 잘못된 시도일 수 있습니다. 그러나 현실은 종교가 AI 윤리의 틀로 적합하지 않다는 것이다. AI는 다원적이고 유연하며 공정성, 정의, 평등과 같은 공유된 인간 가치를 기반으로 하는 보다 광범위한 윤리적 나침반으로 프로그래밍되어야 합니다. AI의 미래는 종교적 또는 정치적 이데올로기의 전쟁터가 아니라 말레이시아와 세계 전체에서 인간 경험의 다양성을 존중하는 협업, 창의성 및 윤리적 추론의 영역이 되어야 합니다.