국제중재절차에서 인공지능(Artificial Intelligence, “AI”)이 어떤 역할을 할 것인지에 관하여 지난 몇년간 학계와 실무계에서 다양한 논의가 있었습니다. 국제중재에서 AI가 어떤 역할을 할지 정확하게 예측하기는 어렵지만, 이미 법률 번역, 리서치, 문서제출 등과 관련하여 AI를 활용하기 시작하거나 그런 시도들이 이루어지고 있고, 분쟁당사자, 대리인, 중재판정부 및 사무국은 자신의 업무를 더 잘 처리하기 위하여 AI를 활용하려는 시도를 할 가능성이 큽니다.
실리콘밸리 중재조정센터(Silicon Valley Arbitration and Mediation Center, “SVAMC”)는 2023. 8. 31.(미국 시각) 국제중재에서 인공지능 활용에 관한 가이드라인(Guidelines on the Use of Artificial Intelligence in International Arbitration) 초안(“가이드라인 초안”)을 공개하였고, 다른 사무기관들 역시 자체 규칙 제정을 시도하거나 국제연합국제상거래법위원회(UNCITRAL) 실무작업반(Working Group)에서 세계적인 통일적 규율을 위한 논의가 이루어질 가능성이 있습니다. 이처럼 가이드라인 초안이 향후 관련 논의에 미칠 수 있는 가능성을 감안하여 그 주요 내용을 간략히 소개하고자 합니다.
I. AI의 정의
가이드라인 초안은 AI를 “자연언어의 이해, 복잡한 의미론적 패턴의 인식, 인간과 같은 결과 도출 등 통상 인간의 인지능력과 연관된 작업을 수행하는 컴퓨터 시스템(computer systems that perform tasks commonly associated with human cognition)”이라고 정의하고 있습니다. 가이드라인 초안이 이렇게 폭넓게 AI를 정의한 이유는 현존하는 AI 체제 뿐만 아니라 향후 등장하는 AI 체제에도 적용될 수 있도록 하기 위한 것입니다.
II. 모든 국제중재 참여자에게 적용되는 항목
1. AI 활용, 한계 및 위험에 대한 이해 (Guideline 1)
가이드라인 초안은 AI를 활용하고자 하는 중재절차 참여자가 AI의 용도를 이해하고 적절히 조정할 수 있어야 하고, AI의 한계와 위험을 이해하기 위하여 합리적인 노력을 다하여야 한다고 정하고 있습니다.
가이드라인 초안 설명서(Commentary)는 그에 관한 한가지 예시로 생성형 AI(Generative AI)에는 노출된 데이터에 포함된 선입견(biases)이 있을 수 있음을 인식해야 한다고 제시하고 있습니다.
2. 비밀의 보호 (Guideline 2)
가이드라인 초안은 국제중재 참여자들이 비밀정보 보호에 관한 의무에 합치되도록 AI를 활용해야 한다고 정하고 있습니다. 또한, 비밀이나 특권이 있는 정보가 관련된 경우, 비밀을 충분히 보호할 수 있는 AI 프로그램이 사용되어야 한다고 규정하고 있습니다.
가이드라인 초안 설명서는 대중에 공개된 AI 프로그램을 국제중재에서 활용하면 비밀정보가 공개될 가능성이 있다고 설명하고 있습니다.
3. 기록의 공개와 보호 (Guideline 3)
가이드라인 초안은 중재절차 참여자가 AI를 활용한 경우 경우에 따라 이를 공개하여야 하는 사정들을 정하고 있습니다. 가이드라인 초안은 중재절차 참여자의 AI 사용 사실의 공개와 관련하여 2개 옵션을 제시하는데, 두 옵션 모두 당사자가 중재절차 수행을 위해 AI를 사용한 경우 그 사실의 “공개가 적절할 수 있다(disclosure may be appropriate)”거나 “공개가 필요할 수 있다(disclosure may be warranted)”라는 문언을 사용하여 공개가 의무적인지에 관하여 명시하고 있지는 않습니다. 다만, 중재인이 AI 프로그램을 사용하였다면 이를 분쟁당사자에게 공개해야 한다는 점에 관하여 보다 강한 의무적 표현(예컨대, “Arbitrators should make appropriate disclosure to the parties prior to using any AI tool”)을 사용하고 있습니다. 그러나 가이드라인 초안은 중재인이나 중재절차 참여자가 AI 프로그램을 사용하는 데에 당사자들 전부 또는 일부가 부동의할 경우 어떻게 해야 하는지 제시하고 있지는 않습니다.
III. 분쟁당사자에게 적용되는 항목
1. AI 활용에 있어 적격(competence) 및 성실(diligence) 의무 (Guideline 3)
가이드라인 초안은 분쟁당사자와 그 대리인들으로 하여금 해당 절차에 적용되는 윤리규범이나 기준을 준수할 의무를 정하고 있고, AI 활용에 따른 결과물을 정확하게 제시할 성실의무를 부과하고 있습니다. 또한, AI 활용에 따른 결과물이 부정확하거나 잘못이 있다면 이를 활용한 당사자가 책임을 부담한다고 정하고 있습니다.
가이드라인 초안 설명서는 분쟁당사자나 대리인이 일정한 법적 작업을 AI에게 위임하면서 그 결과물의 정확성을 검토하지 않을 위험이 있다면서, 분쟁당사자나 대리인이 AI 활용에 따른 결과물의 정확성을 검토하여야 할 윤리적 또는 직업적 의무가 있다는 점을 상기할 필요가 있다고 설명하고 있습니다.
2. 중재절차의 온전성과 증거의 존중
가이드라인 초안은 분쟁당사자, 대리인, 전문가로 하여금 중재절차의 온전성(integrity)을 저해하거나 중재절차 진행을 방해하는 방식으로 AI를 사용할 수 없고, AI를 활용하여 증거를 조작하거나 증거의 진실성을 저해하거나 중재판정부나 다른 당사자에게 오해를 유발해서는 안된다고 규정하고 있습니다.
가이드라인 초안 설명서는 AI의 활용으로 인하여 중재절차의 온전성과 증거의 진실성이 저해되어서는 안 된다는 점을 명확하게 설명하고 있습니다.
IV. 중재인에게 적용되는 항목
1. 의사결정 위임의 금지
가이드라인 초안은 중재인이 자신의 역할, 특히 의사결정의 전부 또는 일부를 AI에 위임할 수 없음을 명시하고 있습니다.
가이드라인 초안 설명서는 정보를 관리 및 분석하기 위해 AI를 사용할 수는 있지만, 중재인의 역할 특히 의사결정까지 AI에게 위임할 수 없고, AI 활용에 따른 결과물을 중재인이 직접 검토하여 쟁점에 관한 중재인의 판단이 정확하게 반영되었는지 확인해야 한다고 설명하고 있습니다.
2. 적법절차 보장
가이드라인 초안은 중재인이 분쟁당사자에게 적절하게 밝히지 아니한 채 AI를 통해 취득한 정보(AI-generated information)를 사용해서는 안 된다고 정하고 있습니다.
가이드라인 초안 설명서는 AI 활용에 있어 적법절차 원칙을 보장하기 위하여는, 중재인이 사건을 이해하고 결과를 도출함에 있어 AI를 통해 취득한 정보가 무엇인지 분쟁당사자에게 공개할 의무를 부담해야 한다고 설명하고 있습니다. 또한, 설명서는 AI 활용에 따른 결과물의 신뢰성을 중재인이 독자적이고 비판적으로 평가해야 한다고 강조하고 있습니다.
V. 마무리하며
가이드라인 초안 서문은 가이드라인이 국제중재에서 AI 활용을 위한 원칙 위주의 프레임워크가 되기를 의도한다고 밝히고 있습니다. 실제로 가이드라인 초안은 구체적인 내용을 담고 있지 않고 대체로 추상적인 원칙만을 정하고 있습니다. 따라서 이러한 가이드라인 초안이 그대로 채택된다 하더라도 실제 중재절차에서 어떻게 활용될 것인지는 사건별로 구체적 정황을 고려하여 결정되고, 특히 중재판정부가 가이드라인에서 정한 원칙을 고려하여 구체적 사항을 정할 재량을 행사할 가능성이 있어 보입니다.
과거 다른 중재규칙과 마찬가지로, 처음에는 가이드라인 내용이 간략하고 추상적이지만, 향후 가이드라인의 실제 작동 모습, 관련 실무의 정립, 관련 AI 기술의 발전 방향 등 다양한 사정이 확인된 후 이를 반영하여 가이드라인이 수정되거나 관련된 규칙이 제정될 가능성이 있습니다.