이스라엘은 인공지능(AI) 시스템을 적극적으로 활용하여 하마스와의 전쟁을 수행해 왔습니다. 특히 최근에는 AI를 통해 목표물을 식별하여 이를 기반으로 레바논에 있는 헤즈볼라에 동시다발적인 공격을 감행하고, 부비트랩을 설치한 호출기를 원격으로 폭발시켜 대규모 피해를 일으키기도 하였습니다. 그동안 AI가 국제규범에 미치는 영향과 현행 국제규범을 AI에 어떻게 적용할 것인지에 대한 다양한 논의가 있었습니다. 그런데 이스라엘과 하마스/헤즈볼라 분쟁에서 AI가 실제로 군사적 목적을 위해 다각도로 활용되어 국가의 의사결정에서 핵심적 역할을 하였는데, 앞으로 예상되는 AI 기술의 지속적인 발전을 고려할 때 향후 AI에 관한 국제규범은 이론적 논의를 넘어 국제관계에서 실제로 중요한 문제로 부상할 가능성이 큽니다. 아래에서는 기존 국제규범이 AI에 어떻게 적용될 수 있는지, AI 기술 발전에 따라 등장할 수 있는 새로운 국제규범에 대해 살펴보겠습니다.
I. 기존 국제규범과 인공지능
기후변화 등 환경 문제와 마찬가지로 AI는 국경을 가리지 않고 초국경적으로 인간의 삶에 영향을 미치고 사회의 운용 방식을 근본적으로 변경할 가능성이 있으므로, 필연적으로 AI에 관한 국제규범이 정립 및 발전할 수밖에 없습니다. 그러나 현재로서는 AI의 특성을 감안한 포괄적 조약이 체결되거나 이에 관한 새로운 관습국제법이 발전한 단계라고 할 수 없으므로, AI의 사용에 관하여는 원칙적으로 기존의 국제규범이 적용 또는 응용될 것입니다. 국제법상 원칙과 규칙은 사회의 변화를 반영한 진화적 해석(evolutionary interpretation)이 가능하다고 이해되므로(Dispute regarding Navigational and Related Rights, Judgment (Costa Rica v. Nicaragua), I.C.J. Reports 2009, p. 213, para. 64), 현행 국제규범이 AI의 발전과 활용방안에 따른 변화를 어느 정도 반영할 수 있을 것으로 생각됩니다.
1. 인공지능과 국가책임
최근 이스라엘의 헤즈볼라 공격에서 알 수 있는 바와 같이 AI는 공격 목표물 선정에서 결정적인 역할을 하였습니다. 이처럼 AI는 인간으로부터 어느 정도의 자율성을 가지고 정보를 분석하여 일정한 결정과 행동을 하고, 학습을 통해 성능을 향상시킬 수 있습니다. 자율성을 가진 AI의 결정과 행동이 위법한 경우 국가가 국제법상 어떤 책임을 부담하는지가 문제될 수 있습니다. 만약 정부기관이 직접 AI를 활용하여 기존의 국제법상 의무를 위반하는 행위를 하였다면 설사 그 과정에서의 의사결정을 AI가 자율적으로 하였다 하더라도 해당 국가의 국제법상 국가책임 인정에 상대적으로 큰 어려움이 없을 것입니다.
그런데 AI 기술은 대체로 개인이나 기업 등 사인(私人)이 활용하는 경우가 많을텐데, 이들 개인이나 기업이 AI 기술을 통해 다른 국가의 영토, 신체, 재산 등에 중대한 손해를 가한 경우 그 개인이나 개입이 속한 국가가 책임을 부담할 수 있는지가 문제됩니다. 이는 현대와 같이 고도로 연결된 사회에서는 AI가 초국경적으로 영향력을 행사할 수 있기 때문에 더 문제될 수 있습니다. 이때 (1) 만약 그 개인이나 기업 등이 법에서 정한 정부권한을 행사하거나(ILC 국가책임초안 제5조), 국가의 지시, 지휘 또는 통제 하에 그러한 행위를 하였다면(ILC 국가책임 초안 제8조) 국가가 직접 국가책임을 부담할 수 있을 뿐만 아니라 (2) 자국 내 개인이나 기업이 AI를 활용하여 제3국에 중대한 손해를 가하는 것을 알거나 알 수 있었음에도 불구하고 이를 막기 위해 상당한 주의(due diligence)를 다하지 않은 경우에는 no-harm principle 위반 등에 따른 국가책임 부담 가능성을 검토하여 볼 수 있을 것입니다.
2. 인공지능과 전쟁/분쟁의 수행 – 인공지능과 국제인도법
AI를 활용하여 전쟁이나 분쟁을 수행하는 경우에도 기존의 국제인도법은 그대로 적용되어야 합니다. 전쟁에 관한 국제법의 핵심은 자위권을 제외한 무력행사를 금지하고 있는 국제연합 헌장, 그리고 1949년 체결된 4개의 제네바협약이라고 할 수 있습니다. 후자인 4개의 제네바협약은 실제 전쟁이 발발한 경우 이를 어떻게 수행하고 어떤 제한이 있는지에 관한 국제법이라고 할 수 있습니다. 따라서, 국제법상 비례성과 필요성을 충족한 정당한 자위권 행사에 해당하여 무력사용이 적법하다 하더라도, 구체적인 전쟁의 수행 방법이 국제법상 허용되지 않는다면 이는 국제인도법 위반에 해당합니다.
제네바협약 등 국제인도법의 핵심은 전투원이 아닌 민간인은 보호되어야 한다는 것입니다. 따라서, 민간인과 민간시설을 대상으로 하는 무력공격은 원칙적으로 금지되고, 민간인 보호를 위하여 필요한 조치를 하여야 합니다. 그러므로 AI를 활용한 전쟁의 수행 과정에서 부적절하게 전투원이 아닌 민간인 또는 민간시설을 목표물로 하여 공격한다면 이는 국제인도법 위반에 해당할 수 있습니다. 이는 인간의 구체적 개입 없이 AI가 자율적으로 공격 의사결정을 내린 경우라고 하더라도 마찬가지라고 할 것입니다.
3. 인공지능과 국제인권법
AI의 개발과 활용이 개인정보, 사생활, 표현의 자유 등 개인의 권리를 침해할 가능성이 있고, 알고리즘 설계와 학습의 결과 차별적인 표현이나 결과물을 만들어 낼 가능성도 제기되고 있습니다. 이러한 결과가 국제인권법의 측면에서 바람직하지 않다는 점에 대해서는 이론의 여지가 없습니다. 다른 한편, AI에 대한 지나친 규제가 오히려 표현의 자유를 저해하고, 시장에서 자유로이 사상이 검증되기 전에 사전 검열로 인하여 다수 의사와 합치하지 않는 소수 표현이 억압될 가능성도 있습니다. 그러므로 AI에 대한 국제인권법적 접근에 있어서는 여러 차원에서의 복합적 가능성을 염두에 둘 필요가 있습니다.
국제연합 인권이사회(UN HRC) 등과 같은 국제인권기구들은 디지털 기술, 특히 AI 기술이 인권에 미치는 긍정적·부정적 영향을 평가하기 위한 시스템이 마련할 필요가 있다고 강조한 바 있는데, 향후 국제사회의 논의 정도에 따라서는 환경영향평가와 유사한 인권영향평가와 같은 시스템이 마련될 가능성도 있을 것입니다.
4. 인공지능과 국내문제 불간섭
국제법의 가장 중요한 원칙 중 하나는 국가의 규모나 파워와 무관하게 법적으로는 상호 평등하다는 것입니다. 이로부터 국가는 다른 국가의 국내문제에 간섭할 수 없다는 국내문제 불간섭 원칙이 도출됩니다. 그러나 AI의 개발과 활용에는 국경이 없습니다. 그러므로 AI의 알고리즘이나 그 활용 여부에 따라 국경을 넘어 영향을 발휘할 수도 있습니다. 이는 어느 국가가 AI를 활용하여 다른 국가의 문제에 간섭할 수 있는 여지를 줍니다. 예컨대, 다른 국가의 정부기관이 AI를 활용하여 미국의 대선 선거운동 과정에 개입하거나 다른 국가의 중요한 안보·경제적 영역에 영향을 미친다면 이는 명백히 국내문제 불간섭 원칙 위배에 해당하여 국제법 위반이 될 것입니다.
II. 새 국제규범의 발전
인공지능의 발전에 따라 이를 논의하는 국제적 포럼이 증가하고, 국가들 간 합의에 AI에 관한 내용이 포함되는 경우가 많아지고 있습니다. 기후변화를 다루기 위해 UNFCCC, IPCC, GCF 등 국제기구가 설립된 것처럼, AI 문제를 다루기 위한 국제기구가 설립될 가능성도 있을 것입니다. 이러한 다양한 국제적 논의는 AI에 관한 새 국제규범의 발전에 큰 영향을 미칩니다.
예컨대, 우리나라 역시 최근 가입한 디지털경제동반자협정(Digital Economy Partnership Agreement) 제8.2조는 AI 기술의 신뢰할 수 있고 안전하며 책임감 있는 사용의 중요성을 인정하면서 AI 거버넌스 체계 채택에 있어 설명가능성, 투명성, 공정성 및 인간중심적 가치를 포함하여 국제적인 원칙 또는 지침을 고려하도록 노력한다고 규정하고 있습니다. AI 정상회의에서 채택된 블레츨리 선언(2023년), 서울선언(2024년), 그리고 국제연합 총회 결의(2024년, A/78/L49) 등은 AI가 초래할 수 있는 위험은 그 성격상 국제적이므로 이를 최소화하기 위해 국제적인 협력이 필요하고, 각 국가는 국제협력을 촉진하기 위해 노력한다는 점을 확인하고 있습니다. 이러한 조약이나 선언은 구체적인 의무가 아닌 추상적으로 협정당사국의 노력의무를 말하고 있을 뿐이지만 다자협약이나 선언의 채택은 향후 관습국제법이나 국제법의 일반원칙 발전에 영향을 미칠 수 있다는 점에서 의의가 적지 않습니다. 예컨대, 위 다자협약이나 선언에 언급되는 AI 사용에 있어 국가간 협력의무는 상대적으로 빨리 일반원칙으로 발전할 수 있을 것입니다. 스톡홀름 선언(1972년)과 리우 선언(1992년)에서 포함된 내용들이 이후 국제환경법의 일반원칙으로 발전한 것과 마찬가지입니다.
앞으로 다수 국가가 참여하는 다자협약에 구체적인 법적 의무를 담은 조항이 포함된다면 이는 그 자체로 국제규범으로 적용되겠지만, 설사 그러한 구체적 조항이 없다 하더라도 AI에 관한 각종 선언, 조약 등 국제적 문서가 앞으로 계속 등장함에 따라 추상적이나마 일반원칙이나 관습국제법이 등장할 가능성은 매우 큽니다. 이처럼 추상적인 일반원칙이나 관습국제법은 아래와 같은 기능들을 수행할 수 있습니다.
첫째, 국제법의 일반원칙이나 관습국제법으로 발전하는 경우 이는 그 자체로 법규범으로서 국제법 행위자(국가 뿐만 아니라 일정한 경우에는 기업, 개인 포함)에게 구속력을 가집니다. 비록 추상적인 원칙이라고 하더라도 국가 등의 행위를 지도하고(guiding) 법적으로 평가할 수 있는 규범이 될 수 있습니다. 앞서 말씀드린 대로 협력의무에 관한 원칙은 AI에 관한 국제법의 일반원칙으로 인정될 가능성이 상대적으로 큰데, 이는 향후 국가 등의 행위를 지도하고 평가하는 기준으로 작용할 가능성이 있습니다.
둘째, AI에 관한 일반원칙이나 관습국제법은 국가 등 국제법 행위자의 국제법상 의무의 존재나 내용을 해석함에 있어 고려요소가 될 수 있습니다. 국제법원은 조약 또는 관습국제법상 국가의 구체적 의무의 존재와 그 내용을 해석함에 있어 국제법의 일반원칙을 고려하여 왔습니다. 예컨대, 국제사법재판소(ICJ)는 Nuclear Weapons 권고적 의견에서 국가의 자위권 행사가 필요성(necessity)과 비례성(proportionality)에 합치하는지 판단함에 있어 환경 보호를 고려해야 한다고 하여(Legality of the Threat or Use of Nuclear Weapons, Advisory Opinion, I.C.J. Reports 1996, p. 226, para. 30) 환경 보호에 관한 국가의 의무는 자위권 행사의 적법성 여부를 판단하는 요소라고 보았습니다. AI에 관한 국제법의 일반원칙이나 관습국제법 역시 그 자체가 법규범으로 적용되지 않더라도, 조약이나 관습국제법의 내용을 해석함에 있어 중요한 고려요소가 될 수 있습니다.
셋째, AI에 관한 일반원칙이나 관습국제법은 일종의 목표(objective)로 기능할 수도 있습니다. 이 경우에는 그 자체가 구체적 행위규범을 담지 않았다 하더라도 AI에 관한 국제법의 밑바탕(foundation)에 해당하여, 국제법 행위자가 정책이나 행위를 결정함에 있어 지침을 제공할 수 있습니다. 국제사법재판소 역시 지속가능한 발전(sustainable development)이라는 목표에 부합하도록 강의 보호와 물의 사용이 균형을 이루도록 할 필요하다고 설시한 바 있습니다(Pulp Mills on the River Uruguay (Argentina v. Uruguay), Judgment, I.C.J. Reports 2010, p. 14, para 117).
향후 이러한 AI에 관한 국제법상 원칙이 발전한다고 하더라도, 이는 AI의 급격한 발전과 사회 변화를 반영할 수 있도록 어느 정도 추상적일 필요가 있습니다. 만약 AI에 적용되는 원칙이 지나치게 구체적이라면 지속적으로 발전하는 AI 기술에 시의적절하게 대응할 수 있는 적응력을 갖추지 못할 것이기 때문입니다.
III. 국제법 행위자로서의 기업과 개인
국제사회에서 주요한 행위자는 여전히 국가이고, 국가야 말로 가장 중요한 국제법 주체 즉 국제법 행위자에 해당합니다. 과거에는 국가만이 국제법이 적용되는 주체로서 유일한 국제법 행위자로 평가되고, 기업이나 개인의 권리는 국가의 외교적 보호권 행사를 통해 간접적으로 이루어진다고 이해되었습니다. 그러나 기술의 발전과 다국적 기업의 등장에 따라 기업이나 개인에 대해서도 국제법이 적용되어야 한다는 주장이 많아 지고 있습니다. 특히, 양자 또는 다자조약에서 기업이나 개인의 권리를 명시적으로 인정하고 있는 경우에는 그 조약에 근거하여 기업이나 개인이 일정한 권리를 주장하는 등 제한적인 범위에서 국제법 주체가 될 수 있음이 분명합니다. 예컨대, 투자보장협정에 근거하여 기업이나 개인 등의 투자자가 투자유치국의 국제법상 의무 위반을 주장하며 투자유치국을 상대로 투자분쟁절차를 개시할 수 있는 경우에는 그 범위에서 국제법 주체에 해당한다고 볼 여지가 있습니다. 뿐만 아니라 국내법원에서 국제법상 규범을 근거로 기업이나 개인을 상대로 소가 제기되기도 하는데, 이때 해당 국가의 국내법체계에서 국제법이 가진 지위에 따라(우리나라의 경우 국내법과 동등한 지위) 기업이나 개인에 대해 직접 국제법이 적용된다고 볼 수 있는 경우가 있을 수 있습니다.
국가가 아닌 기업을 중심으로 AI 기술 개발이 이루어지고, 주로 기업과 개인이 AI 기술을 활용하므로 국가 뿐만 아니라 AI를 개발하고 활용하는 기업과 개인에 대한 국제규범의 적용 필요성은 크고, 실제 그런 방향으로 국제규범이 발전할 가능성이 있습니다. 과거에도 기업의 사회적 책임에 관한 관심이 증가함에 따라 국제연합과 OECD 등 국제기구를 중심으로 국가의 의무와 별개로 기업의 사회적 책임에 관한 의무를 인정해야 한다는 논의가 진행되었습니다(UN Representative Report 2008 등). AI가 사회에 미칠 수 있는 막대한 긍정적 또는 부정적 영향력, 특히 AI 기술의 점진적 발전에 따른 변화를 반영하기 위하여 AI를 개발하고 활용하는 기업들에도 일정한 국제적 의무가 부과되어야 한다는 논의가 다양한 포럼에서 이루어질 것으로 생각됩니다. 이러한 논의들에 따른 결과물이 설사 기업이나 개인에 직접적인 국제법적 의무를 부과하는 것이 아니라 여러 기준이나 가이드라인을 정한 연성법(soft law)에 그친다 하더라도, 국제사회 현실에서 연성법이 강한 영향력을 가져왔다는 점에서 그 의미가 적지 않을 것입니다.
그리고 과거에는 개인에게 국제법상 의무가 직접 부과되는 경우가 해적행위 등을 제외하면 많지 않지만, 2차 세계대전 이후 제한적이지만 개인의 국제형사책임을 인정하여야 한다는 논의가 이어졌고, 이는 국제형사재판소(ICC)의 설립으로 이어졌습니다. 그러므로 개인이 AI를 이용하여 집단살해죄(제노사이드), 인도에 반한 죄, 전쟁범죄, 침략범죄 등 중대한 범죄(국제형사재판소에 관한 로마규정 제5조 참조)를 범한다면, 국가의 책임과 무관하게 그 행위를 한 개인 역시 책임을 부담할 것입니다.
또한, 기업이나 개인에 대해 국제법이 직접 적용되지 않는다 하더라도, 국가가 국제규범을 준수하는 과정에서 그 관할 내에 있는 기업이나 개인에게 영향을 미칠 수밖에 없습니다. 예컨대, 국제연합 인권위원회가 2011년 채택한 기업과 인권에 관한 지도원칙(Guiding Principles on Business and Human Rights)은 국가로 하여금 그 관할 내의 기업의 활동으로 인해 인권 남용이 발생하지 않도록 해야 한다고 강조하고 있는데, 국가가 이러한 지도원칙을 준수하기 위하여 국내법령을 제정한다면 이는 기업이나 개인에게 그대로 적용될 수 있습니다. 그러므로 장래 등장할 AI에 관한 국제규범의 직접적인 수범자가 국가라고 하더라도, 국가가 그 규범을 준수하기 위한 조치를 취함에 따라 기업과 개인에게도 효력을 미칠 수가 있는 것입니다.