I. 배경
지난 2024. 12. 26. 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(이하 “AI 기본법”)」이 국회 본회의를 통과하였습니다. 국회 본회의를 통과한 AI 기본법은 공포 후 1년 이 경과한 날부터 시행될 예정입니다. AI 기본법이 시행되면 AI의 개발 및 육성에 대한 지원이 확대되는 한편, AI의 신뢰성 확보 및 위험 예방을 위한 다양한 규제가 도입되어 관련 산업계에 중대한 영향을 미칠 것으로 예상됩니다.
본 법무법인은 AI 기본법안이 국회 과학기술정보방송통신위원회를 통과하여 본회의 의 결을 앞둔 시점인 2024. 12. 2., AI 기본법의 주요내용을 소개하는 내용의 Legal Update를 발송한 바 있습니다.(링크) 이번 뉴스레터에서는 AI 기본법의 주요내용과 특징을 ‘EU AI 법’과 비교하여 설명드리고, AI 기본법 시행에 따른 향후 전망과 관련 산업계에 미칠 영 향을 분석하여 안내 드리고자 합니다.
II. AI 기본법의 주요 내용 분석
1. AI 기본법의 주요 조항
AI 기본법의 주요 내용은 크게 (1) AI 기술 및 관련 산업의 진흥을 위한 국가적 지원 체제 수립과 (2) AI 사업자(주로 ‘고영향 인공지능’ 및 ‘생성형 인공지능’ 사업자)에 대한 구체적인 의무부과 2 가지로 구분됩니다. 이에 관한 보다 자세한 내용은 2024. 12. 2.자 BKL Legal Update 를 참고하여 주시기 바랍니다.
(1) AI 기술 및 관련 산업의 진흥을 위한 국가적 지원 체제에 대한 조항으로는 아래와 같은 주요 조항들이 포함되어 있습니다.
-
과학기술정보통신부장관은 유관부처와 3년마다 인공지능기술 및 인공지능산업의 진흥과 국가경쟁력 강화를 위한 기본계획을 수립(제6조)
-
대통령 소속의 국가인공진흥위원회의 설치(제7조 및 제8조), 인공지능 기술 및 산업 활성화를 위한 각종 정부지원, 중소기업 및 창업 지원(제13조 내지 제18조, 제21조, 제22조)
-
인공지능 데이터 센터의 구축 및 운영에 대한 정부의 시책 추진 의무(제25조)
(2) AI 사업자(주로 ‘고영향 인공지능’과 ‘생성형 인공지능’ 사업자)에 대한 구체적인 의무를 아래와 같이 규정하고 있습니다.
-
‘고영향 인공지능’ 및 ‘생성형 인공지능’ 사업자의 인공지능 이용 여부에 대한 투명성 확보 의무(제 31 조) 및 안전성 확보 의무(제 32 조)
-
‘고영향 인공지능’과 관련한 사업자의 위험 관리 방안 수립∙운영, 이용자 보호 방안의 수립∙운영, ‘고영향 인공지능’에 대한 사람의 관리∙감독 등의 책무(제34조) 국내에 주소 또는 영업소가 없는 인공지능 사업자 중 대통령령으로 정하는 기준에 해당하는 자의 국내 대리인 지정 의무(제 36 조)
-
과학기술정보통신부장관의 사실조사 및 중지∙시정명령 권한(제 40 조 제 3 항), 이를 불이행한 인공지능 사업자에 대하여 3,000 만원 이하의 과태료 부과(제 43 조 제 1 항 제 3 호)
2. EU AI법과의 비교
EU에서 2024. 5. 21. 처음으로 포괄적인 AI 규제법인 'EU AI법'을 승인한 이후, 대한민국은 AI 기본법을 제정한 두 번째 국가가 되었습니다. AI 기본법은 EU의 AI법과 비교하여 크게 (1)규제 대상, (2)규제 범위, 그리고 (3)제재 방식에서 차이가 있습니다. 이하에서AI 기본법과 EU AI법을 비교하여 상세히 설명 드리겠습니다. EU의 AI법에 관한 자세한 내용은 2024. 4. 1.자 BKL Legal Update를 참고하여 주시기 바랍니다.
AI 기본법과 EU의 AI법은 AI의 위험 정도를 구분하여 규제를 달리 적용하는‘위험 기반 접근 방식’을 채택하고 있다는 공통점이 있습니다. 그러나 AI 기본법이 ‘고영향 인공지능’과 ‘생성형 인공지능’에 대해서만 별도로 정의하여 규제하고 있는 것과 달 리, EU의 AI법에서는 인공지능의 종류를 ‘허용불가위험’, ‘고위험’, ‘제한된 위험’, ‘저위 험’ 인공지능의 4개로 분류하여 규제하고 있습니다. AI 기본법의 ‘고영향 인공지능’ 은 주로 의료, 교통, 에너지 등 인간의 안전, 건강, 기본권 등과 관련한 영역에서 사 용되는 AI를 의미합니다. EU AI법의 ‘고위험 인공지능’과 유사하나 ‘위험’과 달리 ‘영 향’라는 가치중립적 용어를 사용한 차이가 있습니다.
AI 기본법은 규제 대상 사업자에 대해서 인공지능을 개발하여 제공하는 “인공지능 개발사업자”와 이들이 제공한 인공지능을 이용하여 인공지능제품 또는 인공지능서 비스를 제공하는 “인공지능이용사업자”를 통틀어 “인공지능사업자”라고 칭하고(제2 조 제7호) 이들에 대하여 공통적인 의무를 부과하고 있습니다. 반면 EU AI법에서는 고위험 인공지능의 ‘공급자(provider)’, ‘배포자(deployer)’, ‘수입자(importer)’ 및 ‘유통 자(distributer)’로 나누어 관련 의무를 차등적∙차별적으로 부과하고 있습니다(EU AI법 제23조 내지 제29조). 이처럼 EU AI법은 우리나라 AI 기본법과 비교하여, 고위험 인 공지능의 수입자와 유통자에 대하여도 높은 수준의 책무를 부과하고 있습니다. 이 들은 고위험 인공지능 시스템이 자신의 책임 하에 있는 동안에는 관련 준수사항의 이행을 곤란하게 하지 않도록 보장할 의무가 있으며, 특히 유통자의 경우 고위험 인공지능 시스템이 관련 준수사항에 부합하지 않는 경우 시정조치, 리콜 또는 철회 까지 이행해야 하는 의무를 부과하고 있습니다.
한편 EU AI법은 AI기본법과 비교하여 다양한 법 적용의 예외를 규정하고 있습니다. AI기본법은 오직 ‘국방 또는 국가안보 목적으로만 개발∙이용되는 인공지능’에 대해 서만 적용이 제외된다고 규정(제4조 제2항)하고 있는 반면, EU AI법에서는 ①오로지 국방∙안보 목적으로 이용되는 경우 외에도, ②시장 출시 또는 서비스 전(前) 단계인 연구∙시험∙개발 등의 경우, ③오로지 과학적 연구∙개발 목적으로만 개발∙이용되는 경우와 ④순수하게 사적인 비직업적(purely personal non-professional) 활동에서 이용 되는 경우에는 적용을 제외한다고 규정(EU AI법 제2조)하고 있습니다.
제재 방식 관련하여서는 AI 기본법과 EU AI법 모두 자율적인 영향평가 제도와 국내 대리인 제도를 도입하는 등의 공통점이 존재합니다. 다만, 제재의 엄격성은 EU AI법 이 더욱 높은 수준입니다. EU AI법에서는 인공지능 사업자가 법을 위반할 경우 전세계 매출액의 최대 7% 또는 3,500만 유로에 달하는 과징금을 부과할 수 있도록 하되, 기업의 규모를 고려하여 부과(중소기업 및 스타트업에는 낮은 금액을 부과)할 수 있도록 정하고 있습니다. 이는 AI 기본법에서 기업 규모를 고려하지 않고 최대 3,000만 원의 과태료 규정만을 두고 있는 것과 차이가 있습니다.
종합하면, EU AI법의 규제가 AI 기본법에 비해 더욱 구체화∙세분화되고 엄격한 것으 로 보입니다. 이는 AI 기본법이 AI 분야에 대한 규제보다는 정부 차원의 적극적인 지원을 통한 발전 및 활성화를 중점으로 하고 있기 때문이라고 생각됩니다. 다만, AI 기본법은 EU AI법에 비해 적용 예외 범위가 더 좁아 양 법률 간 적용 범위에 뚜 렷한 차이가 있으므로, 관련 사업자들로서는 자신이 어떤 법률의 규제 대상에 해당 하는 정확히 확인하여 대비할 필요가 있습니다.
III. AI 기본법의 산업별 영향 및 향후 전망
1. AI 기본법의 산업별 영향 분석
AI 기본법은 AI 관련 산업의 여러 측면에서 영향을 미칠 것으로 예상됩니다. 따라서 기업들은 각 산업별로 AI 기본법상의 의무사항 등을 개별적∙구체적으로 분석하여 대비할 필요가 있습니다.
최근 급성장하는 모빌리티 산업의 경우, 자율주행 차량을 위한 AI 시스템 등은 건강, 안전에 중요한 영향을 미치는 ‘고영향 인공지능’에 해당하므로, AI 기본법에 따른 투명성과 안전성 확보 의무를 준수하여야 합니다. 즉, 모빌리티 기업들은 AI 시스템 의 안전성 평가, 데이터 투명성, 사용자 고지 등을 강화하기 위한 시스템을 구축할 필요가 있습니다.
의료기기 및 헬스케어 분야에서 사용되는 AI 시스템 역시 건강, 안전에 지대한 영향을 미치는 ‘고영향 인공지능’에 해당하여, AI 기본법의 적용을 받을 수 있습니다. 특히 의료기기 분야에서는 인공지능, 소프트웨어 등 디지털 기술을 활용한 디지털 의료제품의 특성에 맞는 임상·허가·품질관리 등을 주요 내용으로 ‘디지털의료제품법’ 이 시행되고 있어, 이에 대한 신속한 대비가 더욱 중요합니다. 다만, 식약처는 최근 디지털의료제품법 설명회에서 “인공지능에 대한 규제는 과기정통부의 인공지능 기 본법에도 다루고 있으며 인공지능 의료기기는 디지털의료제품법을 따르면 추가적인 안전 규제는 없을 것으로 예상된다"며 "인공지능 기본법에서 정하는 규제를 디지털 의료제품법에 담아 이중 규제가 되지는 않을 것이다"라고 설명한 바 있습니다. 그러 나 원칙적으로 AI 의료기기가 AI 기본법의 적용 예외가 되는 것은 아니므로, AI 의 료기기 사업자는 디지털의료제품법에 따른 규제를 준수하면서도 AI 기본법에 따른 정부의 지원 시책 및 향후 구체화될 규제 내용을 적극적으로 모니터링할 필요가 있 습니다.
금융기관의 경우, AI 시스템이 채용, 대출 등 개인의 권리∙의무 관계에 중대한 영향을 미칠 수 있는 신용평가 등에 사용될 경우 AI 기본법의 규제대상이 될 가능성이 있습니다. 금융위원회는 이미 ‘AI 가이드라인’을 통해 개인에 대한 부당한 차별 등 개인의 권익과 안전, 자유에 대한 중대한 위험을 초래할 수 있는 서비스 즉, 고위험 서비스에 대한 적절한 내부 통제 및 승인절차를 마련할 것을 권고하였고, 일부 금 융기관에서는 이를 반영하여 AI 시스템을 운영하고 있습니다. 그럼에도 해당 가이드라인에 포함되지 않는 AI 기본법상 추가적인 의무가 있을 수 있으므로, 금융기관 은 AI 기본법의 규제 내용을 정확히 확인하고 이를 반영하여 AI 시스템 운영 방식 을 조정해야 할 필요가 있습니다. 또한, 금융위원회가 정하고 있는 고위험 서비스보 다 현재 고영향 인공지능 서비스의 범위가 좁으므로, 향후 법집행 방식 등에 대해 면밀히 살펴볼 필요가 있습니다.
2. AI 기본법에 대한 평가 및 향후 전망
AI 기본법의 제정을 두고 관련 업계에서는 다양한 평가가 존재합니다. 정부 차원의 AI 기술 및 산업 진흥을 위한 법적 근거가 마련되어 향후 투자가 활발히 이루어질 것이라 는 긍정적인 평가가 있는 반면, 일부에서는 AI 기본법상 규제 내용이 모호하다는 점에 서 여전히 사업 환경에 불확실성이 존재한다는 우려도 제기되고 있습니다.
구체적으로, ‘고영향 인공지능’의 정의가 추상적이고 광범위하여 구체적인 위험 관리나 금지 조치 관련 규범 설정이 어렵다는 점이 지적되고 있습니다. 이는 EU의 ‘고위험 AI’ 와 비교하여 중립적인 표현이기는 하나, 동시에 그 중립성으로 인해 규제 대상이 확대 될 수 있다는 우려도 제기됩니다.
또한, AI 기본법 40조 사실조사 조항의 실시요건이 명확하지 아니하여 단순 민원이나 신고만으로도 조사가 이루어지는 것은 아닌지에 대한 산업계의 우려가 제기되고 있습니다. 정부는 하위법령에서 조건을 명확히 하여 민원인의 사적 이해관계나 익명 탄원 등에 의한 사실조사를 실시하지 않도록 할 계획이라고 밝힌 바 있으나, 하위법령의 입 법 과정에서 불확실성을 해소할 필요성이 있을 것으로 보입니다.
한편, AI 기본법은 규제보다는 산업 진흥에 초점이 맞춰져 있어 고영향 AI에 대한 실효성 있는 구체적 규제 조항이 부재한다는 평가도 있습니다. 특히 EU AI법에서 비윤리적 이거나 사회적 부작용 초래의 가능성이 있는 AI 기술에 대해 선제적 제재를 하고 있는 것과 비교하여, AI 기본법은 그러한 규제가 미비하다는 것입니다. 또한 AI 기본법에서는 AI에서 파생될 수 있는 저작권 및 개인정보보호 관련 보호 장치도 부족하다는 비판도 제기되고 있습니다. 이와 관련하여 법안 제정 당시에 “창작행위에 관계되는 AI 학습데이터 목록을 공개해야 한다는 선언적인 조항을 법안에 포함시키자”는 문화체육관광부 국장의 의견과 “생성 AI 사업자가 최대한 학습 데이터를 투명하게 밝히고 저작권자가 열람할 수 있게 해야 한다”는 한국신문협회 등 5개 언론 단체의 의견이 있었으나 최종 적으로 법률안에 반영되지 못하였는바, 추후 하위법령 또는 다른 법령을 통해 이와 관 련한 해결책도 제시될 것으로 생각됩니다.
결국, AI 기본법의 보다 구체적인 내용은 향후 마련될 시행령에 의해 다양한 측면에서 보완될 예정이므로, 정부가 이러한 비판을 수용하여 규제 범위와 요건을 어떻게 구체화 할 것인지가 중요합니다. 따라서, AI 관련 사업자들은 법의 적용 여부와 관련 의무 사항을 사전에 검토하여 대비함과 동시에, 추후 정부가 제정할 시행령과 고시, 가이드라인 제정 과정에서 적극적인 의견을 개진하여 규제의 합리성을 기할 필요가 있습니다.