I. 발표 배경 및 취지
법원 인공지능연구회(이하 ‘인공지능연구회’)가 2025. 2. 『사법에서의 인공지능(AI) 활용에 관한 가이드라인』(이하 ‘본 가이드라인’)을 발표하였습니다. 인공지능연구회는 2023. 10. 24. 법원 내 설립되어 인공지능(이하 ‘AI’) 기술과 관련된 제도 및 AI를 활용하여 재판업무를 지원하는 방법 등을 연구하고 있으며, 본 가이드라인은 법관이 AI를 활용할 때 유의하여야 할 사항 그리고 AI가 소송에서 활용될 경우 고려하여야 할 사항 등을 포함하고 있습니다.
본 가이드라인을 아직 법원의 공식 입장으로 보기 어렵다고 하더라도 향후 소송 절차에서 AI가 활용될 경우에 발생하는 문제를 해결하는 기준과 절차를 일응 제시해 줄 수 있을 것으로 보입니다.
II. 구체적인 내용
본 가이드라인은 총칙(제1장), AI의 기본적 이해(제2장), 사법부의 AI 개발 및 도입(제3장), 법관의 AI 활용(제4장) 및 소송당사자의 AI 사용에 대한 법원의 대응(제5장)으로 이루어져 있습니다.
1. 총칙
본 가이드라인은 AI가 재판의 효율성을 높이고, 국민의 사법 접근성을 높일 수 있는 유용한 도구이지만, AI에 내포된 불완전성을 고려하면 사법의 본질과 핵심 가치에 맞게 신중하게 활용하여야 한다는 점을 강조합니다.
2. AI의 기본적 이해
AI가 강력한 도구이지만, 동시에 상당한 위험성을 내포하고 있으며, 이러한 위험에는 (i) AI가 실제로 존재하지 않는 내용을 생성할 위험(환각 현상), (ii) 훈련 데이터의 오류∙편견이 반영될 위험(편향성) 및 (iii) 자료 생성 과정을 이해하기 어렵고, 자칫 딥페이크 등으로 AI 산출물이 악용될 위험 등이 있다는 점을 인식해야 합니다.
3. 사법부의 인공지능(AI) 개발 및 도입
본 가이드라인은 AI에 내포된 위험성을 고려하여, 사법부가 AI를 도입할 경우 지켜야 할 원칙을 제시하였습니다.
-
기본권 및 헌법적 가치의 보장 원칙: 사법부의 AI는 국민의 기본권을 증진하는 방향으로 도입되어야 하며, 특히, 법관에 의한 재판을 받을 권리(헌법 제27조 제1항)와 법관의 독립성(헌법 제103조)이 훼손되지 않도록 유의해야 함. 또한, 평등원칙(헌법 제11조 제1항)을 보장하기 위해 AI에 내포된 편향성을 경계하고, 소송 당사자의 참여를 제한되지 않도록 하여 적법절차 원칙을 준수하여야 함
-
신뢰성의 원칙: 사법부의 AI는 정확성과 공정성을 갖춰야 하며, 훈련 데이터의 편향성을 최소화할 수 있도록 지속적인 점검과 개선이 필요함
-
합법성의 원칙: 사법부의 AI는 데이터 수집 및 결과물 생성 과정에서 개인정보 보호법 및 지식재산권을 준수하는 등 대한민국 법질서와 조화를 이루어야 함. 필요한 경우, 사법부 AI의 근거와 한계를 민사소송규칙, 형사소송규칙 및 각종 예규 등에 규정하여야 함
-
책임성의 원칙: 사법부의 AI는 법관이 결과물의 정확성을 확인하고 검증할 수 있도록 설계되어야 함
-
투명성의 원칙: 사법부는 데이터의 출처, 선별∙훈련 과정 등 AI의 세부 사항을 기록하고, 이의 전부 또는 일부를 일반 대중에게 공개하여야 함
-
미래지향성의 원칙: 사법부는 AI가 법적 판단 및 사회적 변화를 반영할 수 있도록 설계하고, 나아가 AI를 지속적으로 개선할 수 있도록 검토하여야 함
4. 법관의 AI 활용
가. 기본권 및 헌법적 가치의 보장
본 가이드라인은 법관이 AI를 사용하며 법관의 독립성, 재판청구권, 적법절차 등 사법부와 관련된 헌법적 가치와 기본권을 해치지 않도록 유의해야 한다고 강조합니다. 구체적으로, 법관은 AI에게 사실 확정 및 법률 해석∙적용을 전적으로 맡기지 않아야 하며, 특히 형사 절차에서 피고인의 방어권 및 변호권에 중요한 영향을 주는 사안에 관하여 AI를 활용하였다면, 이에 관한 정보를 적절하고 충분하게 제공하여야 합니다. 또한 법관은 AI가 산출한 결과물에 편향이 발생할 수 있음을 인지하고 평등원칙에 위배되지 않는지 신중하게 검토하여야 합니다.
나. 책임 있는 사용 및 신뢰성의 보장
법관이 오류가 있는 AI 산출물을 활용한 경우, 이에 대한 법적, 윤리적 책임을 질 수 있음을 인지해야 합니다. 따라서 법관은 평소 AI의 위험성에 대한 기본적인 이해를 갖추고, 항상 AI 산출물을 비판적인 관점에서 평가하여야 합니다.
다. 상용 AI 활용상 유의점: 개인정보 및 기밀 보호
법관은 양 당사자의 명시적인 동의가 없는 한, 상용 AI에 개인정보, 사건의 구체적 내용, 영업비밀, 사건 관계인의 사생활에 관한 내용, 판결문 초안 등을 입력하지 않아야 합니다.
나아가 법관은 사법부 공식 메일을 사용하여 상용 AI에 가입하는 것과 계정 정보에 직업을 법관으로 표시하는 것을 자제하여야 합니다. 만약 법관의 개인정보가 유출된 경우, 법관은 신속하게 사법부 내 기술지원 관련 부서 등에 연락하여 적절한 기술적 지원을 받아야 합니다.
5. 소송당사자의 AI 사용에 대한 법원의 대응
가. AI 사용 여부를 밝혀야 할 소송당사자의 의무
본 가이드라인은 법원이 소송 지휘로 소송당사자의 AI 사용 여부를 명확히 밝혀야 한다고 합니다. 구체적으로, 법원은 재판 과정에서 소송당사자가 AI를 사용하여 서면과 증거를 작성하였다고 의심되거나 상대방이 이를 지적하는 경우, 제출 당사자에게 AI 사용 여부에 관한 석명을 구할 수 있습니다. 특히 형사재판의 경우 증거능력이 엄격하게 요구되므로, 법관은 형사소송법과 형사소송규칙 등에 따라 증거능력 여부를 검토할 필요가 있습니다.
또한, 현재 기술로 AI 산출물을 명확히 감지할 수는 없으나, 적어도, (i) 소송당사자가 제출한 자료에 명백한 실수가 포함되는 경우(인용한 판례 번호가 존재하지 않는 경우), (ii) 유사한 법적 문제와 관련하여 서로 다른 판례를 인용하는 경우, (iii) 법에 대한 일반적인 이해와 일치하지 않는 자료를 포함하는 경우 등은 AI 사용을 의심할 수 있다고 지적하였습니다.
나아가 본 가이드라인은 서면∙증거가 AI 산출물인 것으로 밝혀진 경우, 법원은 산출물의 정확성을 확인하기 위하여 제출당사자에게 사용한 AI, AI에 입력한 명령어(프롬프트), 소송당사자가 AI 산출물을 검증하기 위하여 취한 조치 등을 밝히도록 소송 지휘할 수 있다고 합니다. 아울러 소송당사자가 소송자료 및 증거자료에 AI가 사용되었는지 밝히도록 하는 민사소송규칙, 형사소송규칙 등의 개정도 고려할 수 있다고 의견을 제시하고 있습니다.
나. 딥페이크 사용으로 인한 문제
본 가이드라인은 딥페이크 문제로 인해 실체적 진실 발견에 어려움이 생길 수 있다고 지적합니다. 구체적으로, (i) 소송당사자가 의도적으로 딥페이크를 사용하여 서면∙증거를 제출하는 경우뿐만 아니라 (ii) 상대방이 딥페이크를 이유로 위∙변조를 주장하는 경우에도 법원이 현재 상황에서 딥페이크 여부를 모두 밝힐 수 없기 때문에 실체적 진실 발견에 어려움이 생길 수 있다고 보았습니다.
나아가 딥페이크 여부를 밝히기 위하여 감정을 진행하는 경우, 이에 따라 감정 비용이 늘어나고 재판 절차가 지연될 수밖에 없습니다. 또 딥페이크에 대한 이해가 부족한 소송당사자의 경우 적절히 대응하지 못하여 재판청구권을 실질적으로 보장받지 못하는 결과가 발생할 수 있습니다. 이러한 지적의 취지는 법관이 딥페이크가 소송에서 야기할 수 있는 문제점을 유의하여 재판을 진행하여야 한다는 것으로 이해됩니다.
III. 시사점
최근 법조계에서도 AI 활용 방법과 범위가 늘어나고 있습니다. 실제로 해외에서는 AI로 작성된 서면에 허위의 사실이 포함되었다는 이유로 변호사에게 벌금을 부과하거나1자격을 정지2하는 사례도 발생하고 있습니다.
AI 활용 빈도가 늘어감에 따라 향후 소송 절차에서 AI 산출물과 관련된 공방이 늘어날 것으로 예상되며, 본 가이드라인이 이러한 공방을 해결하는 기준과 절차를 제시할 수 있다고 생각합니다. 이에 본 가이드라인에 맞추어 향후 소송 절차에서 AI 산출물로 의심되는 서면과 증거에 대한 석명을 구하고, 허위∙오류가 내포된 것으로 보이는 자료를 적극적으로 지적하는 방법도 고민해볼 필요가 있습니다.
나아가 본 가이드라인은 AI 산출물에 관한 소송 절차 규정을 정비하도록 촉구하고 있으므로, 가까운 시일 내에 해당 규정의 도입이 논의될 수 있을 것으로 보입니다. 이러한 동향과 논의를 살펴, 현재 소송에 미칠 영향을 분석하고 소송 전략을 수립할 필요가 있습니다.
1 정윤섭, “미국 변호사들, 챗GPT가 쓴 ‘가짜 판례’ 제출했다 벌금”, KBS뉴스, 2023. 6. 23
2 홍수정, “美법원, ‘AI 가짜 판례’ 인용 변호사에 정직 1년”, 법률신문, 2024. 3. 28