2026 AI 기본법 3부: "성능이 좋아서 죄인가요?” 고성능 AI 규제와 보이지 않는 감시자들 (IT법무/기업자문 편)
AI 기본법(2026)으로 1026 FLOPs 이상은 고성능 AI가 되어 안전성 확보·보고 의무와 국내대리인 지정 대상이 됩니다. 미준수 시 과태료·조사·시장퇴출 위험이 있으며 선제적 대응이 필요합니다.
2026년 1월 12일
Written by. Lawkit 기업자문본부 김용범 변호사
2026년 1월 22일, 대한민국에서 「인공지능 발전과 신뢰 기반 조성 등에 관한 기본법(AI 기본법)」이 시행됩니다. 이제 법 시행까지는 단 10일밖에 남지 않았습니다. 1부의 '투명성', 2부의 '고영향 AI'에 이어, 오늘 3부에서는 규모가 큰 모델을 개발하거나 해외 기반 서비스를 운영하는 기업들이 반드시 마주하게 될 '고성능 AI'와 '국가적 감시 체계' 리스크를 다룹니다.
정권이 바뀌면 과거의 계약이 승계 문제로 진통을 겪듯, 규제가 생기면 '기준'을 몰랐던 것만으로도 막대한 비용을 치러야 합니다.
🔍 Scene . "우리 모델은 그냥 좀 큰 것뿐인데, 왜 국가가 조사하나요?" (고성능 AI와 국내대리인)
[상황]
자체적인 거대언어모델(LLM)을 개발 중인 테크 기업 C사. C사의 모델은 뛰어난 성능으로 업계의 주목을 받고 있습니다. 그런데 최근 법무팀으로부터 경고가 날아왔습니다. 학습에 사용된 누적 연산량이 일정 기준을 넘어서면, 어떤 분야에서 쓰이든 상관없이 '고성능 인공지능'으로 분류되어 정부의 밀착 감시를 받게 된다는 것입니다. 한편, 해외 법인을 통해 국내에 서비스를 제공하던 D사는 한국에 사무소가 없다는 이유로 안심하고 있다가 '국내대리인 지정' 통보를 받고 패닉에 빠졌습니다.
[변호사's Deep Dive 📝]
AI 기본법은 단순히 AI가 '어디에 쓰이는가'뿐만 아니라, 그 '힘(성능)'이 얼마나 강력한가도 규제 잣대로 삼습니다.
고성능 AI의 기준 (제32조 및 시행령 제23조): 학습에 사용된 누적 연산량이 1026 FLOPs(부동소수점 연산) 이상인 인공지능시스템이 그 대상입니다. 이 수치를 넘어서는 순간, 해당 AI는 용도와 관계없이 '안전성 확보 의무'를 집니다.
안전성 확보 의무 (제32조): 고성능 AI 사업자는 AI 수명주기 전반에 걸친 위험을 식별하고, 안전사고를 모니터링·대응하는 위험관리체계를 구축해야 합니다. 또한 이 이행 결과를 과학기술정보통신부장관에게 반드시 제출해야 합니다.
국내대리인 지정 (제36조 및 시행령 제28조): 국내에 주소나 영업소가 없더라도 매출액이 1조 원 이상이거나 이용자 수가 일일 평균 100만 명 이상인 해외 사업자는 반드시 국내대리인을 서면으로 지정해 신고해야 합니다. 이를 통해 고성능 AI 관리 및 정부 조사에 대응해야 할 의무가 생깁니다.
보이지 않는 감시자들 (제11조, 제12조): 정부는 인공지능정책센터와 인공지능안전연구소를 통해 AI 안전 관련 위험을 정의하고 평가 기준을 연구하며, 필요한 경우 사업자에게 자료 제출을 요청할 수 있는 근거를 마련했습니다.
[Risk]
글로벌 보이콧 리스크: 국내대리인을 지정하지 않을 경우 3,000만 원 이하의 과태료가 부과되는 것은 물론, 정부의 사실조사 대상이 되어 국내 시장에서의 퇴출 압박을 받을 수 있습니다.
기술 유출 및 조사 리스크: 안전성 확보 의무 이행 결과를 제출하는 과정에서 핵심 알고리즘의 안전성 데이터가 노출될 수 있으며, 기준 미달 시 정부의 중지 및 시정명령이 내려질 수 있습니다.
[Lawkit의 솔루션]
국제 정세가 예측이 아닌 대비의 영역이듯, 기술의 크기가 규제의 크기가 되는 시대에는 [기술-법무 통합 방어 전략]이 필수입니다.
연산량 사전 검증 및 로깅: 개발 단계부터 누적 연산량을 정확히 계산하고 기록하여, 고성능 AI 해당 여부를 법률적으로 선제 판정하십시오.
안전관리체계(Safety Framework) 구축: 인공지능안전연구소의 가이드라인에 부합하는 위험 모니터링 시스템을 구축하고, 정부 제출용 이행 결과 보고서를 미리 준비해 드립니다.
국제 컴플라이언스 대응: 해외 법인 사업자의 경우, 한국 내 법률적 책임을 대리하고 정부 소통 창구 역할을 할 전문적인 국내대리인 서비스를 활용해 세컨더리 보이콧 리스크를 차단하십시오.
🛡️ [변호사의 필수 체크리스트 📌]
규모 있는 AI 모델을 보유하거나 해외 기반 서비스를 운영 중이라면 아래 리스트를 점검하십시오.
연산량 측정: 우리 모델의 학습에 소요된 총 연산량이 1026 FLOPs 기준에 근접하거나 초과하는가?
안전성 이행 보고: 위험 식별 및 안전사고 모니터링 체계를 구축하고, 과기정통부에 제출할 이행 결과 리포트를 마련했는가?
국내대리인 대상 확인: 한국 내 매출액이나 이용자 수 기준을 충족하여 국내대리인을 의무적으로 지정해야 하는 해외 사업자인가?
자료 제출 및 현장 조사 대비: 정부(정책센터/안전연구소)의 자료 제출 요구나 소속 공무원의 사무소 출입 조사에 대응할 내부 프로세스가 있는가?
기록 보존 시스템: 고성능 AI의 안전성 조치 내용을 확인할 수 있는 문서를 최신 상태로 유지하고 정확성을 점검하고 있는가?
[Next Step]
"기술이 너무 뛰어나서 규제를 받는다"는 말은 역설적으로 그 기술이 국가적 관리 대상이 될 만큼 가치 있다는 뜻이기도 합니다. 하지만 준비되지 않은 기술은 규제의 파고 앞에 좌초될 뿐입니다. 보상은 언제나 '먼저 움직여 안전성을 입증하는 자'의 몫입니다.
Lawkit은 귀사의 혁신적인 AI 기술이 규제라는 족쇄에 묶이지 않고, 오히려 '검증된 기술'이라는 날개를 달고 글로벌 시장으로 뻗어 나갈 수 있도록 최상의 전략을 제공합니다.
👉 [우리 회사 AI 고성능 기준 진단 및 국내대리인 지정 상담하기]

Lucas
법무법인 오킴스에서 기업자문 전반 및 등기업무 등 실무 사무를 담당하고 있습니다.
함께 읽으면 좋은 계약 팁


