‘AI기본법’ 22일 본격 시행...정부 “AI 필요 최소한 규제”

김지현 기자 (kjh@dailian.co.kr)

입력 2026.01.21 16:44  수정 2026.01.21 16:45

AI산업 진흥과 안전·신뢰 균형에 방점

기업 부담 완화 위해 1년 규제 유예

지원데스트 운영...기업 법 이행 지원

고영향AI 기준...고성능 자율주행 등만

과학기술정보통신부 전경.ⓒ데일리안DB

‘인공지능 발전과 신뢰 기반 조성 등에 관한 기본법’(AI기본법)이 오는 22일부터 본격 시행된다. 이번 법안은 산업 진흥과 안전·신뢰 균형에 방점을 뒀으며 세계적으로는 유럽연합(EU)에 이어 두 번째로 제정된 AI 관련 국가 기본법이다.


정부는 이를 통해 AI 세계 3대 강국(G3)으로 도약하기 위한 법적·제도적 기틀을 마련, 필요 최소한의 규제를 원칙으로 삼겠다는 구상이다. 특히 AI기본법은 투명성·안전성 확보, 고영향AI 판단 기준 등을 명확히 했으며 AI산업계를 대상으로 향후 1년간 계도기간을 가질 예정이다.


고영향·생성형 AI 투명성·안전성 기준 명문화


지난 20일 열린 AI 기본법 시행령 대비 설명회.ⓒ김지현 기자

AI기본법은 그간 논란이었던 ▲AI 투명성 ▲AI 안전성 ▲고영향AI 판단 기준 등을 명시했다.


AI기본법에 따르면 고영향 AI와 생성형 AI를 활용하는 사업자는 해당 사실을 이용자에게 사전 고지해야 하며 특히 딥페이크 등 사회적 부작용이 우려되는 생성형 AI 결과물에는 이용자의 연령을 고려, 명확히 인식할 수 있는 방법으로 표시해야 한다.


다만 딥페이크 결과물이 아닌 애니메이션, 웹툰 등 AI결과물에 대해서는 눈에 보이지 않는 ‘디지털 워터마크’도 허용했으며 AI사업자가 알림창이나 UI 등을 통해 생성형AI 결과물을 안내하도록 규정했다.


안전성 확보 기준도 정해졌다. 안전성 의무 확보 대상이 되기 위해서는 ▲학습에 사용된 누적연산량이 10의 26승 부동소수점 연산(FLOPs) 이상 ▲최첨단 기술 적용 ▲위험도가 사람의 기본권에 광범위하고, 중대한 영향을 미칠 우려가 있는 경우 등을 충족해야 한다.


고영향 AI의 판단 기준과 사업자 책무 역시 시행령을 통해 구체화됐다. 시행령에 따르면 고영향 AI 여부는 ▲법에서 정한 특정 영역에서 활용되는지 여부 ▲해당 AI가 초래할 수 있는 위험의 중대성 등을 종합적으로 고려해 판단한다.


그러나 AI의 최종 의사결정 과정에 사람이 개입하는 경우에는 위험을 통제할 수 있는 것으로 보고 고영향 AI 대상에서 제외하도록 했다. 아울러 영역별 고영향 AI 세부 판단 기준과 사업자가 이행해야 할 책무의 구체적인 방법은 별도의 가이드라인을 통해 추가로 제시됐다.


과기정통부는 “AI기본법의 대상은 AI사업자다. AI사업자의 이해를 돕기 위해 실제 서비스 사례 표시를 어떻게 적용해야 하는지 구체적 열거했다”며 “필요최소한의 규제를 원칙으로 한다”고 강조했다.


AI기본법, 계도기간 1년…‘지원데스크’ 구축


정부는 현장의 혼란을 최소화하기 위해 최소 1년 이상의 규제 유예 기간을 두기로 했다. 해당 기간 동안 사실조사, 과태료 관련 계도기간을 운영한다. 사실조사의 경우 인명사고, 인권훼손 등 중대한 사회적 문제가 발생하는 등 예외적인 상황에서 실시할 예정이다.


이를 위해 ‘AI기본법 지원데스크’를 개설한다. 기업의 법 이행을 돕기 위해서다. 정부는 지원데스크를 통해 기업에게 컨설팅을 제공할 예정이다. 영업비밀 유출 등을 우려하는 기업을 고려, 상담 내용은 비밀로 관리하고, 익명 컨설팅도 제공할 방침이다.


아울러 AI 정책의 컨트롤타워인 국가인공지능전략위원회의 법적 근거도 마련됐다. 위원회 산하에는 분과·특별위원회와 지원단, AI책임관 등이 설치돼 범국가적인 AI 정책을 체계적으로 추진하게 된다.


산업 진흥을 위한 구체적인 지원책도 담겼다. AI 연구개발(R&D)·학습용 데이터 구축, AI 도입·활용 지원, 전문인력 양성, AI 데이터센터 구축 지원 등 산업 생태계 전반에 대한 법적 지원 사항과 세부 기준이 시행령을 통해 구체화됐다.


AI 생성물 표시 기준 구체화…딥페이크 ‘가시적 워터마크’ 의무


ⓒ데일리안 AI 삽화 이미지

계도기간 동안 ‘AI 투명성 확보 가이드라인’도 보완한다. 이에 따라 해당 기간 동안 투명성 조항에 대한 사실조사와 과태료 부과는 유예된다.


가이드라인은 AI 신뢰 확보라는 입법 취지와 기업의 부담 완화를 균형 있게 고려했다. 사회적 우려가 큰 딥페이크 생성물에 대해서는 사람이 명확히 인식할 수 있는 표시를 의무화했다.


반면 AI 생성물이 서비스 환경 내에서 제공되는 경우에는 외부 반출과 구분해 유연한 표시 방식을 허용했다. 서비스 환경은 이용 화면, 앱 등 이용 환경 내에서만 생성물이 표현되는 경우를 의미한다. 외부 반출은 다운로드·공유 등으로 생성도니 결과물을 서비스 환경 외부로 내보낼 때 해당된다.


투명성 확보 의무 대상을 명확히 했다. 투명성 확보 의무의 대상은 이용자에게 AI 제품·서비스를 직접 제공하는 AI사업자(AI개발사업자·이용사업자)다. 국내 이용자를 대상으로 AI 제품·서비스를 제공하는 해외 사업자도 이에 해당된다. 반면, 개인 유튜버·크리에이터와 방송사·매체, 시청자·소비자는 투명성 확보 의무 이행에서 제외된다.


특히 투명성 확보는 고영향 또는 생성형 AI 기반 운용 사실을 사전에 고지하는 조항과 AI 생성물임을 표시하는 의무로 나뉜다. 사업자는 서비스 이용약관, 계약서, 앱·소프트웨어 구동 화면 등을 통해 이를 명시해야 한다.


투명성 확보를 위한 ‘외부 반출 시 표시 의무’는 딥페이크 생성물과 일반 생성물로 나뉘어 적용된다. 딥페이크 생성물은 사람이 직관적으로 인식할 수 있는 표시 방법을 적용해야 한다. 음성·이미지·영상 등 AI 생성 결과물에 대해 AI 생성 사실 안내 음성을 송출하거나 로고 등 가시적 워터마크를 삽입해야 한다.


일반생성물의 경우 ▲가시적 워터마크 등 사람이 인식할 수 있는 방법 ▲비가시적 표시 방법 적용 및 1회 안내 중 선택해 적용하면 된다.


또 오프라인 서비스의 경우 이용자가 쉽게 볼 수 있는 장소에 안내문을 게시해야 한다.


아울러 ‘서비스 환경 내에서만 이용되는 경우’와 ‘외부로 반출되는 경우’를 구분해 기술적·현실적 여건을 고려했다.


AI생성물이 서비스 환경 내에서만 제공될 시 사용자 이용 환경(UI)이나 로고 표출 등을 통해 유연하게 표시할 수 있다. 예를 들어 챗봇 등 대화형 서비스는 이용 전 안내나 화면 내 로고 표출을 인정한다. 게임·메타버스는 로그인 시 안내나 캐릭터에 AI임을 표시해야 한다.


외부로 반출하는 경우에는 보다 확실한 표기가 필요하다. AI로 생성된 텍스트, 이미지, 영상 등을 다운로드·공유할 때는 ‘사람이 인식할 수 있는 방법’으로 표시해야 한다. 또는 문구·음성 안내 후 메타데이터 등 기계 판독 방식의 표시를 병행해야 한다.


특히 실제와 구분하기 어려운 딥페이크 생성물은 반드시 사람이 명확히 인식할 수 있는 방식으로 표시하도록 했다.


과기정통부는 “AI 생성물 표시 제도가 딥페이크 오용 등 기술 부작용을 막기 위한 최소한의 안전장치”라며 “제도 도입 초기의 현장 부담을 고려해 계도기간 동안 업계와 소통하며 향후 새롭게 등장하는 서비스 유형과 기술 특성을 반영해 가이드라인을 지속적으로 보완해 나갈 계획”이라고 밝혔다.

0

0

기사 공유

댓글 쓰기

김지현 기자 (kjh@dailian.co.kr)
기사 모아 보기 >
관련기사

댓글

0 / 150
  • 최신순
  • 찬성순
  • 반대순
0 개의 댓글 전체보기