정부, 올해 ‘AI 대전환’ 원년 선포
1월 22일부터 AI 기본법 전면 시행
고영향 AI·투명성 등 현장서 혼선
현장선 “AI 발전 저해 규제 모호해”
배경훈 부총리 겸 과학기술정보통신부 장관이 지난해 12월 30일 독자 AI 파운데이션 모델 프로젝트 1차 발표회에 참석해 축사를 하고 있다.ⓒ뉴시스
정부가 올해를 AI 대전환(AX)의 원년으로 삼고 인공지능(AI) 강국으로 도약하겠다는 청사진을 제시했다. AI 관련 예산은 물론, 각종 지원사업을 펼쳐 한국형 AI를 구축하겠다는 구상이다.
이와 동시에 ‘AI 발전과 신뢰 기반 조성 등에 관한 기본법’(AI 기본법)이라는 법의 테두리는 물론, 관련 후속조치도 본격화되고 있다. AI 강국으로 도약함과 동시에 AI 기술의 안전성, 책임을 AI 기본법을 통해 통제하겠다는 것이다.
현장에서는 정부의 투자 확대와 인프라 지원 약속에는 환영의 뜻을 표하면서도 동시에 시행되는 강력한 통제 기제가 이제 막 피어나는 국내 AI 생태계의 성장을 저해할 수 있다는 우려를 쏟아내고 있다.
안전·성장 속 통제 기반 등장
과학기술정보통신부 전경.ⓒ데일리안DB
정부는 올해 AI 예산을 대폭 증액했다. 24일 과기정통부에 따르면 올해 AI 분야에 투입되는 예산은 총 5조1000억원이다. 이는 올해 총예산인 23조7417억원의 약 5분의 1 규모다. 정부가 AI 대전환을 가속화한다는 구상으로 읽힌다.
AI 대전환에는 AI 고속도로 구축, AI 혁신기술 개발 및 인재 양성, AI 확산 및 AI 기반 사회 조성, R&D 전반의 AI 접목 등에 사용될 예정이다. 특히 첨단 그래픽 처리 장치(GPU) 1만5000장을 추가 확보해 누적 3만7000장을 보유하고, 국가 AI 컴퓨팅센터를 구축하기로 했다.
또 AI 네트워크 기술과 특화 AI 모델 개발을 위한 데이터 스페이스 구축에도 투자한다. AI 반도체, 국산 NPU 등 차세대 AI 핵심 기술과 피지컬 AI 등 AI 전환 기반 기술 확보에도 예산을 크게 반영하면서다.
특히 고성능 GPU를 확보해 국내 기업과 연구기관에 공급하는 ‘AI 고속도로’ 인프라 구축 사업은 업계의 큰 기대를 모으고 있다. 이외에도 차세대 AI 핵심기술 확보, AI 인재 양성, AI 확산 등을 통해 올해를 AI가 모든 산업의 기본이 되는 시점으로 삼을 것으로 보인다.
발전을 위한 지원과 동시에 관련 법령도 구축됐다. 지난 1월부터 시행되고 있는 AI 기본법이 바로 그것이다. AI 기본법은 ▲AI 안전성 확보 ▲책임 규정 명문화 ▲고영향 AI에 대한 집중 관리 등을 골자로 한다.
정부 “최소 규제” VS 업계 “기준 모호”
ⓒ데일리안 AI 이미지 삽화
AI 기본법은 관련 업계에 복합적인 메시지를 던진다. 정부는 이를 통해 AI의 부작용을 최소화하고, AI에 대한 국민적 신뢰를 구축하겠다는 입장이지만 현장에서는 법의 기준이 모호해 사실상 통제의 시작이라는 목소리가 나오고 있기 때문이다.
정부는 업계의 우려를 달래기 위해 ‘최소 규제 원칙’을 고수하겠다는 입장이다. 또 AI 기본법을 시행 이후 ‘AI 기본법 지원데스크’를 운영하는 등 법 시행 초기 기업들이 새로운 제도에 적응할 수 있도록 향후 1년간은 과태료 부과를 유예하는 계도 기간을 운영하기로 했다.
해당 기간 동안 기업들은 정부의 맞춤형 컨설팅을 통해 고영향 AI 여부를 판별하고 위험 관리 문서를 작성하는 법적 의무 사항을 준비하게 된다.
이 기간 동안 기업들은 정부의 맞춤형 컨설팅을 통해 고영향 AI 여부를 판별하고 위험 관리 문서를 작성하는 법적 의무 사항을 준비하게 된다.
과기정통부는 지난 1월 열린 설명회에서 “AI 기본법에서는 규제 조항이 투명성, 안전성, 고영향 AI 등 세 가지다. 이 세 가지 규제에 대한 법적 의무뿐만 아니라 위반 시 제재 수준도 최소한의 수준으로 설정돼 있다”며 “AI 혁신을 저해하지 않는 법”이라고 선을 그었다.
시행 두 달…AI 기본법 논쟁 지속
AI 기본법을 둔 논쟁은 지속되고 있다. 특히 고영향 AI는 여전한 쟁점 사항이다. 고영향 AI의 범위와 기준이 다소 모호하다는 게 그 이유다.
AI 기본법에 따르면 고영향 AI는 ‘사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 위험을 초래할 우려가 있는 AI 시스템’으로 규정돼 있다. 여기서 중대한 영향과 위험 수준이 모호해 업계의 발목을 잡는다는 것이다.
투명성 역시 업계의 어려움을 가중한다. AI 기본법상 AI 투명성 확보는 AI 사업자가 이용자를 대상으로 제공하는 결과물이 AI로 생성된 결과물이라는 점을 명확히 하는 것이다.
과기정통부와 한국AI·소프트웨어산업협회(KOSA)에 따르면 지난달 22일 지원데스크 개소 이후 열흘간 온·오프라인을 통해 172건의 상담이 접수됐는데 AI 투명성 확보 의무가 53건(56.4%)으로 가장 많았다. 고영향 AI 16건(17%), 정의 10건(10.6%) 순이었다.
또 1년이라는 계도기간 역시 큰 변수가 되고 있다. 계도 기간은 기업들에게 법적 리스크를 줄일 수 있는 완충 지대가 되지만 동시에 글로벌 빅테크와의 속도전에서 규제 대응에 자원을 빼앗기는 ‘기회비용’에 대한 우려는 여전하다.
한 스타트업 관계자는 “법은 시행됐으나 현장에서 어디까지가 규제 대상인지에 대한 판단 기준이 여전히 모호하다”며 “기준이 지나치게 포괄적이고 모호하다. 워낙 조심스럽다보니 규제를 하는 자체가 AI 산업을 옥죄는 것과 다름없다”고 토로했다.
일각에서는 보다 구체적인 가이드라인을 만들어야 한다는 목소리가 나온다. 정준화 국회입법조사처 입법조사관은 지난 1월 발표된 ‘국가 AI 전략 실현을 위한 행정의 과제’를 통해 “AI 기본법의 선언적 규정이 집행 현장의 불확실성을 키울 수 있다”며 “정부가 구체적 가이드라인을 신속하게 업데이트해 입법 목표와 현실 사이의 간극을 줄여야 한다”고 강조했다.
0
0
기사 공유
댓글
댓글 쓰기