韓, 2차 AI 안전 정상회의 내년 개최
1차 회의서 공동선언 채택
후속조치 구체화 필요성 커져
스마트폰 화면에 뜬 'Open AI' 로고(자료사진) ⓒAP/뉴시스
기술 발달에 따라 안보 패러다임이 바뀔 수 있다는 우려가 커지는 가운데 우리나라가 '룰메이커' 역할을 맡을 수 있도록 적극성을 뗘야 한다는 지적이 나왔다.
한국이 내년 5월 영국에 이어 두 번째로 '인공지능 안전 정상회의(AI Safety Summit)'를 개최할 예정인 만큼, 구체적 규범·규제 확립에 기여할 필요가 있다는 평가다.
윤정현 국가안보전략연구원 부연구위원은 6일 연구원을 통해 발표한 'AI 안전에 관한 블레츨리 정상회의 의미와 시사점'이라는 제목의 보고서에서 "급속한 AI 기술의 발전이 초래하는 광범위한 위험성을 경고한 해당 회의는 인류와 AI의 지속가능한 공존을 위한 국제협력 필요성을 확인한 자리"라고 밝혔다.
지난달 1일 영국 블레츨리 파크(Bletchley Park)에서 개최된 해당 회의에는 권위주의 국가인 중국은 물론 구글 딥마인드, 메타(구 페이스북) 등 빅테크 기업들까지 참여해 전 세계 이목을 집중시켰다는 평가다.
특히 개최국 영국을 포함해 한국, 미국, 중국, 유럽연합(EU) 등 28개국 및 기업 대표들이 '인간 중심적이고, 신뢰할 수 있으며, 책임감 있는 AI 기술 보장을 위해 포용적 방식으로 협력한다'는 내용의 공동선언을 채택한 것은 의미가 크다는 분석이다.
스스로 사고·추론하며 인간 통제를 벗어날 가능성이 있는 '프런티어 AI(Frontier AI)' '생성형 AI(Generative AI)' 관련 도전은 기업에만 책임을 묻기 어려운 데다, 단일국가 차원에서 감당하기 어려운 초국가적 문제이기도 한 만큼, 국제 공조가 필수라는 설명이다.
란드리 시니에 미 애리조나주립대 교수는 전날 개최된 '2023 세계신안보포럼'에서 "AI가 너무 빠른 속도로 진화하고 있다"며 "우리가 생각할 수 있는 모든 분야가 다 영향을 받고 있다. 워낙 빠르게 기술 혁신이 나타나고 있지만, 관련 규제는 너무나 천천히 진행되고 있다"고 말했다.
시니에 교수는 "행위자들이 지역별, 국가별, 업계별로 글로벌 차원에서 다양하게 편재해 있다"며 "사공이 많다 보니 관리해 나가는 것이 어려워지고 있다"고 강조했다.
특히 "AI가 잠재적으로 무기화될 수 있다"며 "대통령실, 중앙은행 등 핵심 인프라를 단 몇 분 안에 해킹할 수 있다는 보고서가 발표됐다"고 전했다.
그러면서 "AI 주도로 적대적 공격을 가능케 하는 국가 안보 차원의 위협도 있다"고 부연했다.
"걱정 지나쳐…핵무기보다 나은 상황"
다만 일각에선 AI에 대한 지나친 비관론을 경계하는 목소리도 나온다.
이재진 서울대 데이터사이언스대학원장은 "AI가 인간 지능의 3% 정도만 간신히 모방할 뿐"이라며 "걱정이 좀 지나치다는 생각이 든다. (AI는) 인간의 역량을 증강시킬 것"이라고 전망했다.
이 원장은 "AI 기술의 위협 수준이 핵무기보다 더 높다고 생각하지 않는다"며 "사실 AI는 핵무기보다도 상황이 더 낫다"고 강조했다.
핵무기는 실사용에 따른 대규모 인명피해 발생 후 규제가 도입됐지만, AI는 개발 초기단계부터 위협 대응 방안이 논의되고 있다는 설명이다.
"시급한 쟁점 사안에 대해
능동적으로 협력방안 제시해야"
AI로 인한 위협과 잠재력이 동시에 주목 받는 상황이지만, 가장 무게를 둬야 할 부분은 국제공조 필요성에 대한 '예외없는 공감대'라는 지적이다.
결국 내년 한국에서 개최되는 차기 AI 안전 정상회의를 통해 구체적 결과물을 도출할 필요가 있다는 평가다.
윤 부연구위원은 첫 AI 안전 정상회의에서 도출된 공동선언 관련 후속조치는 내년 5월 한국에서 열릴 2차 정상회의에서 구체화될 것이라고 전망했다.
다만 공동선언이 구속력 없는 선언문 형식을 띠는 데다, 해당 정상회의 하루 전 발표된 미국 정부의 'AI 행정명령'조차 민감한 이슈를 피해간 만큼, 풀어야 할 과제가 많다는 지적이다.
윤 부연구위원은 한국이 개최하는 "후속 회의에서 AI 기술 발전 수준과 범용적 활용성을 고려해 안전 책무성에 대한 논의를 보다 세분화해서 전개해야 한다"며 "이미 당면한 위험으로 제기되고 있는 시급한 쟁점 사안에 대해 능동적으로 협력방안을 제시할 필요가 있다"고 밝혔다.
구체적으로 △사이버 공격 수단 및 대량살상무기 제어에 악용될 소지가 큰 AI에 대한 안정성 평가 도입 △AI 개발 시 취약점을 사전에 찾아내는 '레드팀' 구성 의무화 △생성형 AI의 산출물에 대한 워터마크 부착 △AI 학습에 사용하는 창작물 및 뉴스에 대한 저작권 보호 등을 고려해볼 수 있다는 설명이다.
윤 부연구위원은 "실천적 차원에서 AI가 글로벌 공익을 위한 기술로 보완·발전될 수 있는 관행을 주도적으로 제시해야 한다"고 말했다.
0
0
기사 공유
댓글
댓글 쓰기