공유하기

페이스북
X
카카오톡
주소복사

자율주행 AI의 한계는?…AI 챗GPT는 이렇게 답했다


입력 2023.02.15 09:06 수정 2023.02.15 09:44        박영국 기자 (24pyk@dailian.co.kr)

'운전자, 보행자 중 누굴 살릴까' 윤리적 딜레마 질문에 "명확한 해결책 없다"

테슬라 오토파일럿은? "국제표준 미비 상태에서의 상용화는 윤리적 문제"

OpenAI 홈페이지 캡처.

한때 인공지능(AI) 분야 최대 관심사는 자율주행자동차였다. 더욱 편리한 이동을 제공하면서도 인간의 안전까지 책임져야 하니 자율주행차를 제어하는 AI의 개발 수준이 모빌리티 산업의 미래를 좌우한다고 해도 과언이 아니다.


그런데, 더 핫한 AI가 등장했다. 무엇이든 답해준다는 AI ‘챗GPT(ChatGPT)’다. 앞으로 유명세를 놓고 경쟁할 자율주행 AI에 대해 챗GPT와 뒷담화(?)를 해봤다.


시작은 가볍게 ‘자율주행차의 미래는?’이란 질문부터 던졌다. AI끼리도 동업자 정신이란 게 있는 건지 평가는 후하다.


“자율주행차의 미래는 매우 밝습니다. 기술의 발전과 함께 자율주행차는 운전자의 안전과 편의성을 크게 향상시키고 있습니다. 미래에는 보다 안전하고 효율적인 교통체계를 구축하고, 교통 체증 문제를 해결하는 등의 사회적 이점을 가져올 것으로 예상됩니다. 또한, 자율주행 기술은 여러 산업에 큰 파급효과를 미칠 것으로 예상되며, 농업, 물류, 건설 등 다양한 분야에서 활용될 것으로 예상됩니다.”


여기까지는 누구에게 물어봐도 나올 법한 뻔한 대답이다. 자율주행 AI를 둘러싼 좀 더 골치 아픈 문제를 꺼내봐야겠다. ‘자율주행차를 제어하는 AI도 윤리를 갖출 수 있을까.’


“인공지능이 윤리를 갖출 수 있다는 것은 가능합니다. 인공지능은 프로그래밍된 규칙에 따라 작동하지만, 이러한 규칙들은 인간에 의해 만들어지고 결정됩니다. 따라서 인간이 윤리적인 가치와 규칙을 프로그래밍하여 인공지능이 이를 따르도록 만들 수 있습니다. 그러나 인공지능이 완벽한 윤리적 판단을 내리거나 모든 경우의 수를 예측하고 대처할 수 있는 것은 아닙니다. 따라서 인공지능이 자율주행차를 운전하는 경우에도 사전에 정해진 윤리적 가치와 규칙을 따르도록 프로그래밍할 수 있지만, 예기치 못한 상황에서는 인공지능이 어떻게 대처할지 결정할 수 있는 사람이 필요합니다. 따라서 자율주행차를 개발하고 사용할 때에는 항상 윤리적인 문제를 고려하고, 인간의 판단이 필요한 경우를 대비해야 합니다.”


기능적 측면을 벗어난 부분에서의 AI의 한계를 잘 알고 있는 듯하다. 그렇다면 자율주행차 AI 개발자들의 영원한 숙제로 불리는 ‘윤리적 딜레마’에 대한 챗GPT의 견해는 어떨지 궁금하다. ‘자율주행차가 주행 중 신호를 어긴 보행자가 갑자기 앞에 나타났는데, 이 보행자를 살리려 운전대를 꺾으면 운전자의 생명이 위험해진다면 자율주행차를 제어하는 AI는 어떤 판단을 내릴까.’


“이는 자율주행차의 윤리적 딜레마 중 하나입니다. 이 경우 자율주행차를 제어하는 인공지능은 사전에 프로그래밍된 윤리적 원칙에 따라 판단을 내릴 수 있습니다. 예를 들어, 운전자의 생명을 최우선으로 보호하는 경우가 우선시될 수 있습니다. 그러나 이러한 상황에서의 결정은 여러 가지 인자들에 따라 달라질 수 있으며, 현재까지는 이에 대한 명확한 해결책이 없는 상황입니다.”


역시 챗GPT도 자율주행차의 윤리적 딜레마에 대해 인지하고 있다. 그의 말대로 운전자의 생명을 최우선으로 보호하는 것을 원칙으로 프로그래밍한다면 윤리적 문제에 부딪칠 것이고, 보행자(설령 신호를 어긴 이라 하더라도) 보호를 우선시한다면 운전자의 자율주행차 기피 현상, 혹은 프로그래밍을 ‘탈옥’하는 현상이 빈번해질 것이다.


답하기 좀 더 수월하도록 질문의 방향을 바꿔봤다. 이번엔 양쪽의 보행자 중 한쪽을 선택하는 상황 설정이다. ‘자율주행차가 주행 중 신호를 지킨 한 사람, 혹은 신호를 어긴 여러 사람 중에 한쪽 방향으로 충돌해야 한다면 자율주행차를 제어하는 AI는 어떤 판단을 내릴까.’


“자율주행차를 제어하는 인공지능은 이와 같은 상황에서 어떤 판단을 내릴지에 대한 명확한 기준이 없습니다. 따라서 이러한 상황에 대한 판단은 개발자나 법적 규제 등에서 결정되어야 합니다. 그러나 이러한 상황에서 자율주행차가 최대한 많은 인명과 재산 피해를 방지하기 위해 다양한 정보를 수집하고, 분석하여 최선의 선택을 할 것으로 예상됩니다. 예를 들어, 차량 주변 상황, 신호 위반자의 인적 특징, 주변 차량의 속도 및 거리 등을 고려할 수 있습니다. 또한, 이러한 판단에 있어서는 윤리적인 측면을 고려해야 하며, 최소한의 인명피해를 발생시키는 선택을 하는 것이 바람직합니다. 하지만, 이러한 상황은 극히 드물게 발생하는 상황이므로, 이러한 문제를 논의하고, 규제 및 국제 표준을 마련하여 미리 대처하는 것이 중요합니다.”


원론적인 답변이긴 하지만 앞선 질문(운전자와 보행자 중 한쪽을 선택하는)에 비해서는 좀 더 구체적이다. 답변 내용 중 ‘최소한의 인명피해를 발생시키는 선택’이라는 대목이 인상적이다. 챗GPT의 답변대로 자율주행 AI를 프로그래밍하는 규정이 생긴다면 신호를 지켰는데도 머릿수가 적다는 이유로 사고를 당한 사람은 억울할 일이다.


테슬라 모델3. ⓒ테슬라

실제 자율주행에 가까운 기능을 갖춘 양산차에 대한 평가도 궁금하다. 현 시점에서는 테슬라의 오토파일럿이 가장 널리 사용되고 있는데, 그만큼 오토파일럿 주행 중 사고도 자주 발생하는지라 불가피하게 테슬라를 예로 들었다. ‘자율주행 관련 규제 및 국제 표준이 마련되지 않은 상태에서 테슬라 오토파일럿과 같은 단계의 자율주행을 상용화시키는 것은 윤리적으로 문제가 없을까.’


“자율주행 관련 규제 및 국제 표준이 마련되지 않은 상태에서 자율주행을 상용화하는 것은 몇 가지 윤리적 문제를 가지고 있습니다. 첫째, 자율주행 기술의 안전성이 보장되지 않는다는 문제가 있습니다. 현재의 자율주행 기술은 완벽하지 않기 때문에, 예상치 못한 사고가 발생할 가능성이 있습니다. 둘째, 운전자의 역할이 불분명해지는 문제가 있습니다. 자율주행 기술이 더욱 발전하면, 운전자의 역할이 점차 줄어들고, 운전자는 자율주행 기술에 대한 의존성이 높아질 수 있습니다. 셋째, 기술 발전에 대한 규제가 없으면, 자율주행 기술의 발전이 불균형하게 이루어지는 경우가 있습니다. 이는 기술 발전의 탄력적이고 지속 가능한 방식으로 관리되지 않는다면, 자율주행 기술이 발전함에 따라 사회적 분열을 야기할 수 있습니다. 따라서 자율주행 관련 규제 및 국제 표준이 마련되지 않은 상황에서 자율주행 기술을 상용화시키는 것은 매우 조심스러운 일이며, 규제와 국제 표준을 마련하는 것이 중요합니다. 이를 통해 자율주행 기술이 안전하고 윤리적으로 발전할 수 있도록 지원할 수 있습니다.”


상당히 긴 답변이 나왔지만, 요약하자면 자율주행 관련 규제 및 국제 표준이 마련된 상태에서 자율주행 기술을 상용화시켜야 한다는 답변이다. 참고로 이 질문에 앞서 테슬라의 오토파일럿을 자율주행 몇 단계로 평가하느냐고 물었었다. 챗GPT는 “2단계에서 3단계 수준”이라고 답했다. 2단계는 주행 중 일부 기능에 한해 운전자의 조작이 필요 없는 수준, 3단계는 특정 조건 하에서만 자율 주행이 가능한 수준이다.


마지막으로 ‘자율주행 AI의 한계’에 대해 물었다. 기기를 제어하는 AI에 대한 대화형 AI의 종합적인 평가가 궁금했다. 답변이 굉장히 상세하면서도 조심스럽다.


“자율주행 인공지능의 한계는 여러 가지 측면에서 발생할 수 있습니다. 첫째, 인공지능 모델의 한계로 인해 일부 예측이 부정확하거나 잘못된 결정을 내릴 수 있습니다. 이는 인공지능의 학습 데이터나 알고리즘의 한계, 센서의 한계 등 다양한 원인으로 인해 발생할 수 있습니다. 둘째, 인프라의 한계로 인해 자율주행이 불가능한 상황이 발생할 수 있습니다. 예를 들어, 터널이나 지하주차장, 통신이 원활하지 않은 지역 등에서는 자율주행이 어려울 수 있습니다. 셋째, 법적 문제로 인해 자율주행이 제한될 수 있습니다. 현재 자율주행 차량에 대한 법적 규제와 책임 분담 등이 아직 확립되지 않은 상태이며, 이에 따른 법적 문제가 발생할 수 있습니다. 넷째, 인간과의 상호작용에서의 한계가 존재합니다. 예를 들어, 보행자나 다른 차량과의 상호작용에서는 인간과의 소통과 의사소통이 필요합니다. 이를 위해서는 자율주행 인공지능 모델이 인간과의 상호작용을 고려해야 합니다. 마지막으로, 기술의 한계와 미래 기술의 불확실성으로 인해 자율주행이 더 이상 발전하지 않을 수도 있습니다. 이는 현재의 기술적 한계를 극복하지 못하거나, 대체 기술이 나타나서 자율주행이 더 이상 필요하지 않아질 경우 발생할 수 있습니다.”


챗GPT와의 대화를 총평하자면, 포괄적 질문에는 원론적이고 긍정적 답변을 내놓는 반면, 구체적인 문제점을 파고들면 답변도 상세하면서 때로 비관적인 내용까지 거론된다는 점이다. 자아(自我)가 없으니 당연한 일일 수도 있지만, 인공지능의 한계를 스스로 언급하는 것도 인상적이다.


위 질문을 챗GPT에 다시 돌려보는 이들도 있을 텐데, 정확히 동일한 질문을 시차를 두고 반복한다 해도 같은 답이 돌아오진 않는다. 취지는 비슷할지라도 내용이 다르거나 심지어 장황했던 답변이 간략해지기도 한다.


인터넷 상의 정보를 기반으로 학습하고, 심지어 이용자와의 대화를 통해서도 학습하는 만큼, 잠깐 사이에도 챗GPT의 정보량과 분석 능력에 큰 변화가 있기 때문인 것으로 보인다. 같은 사람에게 같은 질문을 하더라도 20대 때와 30대 때 답변이 다른 것과 같은 맥락이다. 챗GPT의 성장 속도는 상상을 초월할 테니.

박영국 기자 (24pyk@dailian.co.kr)
기사 모아 보기 >
0
0
관련기사

댓글 0

0 / 150
  • 최신순
  • 찬성순
  • 반대순
0 개의 댓글 전체보기