현대 창조론 연구 자료실/창조론 연구를 위한 과학 뉴스

“정의 구현 킬러 로봇이 필요하다”

heojohn 2020. 9. 27. 23:40

 

사이언스타임즈

2020.09.22. 15:025,459 읽음 비밀글

 

AI 윤리 컨퍼런스서 병사 대체 로봇 투입에 찬반양론 분분


“킬러 로봇의 등장은 필연적입니다. 강대국들이 쏟아붓는 연구개발비를 고려할 때 미래의 전장을 누비게 될 것입니다. 이런 킬러 로봇들에게 인간이 심어줘야 할 최소한의 윤리 요건은 무엇이겠습니까. 바로 사람은 가급적 해치지 말아야 한다는 도덕적 사고가 아니겠습니까?”
인공지능(AI)의 윤리적 문제들을 온라인상에서 전문가들과 함께 논의해 보기 위해 열린 행사 현장. 발제자인 김현수 부산대학교 교수는 킬러 로봇이 갖춰야 할 윤리적 요건의 중요성을 강조하며 이같이 말했다.

킬러 로봇이 갖춰야 할 윤리적 요건의 문제를 논의하는 자리가 마련됐다. ⓒ 유튜브 영상 캡처

 

지난 17일 한국인공지능윤리협회(KAIEA) 주최로 개최된 ‘2020 인공지능 윤리 컨퍼런스’는 하루가 다르게 발전하고 있는 AI 기술이 다룰 수 있는 윤리적 범위를 고찰하고, 향후 발생할 수도 있는 AI의 윤리적 문제들을 전문가들과 함께 조망해보자는 취지로 마련됐다.
실제로 킬러 로봇이 사람을 죽인 사례는 2건
‘킬러 로봇의 윤리적 이슈와 사례’에 대해 발표한 김현수 교수는 킬러 로봇의 탄생 배경에 대해 “전쟁을 보다 효율적으로 수행하기 위해 태어났다”라고 정의하면서 “과거의 전쟁이 대량 살상 및 파괴가 목적이었다면, 현대의 전쟁은 인명을 중요시하면서도 정밀한 파괴를 목표로 한다”라고 밝혔다.
문제는 현대의 전쟁에서 중요시하는 인명은 적군이 아니라 아군이라는 점이다. 정도의 차이는 있지만 얼마 전까지만 해도 적군을 공격하는 과정에서 아군이 함께 피해를 보는 것은 어쩔 수 없는 일로 치부되어 온 것이 사실이다.
하지만 첨단 기술의 개발로 국가별 무기 체계가 대부분 자동화 및 무인화로 변화되면서 과거에는 군인이 직접 해결해야 했던 일들을 로봇이나 드론 등이 맡아서 수행하는 방식으로 바뀌고 있는 중이다.
킬러 로봇은 바로 이 같은 흐름에서 탄생한 신무기다. 적에게 가까이 접근하여 사살하거나 체포하는 임무를 군인이 아닌 로봇이 맡도록 하여 아군의 인명 피해를 최대로 줄인다는 것이 현대전의 새로운 양상이기 때문이다.

2016년 경찰을 살해한 범인과 함께 자폭한 킬러 로봇 ⓒ cnn.com

 

킬러 로봇이 처음 선을 보였던 때만 해도 ‘로봇은 사람을 해칠 수 없다’라는 로봇의 3원칙이 적용되어 살상용으로는 개발되지 않았다. 하지만 전쟁 중에 아군이 부상을 당하거나 생명을 잃는 경우가 늘어나면서 아군을 대체하는 용도로 킬러 로봇이 개발되고 있다.
실제로 킬러 로봇이 투입되어 적을 제압한 경우는 공식적으로 2건이 있다. 모두 지난 2016년에 일어난 이 사례들은 미국과 러시아에서 각각 벌어졌다. 비록 공식 전쟁이 아닌 테러범 진압에 활용되었지만, 킬러 로봇이 사람을 죽인 사건으로 기록되어 있다.

처음 사례는 지난 2016년 6월 미국 텍사스주의 댈러스에서 경찰관 5명을 살해한 범인을 죽인 사건이다. 밤새 범인과 대치하던 경찰은 협상이 실패하자 폭탄을 장착시킨 킬러 로봇을 투입하여 저격범을 폭사시켰다. 폭발로 인해 킬러 로봇도 현장에서 파괴되었다.

두 번째 사례는 그해 12월에 러시아 남부지역에서 발생했다. 수니파 무장단체인 IS의 핵심 테러범을 킬러 로봇이 사살한 사건이다. 조그만 장갑차 모양의 킬러 로봇은 테러범이 은신하고 있는 건물의 근처 언덕으로 올라가 출입문을 폭파한 뒤 교전을 벌이다 테러범을 사살했다.

옳음에 대한 신념을 가진 수준으로 AI 설계되어야

김 교수는 “킬러 로봇의 등장은 기존 전쟁의 패러다임을 완전히 바꾸어 놓는 동시에 인류에게 심각한 과제를 던질 것”이라고 전망하면서 “특히 미래의 킬러 로봇은 인간의 개입 없이 공격 목표만 설정해 주면 자율적으로 전투를 할 수 있는 ‘치명적인 자율 살상 무기(Lethal Autonomous Weapon System)’라는 점에서 심각성을 더한다”라고 경고했다.

김 교수가 지적한 심각성은 앞에서 사례로 들었던 2개의 사건을 바라보는 국제사회의 움직임과도 연관이 있다. 러시아에서 테러범을 킬러 로봇이 사살한 사건이 발생한지 2주가 지난 후에 스위스의 유엔본부에는 특정재래식무기금지협약(CCW)에 가입한 123개국 대표가 모인 것이다.

회의의 안건은 ‘킬러 로봇의 위험성’이었다. 각국 대표들은 그 자리에서 ‘킬러 로봇이 사람을 위협하는 존재가 될 수 있다’라는 의견을 제시하면서, 킬러 로봇 개발 및 생산을 금지하는 조항이 담긴 조약을 만들기로 약속했다.

이처럼 킬러 로봇에 대해 전 세계가 우려를 표하고 있지만 반대 의견만 있는 것은 아니다. 미 조지타운대의 로자 브룩스(Rosa Brooks) 교수 같은 경우는 전장에 투입되는 군인들을 킬러 로봇으로 대체하는 방안에 찬성하는 인물이다.

킬러 로봇의 AI는 옳음을 지향하는 신념을 간직할 수 있는 수준으로까지 설계되어야 한다 ⓒ issafrica.org

 

그녀는 “사람은 전쟁터에서 나는 연기만으로로도 겁을 먹는 허약한 존재로서 두려움으로 인해 잘못된 판단을 하기가 쉽다”라고 전하며 “감정이 없는 킬러 로봇은 어떤 상황에도 정확하고 냉정하게 임무를 수행할 수 있기 때문에 병사들의 목숨을 살리는 것은 물론 불필요한 민간인 피해도 줄일 수 있을 것”이라고 말했다.

김 교수는 이와 같이 찬반양론이 분분한 킬러 로봇의 활용도와 관련하여 폭력 수준을 어디까지 허용해야 하는지가 관건이 될 것이라고 판단했다. 그러면서 “국제법상으로는 ‘위협’ 정도를 자위권적 공격의 기준으로 보지만, 킬러 로봇에 이 같은 기준을 적용하는 것은 사실상 불가능하다”라고 지적했다.

발표를 마무리하며 김 교수는 현재의 킬러 로봇과 관련한 AI 연구가 행위 선택을 위한 의사결정 전략 측면에 너무 치우쳐져 있음을 지적했다. 단순한 알고리즘을 넘는 고차원적인 사고와 추론이 필요하다는 것이다.

그러면서 “킬러 로봇의 AI는 옳고 그른 것을 판단하는 능력을 넘어 옳음에 대한 신념, 즉 정의를 구현할 수 있는 수준으로 설계되어야 비로소 군인을 대체하는 대안이 될 수 있을 것”이라고 강조했다.

김준래 객원기자