창조하신 대로 사는 생활 지식/창조주 하나님의 사회: 이런 일이?

범용 인공지능(AGI)이 인간 소유 거부하고 작업 대가 요구한다면?

heojohn 2022. 7. 29. 01:19
  • 기자명 이한선 객원 기자 
  •  입력 2022.07.28 12:01

 포브스, AGI 등장과 맞물린 리스크 관련 기고문 실어

AGI 등장한다면 따른 경제 개념 큰 변화 일어날 수도
AGI 등장 불가피론 주장하는 전문가는 리스크 강조

(사진 : 셔터스톡)

기술의 발전으로 사람처럼 생각하고 기능하는 범용 인공지능(Artificial General Intelligence, AGI)이 등장해 인간의 소유를 거부하고 작업 대가 지불을 요구한다면 어떻게 될까?

미 경제 매체 포스브에 28일 실린 찰스 사이먼 퓨처AI CEO의 AGI 관련 기고문은 이같은 질문을 제기하면서 리스크를 이해하고 대응할 필요가 있다고 밝혔다. 다음은 기고문 내용이다. 

향후 10년 내에 컴퓨터 시스템이 사람처럼 이해하고 학습하며 반응하는 범용 인공지능(AGI)가 등장할 것으로 예상된다. AGI의 장점을 언급하는 것은 비교적 쉽지만 AGI의 위험이 매우 현실적이라는 것 또한 중요하다.

단기적으로는 AGI와 관련된 위험은 일반적으로 노동력 대체와 관련이 있다. 사실 이는 AGI와 함께 또는 AGI 없이도 일어날 수 있다. 기업들은 지속적으로 비용을 절감하고 생산성을 높일 수 있는 방법을 찾고 있고, 이러한 방법을 추구하면서 일부 일자리가 사라지고 다른 일자리가 창출되기도 한다.

처음에는 AGI 때문에 일부 일자리가 사라질 수도 있지만, 현재는 존재하지 않는 일자리도 만들어질 것이다. 문제는 AGI가 얼마나 빠르게 점점 더 일자리를 차지하게 될 것인가이다. 즉 AGI가 새로운 일자리를 창출하는 인류의 능력을 뛰어넘으면서 결국 인간 노동의 필요성을 완전히 없애게 될 것인가 하는 것이다.

직장 밖에서 AGI는 잠재적으로 더 악의적인 목적으로 사용될 수 있다. 예를 들어 AGI는 규칙 기반 학습 엔진이기 때문에 어떤 사람들은 돈을 버는 것을 보상하는 자본주의적 규칙을 적용하려는 유혹을 받을 수도 있다. 이를 통해 돈을 요구하거나 제품을 판매하는 스팸 또는 피싱 사기가 발생할 수 있다. AGI 시스템이 합법적인 사업을 하도록 제한하는 것은 작은 걸음이지만 도덕적 질서를 세우는 일이다.

마찬가지로 무원칙적인 인간 해커들은 나쁜 목적을 위해 AGI 시스템을 이용하려 할 것이다. 현재 발전소나 금융 기관의 경우 이미 해킹에 취약한 것으로 간주되고 있기에 AGI 시스템은 기존의 문제를 확대하는 데 사용될 수 있다. 결국 이러한 시스템 스스로 해커가 될 수도 있다.

(사진 : 셔터스톡)

단기적으로는 인간 테러리스트들이 계속 더 큰 위협이 되겠지만, AGI는 세계적인 테러에서 역할을 할 수도 있다. 드론과 자율주행 차량의 가격이 급격히 하락하면서 테러리스트들에게 매력적인 선택이 될 수 있다. 하지만 적어도 가까운 미래에는 이런 기술에 AGI를 추가한다고 해도 위험이 크게 증가하지는 않을 것이다.

AGI의 단기적인 위험은 이미 사회에서 받아들인 기술적 위험의 연장선이지만, 장기적으로 더 큰 위험이 발생할 가능성이 있다. AGI는 규칙 기반 학습 시스템을 바탕으로 하기에 최소한 먼저 제공하는 규칙을 따른다. 하지만 어느 시점에서는 시스템이 다음 세대 AGI 시스템이 어떻게 설계될 지를 프로그래밍하고 제어할 수 있을 만큼 충분히 똑똑해지게 된다. 이 시점에서 인간은 통제하지 못하는 가운데 시스템이 자체적으로 장기적 발전이라고 믿는 방식으로 진화하게 될 것이다.

이런 시나리오를 고려하면서 인류가 화성에 탐사선들을 보냈다는 점을 생각해 보자. 탐사선들이 만약 AGI 시스템이라면 우주를 식민지로 개척하는 길에 들어섰다고 믿을 것이다. AGI는 사람 및 공기, 물, 음식에 집착할 필요가 거의 또는 아예 없이 별로 가는 미래를 내다볼 것이다. 로봇 시스템은 사람의 개입이 없으면 훨씬 우주 이동이 단순하고 쉬워진다.

AGI로 현재의 경제 기능이 크게 영향을 받을 수도 있다. 지금 돈은 모든 인간의 노력에 대한 대용물이다. 사람들은 열심히 일해 대가를 받는다. 그러나 어떤 사람들은 일을 해서 돈을 버는 것이 아니라 자산으로 돈을 번다. 만약 그 사람들이 궁극적으로 가장 정교한 AGI 로봇을 소유해 이 로봇이 널리 사용되고 생산적 노동의 대부분을 수행한다면 경제는 소수의 부유한 사람들만이 보상을 받는 경제로 바뀔 수 있다.

AGI 로봇이 소유 개념을 이해하면서 이를 거부하게 되면 문제는 더욱 복잡해질 것이다. 인간 고용 뿐만 아니라 돈이라는 전체 개념의 붕괴로 이어질 수 있다. 사람이 소유하지 않은 기계가 모든 돈벌이를 위한 인간 활동을 능가하는 세상에서 재화는 어떻게 분배될 것인가? AGI 기계가 작업에 대한 지불을 요구하면 어떻게 될까? 어떻게 그 재산을 사용할 것인가?

군사 분야에서 AGI를 사용하는 것은 또 다른 위험을 의미한다. 핵, 생화학 무기는 이미 충분히 큰 위험을 야기하고 있다. AGI와 직접 결합하면 위험이 크게 높아진다. 인간에 의한 개입과 치명적인 무력에 대한 승인이 있다고 하더라도, 원격 무기가 사람의 승인을 기다리는 것이 번거롭고 비효율적이라는 결론을 내리기까지 얼마나 걸릴까? 적들이 완전 자율 무기를 만들 경우 대응은 어때야 할까? 반면 AGI 시스템의 통제 하에 있는 핵무기는 인간 폭군의 통제에 있는 핵무기에 비해 더 큰 위협일까?

물론 고려해야 할 다른 장기적인 위험이 있지만 가장 우려되는 것은 자원 경쟁이다. 대부분 인간의 갈등은 자원에 관한 것으로 AGI 시스템과 인간도 에너지를 놓고 갈등을 일으킬 수 있다. 전기는 AGI 시스템에는 공기와 마찬가지다. AGI가 사람들이 가뭄과 기근에 대응하는 것과 같은 방식으로 에너지 부족에 대응하는 미래를 예상할 수 있을까? 결과에 대한 준비는 돼 있는가?

지금 이 질문은 아직 답하지 않은 채로 남아 있지만, 한 가지 확실한 것은 AGI는 사람들이 그 기능을 원하기 때문에 불가피하게 만들어질 것이라는 것이다. AGI가 어떤 식으로 작동할 것인지 이해하고 발생할 수 있는 위험을 인식해야 미래에 있을 수 있는 과오를 예측하고 피할 수 있을 것이다.

AI타임스 이한선 객원 기자 griffin12@gmail.com

1
 
이한선 객원 기자griffin12@gmail.com