2022. 11 .28 (월)

전체기사 Quick View 기사제보 편집 : 2022.11.28 월 11:38
현대자동차, 전기공학
> 뉴스 > 칼럼
     
인공지능로봇(A.I.)의 반란과 윤리
2022년 06월 16일 (목) 이종호 elenews@chol.com

1. 서론

 


지구상에 태어난 생물 중 인간을 만물의 영장이라고 말하는 것은 모든 생명 중에서 으뜸으로 진화하여 오늘의 지구촌을 만들었기 때문이다. 인간에 버금가는 지적 생명체가 존재하지 않는다는 뜻이다.

그런데 20세기부터 본격적으로 등장한 로봇과 인공지능(A.I.)이 등장하더니 인터넷이란 상상할 수 없는 공간과 연계되어 지금까지 알려진 지구인 생활을 완전히 다른 세계로 인도하고 있다.

과학은 그야말로 놀라운 미래를 그린다. 

아이작 아시모프의 소설 양자인간 Positronic Man 을 영화화한 「바이센테니얼 맨 Bicentennial Man」은 과학 즉 인공지능(A.I.)을 접목한 기계 또는 로봇이 발달하면 로봇과 인간의 차이가 없어질 수 있다는 내용을 소재로 삼았다. 

인간형 지능 로봇 앤드류는 인간인 포샤와 사랑을 이룬 후 엉뚱한 꿈을 꾼다. 인간과 사랑을 이루었지만 진짜 인간으로 대접받고 싶다는 것이다. 그는 자신이 인간화되었으니 자신을 인간으로 대접해 달라며 법정투쟁을 벌이며 결국 죽음을 담보로 성공한다. 「바이센테니얼 맨」은 미래의 어느 때가 되면 심부름만 해주는 로봇에는 만족하지 못한다는 것을 알려주는데 이 영화가 그려주는 유토피아 세상이 정말로 올 수 있는지 궁금하지 않을 수 없다. 

2011년 9월 11일 오전, 뉴욕 맨해튼에서 가장 눈에 뛰는 쌍둥이 세계무역센터에 비행기가 돌진하여 쌍둥이 건물 중심부를 정확히 강타했다. 몇 분 후 또 다른 비행기가 나머지 한 건물에 충돌했다. 세계를 경악케 한 그 당시 충돌 장면은 현실에서는 불가능한 SF물에서나 나올만한 장면이었는데도 불구하고 실제로 이런 사건이 일어났기 때문에 더욱 충격적인 사건이었다. 

이는 비행기라는 첨단 이동기구를 사용하여 벌어진 일이지만 인공지능으로 무장한 미래는 이보다 훨씬 지능적인 새로운 문명의 이기들이 등장하여 보다 파괴적인 장면들이 등장할 것이라고 예상하기도 한다. 한마디로 현재 4차 산업혁명이라는 기차가 쾌속 질주하고 있지만 이에 연계되는 인공지능의 능력이 인간의 상상을 넘어설 경우 결코 유쾌한 미래로 전개되지 않을지 모른다는 생각이다.

이런 지적은 인공지능 로봇류가 보 발전됨으로써 인간에게 부작용은 없는가 특히 인공지능을 탑재한 여러 종류의 로봇이 인간을 상대로 위해를 가할 수 있느냐 없느냐로 말해질수도 있다. 여기에서 인공지능 로봇이란 큰 틀에서 인간의 두뇌와 연계 즉 생각하는 능력이 갖춘 모든 종류의 기자재를 포함한다.

SF(Science Fiction)물에서 다반사로 나오는 내용 중 하나가 로봇의 반란 등이다. 한마디로 로봇이 오용되거나 남용될 경우 인류는 종말을 맞이할 수 있다는 경고인데 로봇이 반란을 일으킬 수 있는 정도가 되어야, 완벽한 로봇이 태어났다고 인정할 수 있다는데 아이러니가 생긴다. 로봇의 미래가 만만치 않다는 것을 알려주지만 과학은 그것이 과연 ‘참’으로 나타날 수 있는지에 흥미를 보인다. 

많은 사람들이 관심을 보이는 것은 영화나 소설에서처럼 미래에 인간이 AI들에게 지배당할 수 있을까하는 의문과 이에 대처 방안은 있는가이다. 특히 인공지능으로 파생되는 윤리문제들을 어떻게 해결해야하는가라는 매우 골머리 아픈 문제를 제기한다.

멀지 않은 미래에 인공지능로봇의 등장으로 사람들은 노동에서 해방되어 한가하게 편안한 삶을 살 수도 있지만 이에 반하는 반대급부로 상당한 피해를 볼 수 있다는 우려도 포함한다. 인간과 인공지능 간에 수많은 간극이 늘어나는 것은 물론 풀어야 할 윤리적 문제들이 제기되는데 그 실체는 무엇이며 또한 이에 어떻게 대처하느냐로 이어진다.

  

2 : 세계를 강타한 KAIST 보이콧

  

2018년 4월, 전 세계 약 30개국의 인공지능 연구자들이 한국과학기술연(KAIST)의 총장에게 다음과 같은 공개서한을 보냈다.

  

‘우리들은 KAIST를 방문하지도 않고 KAIST 연구원을 초청하지도 않으며 KAIST가 연관된 연구에 어떠한 기여도 하지 않겠다.’

  

그야말로 한국의 주요 연구대학 중 하나인 KAIST를 인공지능 연구 차원에서 보이콧한다는 폭탄선언이나 마찬가지다. 이와 같은 보이콧 사태는 KAIST가 한화시스템과 함께 <국방·인공지능융합연구센터>를 개소한데 따른 것이다. 이들의 주장은 매우 직접적이다.

  

‘군사 무기에 적용될 수 있는 인공지능을 개발하여 자율무기를 개발하려는 세계적인 경쟁에 참여하려는 것과 다름없다. 우리는 KAIST의 우수한 연구진이 그러한 무기 개발의 군비 경쟁에 참여하는 것이 심각한 우려를 표명한다.’

  

이런 선언은 대체적으로 일부 학자들의 전문적인 퍼퍼먼스로 인식되기 마련인데 이들 공개서한은 세계 유수 언론인 <가디언, The Guardian> 지가 「킬러로봇 : AI전문가들이 한국의 대학 연구실에 보이콧을 선언하다」라는 제목으로 기사화하면서 세계적인 주목을 받았는데 <가디언>은 기사에 영화 「터미네이터」의 살인병기 로봇의 사진을 함께 보냈다. 이어서 CNN-TV. <파이낸설타임스>, <포천>, <사이언스매가진> 등 세계적인 주요 언론사들이 유사한 내용을 주요 기사로 게재하여 그야말로 세계의 큰 이슈로 부각되었다. 

이와 같이 세계 인공지능학자들이 발끈한 것은 KAIST가 2018년 <국방·인공지능융합연구센터>를 개원하면서 한화시스템과 공동연구를 한다고 발표했기 때문이다. 신성철 총장이 연구센터가 국방기술 발전의 든든한 기반이 될 것이라고 말했는데 <가디언>지는 KAIST가 공동 연구하는 한화는 한국 최대의 무기 제조업체 중 하나임을 강조했다. 더불어 한화는 국제 조약에 따라 120개국에서 금지된 집속탄을 제조하는데 한국은 미국, 러시아, 중국과 함께 협약 서명국이 아니라는 점도 부연했다.

KAIST의 발표에 대해 세계 학자들이 발끈한 것은 인공지능을 활용하여 자율무기 시스템을 만들 때 윤리적인 문제가 기본적으로 발생하기 때문이다.

군사용도의 무기에 한정한다면 컴퓨터 즉 인공지능의 비약적인 발달로 인공지능을 활용한 군사로봇은 그야말로 전 세계적으로 가장 활황을 타고 있는 분야이다. 국방예산에서 나오는 엄청난 연구비 지원을 바탕으로 하여 인공지능을 이용한 군사로봇은 한계가 없을 정도로 확장되고 있다.

사실 군사 분야는 첨단과학이 총동원되는 기술 분야로 볼 수 있는데 학자들은 군사분야에 커다란 변혁이 2번에 걸쳐 일어났다고 설명한다. 제1차 군사혁명은 화학, 2차 군사혁명은 핵무기인데 근래 3차 군사혁명을 거론한다. 바로 치명적인 자율무기시스템이다. 로봇공학자이자 로봇윤리학자인 아킨 박사는 이렇게 말한다.

  

‘흐름은 분명하다. 앞으로도 전쟁은 일어나고 자율적 로봇이 언젠가는 전쟁을 수행하는데 큰 역할을 할 것이다.’

  

사실 KAIST에 대한 보이콧 사태는 군사 기술 분야에서 인공지능 기술이 보다 활발하게 적용되고 이에 대한 사람들의 우려가 커져 가는 상황에서 돌출된 것이다. 이는 군사 분야에서 자율무기 체계가 야기할 수 있는 윤리적인 문제가 중요 사안 중 하나라는 것을 의미한다.

KAIST에 대한 보이콧은 갑자기 일어난 것이 아니다. 보이콧을 주도한 월시(Toby Walsh) 교수는 2015년부터 자율적 군사무기의 개발을 반대하는 운동을 주도했다. 2015년 7월에는 인간의 유의미한 통제를 벗어난 자율적 공격 무기의 개발과 사용을 반대하는 공개서한을 유엔에 제출했다. 이 당시 인공지능 및 로봇공학자 3,724명을 포함하여 총 20,486명이 서명했는데 여기에는 유명한 물리학자 스티븐 호킹 박사, 일론 머스크, 촘스키 등 저명한 과학자와 철학자들도 포함되어 있었다. 2017년에는 다시 공개서한을 유엔에 보냈는데 여기에는 28개국 137명의 최고 경영자들이 서명했다.

월시 교수는 자율적인 군사로봇에 반대하는 운동단체로 볼 수 있다.

그런데 이런 운동은 월시 교수가 처음은 아니다. 이들보다 먼저 알트만 박사는 2009년 무인로봇 무기의 개발과 사용을 우려하는 로봇 군대 통제를 위한 국제위원회를 발족시켰고 2012년에는 국제인권감시기구 등이 자율적인 무기 개발, 생산, 사용을 금지하도록 촉구하는 ‘킬러로봇반대캠페인’을 조직했다. 2014년에는 세계 87개국, <국제적십자연맹> 등이 합류한 ‘치명적인 자율무기시스템’에 대한 회의를 개최했는데 이에는 유엔의 재래식무기금지협의의 후원을 받았다. 이후에도 계속 이들은 지속적으로 자율무기의 개발금지를 촉구하여 2017년에는 치명적인 자율무기시스템을 규제하는 방안을 토의하는 각국 정부의 모임도 열렸다.

2018년 KAIST에 대한 보이콧은 바로 이런 맥락의 연장선이라 볼 수 있다. 한국 최대 군수업체 중 하나인 한화시스템과 KAIST 과학자들이 결합했다는 것이 특별히 세계적인 관심의 대상이 된 것은 한국이 미국, 중국, 러시아와 함께 대인지뢰 금지 협약(오타와 협약)과 접속탄 금지 협약에 서명하지 않는 몇 안 되는 나라이기 때문이다. 특히 한국은 접속탄 개발 투자 규모 세계 2위로 전 세계 생산량의 4분의 1을 한화시스템과 풍산이 담당하고 있는 것으로 알려진다. 이러한 점을 감안할 때 한화시스템과 KAIST의 연계만으로도 자율무기를 개발하려는 것으로 의심받기에 충분했다는 설명이다.

세계학자들을 포함하여 유력 언론사들이 한국의 유력대학이 ‘킬러로봇’을 만드는 데 동참하고 있으며 이를 세계 인공지능 연구자들이 우려하고 있다는 보도에 신성철 KAIST 총장도 발 빠르게 대처했다. <국방·인공지능융합연구센터>는 학술 기관으로서 인권과 윤리적 기준을 매우 중요하게 생각하며 인간의 의미있는 통제가 결여된 자율무기 등 인간의 존엄성에 반하는 연구 활동을 하지 않는다고 강조했다. KAIST가 치명적인 자율무기 시스템과 킬러 로봇 개발에 관여할 의사가 없음을 재확인했다.

그러면서 신 총장은 <국방·인공지능융합연구센터>에서 AI 기반 명령 및 결정 시스템, 초대형 무인 잠수정을 위한 복합 항법 알고리즘, AI 기반 스마트 항공기 훈련 시스템, AI 기반 스마트 객체 추적 및 인식 기술 개발에 중점을 두겠다고 말했다.

여하튼 KAIST의 재빠른 발표 즉 인공지능으로 인한 치명적인 킬러 로봇이나 자율무기시스템을 만들려는 의도가 전혀 없으며 인공지능 개발에 있어 윤리적인 문제를 충분히 고려하겠다고 발표하자 이를 세계과학자들이 받아들여 KAIST에 대한 보이콧을 철회하여 이 문제는 일단락되었다. 

  

3 : 터미네이터의 세계

  

미래에 태어날 수 있는 로봇의 모든 것을 보여준 영화가 제임스 카메론 감독이 메가폰을 잡고 전 세계적으로 대단한 흥행에 성공한 「터미네이터」 시리즈이다. 제1편인 「터미네이터」를 제작할 때 SF물로는 그야말로 푼돈이나 마찬가지인 600만 달러를 투입했는데 영화가 출시되자마자 전 세계인들을 충격으로 몰아넣어 무려 8,000만 달러의 수입을 얻었다. 이와 같이 폭발적인 반향을 받은 것은 비교적 충실하게 과학 기술을 접목시킨 공도 있는데 「터미네이터」의 기본 틀은 다음과 같다.

  

‘미국의 군수업체로 국방부 군사용컴퓨터를 제공하는 사이버다인시스템스(Cyberdine Systems)사는 미군의 모든 스텔스 폭격기들을 컴퓨터 시스템과 연동시켜 자동화하는데 성공하고, 자동화 전투통제 시스템인 스카이넷(Sky-Net)을 표준 전략방어시스템으로 채택했다. 그런데 스카이넷의 인공지능이 비약적으로 증진되어 자가인식을 하기 시작한다. 컴퓨터의 자가인식에 놀라 인간들이 스카이넷의 전력을 끊으려 하였지만, 스카이넷은 이에 대항하여 인류와의 전쟁을 개시하고 러시아를 향해 핵미사일을 발사하자 지구는 걷잡을 수 없는 핵전쟁의 혼동 속으로 들어간다.’

  

이를 영화에서는 심판의 날(Judgement Day)이라 지칭하는데 무려 30억 명이나 되는 인류가 사망했다고 나온다. 이어서 기계 즉 스카이넷 프로그램에 의해 조종되는 로봇과 인간과의 혈투가 시작된다. 한마디로 전 세계를 묶어 인간에게 도움을 줄 수 있는 네트워크가 오히려 인간을 파멸로 몰아갈 수 있다는 시나리오다. 

수많은 로봇들이 서로 자아(프로그램)을 복제하면서 개성있는 개체가 되는데 이들 간의 소통은 무한히 펼쳐진 네트워크의 바다를 활용하면서 로봇의 지능과 개체를 빛의 속도로 퍼뜨리므로 인간들이 이에 적절하게 대항하지 못한다는 내용이다. 이어 진행되는 내용을 보자.

  

‘핵전쟁의 참화로 30억의 인류가 사망하며 남은 인간들은 기계의 지배를 받아 시체를 처리하는 일 등에 동원된다. 이때 비상한 지휘력과 작전으로 인간들을 이끌던 사령관 존 코너는 반 기계 연합을 구성, 기계와의 전쟁을 시작하면서 상황은 반전된다. 이에 기계는 존 코너의 탄생 자체를 막기 위해, 2029년의 어느 날, 타임머신에 ‘터미네이터’를 태워서 1984년의 LA로 보낸다. 이 터미네이터는 총으로는 끄떡도 않는 신형 모델 101로서 인간과 똑같은 모습의 침투용 사이보그이다. 이 정보를 입수한 존 코너는 역시 카일 리스라는 젊은 용사를 보내 그의 어머니를 보호하게 한다. 식당에서 일하던 사라 코너는 터미네이터에게 쫓기기 시작한다. 쫓기던 사라는 카일에게 모든 상황에 대한 설명을 듣는다.

미래에 자신이 낳은 아이가 핵전쟁 생존자들을 모아 기계에 반항하는 것을 두려워한 나머지 터미네이터가 그녀를 죽이려 한다는 것이다. 카일과 터미네이터의 아슬아슬한 결투로 기계 조직이 노출될 때까지 터미네이터는 집요하고 끈질기게 추적 해온다. 카일과 사라는 함께 도망 다니면서 사랑에 빠지게 된다. 마지막으로 카일은 자신을 희생하는 대폭발을 유도하지만 터미네이터의 추적은 계속된다. 위기일발의 사라는 압축기로 터미네이터의 자취를 사라지게 한다. 몇 달 후 사라는 지구의 인간성을 회복해 줄 카일의 아이를 임신하게 되며 결국 미래의 사령관 존 코너는 태어난다.’

  

「터미네이터」의 후속편인 「터미네이터 2」에서 변형 터미네이터 액체금속인간 모델 T-1000이 등장하여 전 세계의 관객들을 깜짝 놀라게 했다. 「터미네이터」가 대 성공을 거두자 제작비 1억 달러가 투입한 이 작품은 주인공인 터미네이터로 분한 아놀드 슈왈츠제네거가 무려 1,500만 달러의 개런티를 받은 것으로도 유명하다. 제작비의 15%를 한 명의 배우가 받았다는 뜻인데 이 영화도 흥행에 성공하였으므로 어느 누구도 불만을 제기하지는 않았다.

  

‘존을 처치하려는 1차 작전에 실패한 컴퓨터는 불사조나 다름없는 제2의 터미네이터를 1991년의 LA로 다시 보낸다. 그것은 인조 합금으로 이뤄진 보다 진보된 액체금속인간인 모델 T-1000으로, 이때 존 역시 특사를 보내 자신과 자신의 어머니를 보호하게 한다. 존이 보낸 특사는 바로 1편의 사이보그 터미네이터 101(아놀드 슈왈츠제네거)이다.’

  

액체금속 살인기계인 모델 T-1000은 그야말로 SF영화 마니아들을 깜짝 놀라게 했다. T-1000은 총탄을 맞아 몸에 구멍이 뚫리면 금방 액체 금속의 피부가 뚫린 구멍으로 흘러들어 가는가 하면 폭탄을 맞아 조각조각 부서져도 몽땅 녹아버린 뒤 다시 본래의 모습으로 되돌아간다. T-1000은 같은 몸체 크기라면 무엇으로든 변형이 가능하므로 존 코너의 양어머니는 물론 경찰로도 분장하는데 누구도 그 정체를 알아내지 못한다. 심지어는 그의 손이 날카로운 칼이나 창은 물론 곡괭이 등으로 변하면서 무차별로 사람을 공격할 수 있으므로 누구라도 그의 손아귀에 걸리면 살아남지 못한다. 

엄밀하게 말하면 컴퓨터가 만들어낸 영상과 디지털 이미지 프로세싱 과정을 통해 만들어 컴퓨터를 통해 한 프레임 한 프레임씩 맞추어 만들었는데 미국인답 이 기술을 특허로 등록까지 했다. T-1000처럼 액체와 고체 사이를 자유롭게 드나들면서 변신할 수 있는 아이디어는 결코 상상의 일이 아니다. 전기유동유체(ER 유체)라는 재료가 바로 「터미네이터 2」의 제작자가 차용한 물질과 유사한 성질을 갖고 있다. 보통 때는 물처럼 묽지만 전압을 걸면 꿀처럼 질척거리는가 하면 젤라틴처럼 굳어지기도 하는데 전류가 흐르지 않으면 본래의 물과 같은 상태로 돌아온다. 이렇게 한 상태에서 다른 상태로 바뀌는 데는 불과 1000분의 23초 밖에 걸리지 않는다.

SFX 기술의 총체적인 성공’이라고 평가받는 「터미네이터2」는 여타 SF영화와는 달리 비평가들로부터 호평을 받아 1992년 아카데미상에서 6개 부문 노미네이트(촬영, 편집, 특수효과, 음향효과편집, 분장, 음향상)되어 기술 관련 4개 부문(특수효과, 음향효과편집, 분장, 음향상)을 수상했다. 1992년 골든 글로브 각본상을 수상했고 1992년 영국 아카데미 영화제 2개 부문(음향, 특수효과)을 수상했으며 1992년 독일 골든 스크린 영화제 ‘골든 스크린 상’, 1992년 휴고 영화제 휴고상, 1992년 M-TV 영화제 6개 부문을 수상하는 등 SF영화로서는 보기 드믄 상복까지 터졌다. 

「터미네이터 3」에서는 파괴된 암살기계 T-1000보다 더 발전된 형태인 터미네트릭스(T-X)가 등장한다. T-X는 섹시하고 아름다운 외모와 함께 냉혹하고 잔인한 성격을 갖고 있는 최첨단의 여성 로봇이다. T-X의 파괴력은 2편에서 나오는 T-1000보다 위력적인 데다가 모든 기계장비들을 제어할 수 있는 능력을 갖고 있다. 가장 상위 개체로서의 기계 능력을 갖고 있는 그녀는 주변의 모든 기계들을 파괴하거나 본인의 마음대로 조종할 수가 있다. 

영화의 결말이야 당연히 기계의 반란에 대항하여 인간이 승리하지만 과연 로봇이 터미네이터처럼 인간의 지능을 가진다면 영화처럼 인간이 승리할 수 있겠는가하는 의문을 던져준다. 물론 이 우려에 한정한다면 지구인들은 걱정할 필요가 없다. 「터미네이터」시리즈에 등장하는 액체금속 인간으로의 변형은 어떤 일이 있더라도 불가능의 영역 즉 지구상에서 현실화될 수 없기 때문이다.

기본적으로 네트워크 시스템은 로봇이 아니더라도 어느 공간을 자동화할 때 전체 네트워크를 하나로 묶는 것이 효율적이기 때문에 태어난다. 영화에서처럼 로봇 스스로가 인간에게 위해가 되는 네트워크를 사용할 수 있다면 세계가 혼동에 빠질 수 있음은 자명한 일이다. 「트랜스포머」에서도 같은 내용이 나오는데 한마디로 로봇이 인간에게 치명적인 컴퓨터바이러스를 유포시켰을 때 어떻게 대항할 수 있을까. 이러한 문제점이 생길 수 있다는 것을 적나라하게 보여준 것이 「터미네이터」, 「트랜스포머」의 메시지이다. 

「터미네이터」에서 인간의 미래가 앞으로도 획기적으로 변할 수 있다는 근거는 기본적으로 모든 인간의 이기가 네트워크로 연결될 수 있다는 것이다. 

인터넷이 일반적인 기계와 다른 점은 기계가 애초에 설계된 한계를 넘으면 작동을 멈추지만 인터넷은 그렇지 않다는 점이다. 그렇게 될 수 있었던 이유 중 하나는 인터넷이 스스로를 제어할 수 있는 능력이 있기 때문이다. 인터넷은 정보 다발을 보낼 때 가장 빠른 경로가 어디인지를 상황에 따라 제 길을 찾아낸다. 인터넷의 성장이 생물의 진화에 맞추어 발전했다고 볼 수도 있으므로 결국 인간의 두뇌를 모사할 수 있는 그 무엇을 찾아낼 수 있다는 뜻이다.

여기에서 학자들이 관심을 두는 것은 인터넷이 스스로를 의식하게 될 수 있는 가이다.

이 의문이 중요한 것은 앞으로 인터넷망이 인간에게 선용이 될지 악용의 용도가 될지의 척도가 되기 때문인데 「터미네이터」는 바로 이런 우려를 영화로 표현한 것으로 볼 수 있다.

인터넷을 확장된 컴퓨터 시스템이라는 단어로 바꿀수도 있는데 인터넷이 궁극적으로 인간의 편리함을 위한 즉 인간의 입맛대로만 진행될 수 있을까? 즉 인간에게 악몽을 줄 문명의 이기가 되지 않겠느냐라는 질문이 나오는 것은 당연한 일이라 볼 수 있다. 

컴퓨터를 사용하는 수많은 네티즌들이 컴퓨터바이러스로 인해 그동안 축적되었던 수많은 정보가 순식간에 사라지는 것을 경험했을 것이다. 이에 대항하는 컴퓨터백신이 개발되어 문제점이 있는 바이러스를 퇴치할 수 있다지만 「터미네이터」 시리즈에서 보이는 능력 있는 기계 즉 로봇이 태어난다면 어떻게 될 것인가는 의문점이 아닐 수 없다.

  

4. 인공지능 로봇의 독무대 군사용 무기

  

세계 학자들이 KAIST 보이콧에 동참한 것은 그만큼 한국을 포함한 인공지능 군사무기 개발에 대한 우려가 많기 때문이다. 로봇 학자들이 군사용 로봇을 전쟁도구로만 개발하는 것은 아니지만 전쟁 자체가 인간들이 벌이는 것이므로 로봇 개발자들이 도덕성을 갖고 있어야 한다는 것을 강조한 것이라 볼 수 있다.

군사용 무기는 인공지능 로봇의 무대라 해도 과언이 아니다. 

제4차 산업혁명 시대로 들어선 미래에 주축이 될 것으로 생각되는 분야 중 하나가 드론(Dron)인데 드론은 기본적으로 무인으로 움직이는 사물을 말하므로 큰 틀에서 지상, 수중, 하늘에서 움직이는 것을 총괄한다. 

한마디로 탱크, 무인함선 등 인간을 대체할 수 있는 군용 기자재에 레이저 등을 탑재하여 모든 목표 인식을 컴퓨터가 수행하므로 인간은 전혀 투입되지 않는다. 

그 중에서도 가장 잘 알려진 분야는 무인 비행체로 한마디로 군사 분야는 드론의 운동장이라 해도 과언이 아니다.

이는 이미 1991년 ‘걸프 전쟁(사막의 폭풍 작전)’ 즉 다국적군과 이라크의 전투에서 유감없이 발휘되었다. 타보셋 미사일은 GPS 시스템을 이용해 표적이 어디에 있는지 확인한 후 발사하여 인간 조종사가 탄 비행기가 전선에서 몇 백 킬로미터 안으로 진입할 필요조차 사라지게 했다. 대부분의 각국 미사일들은 내장형 컴퓨터 베이스 추적시스템을 탑재하고 있다. 이들 지상발사 미사일은 핵폭탄을 탑재하고 주어진 사진과 표적 장면을 대조하여 극도로 정밀한 타격을 할 수 있다. 

F-16은 20mm 발칸포, 핵무기, 공대지 미사일, 공대공 미사일, 대레이더 미사일, 대함 미사일, 자유투하 또는 안내폭탄, 다발폭탄, 분배무기, 로켓발사대, 소이탄 탱크를 탑재하는 등 그야말로 무기 박물관이나 마찬가지이다. 이들 무기 자체가 소모품이라는 것이 큰 덕목이라 볼 수 있다.

문제는 인간의 능력이다. 이들 수많은 군사용 무기를 아무리 유능한 전투조종사라 할지라도 곧바로 선택하여 발사할 때 여러 가지를 고려해야하므로 간단한 일이 아니라는 점이다. 

이러한 부담을 인공지능이 인간을 대신하여 고차원적인 일을 수행할 수 있도록 만드는 것이 군사용 드론의 장점이다. 

여기에서 핵심은 드론 전투기일 경우 상호 통신만 가능하다면 전투기가 작동할 지능을 전투기 자체가 모두 갖고 있어야 할 필요는 없다는 점이다. 본부에 있는 데이터 정보망을 통해 어떤 중요한 결정을 내린 후 원격으로 조정할 수 있기 때문이다. 

그런데 인공지능 로봇을 아군만 사용하는 것이 아니라는 점이다.

적군과 아군 모두 군사용 인공지능 로봇을 탑재한 무인 항공기, 무인 탱크 즉 드론을 갖고 있다면 인간의 관여가 약간 있거나 전혀 없는 상황에서 전투가 벌어질 수 있다. 

이 경우 학자들은 인공지능으로 무장한 알파고가 체스 또는 바둑 게임을 하는 것과 같은 원리로 전개될 수 있다고 말한다. 체스로 말한다면 절(pawn) 대신에 무인 탱크, 체스의 비숍(bishop) 대신에 미사일, 그리고 룩(rook) 대신에 무인 전투기가 투입된다. 

이들을 적시적소에 투입시키려면 인공지능 자산을 통해 전략을 수립하고 이를 수행토록하는 것이 중요한 승부 요건이 된다. 그런데 전장터에서 정말로 필요한 것은 독창적인 프로그램 개발도 중요하지만 그 시스템이 무엇을 학습해왔는지 그리고 어떻게 훈련되었는지 숙지하는 것은 매우 중요하다. 한마디로 전장에서 전투 경험보다 더 중요한 자산은 없다는 뜻이다. 

이 말은 역으로 미래의 전쟁은 아군의 인공지능과 적군의 인공지능간의 싸움이 될 가능성이 다분히 높다는 점이다. 그런데 적이든 아군이든 인공지능을 움직이는 당사자는 똑같은 인간이라는 점이다.

현대전의 경우 최첨단 기술을 확보한 측이 당연히 유리하다. 한쪽이 훨씬 월등한 기술로 주도권을 장악했다면 이는 상대방 인공지능이 참패했다는 것을 의미한다. 한마디로 승자가 승리할 수 있었던 핵심이 바로 인공지능이라는 점이다. 여하튼 인공지능 기술에 밀린다는 것 즉 패배한다는 것은 승자에게 어떠한 저항도 불가능하다는 점이다. 

여기에서 바로 인공지능에 대한 문제점이 제기되는데 군 당사자들이 승리를 위해 인공지능이 장착된 군사무기에 대해 무제한적인 능력을 부여하는데 주저하지 않는다는 점이다. 군사적인 면만 감안하면 인공지능 로봇에 보다 많은 지능과 조종권을 부여하여 적군의 인공지능 로봇을 무력화시키는 데 총력을 기우린다는 것이다. 

문제는 그런 인공지능을 동원하는 컴퓨터들이 수많은 인간의 생명을 빼앗아가는 장본인이라는 점이다. 엄밀하게 말하여 인공지능 로봇의 최우선 공격 목표는 적군이지만 적군을 공격하기 위해 적군의 인공지능 로봇과 조종자, 군인들을 공격한다고 하지만 불가분 시민들도 포함되기 마련이다. 

이것이야말로 인공지능을 사용하는 군사용무기의 아킬레스 건이다. 

그러므로 학자들은 군대의 속성상 승리를 위해 인공지능 로봇에 최상의 지능을 부여하려는 것을 인정하더라도 이들을 제어할 어떤 조처가 있어야 한다고 주장한다. 

  

5. 고삐없는 군사 무기

  

전쟁터에서 발생할 수 있는 예를 보자. 

전쟁터에서 가장 자주 일어나는 일 중 하나는 아군이 아군을 공격하거나 부상당한 적군을 공격하는 일이다. 더구나 공격을 받은 아군이 적군과 민간인들을 구별하지 못하여 무차별로 공격하면서 수많은 민간인들을 살상하는 경우도 생긴다. 이는 인간의 자위 본능이 발동되어 상황을 정확하게 판단하기 전에 우선 쏘고 보자는 생각이 앞서기 때문이다.

학자들은 이럴 경우 로봇으로 하여금 혼란스러운 전투 속에서도 감정에 좌우되어 즉흥적으로 행동하지 않도록 설계하면 된다고 주장한다. 급박한 상황에서 공격을 당한다 하더라도 민간인을 공격하는 따위의 실수를 저지를 가능성을 배제시키는 것이다. 다시 말해 적절하게 설계한다면 도덕적인 결정이 필요할 때 로봇이 인간보다 낫다는 이야기로 로봇에 내장된 ‘도덕성 총괄 제어 장치’가 전장에 투입된 후 어떨 때 발포해야 하는지를 지시한다는 것이다. 가령 적군의 탱크가 넓은 들판에 있다면 발포한다. 그러나 적군이 공동묘지에서 벌어지는 장례식에 참석하고 있다면 교전 수칙에 어긋나므로 발포를 금지한다는 것이다.

무기를 선택하는데도 도덕성이 개입한다. 무기가 너무 강력해서 의도하지 않은 피해가 발생할 수 있는 경우 가령 미사일이 탱크는 물론 사람들이 많이 있는 건물까지 파괴할 수 있을 경우 시스템 조정에 따라 무기를 하향 선택한다. 

나름대로 보완조치가 대기한다. 로봇에게 모든 것을 맡길 경우 생길 수 있는 오류를 방지하기 위해 인간이 로봇에 조언하는 측면에서 최종 결정을 내릴 수 있는 권한을 갖는다는 설명이다. 즉 로봇에 예기치 않은 상황이 봉착했을 때 인간이 이를 조정하여 문제점을 제거한다는 것이다.

엄밀하게 말해 이렇게 똑똑한 인공지능 로봇이 개발된다면 일부 로봇을 반대하는 사람들이 제기하고 있는 로봇의 무차별 확산에 큰 제동이 걸 필요가 없다고 설명하기도 한다. 그런데 현실적으로 볼 때 이처럼 100% 완벽한 상태에서 운용되는 것이 거의 불가능하다는데 문제의 심각성이 있다.

그런데 인공지능 로봇으로 공격형 군사무기를 만드는 목표가 큰 틀에서 기계가 사람을 무차별적으로 살상한다는 것을 기본으로 한다는 점이다. 특히 전쟁터라는 특수 상황을 감안하면 조그마한 틈새도 인명에 큰 손상을 갖고 온다.

전세계 수많은 사람들이 한마디로 킬러로봇을 반대하는 이유다. 그런데 이들의 주장이 상당한 직관적인 설득력을 갖고 있다는 것은 의문의 여지가 없다. 

실제로 군사로봇의 실패사례는 자주 발생한다. 2008년 4월 이라크에서 탈론(TALON), 스워드(SWARD)가 오작동을 일으켰으며 2007년 10월 준자율 로봇 포의 오작동으로 9명이 사망하고 14명이 부상당했다.

문제는 단지 킬러로봇의 개발을 멈추고 사용을 금지하라는 구호로만 군사로봇 개발이 중지되지 않는다는 점이다. 더불어 이 문제를 윤리적인 잣대로 해결할 수 있는 것도 아니라는 점이다. 이는 전쟁 용으로 개발된 인공지능 로봇 즉 군사무기 자체를 킬러로봇으로 간주하는 것도 바른 생각은 아니다라는 지적 때문이다.

다소 어려운 설명이기는 하지만 일부 학자들은 인공지능을 활용하는 로봇이 투입되었다하더라도 무엇이 살인이고 누가 살인자인지를 결정하는 일조차 간단한 일이 아니라고 지적한다. 살인은 사람의 사망이라는 물리적인 차원뿐만 아니라 윤리적ㆍ법적 차원을 가지는 규범적 개념이기 때문이다. 

통상적으로 정당하지 않은 이유 또한 정당하지 않은 수단과 방법으로 사람의 목숨을 빼앗은 경우 그 행위를 수행한 사람을 살인자로 부른다. 그런데 사람의 목숨을 해쳤더라도 정당한 이유가 있다면 그 행위는 살인이 아니라고 판정나기도 한다. 할리우드 서부극에서 수많은 사람을 살해한 총잡이가 살인자로 무조건 지탄되지 않는 이유이다.

여하튼 살인과 살인자에 관한 이러한 통상적인 관념에 의한다면 전쟁에서 사용되는 모든 무기를 살인자라 부를 수 없고 참전한 모든 군인을 살인자로 부르는 것도 부적절하다. 특히 전쟁에서 살상무기가 대량으로 사용되는데 여기에서 살상무기란 인명을 살상하는데 사람에 의해 사용될 수 있다는 것을 의미하지만 그 자체로 살인자라는 뜻은 아니다. 

학자들은 바로 이 대목이 킬러로봇을 개발하는 사람들에게 빌미를 준다고 지적한다. 사실 인공지능이 가미된 수많은 군사용 무기들 모두를 ‘킬러무기’로 단정할 수 없는 것은 군사로봇의 임무가 성격에 따라 달라지기 때문이다.

일반적으로 인공지능 군사용 로봇은 전투로봇과 비전투 로봇으로 나뉜다. 

비전투로봇은 전쟁 중에 운송, 탐사, 사상자 후송 등에 사용됨으로써 전장에 투입되는 인간 병사의 숫자를 줄여주며 폭발물 해체와 같은 위험한 작업을 대신한다. 인공지능 로봇이 지뢰 발견 및 해체에 동원되고 정찰 및 감시 임무에 투입되어 혁혁한 성과를 거두고 있음은 잘 알려진 사실이다.

더불어 모든 군사용 무기는 공격 무기와 방어 무기로 나뉘는데 인공지능 로봇도 이와 같은 분류 즉 공격 로봇과 방어 로봇으로 구분할 수 있다. 상대방의 미사일에 자동으로 대응하는 자율무기와 상대방을 인간의 제어없이 자동으로 공격하는 무기는 다른 지위를 갖는다는 뜻이다.

더불어 군사로봇의 효용성을 거론하는 사람들은 결과주의적 논리를 제시한다. 군사로봇을 전투에 참가시켜 장병의 손실을 줄일 수 있다면 군사로봇의 사용은 윤리적으로 정당화될 수 있다는 것이다. 전쟁이 벌어지면 인간 간의 살상이 무자비하게 벌어지며 수많은 사람들이 살상되는데 로봇의 참가로 오히려 희생자를 줄일 수 있다는 주장이다.

그럼에도 불구하고 군사용 무기에 대한 가장 큰 지적은 로봇이 인간을 해치는 것이 허용될 수 있느냐이다. 한마디로 고삐가 풀려 군사용무기 개발이 촉발된다면 그 피해는 어떤 연유로든 인간에 귀착된다는 것이다. 문제는 지구 상에서 전쟁이라는 돌발 변수를 영원히 사라지게 할 수 있느냐이다.

  

6 : 인공지능 개발 윤리의 하나둘셋

  

인간 문명사를 볼 때 그동안 최첨단 시스템이 어떠한 의사결정을 내려야하는 경우 일반적으로 인간이 의사결정 과정에 관여하거나 최종적인 의사 결정자로 역할을 수행했다. 인공지능 기술이 도입되기 전의 정보시스템은 모든 정보처리의 의사결정 과정이 인간들의 설계에 의해 이루어졌기 때문에 정보시스템은 단순히 그 과정을 재현하는 것으로 충분했다는 뜻이다. 

그러나 인공지능 기술이 도입된 이후의 정보시스템에서 정보처리의 의사결정 과정조차 스스로 구성하고 자율적인 의사결정이 가능할 수 있다는 전망은 과거의 패턴은 거의 의미없다는 뜻과 다름없다. 즉 초첨단화의 수준이 고도화되면서 암묵적으로 또는 경우에 따라 인간이 의도적으로 배제되는 상황에까지 이르자 기계에 의한 판단이 과연 인간 사회의 가치와 일치하는지 확인해야할 필요가 제기된 것이다. 한마디로 기계의 판단이 우리 사회의 윤리적 판단이나 가치 시스템과 일치할 수 있느냐이다. 

영화의 소재로 자주 등장하는 범죄자가 숨어 있는 곳에 다른 시민들이 인근에 있음에도 드론으로 공격하거나 사격하는 경우, 자율주행자동차가 보행자를 피하기 위해 다른 차량과 충돌하거나 승객을 위험에 빠지게 할 수 있는 경우들은 곧바로 연상할 수 있는 사례에 불과하다. 

이런 문제가 더욱 큰 주목을 받는 것은 인공지능이 자율적인 의사결정을 하는 시스템으로서 자율주행자동차, 인공지능 스피커, 군사용 로봇처럼 실체적인 기계뿐만 아니라 자동화된 정보처리 시스템까지 포함될 수 있으므로 파급효과가 기하급수적으로 늘어날 수 있기 때문이다. 

기존의 윤리와 도덕에서 전통적인 책임은 인간을 대상으로 한다. 개인 또는 집단이 타인 또는 타 집단에 대해 윤리적이고 도덕적인 규범과 기준에 따라서 도덕적 의무를 지닌다는 윤리적 개념이다.

문제는 이런 보편적인 개념으로 생각되는 내용을 인공지능 기술 또는 인공지능 시스템에 곧바로 적용하는 것이 간단하지 않다는 점이다. 인공지능 시스템의 작동 및 활용의 과정에서 실제로 다양한 기술적 요소들이 필수적으로 결합된다. 바로 이러한 조건들이 책임의 부과와 책임의 주체에 대해 상황을 복잡하게 만든다. 인공지능 시스템의 작동에 빅데이터, 사물인터넷, 클라우드 등이 개입하기 때문이다.

학자들은 인공지능 로봇의 경우에도 ‘책임’과 ‘책무’에 대한 정의가 필요하다고 주장한다. 잘 알려진 내용이지만 기업의 경우 ‘기업의 사회적 책임’과 ‘기업의 사회적 책무’가 항상 같은 수준으로 움직이는 것은 아니다. 책임에는 자의식이 수반되며 궁극적으로는 행위를 수행한 주체인 행위자에 초점과 중심을 맞춘다. 반면에 책무는 인간 이외의 경우에 작용하는 것으로 설명되기도 한다. 물론 일반적으로 책임과 책무가 함께 사용될 수 있다고 설명된다. 

인공지능의 여파로 어떤 사고가 발생하였을 때 이를 적절하게 설명하기 어려울 수도 있으며 설계 또는 제작 시점에서 전혀 예측치 못한 결과들이 종종 나타난다. 특히 처음부터 개별 행위자의 행동이나 결정을 사후적인 결과로 나타난 사건과 사고를 명백한 인과적인 관계로 연결 고리를 밝히는 것은 만만치 않은 일이다. 더불어 개별 행위자가 자신의 선택이나 행동이 향후에 초래할 미래의 가능한 결과들을 예견한다는 것도 어려운 일이다. 이러한 상황에서 책임 문제를 인간에게만 한정하는 경우 오히려 책임 공백이 발생할 수도 있다는 지적이다. 이는 바람직하지 못한 부정적인 결과가 발생했음에도 불구하고 책임지는 주체가 없는 경우를 의미한다.

인공지능과 연관된 윤리문제는 수없이 많이 있다. 

가장 큰 지적은 인공지능 알고리즘의 인종 편향성이다. 얼굴 인식 인공지능의 경우 흑인이나 동양인보다 백인을 더 잘 인식하며 외모를 평가할 때도 상대적으로 백인을 선호하는 경향이 농후하다. 이는 사실 어느 정도 이해가 되는데 대부분의 학습 데이터가 해당 지역에서 쉽게 구할 수 있는 백인 사진이기 때문이다.

학자들은 인공지능의 윤리학을 다음과 같이 설명한다. 

우선 인공지능을 어떤 윤리적 가치에 의해 지배되는 존재로 만드냐이다. 여기에는 윤리적 가치 지향을 실제로 어떻게 구현할 수 있을 것인가에 대한 문제를 포함한다.

인공지능의 설계는 자율성과 윤리적 민감성(감수성)으로 분류될 수 있다. 과거에는 인간과 비슷한 수준의 지성적 자율성을 발휘하는 물체 즉 로봇을 개발하는데 역량을 경주했지만 일부 분야에서 인공지능의 역량이 인간의 능력을 초월할 정도가 되었으므로 인공지능이 인간과 공존하기 위해서는 인공지능이 지녀야하는 윤리적 감수성도 필요하다는 주장이다. 

여기에서 학자들은 인공지능이 갖게 될 도덕적 지위에 대해 주목한다. 도덕적 지위 문제는 행위자와 피동자의 두 가지 차원에서 논의될 수 있는데 여기에서 강조되는 것은 인공지능 로봇이 전통적으로 인간에게만 귀속되었던 윤리적 행위자의 지위를 가질 수 있는가이다. 그런데 행위자가 되기 위한 전통적 요건은 이성, 의식, 지향성, 자유의지 등이다.

엄밀히 말하면 인공지능은 로봇의 지능적인 소프트웨어 부분을 일컬으며 로봇은 하드웨어와 소프트웨어 모두를 포함하여 자율적인 기계를 말한다. 여기에서 인공지능을 로봇의 머리라고 생각할 수 있으므로 논제의 대상은 지능적인 능력을 갖춘 두뇌 로봇을 의미한다. 

여기에서 인공지능의 윤리적인 문제란 인공지능 로봇 간의 사회적인 윤리가 아니라 인공지능 로봇과 인간들 간의 윤리이므로 이 말은 인간들에게 지켜야하는 윤리와는 다른 측면을 가진다.

사실 이런 문제는 과거부터 계속 제기된 사항이기도 하는데 현재 지구의 생태환경에 대해 인간의 책임을 논하기도 한다. 더욱이 근래 엄밀하게 말하면 인간이 아님에도 불구하고 반려동물과 인간들 간의 윤리가 필요하다고 강조되는 것은 잘 알려진 사실이다. 이는 반려동물에 대한 학대 또는 잔인한 행동을 한 사람들을 윤리적으로 비난하거나 법적으로 처벌하는 이유이다. 

그런 면에서 인공지능 로봇이 충분히 자율적이고 지능적인 존재가 되어 인간과 사회를 이루고 살아야하는 사회가 된다면 반려동물 이상으로 큰 중요성을 부여받게 된다는 것은 자명한 일이다. 즉 가축과 반려동물과 달리 인공지능 로봇은 인간이 인공적으로 만들었지만 인간의 지능적 능력을 독자적으로 가지게 될 경우에 발생할지 모르는 초유의 사태에 대한 윤리적인 문제가 대두된다는 뜻이다.

윤리는 국어사전에서 사람이 마땅히 행하거나 지켜야 할 도리로 풀이된다. 도덕은 사회 구성원들이 양심, 사회적 여론, 관습 따위에 비추어 스스로 마땅히 지켜야 할 행동 준칙이나 규범의 총체이다. 강제력을 갖는 법률과 달리 각자의 내면적 원리로 작동하며 종교와 달리 초월자와의 관계가 아닌 인간 상호관계를 규정한다.

그런데 윤리와 도덕이란 용어가 일상적으로는 상호 호환적으로 사용된다. 문제는 윤리적인 것이 항상 도덕적인 것이 아닐 수 있고 그 반대도 마찬가지다. 박충식 박사는 이 문제에 관해 매우 이해가 쉬운 예를 들었다.

미국 마피아 조직원들 사이에 만들어진 침묵의 수칙 즉 오메르타(Omerta)의 경우 경찰로부터 범죄자를 보호하는데 이용된다. 윤리적으로는 조직의 행동 규칙을 바르게 따른다는 것이지만 도덕적인 관점에서는 그릇된 것일 수 있다는 것이다. 한마디로 마피아 조직에서 도덕적 행위도 비윤리적일 수 있다는 설명이다. 

의뢰인이 유죄라는 것을 법정에서 말하는 변호사는 정의를 실현하려는 도덕적 욕구에서 행동하는 용감한 행동일 수 있다. 그러나 그의 행동은 변호인-의뢰인 사이의 비밀 유지 특권을 위반한다. 여기에서 누가 더 도덕적이냐라는 질문이 있겠지만 결과론으로 보면 변호사가 심각한 비윤리적 행동을 저질렀다는 비난을 받기 마련이다.

그런데 이 문제에 관한 한 학자들은 매우 깐깐하다. 인공지능과 인간의 상호작용이 윤리적 측면을 갖는다고 할 때 곧바로 제기되는 질문은 반드시 인공지능이 사람과 동등한 윤리적 고려대상이어야 하는가이다. 

문제는 윤리적 측면의 구체적인 내용이 무엇이냐 인데 학자들은 간명하게 대답한다. 

보다 많은 논의가 필요하다는 것이다. 이는 윤리적인 문제에 대해 회피할 것이 아니라 가능한 한 윤리적인 문제를 적극적으로 다뤄나가되 차근차근 현명한 해결책을 찾아나가야 한다는 것이다. 이처럼 첨예한 문제를 슬기롭게 풀어 가는데 시간이 필요하다는데 이의를 제기할 사람은 없을 것이다. 

  

7 : 인간보다 뛰난 인공지능

  

「터미네이터」의 경우 로봇의 반란에 인간이 똘똘 뭉쳐 위기를 넘기지만 그 과정에서 수십 억 명의 인간이 희생된다. 더구나 모든 일이 영화처럼 해피엔딩으로 끝나는 것은 아니므로 로봇을 선한 문명의 이기로만 볼 것이 아니라 악한 도구로도 생각해야 한다는 지적이 결코 과장만은 아님을 이해했을 것이다. 

그러나 수많은 과학자들의 우려에도 불구하고 대부분의 학자들은 단호하다.

영화 「터미네이터」와 같은 상황은 결코 일어나지 않는다는 것이다. 로봇이 인간에게 대항하는 치명적인 상황 즉 ‘로봇의 반란’은 절대로 일어날 수 없다고 단언하는 데 이유는 로봇에게 치명적인 약점이 있기 때문이다.

로봇도 인간과 마찬가지로 움직이는데 필요한 동력을 공급해야 한다. 그런데 로봇은 생명체와 같이 음식만 먹고 이를 분해하여 자신이 유용하게 쓸 수 있는 에너지로 변환시키는 것이 불가능하다는 점이다. 로봇이 유기물을 분해하여 에너지를 얻을 수 있는 장치도 개발 중이라는 발표도 있지만 이것은 엄밀한 의미에서 인간이 음식을 섭취하여 에너지를 얻는 것과는 다른 의미다. 

이를 다시 설명하면 기계로 만들어진 로봇은 배터리가 없으면 동작할 수 없다는 것으로 설명할 수 있다. 그러므로 만약 로봇이 반란을 일으킨다면 「매트릭스」와 마찬가지로 전원 공급을 차단해버리면 된다는 것이다. 「로보캅」에서도 로봇이 오작동을 일으키자 전원을 차단하라고 말한다.

물론 이 설명에 반대하는 사람들도 있다. SF영화에 따라 로봇이 인간이 에너지 즉 전원을 차단할 수 없도록 사전에 봉쇄하는 장면이 나온다. 로봇이 인간에게 반란을 일으킬 정도의 지능을 갖고 있다면 자신에게 치명상이 될 문제점을 사전에 제거하고 대안을 만들 수 있다는 주장이다. 

현재도 각국에서 전쟁을 명분으로 인간을 살상하는 무기를 개발하는 것은 사실이다. 미국을 비롯해 선진국에서 무인 정찰기를 사용하는 것은 잘 알려져 있는 사실이다. 이런 비행기는 대부분 원격 조종을 통해 비행한다. 그런데 이들이 무선 네트워크로 연결되어 있으므로 외부에서 악의적으로 프로그램을 조작한다면 사전에 프로그램되어 발사된 핵폭탄이 오작동을 일으켜 예상된 목표물로 향하지 않게 만들 수 있다. SF물에서 가장 요긴하게 사용하는 주제이다. 

바로 이러한 잠재력이 미래의 인간에게 두려움을 주지만 학자들은 단언하여 이야기한다. 미래의 로봇이 인간에게 결정적인 해가 된다고 단언하여 생각하는 것도 기우라는 것이다. 

그동안의 연구에 따르면 기계는 기계이므로 즉 인공지능로봇이라 할지라도 로봇이 인간을 정확히 모방하는 것이 불가능하다고 설명된다. 실상이 그렇다면 어떤 연유로 인공지능 로봇을 걱정해야 하느냐 라고 반문한다.

기계 즉 로봇은 인간에게 헌신하는 목표로 제작되었으므로 비록 미래에 로봇이 인간보다 더 지능적으로 진화한다하더라도 커다란 문제점이 없을 것이라는 생각은 아직도 많은 사람들의 생각이다.

이 문제에 관한 한 학자들의 설명은 명쾌하다.

인간은 기억의 어떤 부분이 잊혀질 때 그와 관련된 모든 것이 함께 잊혀진다고 설명한다. 그런데 인공지능 로봇에서 이런 일은 결코 발생하지 않는다는 점을 강조한다. 

사실 기계는 인간과 달리 한계가 없다. 기계는 계속해서 새로운 정보를 축적하면서 한 시대의 기계에서 다음 시대의 기계로 많은 정보를 전달해 줄 수 있다.

더불어 기계는 인간들을 구속하는 생물학적 구속에서도 자유롭다는 점이다. 로봇은 인간이 생존하기 위한 환경 즉 공기와 온도의 미묘한 균형에도 의존하지 않는다. 또한 인간이 가지고 있는 수많은 정신적인 한계로부터도 고통을 받지 않는다.

한마디로 로봇은 무한정의 지능으로 발전하는데 제한이 없다. 이 말을 적나라하게 표현한다면 로봇이 인간과 동등하거나 모방하는 것이 불가능하더라도 인간보다 좋은 지능을 가질 수 있다는 뜻도 된다. 

중요한 것은 기계가 인간을 앞서는 상황이 되면 그동안 기계가 인간에게 헌신하는 상태로 있으리라고 상상할 수 없다는 지적이다. 이는 전쟁의 승패에서 승자가 독식하는 상황이 거의 기본인 것을 생각하면 충분히 이해되는 내용이다.

이 말이 갖고 있는 의미는 다소 철학적이다. 인공지능 로봇이 생물학적 인간과 100% 동등해 질 가능성이 없으므로 오히려 로봇이 언제까지 인간에게 복종할 것이라는 결론은 미지수라는 점이다. 이 문제에 대해 캐빈 워웍 박사는 명쾌하게 설명한다. 인공지능 로봇이 인간보다 명백한 이점을 가지고 있으므로 기계가 인간보다 우월한 위치에 서게 될 수도 있다는 것이다.

그럼에도 불구하고 상당수 로봇학자들은 인간의 도덕성과 실용화에 대한 열망이 인간에게 해가 되는 방향으로 진전되지 않는다고 단언하여 주장한다. 이는 지능적인 로봇을 만드는데 인간의 참여가 절대적으로 필요하기 때문이다.

이 말은 로봇 개발에 있어 결정적인 약점으로 제시되는데 한마디로 과학이 인간의 두뇌를 복제할 수 있을 정도로 발달하더라도 똑똑한 로봇이 인간에게 반란을 일으키거나 거짓말을 할 수 없도록 만드는 것은 생각보다 쉽다는 것이다. 한마디로 인공지능 로봇이 엄청난 정보를 축적할 수는 있지만 프로그램으로 입력되지 않은 자의식이란 존재할 수 없기 때문이다. 이는 로봇의 행동은 모두 예측가능하므로 이에 대한 대안은 인간에게 있다는 뜻이다.

로봇이 인공지능을 가졌든 아니든 인간보다 어느 일정 분야에서 월등히 우월한 분야를 점유할 것은 자명한 일이다. 그러나 과연 미친 과학자나 독재자가 탄생하여 언젠가 터미네이터나 사기꾼 로봇이 몰려올 것인지 아닌지를 예단하는 것은 간단한 일이 아니지만 적어도 인간에게 마지막 카드가 있다는 것은 상쾌한 일이다. 특히 한국에서 개발하는 로봇이 세계를 석권하더라도 우려할 일은 아니다. 

그래도 아서 클라크는 날카로운 조언을 내놓았다.

  

‘컴퓨터에게 새로운 능력을 자꾸 부여하다 보면 언젠가 인간은 컴퓨터의 애완동물로 전락할 수도 있다. 그저 우리가 원할 때 컴퓨터의 플러그를 뽑는 능력만은 항상 보유하기를 바랄 뿐이다.’

  

이 문제를 보다 확대하면 많은 사람들이 미래의 로봇에 우려감을 표시하는 것은 충분히 이해되는 일이다. 아무리 안전하게 로봇을 만들더라도 단 하나의 실수가 인류의 멸망으로까지 이어질 수 있다고 생각하기 때문이다. 「터미네이터」에서 보면 로봇의 반란에 인간이 똘똘 뭉쳐 위기를 넘기기는 하지만 그 과정에서 수십 억 명의 인간이 희생된다. 더구나 모든 일이 영화처럼 해피엔딩으로 끝나는 것은 아니므로 로봇을 선한 문명의 이기로만 볼 것이 아니라 악한 도구로도 생각해야 한다는 지적이 결코 우려사항만은 아님을 이해했을 것이다. 

  

8 : 킬-스위치

한국과학기술연구원(KIST)의 김문상 박사는 보다 명쾌하게 다음과 같이 적었다.

  

‘로봇은 언제든 인간이 플러그를 뽑을 수 있는 대상이 되어야지 반대로 로봇이 인간의 플러그를 뽑게 해서는 안 됩니다. 인간이 창조한 로봇이 거꾸로 인간을 지배하게 되는 일이 일어나서는 안 된다는 뜻이죠. 이는 생명공학 분야에서의 복제 기술이 악용될지 모른다는 염려의 목소리와 일맥상통합니다.’

  

김문상 박사는 로봇이 인간에게 서비스를 제공해주는 존재여야지, 인간을 대체하는 존재가 되어서는 안 되며 로봇은 인간의 충직한 부하로서 임무를 가져야 한다고 주장했다. 

인간과 로봇의 관계를 설정하는 최후의 관건은 인간이 만드는 알고리즘에 기초하므로 로봇의 프로그램에 문제가 생길 때 이를 수정 보완할 수 있도록 만들면 된다는 것이다. 아무리 축적된 정보를 많이 갖고 있는 로봇이라고 하더라도 인간에 대해 반기를 들 수 없는 알고리즘을 인간들이 만들 수 있는 한 로봇은 기계의 프로그램에 지나지 않는다는 설명이다.

그럼에도 불구하고 SF영화에서 자주 나오는 장면 즉 실수나 우연에 의해 이상이 생기기 마련이다. 학자들은 이런 상황에 대해 매우 말끔하게 설명한다. 로봇의 전원(電源) 즉 비상시 인공지능을 정지시키는 ‘킬(kill) 스위치’를 설치하면 된다는 주장이다. 

인간의 문명을 지탱하는 기술 개발이 기본적으로 인간의 삶을 증진시키는 방향으로 나가고 있지만 이에 반하는 사례도 수없이 등장할 수 있는 것은 사실이다. 그만큼 인간 생활이 단순하게 움직이지 않는다는 뜻이지만 여하튼 인공지능 로봇에 문제가 있다면 이를 극복하는 임무도 인간에게 주어졌음은 물론이다.

 

이종호, 과학국가박사, 한국과학저술인협회회장

 

이종호의 다른기사 보기  
ⓒ 전기공업신문(http://www.elenews.co.kr) 무단전재 및 재배포금지 | 저작권문의  

     
전체기사의견(0)  
      자동등록방지용 코드를 입력하세요!   
 
   * 200자까지 쓰실 수 있습니다. (현재 0 byte/최대 400byte)
   * 욕설등 인신공격성 글은 삭제 합니다. [운영원칙]
전체기사의견(0)
데스크 칼럼
전기조합 선거를 되돌아보다
원전해체 분야 포괄적 협력체계 구축
‘2022 KEPIC 유지정비 세미나
발명에는 끝이 없다
에너지연 “태양광 폐패널 재활용 기술
IoT 협력 통해 발전소 작업자 안전
‘농업체험 및 친환경 놀이교육’ 진행
RE100 협력 통한 ESG경영 ‘맞
글로벌 에너지안보 동향 및 대응 방향
‘찾아가는 법률상담 서비스’ 진행
‘IAEA 인증 원전해체 교육과정’
신문사소개 기사제보 광고문의 제휴문의 불편신고 개인정보 보호정책 청소년보호정책 이메일 무답수집 거부
청소년보호책임자 : 백광열
우)07316 서울 영등포구 도신로 225-1 정일빌딩 3층ㆍTEL)02-846-2530ㆍFAX)02-846-2532
Copyright 2007 전기공업. All Rights Reserved. mail to webmaster@elenews.co.kr