4차산업혁명과 준비된 미래

급속한 4차산업혁명 기술의 발전이 우리 삶을 송두리째 바꾸고 있습니다. 변화의 트랜드를 따라잡는 것이야말로 가장 좋은 생존전략입니다.

4차산업혁명

인류 문명을 파괴할지도 모르는 위험천만한 인공지능, 때려 부숴야 하지 않을까?

준비된 미래 2023. 4. 19. 00:23

인류 문명을 파괴할지도 모르는 위험천만한 인공지능, 때려 부숴야 하지 않을까?

 

구글 최고경영자(CEO)인 순다르 피차이(Sundar Pichai)는 지난 4월 16일(일) 고용 시장을 불안정하게 하고 안전 문제를 악화시킬 게 분명한 인공지능의 급속한 발전에 대해 인류 사회가 함께 대비해야 한다고 주장했습니다.
 
피차이는 CBS 방송과의 인터뷰에서 AI를 통제하기 위한 새로운 규정을 만들어야 한다고 역설했습니다. 이러한 그의 주장은 일론 머스크와 같은 사람들이 인류의 안전 문제를 들어 첨단 AI 시스템 개발을 완전히 중단하라고 요구하는 것과는 온도 차이가 있습니다.
 
피차이는 이렇게 말했습니다.
 

“우리는 깊이 생각해야 합니다. AI 발전이 야기할 여러 문제들에 어떻게 대응할 것인가 하는 것은 사회가 해결해야 할 과제이지 개별 기업들이 결정할 사안은 아닙니다.”

 

AI의 위험성을 사회가 대비해야 한다고 주장하는 순다르 피차이(구글 CEO)

 
파차이는 이 인터뷰에서 AI의 활용성에 대한 여러 가지 대담한 선언으로 시청자들에게 충격을 던졌습니다. 예를 들면, 그는 가까운 미래에 AI가 "모든 기업의 모든 제품"에 영향을 미칠 것이라고 단언했고, 나아가 개발자인 구글조차도 어떤 면에서는 자신들이 만든 AI 시스템을 완전히 이해하지 못하고 있다고 실토하기까지 했습니다.
 
피차이는 첨단 AI가 주로 작가, 회계사, 건축가, 소프트웨어 엔지니어와 같은 소위 "지식 노동자"들의 일자리를 빼앗을 것이라고 말했습니다.
 
그러다가 어느 순간 구글이 개발한 AI 프로그램이 “스스로 터득한 기능” 즉, 엔지니어들이 학습시킨 일이 없는 예상 밖의 기술을 습득하더라는 놀라운 이야기를 꺼냈습니다.
한 예로, 구글 프로그램은 뱅골어를 학습한 적이 전혀 없었는데도 스스로 벵골어 번역 능력을 습득했다고 합니다.
 
이에 대해 피차이는 개발자들도 어떻게 그런 일이 일어났는지 제대로 설명할 수 없었음을 시인했습니다.

“AI 개발 현장에 있는 엔지니어들은 그런 현상을 ‘블랙박스’라고 부릅니다. 뭐가 잘못됐길래 그런 일이 일어났는지 아무도 알지 못합니다.”

 
사실이 그러하다면 정말 큰 문제가 아닐 수 없습니다. 구글은 대체 기술을 완전히 이해하지도 못하면서 그런 위험한 시스템을 어떻게 사회에 내놓을 수 있을까요?
 
이러한 질책성 질문에 대한 피차이의 답변은 이랬습니다.
 

“이렇게 표현해 보겠습니다. 저는 우리가 인간의 마음 역시 완전하게 이해하지 못하고 있다고 생각합니다.”

 
그러면서 그는 이렇게 덧붙였습니다.
 

“AI는 앞으로 모든 것에 영향을 미칠 것입니다. 예를 들어, 당신이 방사선과 전문의라면, 5년이나 10년 후에는 AI 조수를 두고 있을 수도 있습니다. 여러분이 아침에 출근했을 때 100명의 환자가 진료를 기다리고 있다고 합시다. 그러면 AI 조수는 그 환자들 가운데 ‘이 환자들이 심각하니 먼저 봐 주세요.’라고 말할 수도 있습니다.”

 
한편, 구글은 새롭게 떠오르고 있는 인공지능 시장에서 뒤처지지 않기 위해 새로운 챗봇인 바드(Bard) 개발에 진력하고 있습니다.
 
피차이 역시 AI가 촉발시키고 있는 무시무시한 영향에 대해 우리 사회가 제대로 대응할 준비가 돼 있지 않음을 인정합니다.
 
그래서 그는 이렇게 말합니다.
 

“그 문제와 관련해서 저는 두 가지로 생각하고 있습니다. 한가지 생각은 신기술에 대한 우리 사회의 적응 속도와 제도 수립이 기술의 발전 속도를 따라잡지 못하고 있다는 것입니다. 또 다른 생각은, 그렇다고 해도 AI 기술의 경우에는 다른 기술에 비해 일찍부터 사람들이 걱정을 해왔기 때문에 문제 해결에 대해 낙관적으로 보고 있습니다. 아주 많은 사람들이 AI의 영향에 대해 걱정해 왔고, 대화의 깊이 또한 매우 진지해 지고 있기 때문입니다.”

 

 
마이크로소프트가 지원하는 OpenAI의 챗봇인 ChatGPT의 거침없는 질주로 인해 최근 AI 안전성에 대한 논쟁이 매우 뜨거워지고 있습니다. 챗봇이 향후 일자리를 앗아가고 잘못된 정보를 확산시키게 될 것이라는 우려를 증폭시키고 있으면서도, 사용자들의 다양한 질문에 인간처럼 대답하는 능력 덕분에 상당한 지지층을 확보하고 있습니다.
 
한편, 억만장자, 테슬라 자동차와 스페이스X의 최고경영자, 기행을 일삼는 자, 세계 제일의 뉴스메이커 등 무수한 수식어가 따라다니는 일론 머스크는 최근 폭스 뉴스와의 인터뷰에서 AI의 위험성을 경고하고 나섰습니다. 그는 OpenAI의 초기 후원자 중 한 명이기도 했습니다.
 

“AI는 잘못 만든 자동차나, 또는 잘못 설계되거나 잘못 정비된 비행기 보다 훨씬 위험합니다. 설사 아직 일어나지 않은 잠재적인 위험이고, 가능성이 아주 미미하다 하더라도 결코 사소한 문제가 아닙니다. 인류 문명을 파괴하는 결과에까지 이를 수도 있습니다.”

 
그는 또 지난 달에는 1,000명 이상의 전문가들과 함께 적절한 안전장치가 만들어질 때까지 6개월간 AI 개발을 중단할 것을 주장하기도 했습니다.
 
그는 이러한 경고와 함께 자신의 인공지능 버전인 TruthGPT 개발을 시작할 것이라고 밝혔습니다. 듣는 입장에서는 참 이율배반처럼 느껴지는데요. 그는 TruthGPT를 개발하는 이유에 대해서는 이렇게 말했습니다.
 

“제가 개발하려고 하는 TruthGPT는 우주의 본질을 파헤치는 데 최적화된 AI가 될 것입니다. 우리는 모두 우주의 일부분이고, 우주가 인류를 멸종시키지 않을 것이라는 사실을 이해하기 위해 만들어지는 AI이므로 가장 안전한 길이 되지 않을까요?”

 

폭스 뉴스와의 인터뷰에서 AI의 위험성을 경고하는 일론 머스크

 
구글 최고경영자가 자신들이 만든 AI가 스스로 어떤 기능을 터득했다는 사실과, AI를 개발한 엔지니어들 조차 어떻게 해서 그런 일이 일어났는지 알 수 없다고 말하는 것을 들으면 섬뜩한 생각이 듭니다. 왜냐하면 많은 사람들이 우려하고 있듯이 인공지능이 종국에는 인간의 통제를 벗어나 독자적으로 판단하고 행동함으로써 인류의 존속을 위협하는 영화같은 일이 현실에서 실제로 일어날 수도 있겠다는 생각이 문득 들기 때문입니다.
 
그런데 그보다 더 섬뜩한 것은 그 AI를 개발한 구글 최고경영자가, 개발자들도 AI를 다 알지 못해 자칫하면 인간이 AI에 대한 통제권을 잃을 수도 있는데도, 그것이 ‘우리가 인간의 마음을 다 알지 못하는 것과 다를 바 없다’고 생각하고 있다는 것입니다.
 

AI의 위험성에 대한 우리 사회의 대응 방안은 윤리적 기준과 법 제도를 통한 규제입니다. 그런데 이처럼 발달 초기부터 문제가 불거지는 이유는 인공지능의 진화 속도가 법적 윤리적 논쟁에 대한 토론 속도보다 비교할 수 없을 만큼 빠르다는 데 있습니다. 말하자면 기술의 발전은 기하급수적인데 사회적 규제 논의의 진전은 산술급수적으로 이루어지고 있다는 것입니다.  

 

산업혁명 초기에 일어난 러다이트 운동에서도 이와 관련한 교훈을 얻을 수 있는데요.  잘 아시겠지만 러다이트 운동은 기계가 발전하면서 인간이 기계의 종이 돼 가고 있다고 인식한 노동자들이  이를 거부하기 위해 기계를 때려 부순 일종의 사회 폭동이었습니다. 그러다가 시간이 지나면서 이 용어는 일반적으로 산업화, 자동화, 컴퓨터화 또는 신기술에 반대하는 사람을 의미하게 되었습니다. 기술 발전이 급격하게 이루어지는 때는 사회가 이를 거부하면서 저항하지만 러다이트 운동이 결국에는 실패했듯이 결코 인간은 기술의 발전을 억제할 수 없다는 것이죠. 그래서 머리가 좀 빠르게 회전하는 사람들은 인공지능을 거부해봤자 생존만 어려워 질테니 이걸 남들보다 잘 이용해서 뭔가를 해보는 것만이 '개이득'이라고 생각하게 되는 것입니다. 


인공지능을 놓고 갈팡질팡하는 듯한 일론 머스크의 생각과 행보에서 갈등과 고뇌가 읽힙니다.