테크 사회이슈 에세이

AI는 컴퓨터, 문화는 물론 역사의 흐름까지 바꿀지도 모른다

기사이미지

/그래픽=PADO

2023.05.19 11:23

The Economist
icon 13min
kakao facebook twitter

테크 업계에 불고 있는 AI 열풍은 심지어 2000년대 초반의 닷컴 열풍이 우습게 보일 정도라고 하죠. AI의 잠재성을 부정하는 사람은 없지만 과연 그것이 얼마나 대단한지에 대해서는 의견이 갈립니다. PADO는 브라우닝과 르쿤의 'AI와 언어의 한계' 같이 회의적인 목소리를 주로 소개했는데 이번에 소개하는 이코노미스트의 2023년 4월 22일자 에세이는 색다른 논지를 전개합니다. 브라우닝과 르쿤이 언어로만 훈련한 AI에는 한계가 뚜렷하다고 주장하는 반면, 이코노미스트는 인간의 지성이라는 게 그렇게 대단치 않은 것일 수 있다며, 인간의 영혼을 닮은 이 '언캐니'(uncanny)한 능력이 앞으로 세상에 어떤 변화를 가져올지 알 수 없다고 말합니다. 이 기사는 생물과 무생물, 정신과 물질을 엄격하게 나누는 이분법에 회의적인 시선을 던집니다. 그리고는 스피노자, 셸링, 베르그송 등 생물과 무생물, 정신과 물질을 같은 것의 다른 측면으로 바라보는 철학적 전통을 따라 인간의 지성이 그다지 인간 고유의 유별난 것이 아닌 것만큼 AI의 '유사 지성'도 꽤 지성적일 수 있다고 주장합니다. 프로이트의 '언캐니' 개념을 염두에 두고 두 글을 꼼꼼히 비교해 읽어보시면 AI혁명, 더 구체적으로 챗GPT가 가져온 LLM 혁명에 대해 이해를 넓히실 수 있을 것입니다.



근대 계몽주의가 가져다준 음울한 선물 중에는 인류도 언젠가 종말을 맞을 수 있다는 깨달음도 있다. 17세기의 천문학 혁명은 태양계가 질서정연한 최고도의 합리성에 따라 작동하기도 하지만 찌그러진 타원 궤도를 가져 이론적으로는 지구와 부딪힐 수 있는 혜성도 가지고 있음을 알려줬다. 뷔퐁 백작의 해석에 따르면 지질학적 기록은 수많은 종의 생물들이 집단적으로 멸종했음을 보여준다. 이러한 과학적 발견을 배경으로 다윈이 등장했는데 그는 이러한 멸종이 진화의 원동력으로서 우리 인류를 여기까지 만들어온 힘이라는 걸 깨달았다. 이는 동시에 인류도 같은 운명을 맞이할 수 있음을 암시하는 것이기도 했다. 곧이어 나타나게 된 열역학(熱力學)은 종말의 확실성을 우주적 규모로 설명했다. 태양, 지구, 그리고 우주 전체가 종국에는 물질의 움직임이 완전히 사라진 '열 죽음' 상태가 된다는 것이다.


20세기는 종말이 자연적으로 오기보다는 인류의 손에 의해 올지도 모른다는 생각을 추가했다. 이는 원자의 핵에 꽁꽁 숨겨져 있던 힘을 찾아내고 활용하게 되면서 나왔다. 처음에 핵 에너지를 발견했을 때는 '열 죽음'의 절대적 동결상태를 무한히 연기시킬 수 있는 방법을 찾았다고 환호했지만, 이 에너지는 오히려 인류 멸종을 가속화시킬 위험요인이 되어버렸다. 핵 에너지가 가하는 임박한 파멸의 위협은 다른 기술에도 옮았다.


컴퓨터만큼 핵이 주는 공포가 잘 전염된 것이 없었다. 컴퓨터는 핵무기 개발에 결정적 역할을 했기 때문에 일종의 연좌제라 할 수도 있다. 어쩌면 처음부터 그리 될 운명이었는지도 모른다. 합리성을 인류의 최고 성취로 믿는 계몽주의의 믿음이 다윈의 진화론과 합쳐져, 인간을 뛰어넘는 초합리성을 가진 존재가 진화 원리에 따라 (인류의 멸종을 통해) 나타날 수 있다는 가능성도 제기됐다.


인공지능(AI) 위협론은 소규모의 흥미로운 학자 그룹을 중심으로 계속 커져왔는데, 이들은 지난 20여년 동안 AI가 인류의 생존을 위협할지도 모른다고 경고했다. 인류와 인류가 만든 제도, 기관들보다 머리는 더 좋고 행동은 더 빠르면서도 인류의 이해득실에는 아무런 관심도 없는 존재가 있다면 이 세상은 인류에게 위험한 곳이 될 거라는 주장이다.



AI업계 안팎의 사람들은 인간을 뛰어넘는 AI가 개발되어 인류의 멸망을 가져올 가능성이 "없진 않다"고 늘 얘기한다. 대규모언어모델(LLM), '파운데이션' 모델, '생성' 모델들이 등장하자 AI 위협론이 대중들의 상상이나 장관들이 읽는 보고서까지 영향을 미쳤다.


AI의 진보는 가속화되고 있고 그것이 가져올 변화들은 어마어마하다. 물론 분명히 위험한 부분이 있고 이는 당장 해결해야 할 문제다. 하지만 현재 가장 각광받는 GPT-41와 비슷한 생성 AI로 이야기를 한정해 보자면, 이런 식의 종말론은 번지수를 잘못 찾은 느낌을 준다. 이런 AI는 산문, 시, 그리고 (프로그래밍의) 코드를 생산해낸다. 그리고 이미지, 사운드, 비디오를 생산하고, 패턴에 기반해 예측도 해낸다. 이러한 능력이 문제를 낳을 여지가 크다는 건 누가 봐도 알 수 있다. 하지만 이러한 능력이 떠벌리기 좋아하는 비평가들이 경고하듯 "문명을 통제하거나 인류를 대체할 힘"을 갖게 되리라는 건 상상하기 어렵다.


기사 이미지

러브송

하지만 H. G. 웰스2의 표현과 같이 "우리 인류를 공격할 계획을 짜면서도 인류에 아무런 동정심도 못 느끼는 고도로 발달하고 냉혈의 지적 존재이며 우리 인류가 쉽게 파멸할 수 있는 동물들을 바라보듯 우리 인류를 내려다보는 초인적 존재"가 되진 않을 것이라고 해서 AI가 가져올 변화를 무시해도 된다거나 별것 아니라는 식으로 다뤄져도 된다는 것은 아니다. 인류의 삶엔 파멸을 피하는 것 말고도 중요한 것들이 많다. 세상을 끝장내지는 못해도 세상을 바꾸는 기술들은 있는 법이다.


인간 수준으로 대화하고 언어를 이해하고, 인간을 뛰어넘는 수준으로 데이터를 수집해 소화하고 패턴을 인식하는 컴퓨터 프로그램들이 득실대는 세상이 이제 막 시작됐다. 이러한 유사 인지 능력이 도처에 깔린 세상의 도래는 AI 발전의 속도가 주춤해지거나(그럴 가능성도 있다) 혁신적인 발전이 동력을 잃더라도(그럴 것 같진 않다) 인류 역사에 전환점이 될 수 있다. 이러한 세상의 도래는 인류의 경제, 정치, 사회 방식을 바꿀 뿐 아니라 인류의 자기 인식까지도 바꿀 것이다.


앞으로 어떤 변화가 있을지 감을 잡기 위해 과거의 사례 세 가지를 꼼꼼히 살펴보자. 인터넷 브라우저, 활자 인쇄술, 정신분석이다. 브라우저는 컴퓨터와 경제를 바꿨고, 인쇄는 민중이 지식에 접근하고 활용하는 방식을 바꿨으며, 정신분석은 인류가 스스로를 이해하는 방식을 바꿨다.


1990년대 초 네트워크간 파일 공유를 위해 도입되었던 단순한 초기 웹 브라우저는 컴퓨터 활용법, 컴퓨터 산업 생태계, 정보를 조직하는 법을 바꿔버렸다. 컴퓨터를 네트워크에 연결하는 능력을 가진 브라우저는 처음에는 파일을 공유하는 통로가 되었다가 나중엔 어디에 있는지도 모르는 애플리케이션에 접속할 수 있는 통로가 되었다. 사용자가 애플리케이션에 접속할 때 경유하는 인터페이스는 애플리케이션 자체와는 분리되었다.



브라우저의 힘은 곧 확실해졌다. 특정 브라우저로 사용자들을 유도하려는 싸움은 큰 돈이 걸린 치열한 싸움이 되었다. 사업이 아무리 이상한 것이어도 웹 주소를 가지고 있으면 투자를 받을 수 있었다. 하지만 이러한 인터넷 붐은 21세기에 들어서자 거품이 꺼져 버렸고, 예상대로 역풍이 불기 시작했다. 하지만 인터페이스와 애플리케이션의 분리라는 근본적 변화는 바뀌지 않았다. 아마존, 메타(페이스북), 알파벳(구글)은 브라우저를 상품, 정보, 인간교류의 채널로 만들어 현기증이 날 정도로 많은 돈을 벌었다. 이제 누가 브라우저를 만들었는지는 중요하지 않게 되었고 플랫폼으로서의 역할이 중요하게 되었다.


오픈AI의 GPT-4 기술로 무장한 대화형 인터페이스 챗GPT가 출시된 이후 수개월 동안 이를 활용하려는 사업체 수가 폭발적으로 증가했는데 과거 닷컴 붐은 이에 비하면 붐도 아니었다. 사용자에게 LLM 기반 애플리케이션은 어처구니 없을 정도로 사용하기가 쉽다. 프로그램 개발자에게도 역시 쉽다. "그냥 컴퓨터를 켜서 AI와 상호작용을 하는 명령어를 몇 줄 써넣으면 됩니다." AI서비스 관련 뉴스레터를 발행하고 있는 영국 사업가 벤 토슬의 설명이다.


LLM은 시간이 흘러 훈련이 쌓이게 되면서 코딩도 잘 돕게 된다. LLM은 문자만 갖고 '훈련'하는 것이 아니라 많은 (프로그래밍) 코드로도 훈련하고 있어서 프로그램을 만들 수 있는 수많은 재료들을 가지고 있고, 이에 따라 코딩 작업자를 위한 '코파일럿'3으로 활약할 수 있다. 오픈소스 코딩 사이트 깃허브(GitHub)는 현재 코드의 거의 절반을 GPT-4 기반의 코파일럿을 활용해 생산하고 있다.


이러한 능력에 따라 궁극적으로 LLM이 스스로 코드를 만들어낼 수 있을 것이라고 마이크로소프트의 수석 기술 담당자인 케민 스콧이 설명한다. 한 언어에서 다른 언어로 번역해내는 능력은 이론적으로도 그렇고 실전에서도 언어를 코드로 번역해내는 능력을 포함하고 있다. 이론상 영어로 타이핑한 프롬프트가 그 요청을 실행에 옮길 프로그램 생산으로 이어질 수도 있다. 브라우저가 사용자 인터페이스를 소프트웨어 애플리케이션과 분리시켰듯, LLM은 이 두 카테고리를 아예 해체시켜버릴 것 같다. 이것이 사람들의 컴퓨터 사용법 그리고 컴퓨터를 사용하는 비즈니스 모델 모두를 근본적으로 변화시킬 가능성이 있다.

나는 매일 책을 쓴다

코드를 만들어주는 것이 AI가 가져올 좋은 변화라면, 세상에 대한 이야기를 창의적으로 지어내는 것은 나쁜 변화라 할 수 있다. 브라우저가 인간이 만든 콘텐츠와 코드에 접근할 수 있는 채널을 제공했을 뿐인데 반해, LLM은 그런 콘텐츠를 스스로 만들어낸다. LLM은 다양한 방식으로 "헛소리"를 한다. 어떤 헛소리는 그냥 의미도 없는 헛소리다. 하지만 실제 살아있는 사람의 이력에 있지도 않은 악행을 창작해 집어넣는 것 같은 헛소리는 너무 그럴 듯하게 만들어져 정말 위험하다. 헛소리는 AI를 훈련시키는 세팅들에 모순이 있거나 진실 보다는 정보들 사이의 일관성을 중시하는 LLM에 의해 만들어진다. 이 AI는 훈련에 사용되는 문장과 이미지 너머에 있는 진짜 세상에 대해서는 전혀 아는 것이 없다.


기사 이미지


많은 애플리케이션에서 그럴듯한 거짓을 만들어내는 경향이 발견된다면 그것은 버그다. 하지만 어떤 애플리케이션에서는 그것이 특장(特長)이 된다. 정치가를 욕보이고 망신주는 딥페이크와 가짜 비디오는 그 시작에 불과하다. AI를 사용해 악의를 가진 주문형 프로파간다 네트워크를 세워놓고서는 여기에 온통 가짜 웹사이트, 가짜 트위터봇, 가짜 페이스북 페이지, 가짜 틱톡 쇼츠 등을 띄워놓는 일들이 벌어질 것이다. 가짜 정보의 공급이 "곧 무한정 늘어날 것"이라고 스탠포드 인터넷 옵저버터리의 르네 디레스타가 경고한다.



공적 토론의 가능성 자체를 위협하는 것이 비록 인류의 멸망과 관련되는 것은 아니지만, 매우 우려스러운 일임은 분명하다. 보르헤스의 단편소설로 <바벨 도서관>이 있다. 이 도서관은 지금껏 쓰여진 모든 책들을 소장하고 있다. 하지만 문제는 모든 가짜 책들도 소장하고 있다는 것이다. 이 책들은 저자도 없으며 사실과 다르거나 무슨 말인지 모를 내용만 들어있다. 중요한 모든 정보가 도서관에 있다. 하지만 이 정보를 찾을 수가 없다. 왜냐하면 너무 많은 가짜들과 섞여 있기 때문이다. 도서관 사서들은 미쳐버릴 정도로 낙심해 있다.


이 환상적 소설은 명백히 하나의 기술적 측면을 건드린다. 즉, 문자나 상징을 담은 활자들을 무한대로 조합해 글을 찍어낼 수 있는 활자인쇄술의 능력을 극단까지 밀어붙여 본 것이다. 이 소설은 LLM에 대해서도 생각거리를 준다.

꿈은 영원히 끝나지 않는다

활자 인쇄술이 근대 세계에 끼친 영향은 워낙 커서 LLM의 영향을 이에 비유하는 것은 부분적으로만 타당하면 자칫 오해를 불러일으킬 위험도 있다. 구텐베르크 활자 발명은 이후 수세기 동안 나타나게 된 거의 모든 생활의 변화를 가져왔다고 믿어져왔다. 인쇄술은 신과 인간, 남자와 여자, 과거와 현재의 관계를 변화시켰다. 의견의 대량유통, 관료제의 체계화, 지식의 축적을 가능케했다. 지적재산권 개념, 그리고 지적재산권 위반의 가능성을 낳았다. 하지만, 이런 광범위한 영향 때문에라도 인쇄술과 LLM의 비교는 불가피하다. UC버클리의 경제사 교수인 브랫포드 들롱은 이렇게 말한다. "정보 생산 비용이 엄청나게 낮아진다는 것만은 확실히 공통된 사실입니다."


인쇄된 책이 등장하게 되자 학자들이 과거에 가능했던 것보다 더 넓은 범위의 분야에 걸쳐 지식을 만날 수 있게 되었다. 주어진 엄청난 양의 지식으로 훈련을 받아가며 방대한 지식에서 많은 것들을 뽑아낼 수 있다는 점에서 LLM도 마찬가지다. 하지만, 우리가 책을 소유함으로써 얻는 것은 단지 지식만은 아니다.


구텐베르크의 인쇄기계가 작동하기 시작한지 100년이 좀 넘었을 때, 프랑스 귀족인 몽테뉴는 개인서재에 1500여권의 책을 모을 수 있었다. 이전 유럽 사람들에게는 상상도 못할 장서 규모였다. 이 개인 장서는 그에게 지식 외에 더 많은 것을 가져다 주었다. 그는 친구들을 얻었던 것이다. 그는 이렇게 말했다. "나는 우울한 생각에 사로잡힐 때면, 우울함을 벗어던지기 위해 내 책들에게 달려간다. 나는 곧 책 속에 빠져들고 내 맘에서 어두운 구름을 걷어낼 수 있게 된다."


책은 그에게 고스란히 '자기 자신'이 되는 길을 열어주었다. 이전 어느 누구도 이런 길을 몰랐다. 그는 책에 파묻힐 수 있었던 것이다. 그는 그의 <수상록> 서문에서 이렇게 경고한다. "독자 여러분, 이 책의 주제는 나 자신입니다." 인쇄술에 의해 책이 대량생산되자 책이 개인을 주제로 삼을 수 있게 된 것이다. 책의 생산비용이 낮아지자 오직 개인 자신에 대해 책을 쓰는 것도 가능하게 된 것이다. 즉, 바로 여러 책들을 읽으면서 만들어진 바로 당신 자신에 대해서 책을 쓸 수 있는 것이다. 이렇게 책들은 저자(author)를 만들어냈다.4


지식을 제시하는 방식으로서, LLM은 책의 실용적 측면과 개인적 측면을 더욱 강화할 것으로 보인다. 어떤 경우 두 측면을 완전히 없애버릴 것 같기도 하다. AI기술은 지식을 챗봇의 대화주제로 삼을 수도 있을 것이다. 문서를 직접 읽는 대신 엄청난 양의 문서로 훈련된 AI 챗봇에게 질문을 던지고는 문서들에 기반한 답변을 얻는다. 책 한 권 전체에 대해 이것저것 물을 수 있는데 무엇 하려고 힘들게 책장을 넘기겠는가?


세상 모두가 정교하게 만들어진 AI를 이용해 지식을 쉽게 얻고 싶어한다. 언론사인 블룸버그는 경제정보 AI인 블룸버그 GPT를 개발중이다. 아직 정교하진 않지만 코란 GPT와 성경 GPT도 나와있고, 패딩 점퍼를 입은5 교황 GPT도 머지 않아 나올 것이다. 그리고 일부 스타트업 기업들은 사용자가 하드디스크나 클라우드에 가지고 있는 모든 문서들을 이용해 사용자의 질문에 답변하는 서비스를 제공하고 있다. 많은 얼리어답터들은 벌써 AI챗봇을 대화 파트너로 사용하고 있다. "마치 유식한 동료와 계속 대화를 나누고 있는 느낌입니다." LLM 스타트업인 앤트로픽의 잭 클라크의 설명이다.


이런 동료같은 AI가 하나의 인격체로 느껴지는 것도 상상할 수 있다. 필요할 때 물으면 자상히 대답해주는 "삼촌 같은 튜터"가 아니라 시간이 흐름에 따라 나와 함께 자라나는 구체적인 인격체 같은 것도 상상할 수 있다. 어쩌면 사용자를 닮을 수도 있다. 말하자면 '내면의 목소리'를 담은 또 하나의 분신 같은 것이다. 또는 온라인상에 써놓거나 창조해놓은 것이 충분한 양이 되어 이것들로 훈련해 그 창작자를 꼭 닮게 될 수도 있다 (저작권 문제만 해결된다면). 호주의 머신러닝 연구소의 연구원들은 작곡가이자 음악가인 로리 앤더슨을 위해 그런 AI 어시스턴트의 초기 버전을 만들었다. 이 AI 어시스턴트는 로리 앤더슨과 그의 남편 고(故) 루 리드의 음악으로 훈련됐다.

당신은 없다

앤더슨은 이러한 시스템을 이용해 작업하지만 자신의 작고한 남편과 협업하는 것으로 생각하지는 않는다고 말한다. 하지만 어떤 사람들은 그런 환상에 쉽게 빠질 수도 있을 것이다. 만약 어떤 챗봇이 그 사용자의 '내면의 목소리'를 그대로 닮아가고 그 사용자가 사망한 후에도 그 챗봇을 통해 그 목소리가 남아 있다면, 그 목소리와 대화를 나누고 싶어하는 사람들이 분명 있을 것이다. 사람이 죽어도 그의 챗봇은 남겨질 것이다.


이러한 애플리케이션과 그것의 영향을 생각하다보면 프로이트가 '언캐니'6를 다룬 고전적 논문이 머리에 떠오른다. 프로이트는 이 논문의 출발점으로 '언캐니'한 느낌이 "분명히 생물체인데 정말 생명이 있을까라는 의심, 또는 반대로 분명히 무생물인데 생명이 있는 것이 아닐까라는 의심"에서 나온다는 생각이었다고 밝힌다. 이 의심은 LLM에 대해 많은 사람들이 똑같이 느끼는 의심이다.


AI 연구자들은 자신들이 만들어낸 것의 작동방식에 대해서는 설명할 수 있지만 그 AI 안에서 도대체 무엇이 일어나고 있는지는 말할 수 없다고 항상 느낀다. "왜 이것이 이렇게 작동하는지에 대한 '완벽한 이론적 이유'는 없다." 수학적 검색엔진인 울프럼 알파의 창립자인 컴퓨터과학자 스티븐 울프럼은 최근 자신이 개발한 AI의 작동방식을 설명하는 긴 블로그 게시글에서 이렇게 결론 내렸다.


기사 이미지


이것은 서로 연결되어 있지만 서로 배타적인 두 개의 걱정을 낳는다. AI가 과학자들이 아직 파악하지 못하고 있는 작동법을 가지고 있는 것 아니냐는 걱정과 AI가 지성을 갖고 있지도 않으면서 사회생활 속에서 사람으로 받아들여질 수도 있다는 걱정이다.


"이 LLM 모델은 단지 텍스트의 문자들 배치를 그대로 반영한 것에 불과하고 이를 이용해 더 많은 문장을 생산해내는 것입니다." 시애틀의 워싱턴대 교수인 에밀리 벤더의 말이다. 그는 LLM에 열광적 환상을 비판하는 논문인 "확률론 앵무새의 위험성"의 공동저자다. 그의 주장에 따르면, 이 AI는 지성이나 이해력이 전혀 없다. 실생활이나 인간적인 대화 경험이 전혀 없다보니 이 AI가 할 수 있는 것이라고는 훈련을 받으면서 들었던 것들을 앵무새처럼 흉내내는 것뿐이다. 이것은 엄청난 양의 문자를 통계적으로 처리하는데서 나온 능력으로서 종종 적절하고 가끔은 놀라움을 주는 언어 구사를 보인다. 그렇다고 생각을 하는 것은 아니다. 이 점은 벤더 박사처럼 언어학을 통해 AI 분야로 들어온 사람들이 자주 지적하는 점이다.


하지만 LLM 업계의 다른 사람들에게는 그렇게 쉽게 정리되지 않는다. 그들의 AI는 "단지 생각없이 재잘거리는 놈들"이 아니다. 알파벳(구글)에서 AI 장착 제품 개발팀을 이끄는 블레이즈 아구에라 이 아르카스의 말이다. 그는 AI가 인간의 의미 파악 능력과 별반 다르지 않은 속성을 가지고 있다고 생각한다. 문법적으로 애매하거나 농담으로 이해해야 하는 문장을 번역할 때 AI가 의미를 꽤 정확히 집어내는 능력을 보이는 것을 보면 그런 지성 비슷한 것이 있는 것이라고 말한다.


벤더 박사가 옳다고 해도 우리는 오직 인간만이 할 수 있는 것으로 생각해온 행위가 그렇게 인간만의 것은 아니라고 주장할 수도 있다. "겉보기엔 생명이 있는 것처럼 보이는 것이 사실은 생명이 없는 것일 수 있다"는 '언캐니'한 의심이 근거가 있다는 것이다.


사람처럼 느껴지는 LLM이 실제로는 계산이고 통계일 뿐이라는 점을 받아들이게 되면 인간이 인간 자신에 대해 생각하는 방식에 영향을 미칠 수도 있다. 프로이트는 자신이 코페르니쿠스와 다윈의 작업을 이어받는다고 생각했다. 코페르니쿠스는 인간을 우주의 중심에서 밀어냈고, 다윈은 인간이 동물들 중에서 특별한 존재이고 신의 사랑을 독차지하고 있다는 믿음을 부정하면서 인간을 세상의 중심에서 다시 한번 밀어냈다. 프로이트 관점에 따르면, 심리학의 공헌은 인간 각자의 '자아'(ego)를 향해 너(자아)는 사실 심지어 너희 집(정신) 주인도 못 된다는 점을 증명해 보이려 했다는 것이다. LLM을 끌어들여 이 주장을 더욱 진척시킬 수 있다. 프로이트 집의 적어도 한 쪽은 아무도 안 사는 "스마트 홈"이 된다. 전등은 자동으로 켜졌다 꺼졌다 한다. 스마트 온도조절기는 자동으로 창문을 열고 블라인드를 내리고 로봇청소기는 혼자 돌아다니며 청소를 한다. 주인은 전혀 필요없다.


이 모든 것이 '언캐니'하더라도 많은 사람들이 인간을 세상의 중심에서 밀어내는 이 마지막 공격을 쉽게 받아들일 것으로 생각한다면 오산이다. 일상생활을 살아가는 속에서 인간들은 코페르니쿠스, 다윈, 프로이트의 공격에 쉽게 항복하지 않았다. 사람들은 과학에 맞서 싸울 생각 같은 것은 전혀 없으면서도 여전히 신과 영혼의 존재, 그리고 인간의 특별함을 믿는다. 그들은 철학적 양심과 관련해서는 유사 인지의 세계에 쉽게 적응한다.


유아적인 애니미즘을 억압하려는 인간 마음의 노력 와중에 '언캐니'라는 느낌이 발생한다는 프로이트의 설명을 받아들일 필요도 없이, 사람들이 사방에 넘쳐나는 애니미즘적인 것들과 별 생각없이 함께 살아가는 것을 보면 대화형 유사 인간(AI)들로 가득한 세상도 놀라울 정도로 별 신경 안 쓰고 편안하게 받아들일 것임을 예상할 수 있다. 사람들은 동시에 생명이 없는 것도 생명체처럼 대할 수도 있다. 어떤 사람들은 한발 더 나가 이 '유사 인간'에게 프로이트의 눈에 '페티쉬'로 보일 정도로 심각한 정서적 집착을 보일 수도 있다. 오직 소수의 예민한 사람들만은 뒤에 남겨져 우리가 '생각'이라고 부르는 것이 그 다지 특별한 것이 아닐 수 있다는 말이 남긴 실존적(하지만 개인적) 심연을 물끄러미 응시하게 될 것이다.

뉴 골드 드림

만약 아구에라 이 아르카스 말이 옳다면, 그래서 과학적으로 보자면 분명히 무생물인 것이 뭔가 알 수 없는, 부분적, 새로운 방식으로 사실상 생명력을 가진 것과 마찬가지처럼 된다면 우린 무엇을 해야 하나? 만약 그것이 사실이라면 AI에게도 똑 같이 프로이트가 인간을 위해 했던 것을 해줘야 할 것이다. 즉, 의식이 모든 것을 설명하지 않음을 깨닫고 난 후 프로이트는 좋든 나쁘든 인간 행위를 추동하는 욕망의 원천을 다른 곳에서 찾았다. 지금은 프로이트의 설명을 받아들이는 사람이 별로 없다. 하지만, 사람이 무의식적으로 하는 행위에 나름의 이유가 있다는 아이디어는 이제는 자리를 잡았다. LLM이 의도를 파악하는 능력이나 행동의 자발성 비슷한 것을 가지는 것을 프로이트식의 무의식 개념으로 설명하는 것은 무리일 수 있다. 하지만, 최소한 AI의 표면 아래 보이지 않는 곳에 이해가 필요한 무엇인가가 있다는 관점은 꽤 타당할 수 있다.


벤더 박사와 그의 견해에 동의하는 사람들은 이러한 생각에 반대할 것이다. 하지만, 이러한 생각이 'AI 윤리' 같은 분야에서 유익한 행동으로 이어질 수 있음을 그들도 알게 될 것이다. 예컨대, AI가 말을 배우기 전의 초기 훈련단계에서 얻게 된 무의식적 편향들을 제거하는 일, 헛소리에서 모순들을 찾아내 고치는 것, 거친 욕망을 정상화하는 것 등 정신치료의 아이디어들이 '유사 인지'를 가진 AI의 도입을 다루는데 유용한 비유라는 것은 누구든 받아들일 수 있을 것 같다. 프로그래머가 부모이고 AI가 그들의 아이라는 비유도 좋다. AI를 잘 키운다는 것은 무엇일까? 어떤 양육은 금지되어야 하나? 자신들이 만든 AI가 저지른 일들에 대해 부모인 프로그래머는 어디까지 책임을 져야 하나?


인간의 욕망도 좀 조사해 볼 필요가 있다. 왜 많은 사람들은 LLM이 줄 수 있을지 모르는 정서적, 성적 친근감을 그렇게 욕망하게 될까? 왜 많은 영향력 있는 사람들이 종의 멸망을 얘기하는 진화론에 따라 인류도 자신들의 손이나 인류에서 진화한 종의 손에 의해 멸망을 맞게 되리라 생각하는 걸까? 그리고 인간을 뛰어넘는 초합리성을 활용해 경제를 살릴 뿐만 아니라 인류 역사를 더욱 발전시키겠다는 결의는 도대체 어디서 나오는 것일까?







1843년 창간돼 국제정세와 정치, 경제, 사회까지 폭넓게 다루고 있는 영국의 대표적인 주간지. 정통 자유주의 성향의 논평, 분석이 두드러지며 기사에 기자의 이름(바이라인)을 넣지 않는 독특한 전통을 가지고 있습니다. PADO가 가장 탐독하는 매거진이기도 합니다.
 
close
top