행위

"인공지능 분야의 고전 읽기"의 두 판 사이의 차이

red

(과제원고 : 아슈토시, 이만호, 임연)
(과제원고 : 아슈토시, 이만호, 임연)
131번째 줄: 131번째 줄:
 
----
 
----
 
======'''튜링테스트'''======
 
======'''튜링테스트'''======
---
+
----
 
======'''이미 테스트를 통과했다?'''======
 
======'''이미 테스트를 통과했다?'''======
---
+
----
 
======'''튜링 테스트에 대한 4 가지 반론'''======
 
======'''튜링 테스트에 대한 4 가지 반론'''======
---
+
----
 
#'''침팬지 반론'''
 
#'''침팬지 반론'''
 
#'''감각기관 반론'''
 
#'''감각기관 반론'''
141번째 줄: 141번째 줄:
 
#'''시뮬레이션 반론'''
 
#'''시뮬레이션 반론'''
 
======'''튜링테스트에 대한 평가'''======
 
======'''튜링테스트에 대한 평가'''======
---
+
----
 
======'''결론'''======
 
======'''결론'''======
---
+
----
  
  

2020년 4월 11일 (토) 20:22 판

〈인문학과 인공지능〉 강의 페이지로 돌아가기

앨런 튜링의 논문을 토대로 더글러스 호프스태터의 논문 읽기


요구사항
Quote-left.png 앨런 튜링의 「계산기계와 지능(1950)」의 내용을 토대로, 더글러스 호프스태터의 「인공지능:회고」의 내용을 분석 및 요약·정리할 것. 튜링의 「계산기계와 지능(1950)」은 〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕을, 호프스태터의 「인공지능:회고」는 〔더글라스 호프스태터 지음/박여성·안병서 옮김, 『괴델, 에셔, 바흐』, 까치, 2017, 812-869쪽.〕을 기본 원고로 할 것. Quote-right.png


과제원고 : 김웅기, 김태형, 장민주

인물 정보

①앨런 튜링(1912-1954)

앨런튜링.jpg
  • 영국 런던에서 태어난 앨런 튜링이 20세기 전반기에 이룬 업적은 오랫동안 세상에 알려지지 않았다. (국가적) 비밀이었거나 시대를 너무 앞서간 탓이었다. 1935년 20대 초반의 나이에 케임브리지대 펠로 연구원이 된 튜링은 이듬해 발표한 논문에서 현대 컴퓨터의 기원이 되는 ‘튜링 기계’라는 개념을 제안하였다. 당시 그 가치를 알아볼 수 있는 사람은 전문가 중에서도 극소수였다. 2차 세계대전 중에는 독일군의 암호인 에니그마를 깨는 데 큰 공헌을 한다. 이 과정에서 ‘튜링 기계’를 모델로 하는 세계 최초의 컴퓨터 콜로서스가 개발되기도 하였다. 하지만 전쟁 중의 모든 활동은 30여 년간 비밀에 부쳐져야 했다.
  • 가장 유명한 튜링의 업적이라면 인공지능의 개념과 구현할 방법을 확립한 논문 「계산 기계와 지능」(1950)이 손꼽힌다. 이 논문에서 그는 튜링 테스트와 머신 러닝이라는 참신한 아이디어를 제안하였고, 후대 컴퓨터 공학은 이를 토대로 오늘날 인공지능의 상당한 현실화에 이르렀다. 튜링은 이 논문에서 20세기 말이면 인공지능이라는 생각이 보편성을 얻으리라고 내다보았다.


②더글라스 호프스태터(1945~)

더글라스호프스태터.jpg
  • 뉴욕에서 출생한 호프스태더는 1961년 노벨 물리학상을 수상한 독일계 할아버지 로버트 호프스태더의 학문적 자질을 이어받아 일찍이 과학자의 길로 접어들어서 1965년 스탠퍼드 대학교를 졸업했고 1975년에는 오리건 대학교에서 물리학 박사학위를 받았다. 인디애나 대학교 컴퓨터 과학과의 조교수를 지냈으며, 미시간 대학교 심리학과에서는 인공지능 연구에 몰두했다. 독일 레겐스부르크 대학교, 미국 인디애나 대학교와 MIT 등 여러 대학교의 객원교수를 역임했다.
  • 현재는 미시간 대학교와 인디애나 대학교에서 인지과학 및 컴퓨터 과학과 교수로 재직 중이다. 또한 프린스턴 대학교와 하버드 대학교에서 과학철학, 비교문학, 심리학 분야의 객원교수로 활동하면서 르네상스적인 천재성을 유감없이 발휘하고 있다. 그는 전문가 경지의 음악적인 실력은 물론 독일어와 프랑스어, 이탈리아어, 스페인어, 네덜란드어, 러시아어, 스웨덴어를 구사하는 언어 천재이기도 하다. 과학계의 움베르토 에코라 불릴 수도 있을 것이다. 호프스태더는 「괴델, 에셔, 바흐」로 1980년 퓰리처 상 일반 논픽션 부문을 수상했고 같은 해에 미국 도서대상(American Book Awards)을 받았다.

튜링테스트의 핵심

튜링테스트(흉내게임, Imitation Game)는 영국의 수학자 앨런 튜링이 고안한 기계의 인공지능 능력 판별 시험의 일종이다. 이 테스트의 규칙은 우선, 각각의 분리된 공간에 질문자(성별 무관)와 실험대상자 X와 Y를 배치한다. 이때 X는 남자(A)이고 Y는 여자(B)라고 했을 때 질문자는 A와 B를 구분하기 위한 질문을 해야 한다. X는 질문자의 혼란을 야기하기 위해 답변해야 하고, Y는 질문자가 정답을 맞출 수 있도록 도와야 한다. 물론 Y는 자신이 B라고 단번에 이야기할 수 있지만, X가 그것은 거짓말이라고 말할 수도 있기 때문에 이와 같은 답변은 효과가 없는 것으로 간주한다. 질문자의 질문에 X와 Y는 음성변조, 문서 작성 등의 방법으로 답변할 수 있으며, 타자기로 답변을 하면 가장 좋다. 규칙이 완성되었으니 튜링은 이제 X자리에 기계를 둔다. 그리고 질문자가 X를 기계로 판별할 수 있는지에 대한 가정을 세운다. 만일 기계가 자신이 기계가 아니라는 결과를 질문자로부터 도출할 수 있다면 튜링은 그 기계는 ‘생각할 수 있는 기계’라고 본다. 이것이 바로 튜링테스트의 핵심이다.


튜링테스트는 우선 (디지털 컴퓨터처럼 프로그래밍 된)기계는 오류를 범할 수 없다는 인간의 보편적인 인식을 전제한다. 다시 말해서 기계는 인간과 다르게 어려운 연산 문제, 체스 게임 문제 등을 상식을 상회하는 수준의 빠른 속도로 풀 수 있다는 점을 역설적으로 활용하고 있다. 만일 기계가 연산 문제를 푸는데 시간이 오래 걸린다거나, 오류를 범한다면 질문자는 기계를 의심할 것이다. 하지만 기계가 오류를 가지는 것만으로는 인간과 동일하다고 볼 수도 없고 생각한다라고 이야기할 수도 없다. 프로그래머가 의도적으로 문제를 몇 번은 맞추고 몇 번은 틀리는 식으로 프로그램을 구성해서 기계를 만들었을 수도 있기 때문이다. 그리고 이렇게 프로그래밍이 되어 있다면, ‘초감각적 지각 논변’을 통해 튜링테스트의 허점을 간파할 수 있을지도 모른다. 초감각적 지각이란 투시능력, 텔레파시, 예지력, 염력 등을 일컫는 말인데 과학과 수학에서는 보편적으로 비과학적 논변이라 무시해도 될 법한 한데도 튜링이 이 문제에 꽤 진지하게 관심을 갖는다는 사실은 주목할 만하다.


우리는 가끔 사람들과 텔레파시를 주고받는다. 소위 ‘이심전심’이라고 하는데, 언어를 통해서 정보를 주고받는 지각 행위 없이도 상대방의 행위나 심리, 정보 등을 예측할 수 있다. 질문자가 “제 오른 손에 있는 카드가 무슨 패인가요?”라고 질문했을 때, 튜링은 인간이 텔레파시를 활용해 기계보다 더 많이 맞출 수 있다고 주장한다. 그 이유는 기계가 정답을 맞추기 위해 무작위 추출밖에 할 수 없기 때문이다. 하지만 이에 대해서도 튜링은 프로그램에 난수발생기를 삽입하면 기계가 확률 계산에서 예상되는 것보다 더 자주 정답을 맞출지도 모르고 그렇게 된다면 질문자는 누가 기계인지 예측할 수 없다고 말한다. 그런데 이러한 반론에 반론이 내포한 문제는 바로 기계가 항상 프로그래밍 된 상태로서만 인간과 비슷해진다는 점에 있다. 따라서 튜링은 ‘학습하는 기계’를 주장한다.


학습하는 기계

기계가 생각을 하기 위해서는 어떻게 해야 할까? 이 말인즉슨 ‘기계가 지능을 가질 수 있는가?’라는 질문과 일맥상통한다. 생각을 한다는 것은 사고방식을 갖춘다는 말이고, 그것은 곧 지능을 활용한 활동양식에 해당하는 것이기 때문이다. 그렇다면 지능이란 또 무엇일까? 듀이의 경험주의 이론을 따르면 지능이라고 하는 것은 경험에 의해 축적된 산물이라 할 수 있다. 다시 말해서 선험적으로 주어지는 지능 이외에 살아가면서 인간이 경험할 수 있는 것들을 토대로 지능이 형성될 수 있다는 것이다. 이러한 관점에서 ‘학습’의 개념은 새로운 경험을 위해 인간을 낯선 환경에 노출시키는 과정이자, 그 과정에서 경험된 지각을 바탕으로 인간의 행동양식이 변화하는 것의 결과라고 이해할 수 있다. 이것은 생존을 위한 ‘진화’와는 다른 방식이고 훈련과도 다른 방식이다. 앞선 방식들보다 경험을 토대로 어떤 문제를 판단했을 때 그 문제를 해결할 가능성은 훨씬 복잡하며 정답율도 낮다.


튜링은 기계에 이러한 경험주의 학습을 도입하고자 한 듯하다. 그는 인간이 가지고 있는 ‘지능’이라고 하는 것은 애초에 프로그래밍이 불가능하다는 결론을 내렸다. 왜냐하면 성장이 끝난 성인의 지능은 매우 복잡하고 방대하기 때문에 그 변수 하나하나를 모두 기계에 주입해야만 기계가 지능을 가질 수 있다는 결론이 서기 때문이다. 반면 성인보다는 한정적인 경험에 노출된 아동의 지능은 그 변수가 훨씬 적고 프로그래밍할 수 있는 가능성이 있어보였다. 따라서 튜링은 학습하는 기계를 만든다. 물론 아동은 눈, 코, 입은 물론 팔과 다리가 모두 있기 때문에 아동의 학습경험을 모두 기계에 적용할 수는 없다. 기계는 아동보다 훨씬 제약적인 환경에서 학습을 시작해야 한다. 따라서 ‘가르치는 과정’ 또한 제약적이며 대부분 지적활동만을 수행하도록 한다. 이렇게 만들어진 아동 기계는 우선 정서적인 소통을 모두 차단한 상태에서 ‘처벌’과 ‘보상’의 원리를 통해 일어난 사건의 확률을 조작해볼 수 있다. 하지만 이렇게 할 경우 아동 기계가 경험할 수 있는 학습의 정보의 양은 처벌과 보상의 총 횟수를 넘지 못한다. 그것은 훈련과 다를 바 없다. 따라서 다른 ‘비정서적’ 소통 수단이 필요한데, 이러한 일종의 언어체계를 아동 기계가 갖출 수만 있다면 처벌과 보상에 의한 학습 경험은 그 수가 확실히 줄 것이라고 말한다. 그리고 이외의 임의적인 결과를 도출하게 될 것이다.


아동 기계를 만드는 것에 있어서 논리체계를 어떻게 구축할 것인가에 대해서는 프로그래머의 관점에 따라서 달라질 수 있다. 하지만 핵심은 변하지 않는다. 그것은 바로 학습된 기계가 인간적 오류의 가능성을 꽤 자연스럽게 표현할 수 있어야 한다는 것이다. 튜링테스트에 참여하기 위해서 아동 기계는 학습과정에서 정답을 100%로 산출하지 않으며, 임의적 요소를 포함한 기계여야 한다. 이를 통해 알 수 있는 것은 튜링의 인공지능 개념이다. 그것은 아동 기계를 학습시킬 수 있다면 기계는 더이상 시키는 일만 정확하게 하는 것이 아니라는 점이다. 다시 말해 반복학습과 시행착오를 겪은 프로그램이 갖가지 명제와 논리를 활용해 임의적으로 한 가지 사건을 일으킬 수 있다. 그 사건은 예측할 수 없는 것이며, 심지어는 정확하지 않을 수도 있다는 것이다.


더글라스 호프스태터의 인공지능

튜링은 기계가 튜링테스트에 참여하기 위해서는 인간적 오류의 가능성, 즉 임의적인 판단에 의한 결과를 기계가 꽤 자연스럽게 연출할 수 있어야 한다고 주장했다. 하지만 상론한 특징으로 설계된 프로그램을 내장한 기계가 튜링테스트를 통과한다면 그것을 의심의 여지없이 지능을 가진 기계라고 말 할 수 있을까?


더글라스 호프스태터는 철학, 수학, 음악, 언어학, 물리학 등 다양한 접근 방식을 통해 튜링테스트에 참여하는 기계의 ‘지능’에 관해 더욱 폭넓게 접근하고 있다. 그는 우선 튜링이 고안해 낸 이 게임의 효용성과 더불어 이 게임을 반박하는 9가지 논변에 대한 튜링의 생각을 옹호하고 있다. 그런데 마지막 논변 ‘초감각 지각 논변’에 이르러서는 견해가 다르다고 밝힌다. 그 이유는 무엇일까?


우선 호프스태터는 초감각적 지각이 존재하지 않는다고 믿는다. 이 말을 반대로 하면 임의적인 예측이라 할지라도 모든 사건은 유기적으로 연결되어 있다는 것으로 해석할 수 있다. 예를 들어서 “오른 손에 쥔 카드는 무슨 패인가요?”라는 질문에 대한 답변에는 실험대상자의 사고방식이 유입된다. 이러한 사고방식은 정답을 말할 확률을 조작할 수 있는 변인에 속한다. 기계가 가장 먼저 ‘스페이스 킹’을 떠올렸다고 가정을 해보자. 그것은 기계의 저장장치 속에 저장된 카드의 종류 중 하나를 무작위로 선정한 것에 불과하다. 이렇게 여러 번 무작위 선정을 반복하다 보면 정답을 맞출 수도 있고 틀릴 수도 있다. 그것을 튜링은 튜링테스트에 참여할 수 있는 자격이 있는 것으로 보았다. 하지만 호프스태터는 그것을 초감각적 지각에 상응하는 비슷한 프로그래밍으로 해결하기 보다는 기계가 갖는 사고방식과 연결 지으려 한다. 따라서 튜링테스트의 방식과 규칙은 옹호하면서도 그것이 ‘기계는 생각할 수 있을까?’라는 질문에 합당한 테스트가 되기 위해서는 우선 기계가 가지는 사고방식부터 이해할 필요가 있었던 것이다.


튜링이 기계가 갖는 규칙 행동을 벗어나 작은 일탈을 일삼는 것으로서 인간적 오류의 가능성을 내포하는 것으로 기계의 지능을 초점했다면, 호프스태터는 그러한 사고방식 자체를 기계가 가질 수 있는가에 방점을 둔다. 우선 그는 인공지능의 역사를 간략하게 정리하면서 “인공지능 연구는 아직까지 이루어지지 않은 모든 것에 대한 연구이다”라는 테슬러의 정리를 인용한다. 이 말은 시사하는 바가 크다. 그 이유는 기계의 지능에 대한 탐구가 항상 인간의 지능에 대한 탐구를 전제할 수밖에 없다는 사실 때문이다. 따라서 다음과 같은 문제가 발생한다. 첫 번째, 인간에게 있어 지능의 정수란 무엇인가? 두 번째, 기계는 인간이 생각하는 지능의 정수를 자체적으로 사고할 수 있는가. 세 번째, 기계가 사고할 수 있다면 사고하고 있다는 사실을 기계가 알아차릴 수 있는가? 호프스태터는 인간이 나름대로 지능의 정수라고 생각하는 탐구 영역을 분류해 놓았다. 그리고 그 영역에서의 기계의 지적활동이 얼마큼의 성과를 보여주는가가 인공지능 연구의 토대가 되어왔다고 설명한다. 이 중에서 체스 게임, 하이쿠, SHRDLU를 예로 든 부분들을 살펴보면 기계가 ‘이해력’ 또는 ‘사고방식’을 가질 수 있는가에 대한 그의 견해를 파악할 수 있다.


체커프로그램과 하이쿠

2016년 세기의 이목을 끈 대결이 있었다. 바로 세계적인 바둑기사 이세돌과 바둑 인공지능 프로그램 알파고의 바둑 대결이 그것이다. 대국은 총 5회에 걸쳐 진행이 되었으며, 알파고가 이세돌에게 4승 1패로 승리를 거두었다. 주지하다시피 바둑은 체스보다 경우의 수가 훨씬 많은 게임이다. 흑돌과 백돌을 번갈아 놓으면서 상대방보다 빈 교차점을 둘러싸 집을 더 많이 만들면 이기는, 게임의 규칙은 간단하지만 변수가 ‘아주 많이’ 존재한다. 총 64칸의 체스판 위에서 기계가 인간을 이기기 위해서는 일어날 수 있는 변수를 모두 계산하여 상대방에게 유리한 변수를 제거하면서 말을 놓게 되면 언젠가는 이길 수 있다.[1] 하지만 바둑은 모든 변수를 계산한다는 것부터가 무리라고 할 수 있다. 그렇게 되면 룰에 따라 시간 초과로 페널티를 받고 쓸쓸히 퇴장할 것이다. 이에 따라서 많은 사람들이 바둑판에서는 기계가 인간을 이기지 못할 것이라고 생각했다. 하지만 2007년 ‘모고’의 승리, 2013년 ‘크레이지 스톤’의 승리, 그리고 2016년 ‘알파고’의 승리는 인간세계에 적잖은 충격을 주었다. 알파고는 몬테카를로 알고리즘에 더해서 딥러닝 알고리즘으로 사람처럼 스스로 바둑을 학습할 수 있다고 한다.[2] 이때 주목해야 할 단어는 바로 ‘스스로’와 ‘학습’이다.


이제 다시 호프스태터의 이야기로 돌아가 보자. 「인공지능 회고」(『괴델, 에셔, 바흐』, 1979)라는 논문이 쓰일 때만 하더라도 기계는 체스판 위에서 인간을 절대로 이길 수 없었다. 개개의 말들이 어디에 놓여야 하는지에 대한 지식보다는 판세를 읽을 수 있는 발견술적인 지식이 기계에는 없었기 때문이다. 이를 마련하기 위해서는 상당히 복잡하고 어려운 기술이 필요했다. 그것은 바로 예측을 통하여 얻어진 지식 자체를 단순해진 규칙으로 번역할 수 있는 프로그램을 개발하는 것이었다. 이런 게임에서의 판세를 판단할 수 있는 프로그램은 그 당시에 새뮤얼의 체커프로그램[3]이 유일했다고 전한다. 새뮤얼의 체커프로그램은 게임에서 판세를 평가할 때 정적인 방식과 동적인 방식을 함께 사용했다. 정적인 방식은 ‘예측하지 않는 것’으로 판세와 상관없이 규정할 수 있는 행마를 연산하는 것이고, 동적인 방식은 ‘예측하는 것’으로 앞으로 가능한 행마의 수형도를 그리는 것이었다. 이러한 두 가지 방식에 대해 프로그램은 동적인 방식으로 행마를 정하고 그 뒤의 행마는 정적인 방식을 취하게 했다. 이렇게 될 경우에 재귀순환적인 효과가 일어나 판세를 판단하는 데 이득을 준다는 것이다. 하지만 체커는 체스보다는 단순한 게임이었기에 체커프로그램을 체스에 응용한다는 것은 백만 배는 더 어려운 일이었다. 그럼에도 불구하고 여기서 호프스태터가 주목하는 것은 체커프로그램이 행마를 선택할 때 그것이 자기 직관을 어느 정도 표현했다는 사실이다. 즉 이 프로그램은 새뮤얼의 체커 실력을 재현한 것이 아니라, 자기 직관에 의해(예측을 통해) 판세를 판단해 행마를 결정하고, 이후 행마는 앞선 행마의 연관된(예측하지 않는) 정적인 판단으로 게임을 이어 간다는 것이다.


하지만 새뮤얼의 체커프로그램이 지능을 가졌다고 말하기에는 아직 이르다. 왜냐하면 체커에서 판세에 대한 판단을 직관적으로 할 수 있을지라도, 그것이 직관이라고 판단할 수 있는 직관, 다시 말해서 메타-직관을 발견하지는 못했기 때문이다. 하이쿠도 마찬가지다. 호프스태터는 튜링테스트를 위한 프로그램을 하나 만든다. 그 프로그램은 유머러스한 문장을 만들기 위해서 말도 안 되는 낱말들을 활용한다. 이 과정에서 몇 가지는 하이쿠의 형식을 띠는 것도 있다. 하지만 그는 이 프로그램이 곧 싫증이 났다. 그 이유는 프로그램이 작동하는 공간의 한계를 느꼈기 때문이다. 다시 말해 프로그램이 일정한 레퍼토리를 반복하고 있다는 느낌을 받은 것이다. 유머라고 하는 것은 신선하면서도 엉뚱한 발상이 교묘한 공감작용을 일으킬 때 성공할 수 있다. 하지만 엉뚱한 낱말들을 서로 연결 짓는다고 해서 그 프로그램이 유머러스한 기계가 되는 건 아니었던 것이다. 이 깨달음은 기계의 임의적인 행동 방식이 일정 시간 동안에는 새롭고 웃길지 몰라도 그것이 지속적으로 웃기기 위해서는 임의적인 행동을 수행하는 공간의 한계를 돌파할 수 있어야 한다는 것을 의미한다. 그것을 위해서는 기계가 ‘학습된’ 낱말을 임의적으로 배치하는 것보다도 ‘스스로’ 자신이 웃긴 말을 생산하고 있다는 사실 자체를 파악할 수 있어야 한다.


메타-사고

호프스태터는 지속적으로 ‘기계는 지능을 가질 수 있는가’라는 튜링의 질문을 자신만의 방식으로 풀어간다. 거기에는 한 가지 철학이 숨겨져 있다. 이 논문의 핵심은 아마도 <정리의 증명과 문제의 환원>이라는 파트 이하에 있을 것이 분명해 보인다. 그 이유는 다음과 같다. 우선 인공지능 연구 초기 단계에서는 간단한 ‘정리’를 증명하는 것을 목표로 프로그래밍을 했다. 하지만 시간이 흐르면서 기계가 인간과 비슷해지기 위해서는 문제 해결 능력이 있어야 한다는 사실을 파악하게 된다. 이 문제 해결 능력은 상당히 복잡한 층위의 지능이라 할 수 있다. 우선 문제 해결이 목표가 되면, 그 목표를 달성하기 위한 하위 목표가 생성된다. 그리고 그 하위 목표를 달성함으로써 궁극적인 목표에로의 거리를 줄여나가야 한다. 그러나 이 과정에서 목표 자체가 달성된다는 보장이 없기 때문에 나중에 가서는 기계가 난감해할지도 모른다. 호프스태터는 이러한 과정을 문제환원이라고 설명한다.


문제환원의 핵심은 <섄디와 뼈다귀>라는 일화를 통해 충분히 알 수 있다. 그 일화의 핵심은 다음에 있다. 개 한 마리가 있다. 이 녀석에게 뼈다귀를 보여주고는 담장 너머로 던져 버린다. 그랬을 때 녀석은 어떻게 행동할까?라는 질문이 바로 그것이다. 녀석은 곧장 담장 쪽으로 뛰어가서 짖을 수도 있고 담장을 돌아나가서 뼈다귀를 주워올 수도 있다. 이때 ‘짖는다’와 ‘돌아나가다’는 각각 ‘뼈다귀’라는 목표의 하위목표가 된다. 이것을 문제환원이라 할 수 있는데, 이때 호프스태터가 주목하는 것은 바로 문제 공간을 변경할 수 있는 지능이 녀석에게 있는가 하는 것이다. 다시 말해서 담장을 무시하면 뼈다귀와 개의 물리적 거리는 직선적이기 때문에 최소거리가 된다. 즉 물리적으로 목표에 가장 가까운 상태가 되는 것이다. 하지만 담장이 있다면 돌아나가야 해서 일시적으로는 궁극적 목표와 거리가 멀어진다. 이것을 개는 이해할 수 있는가? 이제 이 문제를 기계에 도입해보자. 기계는 단순한 과제가 주어졌을 때 그 문제를 해결하는 것을 아주 당연하고 쉬운 일이라고 이해할 것이다. 하지만 그것이 기계가 지능을 가졌는가에 대한 답은 절대로 아니다. 그것은 어떤 문제를 해결할 때, 기계가 한 발자국 물러서서 어떤 문제가 진행되고 있는가를 판단할 수 있는 지능을 가지는 것과는 완전히 다른 문제이기 때문이다.


따라서 호프스태터는 문제환원 방식을 내재한 프로그램을 생성하는 것에서 더 나아가 이러한 알고리즘 자체를 문제로 파악하는 능력을 프로그래밍할 수 있다면 기계가 비로소 지능을 가졌다는 사실을 인정할 수 있을 것이라 말한다. 그것은 말벌이 복잡하고 체계화된 작업을 성공적으로 수행하는 것과 별개로 그 스스로가 그 과정을 이해하고 있는 것인지, 아니면 본능적으로 수행하는 것인지의 차이를 보면 알 수 있다. 다시 말해서 말벌이 스스로를 말벌이라고 객관화하여 인식할 수 있는가 하는 문제가 지능에 있어서 가장 중요한 요소가 되는 것이다. 이것을 메타-사고라고 할 수 있다. 이러한 메타-사고는 인공지능 발전에 기여하는 수많은 프로그램들에 근본적인 질문을 던진다. 만일 음악을 작곡한 기계가 있다고 치자. 그 음악의 창작자는 프로그래머인가 프로그램인가? 엄밀히 따지자면 작곡에 필요한 몇 가지 음계 지식을 삽입한 프로그램을 프로그래머가 만들었으니, 이를 가지고 프로그램이 임의적으로 조합해 작곡한 음악은 두 창작자를 가지게 되는 셈이다. 메타-창작자(프로그래머)와 창작자(프로그램)가 바로 그것이다. 이 사고방식의 괴리를 얼마나 줄일 수 있는가. 더 나아가 그것을 기계의 사고방식으로 전유할 수 있는가? 다시 말해 기계가 ‘스스로’ 음악을 만들었다고 판단할 수 있는 알고리즘을 확보했는가, 이것이 「인공지능 회고」가 갖는 핵심적 질문이라 할 수 있다.


자연지능과 인공지능의 층위

이러한 관점에서 호프스태터는 다시 한 번 이 인공지능을 미래의 분야로 유보시킨다. 문제를 스스로 이해할 수 있는 능력을 가진 프로그램이 인공지능 기계의 전제가 된다고 했을 때, 그 가능성을 그는 위노그래드의 프로그램 SHRDLU[4]에서 찾고 있다. 이 프로그램은 PLANNER라고 하는 인공지능 프로그램을 통해서 기계언어가 자연언어를 구사하기 위한 통사구조를 어떻게 탐색할 수 있는지에 대한 알고리즘을 설명한다. 예를 들어 “피라미드를 받치고 있는 붉은 주사위”라는 문장을 완성하기 위해서 기계가 스스로 그 답을 찾기 위해서는 끊임없는 문제에 봉착해야 한다. 이 프로그램은 블록세계를 기반으로 하고 있는데, 무수한 블록들이 프로그램에 저장되어 있고 그것을 지식으로 활용한다. 이때 PLANNER 인공지능 프로그램을 통해서 나무 블록을 찾게 하고 그것이 빨간 색인지 묻고, 주사위 모양인지 묻고, 이제 피라미드 블록을 찾고, 주사위 위에 피라미드가 있는지 찾는다면 문장이 완성될 수 있다. 각각의 문제들은 서로 연관되어 있으면서 독립적이기 때문에 문제를 해결하지 못하면 계속 처음으로 돌아간다. 이러한 구조는 기계언어가 형성되는 과정 자체가 자연언어를 단순히 번역하는 것이 아니라 통사론과 의미론을 함께 활용함으로써 문장을 찾아간다는 점에서 의의가 있다.


호프스태터는 이런 종류의 결정이 꾸준히 요구되어야 한다고 이야기 한다. 그것은 바로 지능의 다채로운 층위와 성질의 복잡성을 인공지능 기계가 자연지능의 수준에 이르기까지 문제환원의 방식을 확장해야 가능하다. 하지만 자연지능의 범주가 어디까지인지는 아무도 모른다. 만일 인간 z가 하나의 자연지능 체계 z1을 갖는다고 한다면 z가 발전하는 만큼 z1의 층위는 다양해지고 확장될 것이다. 따라서 개별 인간과 개별 자연지능의 전체 집합으로서의 자연지능 Z는 결국 무한하다는 결론에 이르게 될 것이다. 이러한 관점이라면 기계가 어떤 층위에서 어떤 부분과제들을 해결해야 하는지는 파악하는 것이 어렵다.


다시 현재로 돌아와 ‘스스로’ 바둑을 ‘학습’하고 있는 알파고를 바라보자. 현재 알파고는 더욱 강력해졌다고 한다. 그것은 어떤 관점에서는 문제를 해결하기 위해 끊임없이 지능을 사용하고 있는 것이라 볼 수 있다. 이 기계의 단순한 목표가 바둑에서 승리하는 것이라면, 무조건 승리할 수 있는 공식을 찾아내 프로그래밍하면 그만일 것이다. 하지만 왜 스스로 문제를 파악하고, 반복학습과 훈련을 통해서 승리하기 위한 수를 두는 예측률을 높이는 방식으로 프로그래밍 되었을까? 여기에는 기계가 어떤 층위의 지능까지 활용할 수 있는지에 대한 인간의 욕망이 내재돼 있는 탓도 있지만, 한편으로는 ‘기계는 생각할 수 있을까?’에 대한 질문의 유효성을 보여주는 것이기도 하다. 튜링의 이러한 질문은 호프스태터에 와서 ‘어떤 지능을 가질 것인가?’로 확장되었다. 오늘날 4차 산업혁명과 함께 인공지능 개념이 대중화되기 시작했다. 이제 그것은 어쩌면 인간의 지능을 뛰어넘을지도 모른다는 공상 또는 두려움에서 벗어나, ‘기계는 하나의 개별적 주체로서 지능을 가질 것인가?’에 대한 문제로 변화하고 있는지도 모른다.


이런 의미에서 호프스태터의 기계에 대한 지능이론이 메타-사고의 가능성 논의를 기반으로 하고 있다는 사실은 발칙한 것이 아닐까 하는 생각까지 든다. 그것은 튜링이 이야기한 양파껍질 이야기를 다시금 환기하도록 만드는 것이기도 하다. 헤겔은 ‘무언가’에 대해 시간이나 장소 등의 여러 변화에도 불구하고 ‘무언가’ 속에서 변하지 않고 존재하는 ‘무엇’을 가리켜 자기동일성이라고 부른다. 이에 따르면 ‘인간이란 무엇인가?’라는 질문 속에는 ‘인간’이라는 자기동일성이 내재한다. 그렇다면 만일 ‘인공지능이란 무엇인가?’라는 질문을 인간이 아닌 기계가 스스로 할 수 있는 날이 온다면? 앨런 튜링과 호프스태터는 그것이 결코 불가능한 일이라고는 말하지 않을 것이다.


기본자료

  • Douglas Hofstadter, 박여성 · 안병서 역, 「인공지능 : 회고」, 『괴델, 에셔, 바흐 : 영원한 황금 노끈』, 까치, 2017.
  • Alan Mathison Turing, 노승영 역, 「계산 기계와 지능(1950년)」, 『지능에 관하여』, 에이치비프레스, 2019.

각주

  1. 1997년, 컴퓨터가 마침내 체스에서 사람을 꺾었다. IBM 슈퍼컴퓨터에서 동작하는 체스 프로그램인 ‘딥 블루’가 당시 세계 체스 챔피언인 개리 카스파로프를 물리쳤다.
  2. 기계가 스스로 학습하기 위해선 ‘인공신경망’을 가져야 하는데, 알파고는 ‘정책망’과 ‘가치망’이라는 2개의 기본 신경망으로 구성됐다. 정책망이 다음 번 돌을 놓을 여러 경우의 수를 제시하면, 가치망은 그중 가장 적합한 한 가지 예측치를 제시하는 역할을 한다. 구글 연구진은 방대한 바둑 데이터베이스를 활용해 알파고의 정책망에 3천만 개 위치 정보를 입력하는 반복 훈련을 시킴으로써 다음 수 예측률을 크게 높였다. 이 같은 지도학습을 끝낸 후에는 실전을 통해 습득한 데이터를 스스로 가다듬는 강화학습으로 정책망을 더욱 똑똑하게 만든다. 가치망 역시 딥러닝의 강화학습으로 바둑 게임 전체를 읽는 능력을 기를 수 있었다.(이성규, 「이세돌의 상대, 알파고가 바둑을 터득한 비결」, 『KISTI의 과학향기 칼럼』, 2016.)
  3. 체커 게임(영국에서는 드래프트(draught))은 고대 이집트의 게임인 ‘알케르케’에서 유래되었다. 가장 오래된 것으로 알려진 알케르케 보드는 기원전 1400년경에 만들어진 것이다. 이 게임은 각자 12개의 말을 가로, 세로 5칸씩인 정방형의 보드에 놓고 시작했다. 그리고 한 칸은 게임을 시작할 수 있도록 비워 두었다. 체커 게임에서는 상대의 말을 뛰어 넘으면 그 말을 모두 잡는 것이며 여러 번 뛸 수도 있다.(베탄 패트릭, 존 톰슨, 이루리 역, 『1%를 위한 상식백과』, 2014. 300쪽.)
  4. 영문자에서 가장 자주 쓰이는 12개 알파벳으로 만든 ETAOIN SHRDLU에서 따온 것이다. 사전적 의미로는 컴퓨터가 자연 언어로 된 명령을 이해하고 그 명령에 적절하게 응답할 수 있도록 하는 시스템이라 규정되어 있으며 한국에서는 '슈드루'라고 읽는다.

영상자료

튜링테스트와 앨런 튜링의 생애의 연관성을 짧고 굵게 정리한 강연


앨런 튜링의 논문을 토대로 잭 코플랜드의 논문 읽기


요구사항
Quote-left.png 앨런 튜링의 「계산기계와 지능(1950)」의 내용을 토대로, 잭 코플랜드의 「기계는 생각할 수 있을까」의 내용을 분석 및 요약·정리할 것. 튜링의 「계산기계와 지능(1950)」은 〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕을, 코플랜드의 「기계는 생각할 수 있을까」는 〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 87-134쪽.〕을 기본 원고로 할 것. Quote-right.png


과제원고 : 아슈토시, 이만호, 임연
생각에서 의식이 필수적인가?

튜링테스트

이미 테스트를 통과했다?

튜링 테스트에 대한 4 가지 반론

  1. 침팬지 반론
  2. 감각기관 반론
  3. 블랙박스 반론
  4. 시뮬레이션 반론
튜링테스트에 대한 평가

결론





튜링 테스트에 대한 존 설의 입장을 기초로 잭 코플랜드와 레이 커즈와일의 사유 읽기


요구사항
Quote-left.png 앨런 튜링의 「계산기계와 지능(1950)」의 내용을 토대로, 잭 코플랜드의 「흥미로운 사례, 중국어 방」의 내용 및 레이 커즈와일의 「존 설의 비판에 대한 반론」을 비교·정리할 것. 튜링의 「계산기계와 지능(1950)」은 〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕을, 코플랜드의 「흥미로운 사례, 중국어 방」은 〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕을, 레이 커즈와일의 「존 설의 비판에 대한 반론」은 〔레이 커즈와일 지음/장시형·김명남 옮김, 『특이점이 온다』, 김영사, 2007, 638-654쪽.〕을 기본 원고로 할 것. Quote-right.png


과제원고 : 길혜빈, 윤석만, 임예찬


생각이란 무엇인가

①'생각'의 정의

영화 ‘트랜센던스’에서 천재 과학자 윌(조니 뎁)은 인류가 수만 년에 걸쳐 이룩한 지적 능력을 뛰어넘어 자의식까지 갖춘 슈퍼컴퓨터를 개발한다. 그러나 기술발전으로 인류가 멸망할 것이라고 믿는 테러 단체의 공격을 받아 뇌사 상태에 빠진다. 절망에 빠진 윌의 연인 에블린(레베카 홀)은 실험용 원숭이의 뇌를 스캔해 컴퓨터에 업로드 했던 사실을 떠올린다. 윌을 잊을 수 없던 그녀는 연인의 뇌를 컴퓨터에 업로드 한다. 윌의 의식이 컴퓨터를 통해 부활한 것이다. 에블린이 윌의 뇌를 스캔한 컴퓨터는 육체만 없을 뿐 생전의 윌과 똑같은 기억과 감정, 성향을 갖고 있다. 그런데 여기서 윌은 인간일까, 컴퓨터일까? 비록 육체는 없어도 정신이 있으니 사람이 맞는가?


테슬라·스페이스엑스의 설립자인 일론 머스크는 트랜센던스를 현실화 할 수 있는 기술을 연구하고 있다. 인간과 컴퓨터를 결합한 ‘뉴럴 레이스(Neural Lace)’ 기술이다. 실제로 그는 2016년 ‘뉴럴 링크(Neural Link)’라는 기업을 만들어 뇌에 컴퓨터 칩을 삽입하는 기술을 연구 중이다. 이 칩은 클라우드 컴퓨터와 연결돼 뇌의 정보를 공유할 계획이다. 만일 ‘뉴럴 링크’의 프로젝트가 성공한다면 트랜센던스는 현실이 될 수 있다.


전통적으로 우리는 인간과 인간이 아닌 것을 구분할 때 생각하는 능력을 떠올린다. 생각은 종종 정신, 또는 영혼으로도 읽힌다. 이때 육신은 정신을 담는 그릇이기 때문에 인간의 본질은 고매한 정신에 있다고 한다. 세계의 많은 종교에서도 신체보다 정신을 더 중요하게 생각한다.


그러나 과학에서 영혼, 정신, 생각은 우리가 생각하는 형이상학적 무언가가 아니다. 뇌 안에서 일어나는 세포들 간의 무수한 화학작용일 뿐이다. 인간의 생각, 그리고 그와 대비되는 기계의 생각이 어떻게 다른지, 혹은 같은지 비교하기 위해선 생각이라는 현상이 뇌에서 어떻게 일어나는지 먼저 살펴봐야 한다. 그런 후에야 앨런 튜링존 설, 나아가 레이 커즈와일잭 코플랜드의 이론을 이해할 수 있을 것이다.


②뇌의 원리

진화 초기 단계의 생물에겐 뇌가 필요 없었다. 세포의 종류와 형태가 다양해지면서 복잡한 생명체가 나타났고, 이 생명체는 각 세포 간 복잡한 소통을 하기 위해 여러 화학 신호를 보내기 시작했다. 커뮤니케이션이 복잡해지면서 어떤 세포는 메시지를 전달하는 기능을 맡게 됐다. 이들이 발전한 것이 신경세포, 즉 뉴런이다. 뉴런은 어느 한 부분에 있지 않고 신체의 거의 모든 곳에 퍼져 있다. 물론 해파리처럼 근육과 뼈가 없이 뉴런과 같은 신경 체계로만 사는 동물도 있다. 하지만 대부분의 동물은 뉴런이 발달해 있고, 뉴런이 외부 감각을 받아들이는 핵심 기관인 눈과 입, 코 등의 주변에 몰리면서 뇌로 발전했다.


인간의 뇌는 약 800~1000억개의 뉴런으로 이뤄져 있다. 수천조개에 달하는 시냅스라 불리는 신경 연결망을 통해 뉴런 간에 신호를 주고받는다. 즉, 뇌에서는 어느 한순간도 쉬지 않고 이런 화학적 신호들이 오간다. 특히 사람에게는 특히 성상세포란 것이 있어 이것이 고차원적 신호를 담당하는 것으로 알려져 있다. 이런 모든 신호가 조합돼 전체를 이룬 것이 바로 생각이다. 외부 감각에 대한 느낌, 과거에 대한 기억, 어떤 현상에 대한 감정 등이 모두 생각의 틀 안에 있다.


뇌는 크게 세 부분으로 나뉜다. 파충류의 뇌로 불리는 후뇌, 포유류의 뇌로 불리는 중뇌, 영장류의 뇌로 불리는 대뇌다. 후뇌는 본능과 연결된다. 심장이 뛰거나 호흡하는 것처럼 생존과 직결된 영역을 담당한다. 또 죽음과 같은 위협을 감지하고 반응하는 것도 후뇌다. 후뇌는 인류가 포유류로 진화하기 전부터 존재한 아주 오래된 기능을 담당한다. 중뇌는 뇌의 중앙에 위치하는데 주로 감각 정보를 인지한다. 눈과 귀, 입, 손 등을 통해 전해지는 오감을 인지하고 여기에 적절한 행동(근육, 뼈의 움직임 등)을 조절한다. 생존 또는 사냥을 위해 시각, 후각, 청각이 발달해야 했던 포유류는 중뇌가 발달돼 있다. 실제로 진화 초기의 포유류는 후각을 담당하는 뇌의 부분이 발달해 있다고 한다.


뇌의 가장 바깥쪽을 차지하면서 크기도 제일 큰 대뇌는 우리가 보통 생각하는 뇌다. 좌뇌와 우뇌로 나뉜다. 보통 좌뇌는 논리적 사고를, 우뇌는 공감각과 감성 등을 담당하는 것으로 알려져 있다. 대뇌 중 앞쪽에 위치한 부분을 전두엽이라고 하는데, 여기선 주로 언어와 사회성 등을 다룬다. 네안데르탈인과 호모 사피엔스의 가장 큰 차이점은 전두엽에 있다고 한다. 즉, 사피엔스는 언어와 사회성이 뛰어났기 때문에 3만 5000년 전 유럽에서 네안데르탈인과의 싸움에서 이겼다.


그렇다면 우리는 어떻게 생각을 하는가. 과거에 대한 기억, 어떤 사람에 대한 감정 등은 무슨 원리로 저장되는가. 인간의 기억과 감정은 뉴런 하나하나에 저장되는 것이 아니라 뉴런들이 주고받는 패턴 속에 저장된다. 휴대폰 잠금을 풀 때 점 하나하나가 중요한 게 아니라 각 점을 잇는 패턴이 중요하듯 말이다. 그러므로 각각의 기억과 감정은 손가락의 지문처럼 고유의 패턴을 갖고 있다.


1950년 앨런 튜링 이후 인공지능 연구는 한 동안 정체돼 있었다. 1970년대에 미국의 로봇 공학자 한스 모라벡은 ‘모라벡(Moravec)의 역설’을 제기했다. 그는 “인간에게 쉬운 일이 기계엔 어렵고, 기계에 쉬운 일은 인간이 잘 못 한다”고 했다. 예를 들어 자연스럽게 걷고 움직이는 것은 어린아이도 쉽게 할 수 있지만, 로봇에겐 매우 힘들다. 체스와 바둑에선 기계가 이미 인간을 뛰어넘었지만 갓난아이조차 가진 신체적 능력을 기계는 재현하기 어렵다.


이는 생각이라고 부를만한 것에 대해서도 마찬가지다. 컴퓨터는 매우 복잡한 수식을 계산하고 방대한 양의 데이터를 다루는 것은 쉽지만 얼굴을 인식하긴 어렵다. 인공지능이 개와 고양이를 구분하기 시작한 것도 비교적 최근의 일이다. 즉, 인공지능이 지금과 같이 급속도로 발전한 것은 최근의 일이다. 수십년 간 정체됐던 인공지능 기술이 갑자기 발전하게 된 핵심 원인 중 하나는 인공신경망 기술이다. 인간의 뇌처럼 신경망을 연결하는 컴퓨터를 만든 것이다. 인간이 일일이 아날로그 언어를 디지털 언어로 변환해 정보를 입력하는 대신 스스로 학습하도록 했다. 바로 ‘머신 러닝’이다.


놀라운 것은 ‘머신 러닝’의 개념을 처음 제안한 사람이 앨런 튜링이라는 점이다. 1950년에 쓴 「계산기계와 지능」이란 논문에서 ‘아동기계’라는 이름으로 학습하는 컴퓨터를 고안했다. 이제 앨런 튜링의 생각을 살펴보자.



앨런 튜링의 문제제기 「계산기계와 지능」

①흉내게임과 아동기계

튜링의 논문을 요약하면 인간을 흉내낼 수 있는 컴퓨터가 ‘흉내게임’을 통과하면 생각하는 능력을 갖고 있다고 봐야한다는 것이다. 특히 이 컴퓨터는 처음부터 인간 성인과 같은 생각 능력을 갖추기 어려우므로, 어린이 수준의 능력을 가진 ‘아동기계’를 만들어 스스로 학습할 수 있도록 하자는 것이 튜링의 결론이다. 그의 논문은 ‘기계가 생각할 수 있을까’란 첫 문장으로 시작한다. ‘흉내게임’에는 남자, 여자, 질문자 3명이 참가한다. 방식은 간단하다. 질문자는 각각 분리된 공간에 있는 남자와 여자에게 말을 걸어 답변을 듣는 과정에서 누가 남자이고, 여자인지 밝혀내는 것이다.[1]


기계 입장에서 최선의 전략은 최대한 인간처럼 그럴 듯하게 보이려고 노력하는 것이다. 예를 들어 매우 어려운 산식을 문제로 내면, 원래 자신의 능력대로 너무 빨리 답변해선 안 된다. 그런 경우 기계라고 들통 날 것이기 때문이다. 또 “당신은 기계인가”라는 질문에 “당연히 아니다”와 같은 거짓말도 가능하다. 즉, 튜링은 자신이 처음 제기한 질문 ‘기계가 생각할 수 있을까’를 ‘흉내게임을 잘 할 수 있는 상상 가능한 디지털 컴퓨터가 있을까’로 바꿨다. 뒤에서 자세히 살펴보겠지만 이에 대해 잭 코플랜드는 “튜링의 관점이란 ‘컴퓨터가 생각할 수 있는가’ 하는 다소 모호한 철학적 질문을 그저 단순하게 ‘컴퓨터가 튜링 테스트를 통과할 수 있는가’로 정확하고 과학적인 질문으로 대체한 것”이라고 요약한다.[2]


튜링은 논문의 결론에서 생각하는 기계가 성인의 마음을 흉내내는 과정에서 어떤 과정이 그 마음에 이르게 했는지를 다음과 같이 요약했다. ①출생시 마음의 초기 상태 ②마음이 받은 교육 ③(교육이 아닌) 마음이 겪은 경험. 처음부터 성인의 마음보다는 차라리 아동의 마음을 흉내내는 프로그램을 만들고 적절한 교육의 과정 거쳐 성인의 뇌를 얻자고 주장한다.


그 이유는 아동의 뇌가 성인의 뇌에 비해 빈 공책처럼 메커니즘은 별로 없고 여백이 많기 때문이다. 메커니즘이 적으면 쉽게 프로그래밍할 수 있고, 학습의 과정을 거쳐 복잡한 사고를 구현할 수 있게 된다. 튜링은 1950년에 쓴 이 논문에서 “20세기 말이면 언어의 용법과 식자의 여론이 달라져 기계가 생각한다는 말에 거부감이 없어질 것”이라고 예측했고 이는 현실이 됐다.


②생각을 언어로 측정하는 이유

튜링의 이야기를 마무리 짓기 전에 우리는 한 가지 중요한 사실을 짚고 넘어갈 필요가 있다. 튜링 테스트의 요점은 기계와 대화해보고 그 기계가 사람과 별 다른 차이가 없다면 생각하는 능력을 갖춘 것으로 봐도 된다는 것이다. 즉, 인간과 비슷한 언어능력을 갖고 있으면 생각하는 존재로 봐도 무방하다는 이야기다. 여기서 가장 중요한 전제는 ‘생각=언어능력’이라는 것이다. 이 명제가 참이 아니면 튜링테스트의 결과는 무용하다. 그렇다면 생각이 곧 언어능력인 이유는 무엇인지 따져봐야 한다.


인간의 머릿속에 일어나는 생각이라는 과정은 크게 2가지로 이뤄진다. 첫째는 감각을 통한 것이다. 듣고 보고 맡고 느끼는 것인데, 그 중에서도 가장 기본은 시각이다. 퇴근 후 저녁으로 무엇을 먹을까라는 생각을 한다고 치자. 매콤한 김치찌개를 먹을 수도 있고 깔끔한 샐러드를 택할 수도 있다. 머릿속의 생각은 김치찌개와 샐러드의 이미지, 맵거나 달콤한 소스의 향 등이다. 이처럼 단순한 생각은 시각을 중심으로 청각, 후각 등의 감각이 더해져 이뤄진다.


그런데 이번엔 다음 주에 어떤 보고서를 쓸까 하는 생각을 한다고 치자. 물론 하얀 종이와 컴퓨터 자판이 떠오를 수 있지만, 주된 생각은 언어를 매개로 하게 된다. 이미지와 동영상, 나아가 냄새와 촉각 등의 역할은 크게 줄어든다. 언어가 있어야 개념을 정의할 수 있고, 개념이 밑바탕 돼야 논리와 추론이 가능하다. 인간만이 할 수 있는 고차원적인 사고의 본질은 언어라는 것이다. 20세기의 철학자들이 인간 사고의 본질을 탐구하면서 언어 분석에 집중했던 이유도 그 때문이다.


이처럼 언어가 달라지면 생각도 달라진다. 예를 들어 영어권에 있는 사람과 한국어 문화권에 있는 사람은 기본적으로 생각의 틀이 다르다. 대표적인 게 높임말·낮춤말이다. 한국어는 말 자체로 위계서열이 나뉜다. 높임말을 쓰는 사람과 낮춤말을 쓰는 사람에 누구냐에 따라 권력구조가 형성된다. 그러나 영어는 여기서 자유롭다. 어린 소년과 나이 든 할아버지가 대화를 한다고 치자. 이들은 서로 이름을 부르며 대화하고, 서로를 친구라 부르기도 한다. 우리처럼 말을 통해 위계구조가 생기고, 관계가 수직적으로 결정되지 않는다. 최근 여러 기업들이 임직원 간에 영어 이름을 부르고 서로 존댓말을 쓰는 것도 그런 이유에서다.


말의 어순도 생각에 영향을 미친다. 예를 들어 우리말은 ‘나는 너를 사랑해(주어 목적어 동사)’지만 영어는 ‘I love you(주어 동사 목적어)’다. 우리말은 나의 감정 뿐 아니라 너와의 ‘관계’를, 영어는 너를 이야기하기에 앞서 나의 감정을 우선시 한다. 영어권 사람들이 자신의 생각을 솔직하게 표현하고 감정을 나타내는데 익숙한 이유도 이런 영향이 크다고 볼 수 있다. 이처럼 언어가 생각의 전부라고 볼 순 없어도 언어가 생각의 상당 부분인 것은 분명하다. 그런 이유에서 마르틴 하이데거는 “언어가 존재의 집”이라 했고, 루드비히 비트겐슈타인은 “내가 아는 언어의 한계가 내가 사는 세상의 한계”라고 했다.



존 설의 ‘중국어 방’

미국의 철학자 존 설은 「마음, 뇌 그리고 과학」에서 ‘중국어 방’이라는 논증을 통해 생각하는 기계는 말이 안 된다고 일축했다. 튜링의 주장을 정면 반박한 것이다. 「존 설의 비판에 대한 반론」, 「흥미로운 사례, 중국어 방」에서 제시한 레이 커즈와일과 잭 코플랜드의 생각을 읽기에 앞서 존 설의 주장이 무엇인지부터 살펴보자.[3]


중국어 방이라는 곳에는 1명의 사람이 들어 있고 밖에서는 타이핑된 질문지를 구멍으로 집어넣은 후 답변이 나올 때까지 기다린다. 이때 질문과 답은 모두 중국어다. 다만 그 안에 있는 사람은 중국어를 전혀 할 줄 모른다. 그러나 일종의 코드북, 또는 지침서를 통해 질문에 맞는 답변을 짜맞춰 결과물을 내놓는다. 밖에서 보기에 중국어 방에서 나온 결과물은 지능적인 것이라고 볼 수 있다. 중국어로 물었는데 중국으로 답변이 나왔으니 ‘중국어 방’은 중국어를 할 줄 아는구나 하고 생각할 수 있다. 그러나 방 안에 있는 사람은 중국어를 전혀 할 줄 모르고, 글자 역시 구불구불한 그림과 패턴으로만 인식할 뿐이다. 그에게 입출력은 무의미한 기호인 것이다.


존 설은 중국어 방을 컴퓨터로 가정한다. 방 안의 사람이 중국어 질문과 답변은 완벽히 완료했다 하더라도 사실은 중국어를 모르는 것처럼, 중국어로 이야기할 수 있는 컴퓨터가 있다고 해서 그것이 중국어를 이해한다고 볼 수는 없다는 이야기다. 단지 기호를 조작하는 것만으로 언어를 이해하고 생각을 한다고 보면 안 된다는 뜻이다. 설의 이 논증은 큰 파장을 일으켰다. 인공지능 연구자, 또는 인공지능에 관심이 많은 이들은 설의 논증을 ‘바보 같다’고 평가했지만, 그 외의 사람들 중엔 설득력 있다고 느끼는 이들이 많았다. 직관적으로 이해하기엔 그다지 틀린 말이 없어 보이기 때문이다. 그러나 ‘중국어 방’ 논증은 논리적으로 모순된 부분이 많다. 이와 관련해 커즈와일과 코플랜드의 사유를 살펴보자.




‘존 설에 대한 반론’ ① 레이 커즈와일 「존 설의 비판에 대한 반론」

커즈와일은 설의 중국어 방 논증에 대해 ‘동어반복에 불과하다’고 일축한다.[4] 그러면서 “광합성의 결과로 나오는 산소를 탐지하듯 다른 개체의 주관성도 탐지할 수 있으리라 기대한다”는 것은 말이 안 된다고 한다. 즉 “설은 뇌 과정의 핵심을 파악하지 못했고, 뇌를 모방하는 비생물학적 과정들의 핵심도 파악하지 못했다”는 것이다. 커즈와일의 설명에 따르면 생물학적이든 비생물학적이든 인간 언어를 제대로 이해하지 못하는 개체는 유능한 심문자의 추궁에 금방 정체가 탄로난다. 그러므로 사람처럼 대답을 잘 할 수 있는 프로그램이라면 인간의 뇌만큼 복잡해야한다.


중국어 방 전체는 중국어를 이해한다고 볼 수 있지만, 각각의 세부 요소들에 이해력이 담겨 있진 않다. 이는 사람이 한국어나 중국어, 영어를 쓴다고 해서 각각의 뉴런들이 그 언어를 이해하지 못하는 것과 같다. 커즈와일은 “영어에 대한 나의 이해는 신경전달물질의 강도나 시냅스의 활약, 뉴런 간의 연결 등이 취하는 광범위한 패턴에 있다”고 설명한다. 그러므로 “이런 패턴 인식 시스템에 사용되는 기법들은 생물학적 과정을 역분석해 비생물학적 개체에도 옮겨 심을 수” 있다. 인간의 뇌를 따라한 컴퓨터 프로그램을 만들어 실제 생각하는 인공지능을 개발할 수 있다는 이야기다. 앞서 살펴본 것처럼 인공신경망을 사용한 컴퓨터가 대표적인 예다.


커즈와일은 또 중국어 방 안에 있는 사람은 사실 아무런 의미가 없다고 말한다. 그 사람은 기계적으로 컴퓨터에 입력하고, 출력을 전달할 뿐이다. (코드북을 찾아 질문에 대한 답변을 내놓을 뿐이다) 다르게 말하면 프로그램에 정해진 규칙을 반복적으로 따를 뿐이다. 커즈와일에게 중국어 방 논증에 사용된 사람, 방 등은 꼭 필요한 요소가 아니다. 오직 의미있는 한 가지 유일한 요소는 질문에 대한 답변을 내놓는 컴퓨터(코드북)이다.


이 때 이를 해낼 수 있는 컴퓨터는 ‘완벽한 모방’ 능력을 갖추고 있으므로 중국어를 이해한다고 봐야 한다는 게 커즈와일의 요지다. 이를 해낼 수 있는 컴퓨터는 인간의 깊이와 복잡성을 갖추고 있다고 봐야 한다. 이는 사람도 마찬가지다. 앞서 커즈와일이 “영어에 대한 나의 이해는 신경전달물질의 강도나 시냅스의 활약, 뉴런 간의 연결 등이 취하는 광범위한 패턴에 있다”고 말한 것처럼 설의 논리대로면 인간의 뇌 역시 이해력이 없다는 결론에 도달한다. 뉴런과 시냅스는 그저 기호를 다를 뿐이고 그 어디에도 이들 각자가 중국어를 이해한다고 볼 수 있는 증거는 없기 때문이다.


이에 대해 설은 다음과 같은 반박을 내놓는다. “진짜 사람의 뇌는 일련의 특정 신경생물학적 과정들을 통해 의식을 일으킨다. 의식이란 소화, 젖 분비, 광합성, 유사 분열처럼 생물학적 과정임을 인정하는 것이다. 이런 생물학적 과정을 가능케 하는 생물학 원리를 찾듯, 의식을 가능케 하는 생물학 원리를 찾는 게 옳다.”


커즈와일 역시 재반박을 하는데 요약하면 “이런 놀라운 견해에 대한 근거는 전혀 내놓지 않는다”는 것이다. 즉, 주장만 있고 이를 뒷받침할 수 있는 논증을 하지 않았다는 이야기다. 생물이 이산화탄소를 배출하는 것은 객관적 측정이 가능하지만, 어떤 개체가 의식이 있는지는 객관적 측정이 불가능하다. 오직 추론적 논증으로만 가능하다는 게 커즈와일의 논지다. 그러면서 커즈와일은 ‘생물학적 뉴런도 기계나 마찬가지'라고 말한 설의 논리를 토대로 뇌 역시 하나의 컴퓨터와 같다고 결론 내린다. 다만 지금의 컴퓨터는 인간 뇌보다 훨씬 못 미치는 존재라고 단서를 단다. 그러나 이게 끝은 아니다. 수십 년 안에 인간과 컴퓨터의 역전이 벌어질 것이라고 예측한다. 바로 특이점이다.



‘존 설에 대한 반론’ ② 잭 코플랜드 「흥미로운 사례, 중국어 방」

존 설의 중국어 방에 대한 잭 코플랜드의 반론 역시 커즈와일의 지적처럼 날카롭다.[5] 철학자이자 논리학자답게 코플랜드는 설의 주장을 먼저 구문론과 의미론으로 요약한다. 그러면서 설 주장의 핵심은 구문론의 숙달만으로는 의미론을 익히기 미흡하다는 것이라고 압축한다. 구문론은 기호조작을 수행하기 위한 몇 개의 규칙을 완전히 익히는 것이고, 의미론은 기호가 진정 의미하는 바를 이해하는 것이다. 구문에 대한 지식 자체만으로는 의미에 대한 지식에 이해하지 못한다는 뜻이다. 그러면서 아랍어에 문장 앞에 Hal을 붙이면 의문문이 되고, 문장의 술어 앞에 laysa를 붙이면 부정문이 되는 사례를 예로 들었다. 문장의 뜻을 이해하지 못해도 의문문과 부정문을 만들 수 있는 것처럼 구문론만으로는 의미론을 충족시킬 수 없다.


이에 대한 코플랜드의 첫 번째 반박은 ‘시스템 반론’이다. 이는 커즈와일의 생각과 유사하다. “방에 있는 사람은 중국어를 이해하지 못해도 그 사람이 포함된 전체 시스템은 중국어를 이해한다”는 것이다. 이는 커즈와일이 인간의 경우 각각의 뉴런과 시냅스가 중국어를 이해하지 못해도 인간은 중국어를 이해한다고 예시를 든 것과 같다.


코플랜드의 두 번째 반론은 시스템 반론에 대한 설의 반박을 먼저 설명한다. 즉, 설은 시스템 반론이 그 시스템이 중국어를 이해한다는 가설을 별도로 논증하지 않고 직관적인 주장만 함으로써 논점을 회피하려 한다고 말한다. 이에 대해 코플랜드는 논점을 회피한다는 설의 지적에는 동의한다. 그러면서 그의 두 번째 반론을 시작한다. 핵심은 “설의 결론이 전제로부터 도출되지 않는다”는 것이다.


코플랜드에 따르면 방 안에 있는 사람이 중국어를 이해하지 못한다는 전제로부터 이 사람을 구성요소로 하는 시스템이 중국어를 이해할 수 없다고 결론내리는 과정이 타당하지 않다. 즉, 전제와 결론 사이에 논리적 연결 고리가 없다는 뜻이다. 쉽게 말하면 중국어 방이라는 시스템이 중국어를 이해하지 못하는 것이라면 그 시스템 자제를 살펴보고 분석해야지, 단지 그 안에 든 사람이 중국어를 이해하지 못하므로 그 시스템 전체가 중국어를 모른다고 결론짓는 추론 방식이 틀렸다는 이야기다. 이는 다음에 설명할 세 번째 반론과 연결된다.


세 번째 반론은 다음과 같은 명제에 대한 부정이다. 설의 중국어 방이 참이려면 ‘어떤 사람이 X를 할 수 없으면, 그 사람의 어느 부분도 X를 할 수 없다’는 전제가 있어야 한다. 이에 대해 코플랜드는 이 전제가 참이라고 여길만한 근거가 전혀 없다고 주장한다.


네 번째 반론은 ‘단순한 기호 조작이 이해를 만들어낼 수 없다’는 설의 주장이 증명되지 않았다는 것이다. 그러나 이 부분에 대해선 코플랜드조차 “내가 이 주장으르 정면으로 겨루고 있지 않은 건 사실이다, 그러나 설의 주장은 마치 누군가에게 10달러를 빌려서 그 사람에게 빚진 10달러를 갚는 것과 같다”고 말한다. 올바른 논증이 생략됐다는 뜻으로 해석된다.



결론

커즈와일과 코플랜드 모두 설의 ‘중국어 방’을 신랄하게 비판했다. 인공신경망을 가진 오늘날의 컴퓨터가 뇌를 모방해 만들어졌다는 측면에서, 뇌 역시 컴퓨터처럼 뉴런과 시냅스 등의 화학작용을 한다는 관점에서, ‘중국어 방’ 논증은 오늘날 큰 설득력을 잃었다. 아마도 설은 기계와는 차별화 된 인간 고유의 무엇을 지키려 했던 것 같다. 이런 그의 관점은 꼭 틀린 것만은 아니다. 인간에게는 기계가 할 수 있는 생각 말고도 또 다른 차원의 생각이 있기 때문이다. 예를 들어 프로이트가 말한 자아와 초자아의 구분 같은 것들 말이다.


여기서는 코플랜드가 쓴 또 다른 글인 「기계는 생각할 수 있을까」의 내용을 중심으로 인간의 사고와 의식 등을 살펴보는 것으로 논의를 끝맺고자 한다. 코플랜드는 “사고와 의식이 항상 함께 가는 것은 아니다”고 말한다. 즉, “우리의 정신 속에서 벌어지는 일들 중 많은 것을 의식하지 못한다고 말한 프로이트처럼 ”우리의 많은 생각과 행동 중에는 ‘의식하고’ 하는 것들도 있고 ‘무의식적’으로 하는 것들도 있다.


특히 뇌의 여러 부분 중 후뇌와 중뇌에서 일어나는 일들과 상당 부분의 정신작용은 “우리가 알아차리지 못한다”는 것이 코플랜드의 설명이다. 그러므로 “인간의 중요한 정신적 활동, 말을 이해하거나 외부 세계를 지각하는 것 등은 비의식적으로 수행될 수 있다”는 논지다. 그렇기 때문에 “튜링테스트를 통과한 컴퓨터를 생각하는 존재라고 부르는 것을 보류한다면 이는 그저 생각한다는 단어를 인간과 우리의 생물학적 친척만 독점하는 것과 마찬가지”라고 볼 수 있다. 이는 “탄소로 구성된 존재보다 실리콘으로 구성된 존재에게 더 많이 붙는 노골적 편견”인 것이다.


결과적으로 기계든 인간이든 모든 사고가 의식적으로만 이뤄지는 것은 아니다. 좀 더 질문을 쪼개보면 기계가 일반 사고와는 다른 의식 능력이 있는지는 지금껏 살펴본 논의보다 더 복잡한 논쟁이 필요하다. 다만 우리가 알 수 있는 것은, 영화 HER에 나오는 것처럼 거의 모든 경우의 수에 대비할 만큼 복잡한 알고리즘을 가진 인공지능은 사람처럼 ‘보통의’ 생각을 한다고 볼 수 있다는 점이다. 커즈와일이 말하는 2045년의 특이점이 어느 정도 수준에 있을 지는 모르겠지만.



주석

  1. 출처: 「계산기계와 지능(1950)」〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕
  2. 출처: 「기계는 생각할 수 있을까」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 87-134쪽.〕
  3. 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕
  4. 출처: 「존 설의 비판에 대한 반론」은 〔레이 커즈와일 지음/장시형·김명남 옮김, 『특이점이 온다』, 김영사, 2007, 638-654쪽.〕
  5. 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕