행위

인공지능 분야의 고전 읽기

red

〈인문학과 인공지능〉 강의 페이지로 돌아가기

앨런 튜링의 논문을 토대로 더글러스 호프스태터의 논문 읽기


요구사항
Quote-left.png 앨런 튜링의 「계산기계와 지능(1950)」의 내용을 토대로, 더글러스 호프스태터의 「인공지능:회고」의 내용을 분석 및 요약·정리할 것. 튜링의 「계산기계와 지능(1950)」은 〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕을, 호프스태터의 「인공지능:회고」는 〔더글라스 호프스태터 지음/박여성·안병서 옮김, 『괴델, 에셔, 바흐』, 까치, 2017, 812-869쪽.〕을 기본 원고로 할 것. Quote-right.png


과제원고 : 김웅기, 김태형, 장민주

인물 정보

①앨런 튜링(1912-1954)

앨런튜링.jpg
  • 영국 런던에서 태어난 앨런 튜링이 20세기 전반기에 이룬 업적은 오랫동안 세상에 알려지지 않았다. (국가적) 비밀이었거나 시대를 너무 앞서간 탓이었다. 1935년 20대 초반의 나이에 케임브리지대 펠로 연구원이 된 튜링은 이듬해 발표한 논문에서 현대 컴퓨터의 기원이 되는 ‘튜링 기계’라는 개념을 제안하였다. 당시 그 가치를 알아볼 수 있는 사람은 전문가 중에서도 극소수였다. 2차 세계대전 중에는 독일군의 암호인 에니그마를 깨는 데 큰 공헌을 한다. 이 과정에서 ‘튜링 기계’를 모델로 하는 세계 최초의 컴퓨터 콜로서스가 개발되기도 하였다. 하지만 전쟁 중의 모든 활동은 30여 년간 비밀에 부쳐져야 했다.
  • 가장 유명한 튜링의 업적이라면 인공지능의 개념과 구현할 방법을 확립한 논문 「계산 기계와 지능」(1950)이 손꼽힌다. 이 논문에서 그는 튜링 테스트와 머신 러닝이라는 참신한 아이디어를 제안하였고, 후대 컴퓨터 공학은 이를 토대로 오늘날 인공지능의 상당한 현실화에 이르렀다. 튜링은 이 논문에서 20세기 말이면 인공지능이라는 생각이 보편성을 얻으리라고 내다보았다.


②더글라스 호프스태터(1945~)

더글라스호프스태터.jpg
  • 뉴욕에서 출생한 호프스태더는 1961년 노벨 물리학상을 수상한 독일계 할아버지 로버트 호프스태더의 학문적 자질을 이어받아 일찍이 과학자의 길로 접어들어서 1965년 스탠퍼드 대학교를 졸업했고 1975년에는 오리건 대학교에서 물리학 박사학위를 받았다. 인디애나 대학교 컴퓨터 과학과의 조교수를 지냈으며, 미시간 대학교 심리학과에서는 인공지능 연구에 몰두했다. 독일 레겐스부르크 대학교, 미국 인디애나 대학교와 MIT 등 여러 대학교의 객원교수를 역임했다.
  • 현재는 미시간 대학교와 인디애나 대학교에서 인지과학 및 컴퓨터 과학과 교수로 재직 중이다. 또한 프린스턴 대학교와 하버드 대학교에서 과학철학, 비교문학, 심리학 분야의 객원교수로 활동하면서 르네상스적인 천재성을 유감없이 발휘하고 있다. 그는 전문가 경지의 음악적인 실력은 물론 독일어와 프랑스어, 이탈리아어, 스페인어, 네덜란드어, 러시아어, 스웨덴어를 구사하는 언어 천재이기도 하다. 과학계의 움베르토 에코라 불릴 수도 있을 것이다. 호프스태더는 「괴델, 에셔, 바흐」로 1980년 퓰리처 상 일반 논픽션 부문을 수상했고 같은 해에 미국 도서대상(American Book Awards)을 받았다.

튜링테스트의 핵심

튜링테스트(흉내게임, Imitation Game)는 영국의 수학자 앨런 튜링이 고안한 기계의 인공지능 능력 판별 시험의 일종이다. 이 테스트의 규칙은 우선, 각각의 분리된 공간에 질문자(성별 무관)와 실험대상자 X와 Y를 배치한다. 이때 X는 남자(A)이고 Y는 여자(B)라고 했을 때 질문자는 A와 B를 구분하기 위한 질문을 해야 한다. X는 질문자의 혼란을 야기하기 위해 답변해야 하고, Y는 질문자가 정답을 맞출 수 있도록 도와야 한다. 물론 Y는 자신이 B라고 단번에 이야기할 수 있지만, X가 그것은 거짓말이라고 말할 수도 있기 때문에 이와 같은 답변은 효과가 없는 것으로 간주한다. 질문자의 질문에 X와 Y는 음성변조, 문서 작성 등의 방법으로 답변할 수 있으며, 타자기로 답변을 하면 가장 좋다. 규칙이 완성되었으니 튜링은 이제 X자리에 기계를 둔다. 그리고 질문자가 X를 기계로 판별할 수 있는지에 대한 가정을 세운다. 만일 기계가 자신이 기계가 아니라는 결과를 질문자로부터 도출할 수 있다면 튜링은 그 기계는 ‘생각할 수 있는 기계’라고 본다. 이것이 바로 튜링테스트의 핵심이다.


튜링테스트는 우선 (디지털 컴퓨터처럼 프로그래밍 된)기계는 오류를 범할 수 없다는 인간의 보편적인 인식을 전제한다. 다시 말해서 기계는 인간과 다르게 어려운 연산 문제, 체스 게임 문제 등을 상식을 상회하는 수준의 빠른 속도로 풀 수 있다는 점을 역설적으로 활용하고 있다. 만일 기계가 연산 문제를 푸는데 시간이 오래 걸린다거나, 오류를 범한다면 질문자는 기계를 의심할 것이다. 하지만 기계가 오류를 가지는 것만으로는 인간과 동일하다고 볼 수도 없고 생각한다라고 이야기할 수도 없다. 프로그래머가 의도적으로 문제를 몇 번은 맞추고 몇 번은 틀리는 식으로 프로그램을 구성해서 기계를 만들었을 수도 있기 때문이다. 그리고 이렇게 프로그래밍이 되어 있다면, ‘초감각적 지각 논변’을 통해 튜링테스트의 허점을 간파할 수 있을지도 모른다. 초감각적 지각이란 투시능력, 텔레파시, 예지력, 염력 등을 일컫는 말인데 과학과 수학에서는 보편적으로 비과학적 논변이라 무시해도 될 법한 한데도 튜링이 이 문제에 꽤 진지하게 관심을 갖는다는 사실은 주목할 만하다.


우리는 가끔 사람들과 텔레파시를 주고받는다. 소위 ‘이심전심’이라고 하는데, 언어를 통해서 정보를 주고받는 지각 행위 없이도 상대방의 행위나 심리, 정보 등을 예측할 수 있다. 질문자가 “제 오른 손에 있는 카드가 무슨 패인가요?”라고 질문했을 때, 튜링은 인간이 텔레파시를 활용해 기계보다 더 많이 맞출 수 있다고 주장한다. 그 이유는 기계가 정답을 맞추기 위해 무작위 추출밖에 할 수 없기 때문이다. 하지만 이에 대해서도 튜링은 프로그램에 난수발생기를 삽입하면 기계가 확률 계산에서 예상되는 것보다 더 자주 정답을 맞출지도 모르고 그렇게 된다면 질문자는 누가 기계인지 예측할 수 없다고 말한다. 그런데 이러한 반론에 반론이 내포한 문제는 바로 기계가 항상 프로그래밍 된 상태로서만 인간과 비슷해진다는 점에 있다. 따라서 튜링은 ‘학습하는 기계’를 주장한다.


학습하는 기계

기계가 생각을 하기 위해서는 어떻게 해야 할까? 이 말인즉슨 ‘기계가 지능을 가질 수 있는가?’라는 질문과 일맥상통한다. 생각을 한다는 것은 사고방식을 갖춘다는 말이고, 그것은 곧 지능을 활용한 활동양식에 해당하는 것이기 때문이다. 그렇다면 지능이란 또 무엇일까? 듀이의 경험주의 이론을 따르면 지능이라고 하는 것은 경험에 의해 축적된 산물이라 할 수 있다. 다시 말해서 선험적으로 주어지는 지능 이외에 살아가면서 인간이 경험할 수 있는 것들을 토대로 지능이 형성될 수 있다는 것이다. 이러한 관점에서 ‘학습’의 개념은 새로운 경험을 위해 인간을 낯선 환경에 노출시키는 과정이자, 그 과정에서 경험된 지각을 바탕으로 인간의 행동양식이 변화하는 것의 결과라고 이해할 수 있다. 이것은 생존을 위한 ‘진화’와는 다른 방식이고 훈련과도 다른 방식이다. 앞선 방식들보다 경험을 토대로 어떤 문제를 판단했을 때 그 문제를 해결할 가능성은 훨씬 복잡하며 정답율도 낮다.


튜링은 기계에 이러한 경험주의 학습을 도입하고자 한 듯하다. 그는 인간이 가지고 있는 ‘지능’이라고 하는 것은 애초에 프로그래밍이 불가능하다는 결론을 내렸다. 왜냐하면 성장이 끝난 성인의 지능은 매우 복잡하고 방대하기 때문에 그 변수 하나하나를 모두 기계에 주입해야만 기계가 지능을 가질 수 있다는 결론이 서기 때문이다. 반면 성인보다는 한정적인 경험에 노출된 아동의 지능은 그 변수가 훨씬 적고 프로그래밍할 수 있는 가능성이 있어보였다. 따라서 튜링은 학습하는 기계를 만든다. 물론 아동은 눈, 코, 입은 물론 팔과 다리가 모두 있기 때문에 아동의 학습경험을 모두 기계에 적용할 수는 없다. 기계는 아동보다 훨씬 제약적인 환경에서 학습을 시작해야 한다. 따라서 ‘가르치는 과정’ 또한 제약적이며 대부분 지적활동만을 수행하도록 한다. 이렇게 만들어진 아동 기계는 우선 정서적인 소통을 모두 차단한 상태에서 ‘처벌’과 ‘보상’의 원리를 통해 일어난 사건의 확률을 조작해볼 수 있다. 하지만 이렇게 할 경우 아동 기계가 경험할 수 있는 학습의 정보의 양은 처벌과 보상의 총 횟수를 넘지 못한다. 그것은 훈련과 다를 바 없다. 따라서 다른 ‘비정서적’ 소통 수단이 필요한데, 이러한 일종의 언어체계를 아동 기계가 갖출 수만 있다면 처벌과 보상에 의한 학습 경험은 그 수가 확실히 줄 것이라고 말한다. 그리고 이외의 임의적인 결과를 도출하게 될 것이다.


아동 기계를 만드는 것에 있어서 논리체계를 어떻게 구축할 것인가에 대해서는 프로그래머의 관점에 따라서 달라질 수 있다. 하지만 핵심은 변하지 않는다. 그것은 바로 학습된 기계가 인간적 오류의 가능성을 꽤 자연스럽게 표현할 수 있어야 한다는 것이다. 튜링테스트에 참여하기 위해서 아동 기계는 학습과정에서 정답을 100%로 산출하지 않으며, 임의적 요소를 포함한 기계여야 한다. 이를 통해 알 수 있는 것은 튜링의 인공지능 개념이다. 그것은 아동 기계를 학습시킬 수 있다면 기계는 더이상 시키는 일만 정확하게 하는 것이 아니라는 점이다. 다시 말해 반복학습과 시행착오를 겪은 프로그램이 갖가지 명제와 논리를 활용해 임의적으로 한 가지 사건을 일으킬 수 있다. 그 사건은 예측할 수 없는 것이며, 심지어는 정확하지 않을 수도 있다는 것이다.


더글라스 호프스태터의 인공지능

튜링은 기계가 튜링테스트에 참여하기 위해서는 인간적 오류의 가능성, 즉 임의적인 판단에 의한 결과를 기계가 꽤 자연스럽게 연출할 수 있어야 한다고 주장했다. 하지만 상론한 특징으로 설계된 프로그램을 내장한 기계가 튜링테스트를 통과한다면 그것을 의심의 여지없이 지능을 가진 기계라고 말 할 수 있을까?


더글라스 호프스태터는 철학, 수학, 음악, 언어학, 물리학 등 다양한 접근 방식을 통해 튜링테스트에 참여하는 기계의 ‘지능’에 관해 더욱 폭넓게 접근하고 있다. 그는 우선 튜링이 고안해 낸 이 게임의 효용성과 더불어 이 게임을 반박하는 9가지 논변에 대한 튜링의 생각을 옹호하고 있다. 그런데 마지막 논변 ‘초감각 지각 논변’에 이르러서는 견해가 다르다고 밝힌다. 그 이유는 무엇일까?


우선 호프스태터는 초감각적 지각이 존재하지 않는다고 믿는다. 이 말을 반대로 하면 임의적인 예측이라 할지라도 모든 사건은 유기적으로 연결되어 있다는 것으로 해석할 수 있다. 예를 들어서 “오른 손에 쥔 카드는 무슨 패인가요?”라는 질문에 대한 답변에는 실험대상자의 사고방식이 유입된다. 이러한 사고방식은 정답을 말할 확률을 조작할 수 있는 변인에 속한다. 기계가 가장 먼저 ‘스페이스 킹’을 떠올렸다고 가정을 해보자. 그것은 기계의 저장장치 속에 저장된 카드의 종류 중 하나를 무작위로 선정한 것에 불과하다. 이렇게 여러 번 무작위 선정을 반복하다 보면 정답을 맞출 수도 있고 틀릴 수도 있다. 그것을 튜링은 튜링테스트에 참여할 수 있는 자격이 있는 것으로 보았다. 하지만 호프스태터는 그것을 초감각적 지각에 상응하는 비슷한 프로그래밍으로 해결하기 보다는 기계가 갖는 사고방식과 연결 지으려 한다. 따라서 튜링테스트의 방식과 규칙은 옹호하면서도 그것이 ‘기계는 생각할 수 있을까?’라는 질문에 합당한 테스트가 되기 위해서는 우선 기계가 가지는 사고방식부터 이해할 필요가 있었던 것이다.


튜링이 기계가 갖는 규칙 행동을 벗어나 작은 일탈을 일삼는 것으로서 인간적 오류의 가능성을 내포하는 것으로 기계의 지능을 초점했다면, 호프스태터는 그러한 사고방식 자체를 기계가 가질 수 있는가에 방점을 둔다. 우선 그는 인공지능의 역사를 간략하게 정리하면서 “인공지능 연구는 아직까지 이루어지지 않은 모든 것에 대한 연구이다”라는 테슬러의 정리를 인용한다. 이 말은 시사하는 바가 크다. 그 이유는 기계의 지능에 대한 탐구가 항상 인간의 지능에 대한 탐구를 전제할 수밖에 없다는 사실 때문이다. 따라서 다음과 같은 문제가 발생한다. 첫 번째, 인간에게 있어 지능의 정수란 무엇인가? 두 번째, 기계는 인간이 생각하는 지능의 정수를 자체적으로 사고할 수 있는가. 세 번째, 기계가 사고할 수 있다면 사고하고 있다는 사실을 기계가 알아차릴 수 있는가? 호프스태터는 인간이 나름대로 지능의 정수라고 생각하는 탐구 영역을 분류해 놓았다. 그리고 그 영역에서의 기계의 지적활동이 얼마큼의 성과를 보여주는가가 인공지능 연구의 토대가 되어왔다고 설명한다. 이 중에서 체스 게임, 하이쿠, SHRDLU를 예로 든 부분들을 살펴보면 기계가 ‘이해력’ 또는 ‘사고방식’을 가질 수 있는가에 대한 그의 견해를 파악할 수 있다.


체커프로그램과 하이쿠

2016년 세기의 이목을 끈 대결이 있었다. 바로 세계적인 바둑기사 이세돌과 바둑 인공지능 프로그램 알파고의 바둑 대결이 그것이다. 대국은 총 5회에 걸쳐 진행이 되었으며, 알파고가 이세돌에게 4승 1패로 승리를 거두었다. 주지하다시피 바둑은 체스보다 경우의 수가 훨씬 많은 게임이다. 흑돌과 백돌을 번갈아 놓으면서 상대방보다 빈 교차점을 둘러싸 집을 더 많이 만들면 이기는, 게임의 규칙은 간단하지만 변수가 ‘아주 많이’ 존재한다. 총 64칸의 체스판 위에서 기계가 인간을 이기기 위해서는 일어날 수 있는 변수를 모두 계산하여 상대방에게 유리한 변수를 제거하면서 말을 놓게 되면 언젠가는 이길 수 있다.[1] 하지만 바둑은 모든 변수를 계산한다는 것부터가 무리라고 할 수 있다. 그렇게 되면 룰에 따라 시간 초과로 페널티를 받고 쓸쓸히 퇴장할 것이다. 이에 따라서 많은 사람들이 바둑판에서는 기계가 인간을 이기지 못할 것이라고 생각했다. 하지만 2007년 ‘모고’의 승리, 2013년 ‘크레이지 스톤’의 승리, 그리고 2016년 ‘알파고’의 승리는 인간세계에 적잖은 충격을 주었다. 알파고는 몬테카를로 알고리즘에 더해서 딥러닝 알고리즘으로 사람처럼 스스로 바둑을 학습할 수 있다고 한다.[2] 이때 주목해야 할 단어는 바로 ‘스스로’와 ‘학습’이다.


이제 다시 호프스태터의 이야기로 돌아가 보자. 「인공지능 회고」(『괴델, 에셔, 바흐』, 1979)라는 논문이 쓰일 때만 하더라도 기계는 체스판 위에서 인간을 절대로 이길 수 없었다. 개개의 말들이 어디에 놓여야 하는지에 대한 지식보다는 판세를 읽을 수 있는 발견술적인 지식이 기계에는 없었기 때문이다. 이를 마련하기 위해서는 상당히 복잡하고 어려운 기술이 필요했다. 그것은 바로 예측을 통하여 얻어진 지식 자체를 단순해진 규칙으로 번역할 수 있는 프로그램을 개발하는 것이었다. 이런 게임에서의 판세를 판단할 수 있는 프로그램은 그 당시에 새뮤얼의 체커프로그램[3]이 유일했다고 전한다. 새뮤얼의 체커프로그램은 게임에서 판세를 평가할 때 정적인 방식과 동적인 방식을 함께 사용했다. 정적인 방식은 ‘예측하지 않는 것’으로 판세와 상관없이 규정할 수 있는 행마를 연산하는 것이고, 동적인 방식은 ‘예측하는 것’으로 앞으로 가능한 행마의 수형도를 그리는 것이었다. 이러한 두 가지 방식에 대해 프로그램은 동적인 방식으로 행마를 정하고 그 뒤의 행마는 정적인 방식을 취하게 했다. 이렇게 될 경우에 재귀순환적인 효과가 일어나 판세를 판단하는 데 이득을 준다는 것이다. 하지만 체커는 체스보다는 단순한 게임이었기에 체커프로그램을 체스에 응용한다는 것은 백만 배는 더 어려운 일이었다. 그럼에도 불구하고 여기서 호프스태터가 주목하는 것은 체커프로그램이 행마를 선택할 때 그것이 자기 직관을 어느 정도 표현했다는 사실이다. 즉 이 프로그램은 새뮤얼의 체커 실력을 재현한 것이 아니라, 자기 직관에 의해(예측을 통해) 판세를 판단해 행마를 결정하고, 이후 행마는 앞선 행마의 연관된(예측하지 않는) 정적인 판단으로 게임을 이어 간다는 것이다.


하지만 새뮤얼의 체커프로그램이 지능을 가졌다고 말하기에는 아직 이르다. 왜냐하면 체커에서 판세에 대한 판단을 직관적으로 할 수 있을지라도, 그것이 직관이라고 판단할 수 있는 직관, 다시 말해서 메타-직관을 발견하지는 못했기 때문이다. 하이쿠도 마찬가지다. 호프스태터는 튜링테스트를 위한 프로그램을 하나 만든다. 그 프로그램은 유머러스한 문장을 만들기 위해서 말도 안 되는 낱말들을 활용한다. 이 과정에서 몇 가지는 하이쿠의 형식을 띠는 것도 있다. 하지만 그는 이 프로그램이 곧 싫증이 났다. 그 이유는 프로그램이 작동하는 공간의 한계를 느꼈기 때문이다. 다시 말해 프로그램이 일정한 레퍼토리를 반복하고 있다는 느낌을 받은 것이다. 유머라고 하는 것은 신선하면서도 엉뚱한 발상이 교묘한 공감작용을 일으킬 때 성공할 수 있다. 하지만 엉뚱한 낱말들을 서로 연결 짓는다고 해서 그 프로그램이 유머러스한 기계가 되는 건 아니었던 것이다. 이 깨달음은 기계의 임의적인 행동 방식이 일정 시간 동안에는 새롭고 웃길지 몰라도 그것이 지속적으로 웃기기 위해서는 임의적인 행동을 수행하는 공간의 한계를 돌파할 수 있어야 한다는 것을 의미한다. 그것을 위해서는 기계가 ‘학습된’ 낱말을 임의적으로 배치하는 것보다도 ‘스스로’ 자신이 웃긴 말을 생산하고 있다는 사실 자체를 파악할 수 있어야 한다.


메타-사고

호프스태터는 지속적으로 ‘기계는 지능을 가질 수 있는가’라는 튜링의 질문을 자신만의 방식으로 풀어간다. 거기에는 한 가지 철학이 숨겨져 있다. 이 논문의 핵심은 아마도 <정리의 증명과 문제의 환원>이라는 파트 이하에 있을 것이 분명해 보인다. 그 이유는 다음과 같다. 우선 인공지능 연구 초기 단계에서는 간단한 ‘정리’를 증명하는 것을 목표로 프로그래밍을 했다. 하지만 시간이 흐르면서 기계가 인간과 비슷해지기 위해서는 문제 해결 능력이 있어야 한다는 사실을 파악하게 된다. 이 문제 해결 능력은 상당히 복잡한 층위의 지능이라 할 수 있다. 우선 문제 해결이 목표가 되면, 그 목표를 달성하기 위한 하위 목표가 생성된다. 그리고 그 하위 목표를 달성함으로써 궁극적인 목표에로의 거리를 줄여나가야 한다. 그러나 이 과정에서 목표 자체가 달성된다는 보장이 없기 때문에 나중에 가서는 기계가 난감해할지도 모른다. 호프스태터는 이러한 과정을 문제환원이라고 설명한다.


문제환원의 핵심은 <섄디와 뼈다귀>라는 일화를 통해 충분히 알 수 있다. 그 일화의 핵심은 다음에 있다. 개 한 마리가 있다. 이 녀석에게 뼈다귀를 보여주고는 담장 너머로 던져 버린다. 그랬을 때 녀석은 어떻게 행동할까?라는 질문이 바로 그것이다. 녀석은 곧장 담장 쪽으로 뛰어가서 짖을 수도 있고 담장을 돌아나가서 뼈다귀를 주워올 수도 있다. 이때 ‘짖는다’와 ‘돌아나가다’는 각각 ‘뼈다귀’라는 목표의 하위목표가 된다. 이것을 문제환원이라 할 수 있는데, 이때 호프스태터가 주목하는 것은 바로 문제 공간을 변경할 수 있는 지능이 녀석에게 있는가 하는 것이다. 다시 말해서 담장을 무시하면 뼈다귀와 개의 물리적 거리는 직선적이기 때문에 최소거리가 된다. 즉 물리적으로 목표에 가장 가까운 상태가 되는 것이다. 하지만 담장이 있다면 돌아나가야 해서 일시적으로는 궁극적 목표와 거리가 멀어진다. 이것을 개는 이해할 수 있는가? 이제 이 문제를 기계에 도입해보자. 기계는 단순한 과제가 주어졌을 때 그 문제를 해결하는 것을 아주 당연하고 쉬운 일이라고 이해할 것이다. 하지만 그것이 기계가 지능을 가졌는가에 대한 답은 절대로 아니다. 그것은 어떤 문제를 해결할 때, 기계가 한 발자국 물러서서 어떤 문제가 진행되고 있는가를 판단할 수 있는 지능을 가지는 것과는 완전히 다른 문제이기 때문이다.


따라서 호프스태터는 문제환원 방식을 내재한 프로그램을 생성하는 것에서 더 나아가 이러한 알고리즘 자체를 문제로 파악하는 능력을 프로그래밍할 수 있다면 기계가 비로소 지능을 가졌다는 사실을 인정할 수 있을 것이라 말한다. 그것은 말벌이 복잡하고 체계화된 작업을 성공적으로 수행하는 것과 별개로 그 스스로가 그 과정을 이해하고 있는 것인지, 아니면 본능적으로 수행하는 것인지의 차이를 보면 알 수 있다. 다시 말해서 말벌이 스스로를 말벌이라고 객관화하여 인식할 수 있는가 하는 문제가 지능에 있어서 가장 중요한 요소가 되는 것이다. 이것을 메타-사고라고 할 수 있다. 이러한 메타-사고는 인공지능 발전에 기여하는 수많은 프로그램들에 근본적인 질문을 던진다. 만일 음악을 작곡한 기계가 있다고 치자. 그 음악의 창작자는 프로그래머인가 프로그램인가? 엄밀히 따지자면 작곡에 필요한 몇 가지 음계 지식을 삽입한 프로그램을 프로그래머가 만들었으니, 이를 가지고 프로그램이 임의적으로 조합해 작곡한 음악은 두 창작자를 가지게 되는 셈이다. 메타-창작자(프로그래머)와 창작자(프로그램)가 바로 그것이다. 이 사고방식의 괴리를 얼마나 줄일 수 있는가. 더 나아가 그것을 기계의 사고방식으로 전유할 수 있는가? 다시 말해 기계가 ‘스스로’ 음악을 만들었다고 판단할 수 있는 알고리즘을 확보했는가, 이것이 「인공지능 회고」가 갖는 핵심적 질문이라 할 수 있다.


자연지능과 인공지능의 층위

이러한 관점에서 호프스태터는 다시 한 번 이 인공지능을 미래의 분야로 유보시킨다. 문제를 스스로 이해할 수 있는 능력을 가진 프로그램이 인공지능 기계의 전제가 된다고 했을 때, 그 가능성을 그는 위노그래드의 프로그램 SHRDLU[4]에서 찾고 있다. 이 프로그램은 PLANNER라고 하는 인공지능 프로그램을 통해서 기계언어가 자연언어를 구사하기 위한 통사구조를 어떻게 탐색할 수 있는지에 대한 알고리즘을 설명한다. 예를 들어 “피라미드를 받치고 있는 붉은 주사위”라는 문장을 완성하기 위해서 기계가 스스로 그 답을 찾기 위해서는 끊임없는 문제에 봉착해야 한다. 이 프로그램은 블록세계를 기반으로 하고 있는데, 무수한 블록들이 프로그램에 저장되어 있고 그것을 지식으로 활용한다. 이때 PLANNER 인공지능 프로그램을 통해서 나무 블록을 찾게 하고 그것이 빨간 색인지 묻고, 주사위 모양인지 묻고, 이제 피라미드 블록을 찾고, 주사위 위에 피라미드가 있는지 찾는다면 문장이 완성될 수 있다. 각각의 문제들은 서로 연관되어 있으면서 독립적이기 때문에 문제를 해결하지 못하면 계속 처음으로 돌아간다. 이러한 구조는 기계언어가 형성되는 과정 자체가 자연언어를 단순히 번역하는 것이 아니라 통사론과 의미론을 함께 활용함으로써 문장을 찾아간다는 점에서 의의가 있다.


호프스태터는 이런 종류의 결정이 꾸준히 요구되어야 한다고 이야기 한다. 그것은 바로 지능의 다채로운 층위와 성질의 복잡성을 인공지능 기계가 자연지능의 수준에 이르기까지 문제환원의 방식을 확장해야 가능하다. 하지만 자연지능의 범주가 어디까지인지는 아무도 모른다. 만일 인간 z가 하나의 자연지능 체계 z1을 갖는다고 한다면 z가 발전하는 만큼 z1의 층위는 다양해지고 확장될 것이다. 따라서 개별 인간과 개별 자연지능의 전체 집합으로서의 자연지능 Z는 결국 무한하다는 결론에 이르게 될 것이다. 이러한 관점이라면 기계가 어떤 층위에서 어떤 부분과제들을 해결해야 하는지는 파악하는 것이 어렵다.


다시 현재로 돌아와 ‘스스로’ 바둑을 ‘학습’하고 있는 알파고를 바라보자. 현재 알파고는 더욱 강력해졌다고 한다. 그것은 어떤 관점에서는 문제를 해결하기 위해 끊임없이 지능을 사용하고 있는 것이라 볼 수 있다. 이 기계의 단순한 목표가 바둑에서 승리하는 것이라면, 무조건 승리할 수 있는 공식을 찾아내 프로그래밍하면 그만일 것이다. 하지만 왜 스스로 문제를 파악하고, 반복학습과 훈련을 통해서 승리하기 위한 수를 두는 예측률을 높이는 방식으로 프로그래밍 되었을까? 여기에는 기계가 어떤 층위의 지능까지 활용할 수 있는지에 대한 인간의 욕망이 내재돼 있는 탓도 있지만, 한편으로는 ‘기계는 생각할 수 있을까?’에 대한 질문의 유효성을 보여주는 것이기도 하다. 튜링의 이러한 질문은 호프스태터에 와서 ‘어떤 지능을 가질 것인가?’로 확장되었다. 오늘날 4차 산업혁명과 함께 인공지능 개념이 대중화되기 시작했다. 이제 그것은 어쩌면 인간의 지능을 뛰어넘을지도 모른다는 공상 또는 두려움에서 벗어나, ‘기계는 하나의 개별적 주체로서 지능을 가질 것인가?’에 대한 문제로 변화하고 있는지도 모른다.


이런 의미에서 호프스태터의 기계에 대한 지능이론이 메타-사고의 가능성 논의를 기반으로 하고 있다는 사실은 발칙한 것이 아닐까 하는 생각까지 든다. 그것은 튜링이 이야기한 양파껍질 이야기를 다시금 환기하도록 만드는 것이기도 하다. 헤겔은 ‘무언가’에 대해 시간이나 장소 등의 여러 변화에도 불구하고 ‘무언가’ 속에서 변하지 않고 존재하는 ‘무엇’을 가리켜 자기동일성이라고 부른다. 이에 따르면 ‘인간이란 무엇인가?’라는 질문 속에는 ‘인간’이라는 자기동일성이 내재한다. 그렇다면 만일 ‘인공지능이란 무엇인가?’라는 질문을 인간이 아닌 기계가 스스로 할 수 있는 날이 온다면? 앨런 튜링과 호프스태터는 그것이 결코 불가능한 일이라고는 말하지 않을 것이다.


기본자료

  • Douglas Hofstadter, 박여성 · 안병서 역, 「인공지능 : 회고」, 『괴델, 에셔, 바흐 : 영원한 황금 노끈』, 까치, 2017.
  • Alan Mathison Turing, 노승영 역, 「계산 기계와 지능(1950년)」, 『지능에 관하여』, 에이치비프레스, 2019.

각주

  1. 1997년, 컴퓨터가 마침내 체스에서 사람을 꺾었다. IBM 슈퍼컴퓨터에서 동작하는 체스 프로그램인 ‘딥 블루’가 당시 세계 체스 챔피언인 개리 카스파로프를 물리쳤다.
  2. 기계가 스스로 학습하기 위해선 ‘인공신경망’을 가져야 하는데, 알파고는 ‘정책망’과 ‘가치망’이라는 2개의 기본 신경망으로 구성됐다. 정책망이 다음 번 돌을 놓을 여러 경우의 수를 제시하면, 가치망은 그중 가장 적합한 한 가지 예측치를 제시하는 역할을 한다. 구글 연구진은 방대한 바둑 데이터베이스를 활용해 알파고의 정책망에 3천만 개 위치 정보를 입력하는 반복 훈련을 시킴으로써 다음 수 예측률을 크게 높였다. 이 같은 지도학습을 끝낸 후에는 실전을 통해 습득한 데이터를 스스로 가다듬는 강화학습으로 정책망을 더욱 똑똑하게 만든다. 가치망 역시 딥러닝의 강화학습으로 바둑 게임 전체를 읽는 능력을 기를 수 있었다.(이성규, 「이세돌의 상대, 알파고가 바둑을 터득한 비결」, 『KISTI의 과학향기 칼럼』, 2016.)
  3. 체커 게임(영국에서는 드래프트(draught))은 고대 이집트의 게임인 ‘알케르케’에서 유래되었다. 가장 오래된 것으로 알려진 알케르케 보드는 기원전 1400년경에 만들어진 것이다. 이 게임은 각자 12개의 말을 가로, 세로 5칸씩인 정방형의 보드에 놓고 시작했다. 그리고 한 칸은 게임을 시작할 수 있도록 비워 두었다. 체커 게임에서는 상대의 말을 뛰어 넘으면 그 말을 모두 잡는 것이며 여러 번 뛸 수도 있다.(베탄 패트릭, 존 톰슨, 이루리 역, 『1%를 위한 상식백과』, 2014. 300쪽.)
  4. 영문자에서 가장 자주 쓰이는 12개 알파벳으로 만든 ETAOIN SHRDLU에서 따온 것이다. 사전적 의미로는 컴퓨터가 자연 언어로 된 명령을 이해하고 그 명령에 적절하게 응답할 수 있도록 하는 시스템이라 규정되어 있으며 한국에서는 '슈드루'라고 읽는다.

영상자료

튜링테스트와 앨런 튜링의 생애의 연관성을 짧고 굵게 정리한 강연


앨런 튜링의 논문을 토대로 잭 코플랜드의 논문 읽기


요구사항
Quote-left.png 앨런 튜링의 「계산기계와 지능(1950)」의 내용을 토대로, 잭 코플랜드의 「기계는 생각할 수 있을까」의 내용을 분석 및 요약·정리할 것. 튜링의 「계산기계와 지능(1950)」은 〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕을, 코플랜드의 「기계는 생각할 수 있을까」는 〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 87-134쪽.〕을 기본 원고로 할 것. Quote-right.png


과제원고 : 아슈토시, 이만호, 임연


생각에서 의식이 필수적인가?

오직 의식이 있는 존재만이 생각할 수 있다. 많은 사람들이 컴퓨터가 생각할 수 있다는 생각을 비웃는다. 왜냐하면 플라스틱과 금속으로 구성된 장치는 결코 의식을 가질 수 없다는 것을 당연하게 여기기 때문이다. 하지만 이 믿음의 첫 출발이 틀렸다. 사고와 의식이 항상 함께 가는 것은 아니다. 이를 깨달으면 , 컴퓨터가 생각할 수 있는지에 대해 논의할 때 고정관념에서 자유로울 수 있다.


지난 세기 프로이트가 우리는 우리의 정신 속에서 벌어지는 일들 중 많은 것을 의식하지 못한다고 주장했던 것이다. 그러나 오늘날엔 이 주장이 심리학자들 사이에서 진부한 말이 되어 버렸다. 프로이트 심리학의 다른 주제들을 받아들이건 말건 상관없이 우리는 모든 혹은 거의 모든 정신 작용을 의식적으로 알아차리지 못한다. 선구적인 뇌연구자인 '칼 래슐리(Karl Lashley)는 이를 실증하는 간단한 실험을 소개한 적이 있다. 당신이 아는 어떤 곡에서 몇 음을 휘파람으로 부른다.바로 이어서 이 음을 거꾸로 불거나, 아니면 더 높은 음정으로 부른다.아마 아주 쉽게 따라 했을 것이다. 그런데 당신은 이 것을 어떻게 한것인가? 당신의 정신은 당신이 알지 못하는 것을 하고있다.그래서 그 정신 작용의 결과로,당신은 역순으로(혹은 기계적으로 높여서)음을 만들어 낼 수 있다.


당신이 의식할 수 있는 것은, 그 작업의 결과, 즉 갑작스런 지각의 변화일 뿐이다.


예시 1. 잠자리에 들기 전에 머리를 써야 하는 문제로 뒤척이다가 잠이 들었고, 아침에 일어났는데 머릿속에 해결책이 떠오른 경험이 있었는가? 프랑스 시인 생폴루(Saint-Pol-Roux)는 잠들기 전 침실 문에 “시를 쓰는 중”이라는 문구를 써 붙였다고 전해진다. 이 문제해결사 [즉 정신]는 잠을 자는 동안에도 문제에 대해 생각한다. 하지만 [우리는] 당연히 의식하지 못한다.


예시 2. 말하기 전에 의식적으로 말을 고르기도 하지만, 대개는 의식적으로 말을 고르지 않은 채 하고 싶은 말을 그냥한다. 다른 사람이 말한 문장의 의미를 이해하는 것은 대개 내 의식에 이를테면 통째로 떠오른다. 나는 어떤 소리 (혹은 현상)에서 의미에, 다다르게 해주는 정신의 작용을 자각하지 못하며 단지 그 작용의 최종 산물만을 의식한다.

이러한 일상적인 예시에 덧붙여 수많은 실험실 사례들이 있다. 이 실험들은 우리가 행하는 모든 정신 작용을 우리가 의식하고 있다는 말이 얼마나 사실과 다른지를 생생하게 보여준다.


맹시(Blindsight)

맹시는 래리 바이스크란츠(Larry Weiskarantz)와 그의 동료들이 70년대 초에 발견하고 명명한 현상이다. 뇌의 시각 피질 부분이 제거된 사람들은 종종 시야에 결손이 있다고 호소한다. 이런 사람의 앞에서 작은 불빛을 움직여보면, 수술을 받기 전에는 보였어야 할 영역에서 불빛이 보이지 않는다고 대답할 것이다. 바이스크란츠와 그의 동료들은 환자를 스크린 앞에 앉히고, 스크린 위에 작은 불빛을 소았다. 실제로 환자는 불빛 어디 있는지 자신은 전혀 모른다고 의식적으로 믿었다. 하지만 환자가 몇 시간에 걸친 실험 내내 그가 가리킨 위치가 매우 정확했다. 이런 사람 불빛을 볼수 없지만 대부분은 불빛의 위치를 추측할 수 있었다. 그래서 지각이란 의식적 활동일 필요가 없는 것이다.


래크너(Lackner)와 개릿(Garrett)의 실험


이 실험은 ‘칵테일 파티 효과’ (the cocktail party effect)라고 부른다. 수많은 대화들 속에 둘어싸였음에도 우리는 그 대화들 중 하나에 집중할 수 있고 다른 대화들을 잊어버릴 수 있다. 이실험은 피험자들은 양쪽귀에 서로 다른 문장들을 틀어 주는 헤드폰을 썼다. 그들은이 채널중 오직 하나만 듣고,각각의 문장이 들릴 때 다른 말로 바꿔서 말하도록 요청받았다. 피험자들이 들었던 채널에서 들리는 문장들 중 일부는 뜻이 중의적이다. 결론적으로, 비록 피험자들은 의미가 명확한 문장을 들은 일조차 의식하지 못했지만, 그들이 비의식적인 충위에서 주의를 기울이지 않은 채널들을 청각적으로 들었으며, 동시에 그 채널 속의 문장들을 부분적으로 이해했던 것이다.


우리는 인간의 중요한 여러 정신적 활동, 가령 말을 이해하는 것, 외부 세계를 지각하는 것 등이 비의식적으로도 수행될 수 있음을 보았다. 가장 근본적인 질문은 인공물이 이러한 인지적 활동들을 그 의미 그대로 수행할 수 있느냐다. 그리고 우리가 이러한 활동들을 비의식적으로 할 수 있기 때문에 인공물에게 의식이 가능한지와 무관하게 이 질문은 논의될 수 있다.


튜링테스트

튜링테스트.jpg


튜링의 테스트는 인공지능 연구자들 사이에서는 대체로 실험의 타당성을 인정받는 경향이지만, 철학자 그룹에서는 언제나 논쟁거리였다.


튜링 테스트에는 두 명의 인간과 테스트받는 컴퓨터가 필요하다. 테스트의 기본적인 아이디어는 두 사람 중 한 명, 즉 질문자가 두 참여자 중 어느 쪽이 컴퓨터인지를 알아내는 것이다. 질문자는 키보드와 스크린을 통해 컴퓨터와 나머지 한 사람과 대화한다. 이를 제외하고는 이 세 참여자들은 엄격하게 격리되어 서로 어떤 접촉도 하지 못한다. 질문자는 다른 두 참여자와 나눈 대화를 기초로, 어느 쪽이 기계인지 지목해야 한다. 또한 기계를 간파해내기 위한 직접적인 질문이나 자신이 원하는 한에서의 광범위한 질문이 모두 허용되고, 그에 따라 컴퓨터도 가능한 모두 수단을 사용해서 잘못 식별하게끔 유도한다. ‘’’그래서 ‘당신은 컴퓨터입니까?’라는 질문에 컴퓨터가 ‘아닙니다.’라고 대답하는 영리한 대처가 가능하고 굉장히 큰 수를 곱하라는 요청에 오래 지체하거나 틀린 답을 제시할 수도 있다. ‘’’


이 실험이 두 인간의 자리에 다양한 사람들을 놓고 수차례 반복되었을 때, 그 결과 컴퓨터의 정체를 밝혀낸 횟수가 ‘찍는다’라고 할 만한 50%보다 유의미하게 높지 않다면, 그 컴퓨터가 생각할 수 있다고 결론 내릴 수 있다. 잭 코플랜드가 튜링 테스트를 통과한 컴퓨터를 ‘생각하는 존재’라고 부르는 것을 보류한다면, 이는 그저 ‘생각한다’라는 단어를 인간과 우리의 생물학적 친척만 독점하는 것과 마찬가지이며 이는 탄소로 구성된 존재보다 실리콘으로 구성된 존재에게 더 많이 붙는 녹골적인 편견에 불과하다고 주장했다.


와이젠바움의 일라이자 실험과 콜비의 실험


와이젠바움의 일라이자가 튜링테스트를 통과했다는 말이 틀린 이유:


와이젠바움의 일라이자는 우연하게 튜링테스트의 변형 버전 중 하나로 테스트를받은 적이 있었다. 

(실험내용)[1]


- 비록 임원이 일라이자를 사람으로 착각하긴 했지만, 일라이자가 튜링 테스트를 통과했다고 말하는 것은 틀린다. 우선, 그 절차가 다른 여러 질문자들을 통해 반복되지 않았다.


- 튜링 테스트의 기준을 충족하지 못했다. 그 임원은 컴퓨터와 사람을 구별하려고 애쓰지 않았다. 또한 참가자가 셋이 아니라 둘이라는 점에서도 튜링 테스트의 기준을 위반했다. 컴퓨터와 인간 중에 선택할 필요가 없는 상황에서는 각 질문자들이 컴퓨터의 수행 능력에 관한 사소한 특징들을 간과할 수도 있지만, 선택해야 하는 상황에서는 이것이 결정적인 증거로 작용할 수 있다. 더욱이 비경합적 상황에서 질문자들은 컴퓨터의 대화 능력에 대한 낮은 기대치 등의 요인들로 인해 오판으로 치우칠(biased) 가능성이 있다.


콜비(Colby)의 실험이 튜링테스트를 통과했다는 것으로 할 수 없는 이유:


콜비(Colby)와 그의 연구팀이 보고한 바에 따르면, 편집증적 프로그램, 패리(Parry)는 연구팀이 튜링 테스트와 유사하다고 평가한 테스트를 통과했다.

(실험내용)[2]


하지만 이 실험은 단지 튜링 테스트와 유사할 뿐이다.


- 두 답변자가 컴퓨터와 사람이라고 알고 있는 질문자가 인터뷰를 동시에 진행하지 않았기때문이다. 대신에 각 의사들은 독립된 두개의 인터뷰를 진행했고, 그래서 그들은 상대방이 모두 환자일 수도 컴퓨터 일수도 있다는 설명을 들었다.


- 튜링 테스트에서 경합이 없다면 편파적인 요소가 끼어든다. 하나의 가능성은 질문자가 단순히 프로그램의 능력을 지나치게 낮게 예상하기 때문에 프로그램을 환자로 착각하는 경우다. 다른 가능성은 환자의 반응에서 찾은 ‘컴퓨터스러운 행동’ [3]이라고 생각하기 쉬운 단서가 판단 착오로 이어지기 쉽다.


- 튜링 테스트는 질문자가 다양한 범위의 질문과 자신이 원하는 한 직접적으로 캐묻는 질문을 할 수 있다는 점에서 그 타당성을 얻는데 여기서는 편집증 환자들의 대화라는 특성-얼버무림, 훼방, 적개심, 주제의 갑작스런 전환, 반복되는 망상적인 주제 등-때문에 이런 시도들이 불가능하다.


- 튜링 테스트와의 마지막 차이점은, 콜비의 실험에서 텔레타이프를 통한 인터뷰가 혼란스러운 경험이었다는 것이다. 그래서 프로그램과 환자를 정확하게 구분하지 못한 질문자들의 무능력은 단지 이런 인터뷰 방식의 결과 일 수 있다는 점이다. 따라서 테스트에 참여한 질문자가 사전에 충분히 단말기를 통해 인터뷰를 진행해보는 것이 튜링 테스트의 조건이 되어야한다. 이러한 훈련은 확실히 콜비가 동시 인터뷰에서 겪은 곤란함들을 해소해 줄 것이다.


튜링 테스트에 대한 4 가지 반론


  • 침팬지 반론


침팬지 반론에 따르면, 튜링 테스트는 너무 보수적이다. 침팬지는 생각할 수 있지만 어떠한 침팬지도 튜링 테스트를 통과할 수 없다는 사실을 부정할 사람은 거의 없을 것이다. 생각하는 동물들이 튜링테스트에 실패한다면, 추정컨대 생각하는 기계 또한 그럴 수 있다. 아마도 첫 번째 생각하는 컴튜터는 테스트를 통과할 만큼 심리적으로 복잡하지 않을지도 모른다. 아니면 생각하는 컴퓨터의 반응이 인간적인 특징을 보이지 않았기 때문에, 혹은 심지어 단지 그 컴퓨터가 꽤 모욕적인 진행 과정이라고 여기는 일에 별 관심이 없기 때문에 테스트에 실패한 것일 수 있다.


이 반론이 보여주는 것은 이 테스트가 리트머스 시험과 같은 것이 아니라는 점이다. 용액에 파란 리트머스 종이를 넣었을 때, 종이가 붉게 변한다면 그 용액은 산성이다. 반면 그렇게 변하지 않는다면, 산성이 아니다. 그래서 용액이 테스트에 실패했다면, 즉 시험지가 붉게 변하지 않았다면, 이 용액이 산성이 아니라는 결론이 나온다. 튜링 테스트는 이렇기 않다. 테스트에 실패해도 명확한 결과가 도출되지 않는다.


이로써 우리는 테스트의 부정적 결과가 명확한 무엇을 입증하는 것이 아니라는, 위험하지 않은 결론에 이르렀다. 사고가 불가능한 장치도 테스트를 통과할 수 있기 때문이다. 튜링 테스트는 이렇지 않다.테스트에 실패해도 명확한 결과가 도출되지 않는다. 그렇다고 이로 인해 튜링 테스트을 의심할 필요는 없다. 완벽하고 유용한 많은 테스트들이 이런 특징을 갖고 있다.


  • 감각기관 반론


튜링 테스트는 전적으로 컴퓨터가 언어적으로 반응하는 능력에만 초점을 맞추고 있다 .여기서는 컴퓨터가 자신이 사용하는 단어들을, 그 단어들이 상징하거나 의미하는 실제 사물들과 연결 짓는 능력을 테스트하지 않는다. 예를 들어, 질문자는 재떨이를 들고 ‘이것은 무엇입니까?’라고 물어볼 수 없다. 어떤 컴퓨터가 자신이 사용하는 단어의 의미를 모르면서도 테스트를 통과할 수 있는 것이다. 그러므로 컴퓨터가 테스트를 통과했다는 사실마느올 컴퓨터가 생각할 수 있다는 말에 대한 어떠한 근거도 될 수 없다.


이 반론의 결론은 그 해결책으로 튜링 테스트를 강화하는 것이다. 컴퓨터는 반드시 인공적인 감각기관, 이를테면 텔레비전 눈(television eye)을 장착해야 한다. 그래야 질문자가 사용하는 단어들이 세상에 대해 무얼 말하는지 컴퓨터가 이해한바를 조사할 수 있다.


감각기관 반론은 다음을 가정한다. 발언자가 자신이 말하는 단어를 얼마나 이해하는 지를 규명하기 위한 유일한 방법은 환경과의 감각적 상호작용을 검사하는 것이다. 그렇지만 이는 전혀 사실이 아니다. 이 반론의 핵심은 언어적 질문이 이해력에 대한 적절한 테스트인가 하는 문제이지, 컴퓨터가 맨 처음 언어를 습득할 때 감각기관을 제공하는 것이 필요한가의 문제가 아니기 때문이다.


튜링 자신은 이 테스트에 맞춰 컴퓨터를 훈련시키는 가장 좋은 방법이 기계에 ‘돈으로 살 수 있는 최고의 감각기관’을 장착하는 거, 그리고 ‘적절한 교육과정’을 제공하는 것이라고 분석했다. 그러나 이 말이 감각기관 반론을 지지한다는 뜻은 아니다. 왜냐하면 이 반론의 핵심은 언어적 질문이 이해력에 대한 적절한 테스트인가 하는 문제이지, 컴퓨터가 맨 처음 언어를 습득할 때 감각기관을 제공하는 것이 필요한가의 문제가 아니기 때문이다.


언어적 능력을 갖춰야 하는 모든 컴퓨터에게 번거로운 ‘교육과정’을 실시할 필요는 없을 것이다. 게다가 다른 기계들은 감각기관을 장착할 필요도 없다. 감각기관이 없는 기계에게는 일부 단어들의 의미가 온전히 전달될 수 없다고 해도, 이는 그저 감각적 경험과 매우 직접적으로 결합되어 있는 단어들의 경우일 뿐이다. 우리 단어의 절대 다수는 이 범주에서 벗어나 있다.


  • 시뮬레이션 반론


이 반론은 X의 시뮬레이션은 X가 아니라는 관찰에서부터 시작한다. 다이아몬드 모조품은 다이아몬드가 아니다. X의 시뮬레이션은 X와 유사하지만, 진짜는 아니다. 이를 참조하여, 이제 어떤 컴퓨터가 튜링 테스트를 통과했다고 가정해보면, 테스트 통과는 단지 컴퓨터가 생각하는 존재를 훌륭하게 시뮬레이션했다는 것을 보여줄 뿐이다. 그리고 이는 실제 생각하는 존재와 동일하지 않다. 이 반론을 펴는 사람들의 결론에 따르면 컴퓨터가 테스트를 통과한다는 사실은 컴퓨터가 생각한다는 것을 입증하지 못한다. 단지 생각하는 답변자를 훌륭하게 시뮬레이션할 수 있는 능력을 가져다고 봐야 한다.


잭 코플랜드는 이 반론은 무언가를 혼동하고 있다고 밝혔다. 맨처음 이 반론이 약점을 드러내는 부분은 , ‘X의 시뮬레이션은 결코 X가 아니다‘라는 주장이 잘못되었다는 점이다.


예: 목소리를 모방하는 걸 생각해보자. 만약 컴퓨터가 (그런대로 괜찮은 억양으로) 말한다면, 이 모방한 목소리는 목소리가 아닌가? 사람의 음성이 아니라 인공물의 음성이지만, 그럼에도 이 또한 음성이지 않은가?


시뮬레이션을 구분할 때 전혀 다른 두 종류의 영역이 있다. 시뮬레이션이 원본의 본질적인 특성을 상실한 경우를 시뮬레이션 1로, 시뮬레이션이 원본과 정확하게 동일한 경우, 이를 시뮬레이션 2에 속한다. 앞에서 예로 든 목소리의 모방은 시뮬레이션1이기도 하고 2이기도 하다. 이 모방된 목소리는 목소리의 모든 본질적 특성을 갖고 있다. 그러나 인공적으로 생간된 것이다. 그러므로 ‘시뮬레이션된 X는 X가 아니다’는 오직 절반의 진실일 뿐이다. X의 시뮬레이션은1은 X가 아니다. 하지만 X의 시뮬레이션2는 X다.


이 반론은 어쨌든 아무런 고려도 없이 다음을 가정한다. 즉 컴퓨터의 사고 시뮬레이션은 언제나 단지 시뮬레이션에 지나지 않을 것이며, 이는 결코 실제로 생각하는 것이 아니라는 것이다. 이 반론은 컴퓨터가 생각을 시뮬레이션하는 것이 얼마나 훌륭하게 발전할지와는 무관하게, 시뮬레이션을 언제나 유형1처럼 묘사할 뿐, 유형2일 수 없다고, 어떤 논증도 없이 단정해버린다.


시뮬레이션 반론에도 한 가지 장점은 있다. 이 반론은 우리에게 튜링테스트가 시뮬레이션1과 시뮬레이션2 사이에서 올바르게 선을 긋고 있는지 질문하도록 권하는 것이다. 테스트를 통과한 컴퓨터는 곧 생각하는 존재의 시뮬레이션2라고 결론 내릴 수 있는가, 아니면 단지 시뮬레이션1을 모아 놓기만 한 컴퓨터도 테스트를 통과할 수 있다고 말할 법한가? 등을 질문할 수 있다.


  • 블랙박스 반론


흔히 블랙박스란 내부의 작동방식이 미스터리로 남아 있는 장치를 일컫는다. 튜링 테스트에서는 참여한 컴퓨터가 블랙박스처럼 다뤄진다. 컴퓨터가 생각할 수 있는지에 대한 판단은 오직 그 컴퓨터가 겉으로 드러낸 행위에만 의존하고 있다. 튜링은 어떤 사람이 생각한다라는 데 대한 판단도 항상 겉으로 드러난 행위에만 의존한다고 지적했다. 그러므로 대화라는 행위가 컴퓨터가 생각한다고 판단하는 데 적절한 근거를 제공하지 못한다고 말한다면, 당신의 인간 동료가 생각할 수 있다고 한 당신의 판단도 근거가 빈약하다는 것을 인정해야 하는 난처한 입장에 처하게 된다.


잭 코플랜드가 튜링은 인간과 컴퓨터를 서로 유사하다고 봤다는 점에서 틀렸다고 주장했다. 튜링이 이 문제를 고찰하면서 놓쳐버린 중요한 점은 이것이다. 나는 당신의 외적 행위에 근거해서 당신이 생각하다고 판단할 때, 나는 당신이 나와 비슷한 공정 – 뇌가 처리하는 전기화학적 절차가 사고의 원인이라는 – 이 일어나는 비슷한 육체를 가지고 있다고 믿는 맥락하에서 그렇게 판단하는 것이다. 당연히 컴퓨터는 이러한 맥락이 결여되어 있다.

튜링테스트에 대한 평가


블랙박스 반론은 튜링 테스트가 타당하지 않음을 보여준다. 이 테스트는 단지 결과에만 주목하기 때문에 ‘생각하는 자’라는 이름에 진정으로 걸맞은 프로그램과, 슈퍼패리처럼 분명히 사고하지 않는 프로그램을 구분할 수 없다. 이런 문제를 해결하기 위해 튜링 테스트를 강화할 방법은 없을까?


강화하는 방법중 한가지는오픈엔드(open-ended) 구조이다. 컴퓨터는 대화에서든, 질문자가 지정한 과제의 수행에서든 인간과 구분할 수 없어야한다 튜링 테스트의 강화는 두 가지 요소로 이뤄져야 한다. 첫째, 대화를 활용하는 본래의 경합 방식이다. 이는 이름을 붙이자면, 결과기준 (output criterion)을 충족하는 지 , 다시 말해, 컴퓨터와 대화한 결과가 인간과 대화한 결과와 구분할 수 없는지 규명할 것이다. 둘째, 프로그램 자체에 대한 검사가 있어야 한다. 이는 우리가 설계기준 (design criterion)이라고 명명하는 척도를 충족하는지 규명할 것이다.


설계기준은 무엇이 되어야 할까 ?


잭 코플랜드는 두 개의 가능한 선택지를 논의하였다.


⓵프로그램은 인간 두개골 안에서 일어나는 일과 대체로 유사한 방식으로 작동해야 한다. 프로그램이 전반적으로 인간과 비슷하게 작동해야 한다고 주장하는 것은 지나치게 인간중심적으로 보일지도 모른다. 그러나 이 기준을 옹호하자면, 튜링 테스트는 사고를 판별하는 리트머스 시험지가 아니라고 했던 사실을 상기해야 한다. 튜링테스트의 원래 버전은, 컴퓨터에게 인간과 구분할 수 없는 외적 행위의 산출이 요구되었다는 점에서 뻔뻔스러울 정도로 인간중심적인 테스트였다. 이 설계기준의 현재 버전은 인간 중심적 편향을 그저 프로그램 자체로 연장시켰을 뿐이다. 이것이야말로 전적으로 튜링이 제안했던 본령과 일치하는 것이다.


⓶두 번째 선택지로, 누군가는 이 설계기준의 훨씬 약한 버전을 선호할 수도 있으며, 단순히 프로그램이 모듈화된 것일 수도 있다. 다시 말해, 프로그램은 원리상 통째로 압축되어 다른 프로그램에 얹혀서 어떤 기능을 수행하는 더 복잡한 프로그램이 될 수 있어야 한다. 설계기준의 이러한 버전은, 앞서 논의한 오픈엔드 구조의 튜링 테스트와 유사한 지점이 있다. 그럼에도 중대한 차이점은 프로그램의 검사는 이 기준을 충족하는지 여부를 확인하는 것으로 충분하다는 것이다- 확장된 프로그램이 실제로 테스트의 일부로서 실행될 필요는 없다.


그래서 잭 코플랜드는 설계기준의 두 가지 버전들 중 무엇도 확실하게 옳거나 확실히 잘못되지 않으며, 또한 하나가 다른 하나보다 명확하게 더 좋지도 않다고 주장했다. 따라서 업그레이드된 튜링 테스트에는 두 버번이 있다. 더 약한 것과 더 강한 것. 전자는 모듈적인 설계기준을 포함하는 것이며, 후자는 인간중심적 설계기준이다.

결론


‘새로운 사례’형 질문에 대해서 우리는 정답을 발견할 것이 아니라 결정을 내려야 하며, 가능성 있는 답변 중 어떤 것이 이 관련 개념을 도입하는 목적에 가장 잘 부합하는지를 고려하면서 결정에 이르러야 한다. 생각하는 존재에 대한 우리의 개념은 자연적으로 발행하는 살아 있는 유기체에게만 적용되는 환경에서 형성되어 왔다. 이제 우리는 우리가 수행해 온, 말하자면 제기된 문제를 이해하고, 계획을 세우고, 문제를 해결하고, 결정을 내리는 등 광범위한 정신활동을 포괄하는 그런 행위를 수행할 수 있는 능력이라는 면에서 인간과 거의 구별할 수 없는 인공물의 가능성을 최초로 마주하고 있다.


생각하는 존재의 개념이 두 종류가 있다. 풍부한 행동지향적 내부 프로세스로 인해 창의적이고 폭넓은 적응성을 가지며, 다재다능한 존재들이 있다. 이에 속하는 존재가 지닌 행동지향적 내부 프로세스를 대규모의 적응성을 가졌고 기술할 것이다. 다른 한편에는 이러한 프로세스가 부족해서 그 행동이 매우 경직되고, 제한되어 있고, 그래서 정형화되어 있는 존재들이 있다. 생각한다는 개념은 행위의 해석과 예측에 있어 분명 가장 중요한 역할을 한다.

각주
  1. 어떤 기업임원이 그의 프로그래밍 직원에게 연락했는데,직원대신 일라이자가 메시지를 받은 것을 전혀 모르고 있었다. 임원: 오늘 아침에는 컴퓨터를 써볼 수 있겠나? 일라이자: 무슨 일로요? 임원: 텔콤(Telcomp)의 추가 판매가 가능할지도 모르네. 일라이자: 확신하시진 않네요? 임원: 그건 잠재적 고객들이 그 시스템의 시연을 한번도 본 적이 없기 때문이지. 일라이자: 그건 당신에게 아주 큰 의미가 있겠군요? 임원: 물론이지. 일라이자: 당신은 아주 확신에 차 있는 것같습니다. 임원: 이거 이상한데. 일라이자: 왜 이상하다는 겁니까? 임원: 내가 지금 당장 컴퓨터를 사용할 수 없는 어떤 이유가 있는 건가? 일라이자: 당신의 잠재적 고객들에 대해 더 이야기해 주세요. 여기서 이야기가 더 전행 되면서 화가 난 임원이 아무것도 모르는 직원에게 전화를 걸었다. 임원: 왜 자꾸 나를 짜중나게 하나? 프로그래머:왜 제가 당신을 짜중나게 한다는 겁니까? 이 대화를 두고 일군의 사람들은 일라이자가 튜링 테스트를 통과했다고 주장했다.
  2. 이 실험에서는 5명의 현역 정신과 의사들이 텔레타이프 단말기를 통해 인터뷰 진행했다. 인터뷰 중 일부는 패리와 진행했고 나머지는 편집증을 가진 사람과 진행했다. 각각의 인터뷰마다 정신과 의사들의 목표는 단말기의 반대편에 사람이 있는지,컴퓨터가 있는지 결정 하는 것 이었다. 전체10회의 인터뷰 중에서 5회는 맞추었고 5회는 틀렸다.
  3. 예를 들어 ’기계 같은’ 특징들 – ‘and/or’의 사용법





튜링 테스트에 대한 존 설의 입장을 기초로 잭 코플랜드와 레이 커즈와일의 사유 읽기


요구사항
Quote-left.png 앨런 튜링의 「계산기계와 지능(1950)」의 내용을 토대로, 잭 코플랜드의 「흥미로운 사례, 중국어 방」의 내용 및 레이 커즈와일의 「존 설의 비판에 대한 반론」을 비교·정리할 것. 튜링의 「계산기계와 지능(1950)」은 〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕을, 코플랜드의 「흥미로운 사례, 중국어 방」은 〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕을, 레이 커즈와일의 「존 설의 비판에 대한 반론」은 〔레이 커즈와일 지음/장시형·김명남 옮김, 『특이점이 온다』, 김영사, 2007, 638-654쪽.〕을 기본 원고로 할 것. Quote-right.png


과제원고 : 길혜빈, 윤석만, 임예찬


생각이란 무엇인가

①'생각'의 정의

영화 ‘트랜센던스’에서 천재 과학자 윌(조니 뎁)은 인류가 수만 년에 걸쳐 이룩한 지적 능력을 뛰어넘어 자의식까지 갖춘 슈퍼컴퓨터를 개발한다. 그러나 기술발전으로 인류가 멸망할 것이라고 믿는 테러 단체의 공격을 받아 뇌사 상태에 빠진다. 절망에 빠진 윌의 연인 에블린(레베카 홀)은 실험용 원숭이의 뇌를 스캔해 컴퓨터에 업로드 했던 사실을 떠올린다. 윌을 잊을 수 없던 그녀는 연인의 뇌를 컴퓨터에 업로드 한다. 윌의 의식이 컴퓨터를 통해 부활한 것이다. 에블린이 윌의 뇌를 스캔한 컴퓨터는 육체만 없을 뿐 생전의 윌과 똑같은 기억과 감정, 성향을 갖고 있다. 그런데 여기서 윌은 인간일까, 컴퓨터일까? 비록 육체는 없어도 정신이 있으니 사람이 맞는가?


테슬라·스페이스엑스의 설립자인 일론 머스크는 트랜센던스를 현실화 할 수 있는 기술을 연구하고 있다. 인간과 컴퓨터를 결합한 ‘뉴럴 레이스(Neural Lace)’ 기술이다. 실제로 그는 2016년 ‘뉴럴 링크(Neural Link)’라는 기업을 만들어 뇌에 컴퓨터 칩을 삽입하는 기술을 연구 중이다. 이 칩은 클라우드 컴퓨터와 연결돼 뇌의 정보를 공유할 계획이다. 만일 ‘뉴럴 링크’의 프로젝트가 성공한다면 트랜센던스는 현실이 될 수 있다.


전통적으로 우리는 인간과 인간이 아닌 것을 구분할 때 생각하는 능력을 떠올린다. 생각은 종종 정신, 또는 영혼으로도 읽힌다. 이때 육신은 정신을 담는 그릇이기 때문에 인간의 본질은 고매한 정신에 있다고 한다. 세계의 많은 종교에서도 신체보다 정신을 더 중요하게 생각한다.


그러나 과학에서 영혼, 정신, 생각은 우리가 생각하는 형이상학적 무언가가 아니다. 뇌 안에서 일어나는 세포들 간의 무수한 화학작용일 뿐이다. 인간의 생각, 그리고 그와 대비되는 기계의 생각이 어떻게 다른지, 혹은 같은지 비교하기 위해선 생각이라는 현상이 뇌에서 어떻게 일어나는지 먼저 살펴봐야 한다. 그런 후에야 앨런 튜링존 설, 나아가 레이 커즈와일잭 코플랜드의 이론을 이해할 수 있을 것이다.


②뇌의 원리

진화 초기 단계의 생물에겐 뇌가 필요 없었다. 세포의 종류와 형태가 다양해지면서 복잡한 생명체가 나타났고, 이 생명체는 각 세포 간 복잡한 소통을 하기 위해 여러 화학 신호를 보내기 시작했다. 커뮤니케이션이 복잡해지면서 어떤 세포는 메시지를 전달하는 기능을 맡게 됐다. 이들이 발전한 것이 신경세포, 즉 뉴런이다. 뉴런은 어느 한 부분에 있지 않고 신체의 거의 모든 곳에 퍼져 있다. 물론 해파리처럼 근육과 뼈가 없이 뉴런과 같은 신경 체계로만 사는 동물도 있다. 하지만 대부분의 동물은 뉴런이 발달해 있고, 뉴런이 외부 감각을 받아들이는 핵심 기관인 눈과 입, 코 등의 주변에 몰리면서 뇌로 발전했다.


인간의 뇌는 약 800~1000억개의 뉴런으로 이뤄져 있다. 수천조개에 달하는 시냅스라 불리는 신경 연결망을 통해 뉴런 간에 신호를 주고받는다. 즉, 뇌에서는 어느 한순간도 쉬지 않고 이런 화학적 신호들이 오간다. 특히 사람에게는 특히 성상세포란 것이 있어 이것이 고차원적 신호를 담당하는 것으로 알려져 있다. 이런 모든 신호가 조합돼 전체를 이룬 것이 바로 생각이다. 외부 감각에 대한 느낌, 과거에 대한 기억, 어떤 현상에 대한 감정 등이 모두 생각의 틀 안에 있다.


뇌는 크게 세 부분으로 나뉜다. 파충류의 뇌로 불리는 후뇌, 포유류의 뇌로 불리는 중뇌, 영장류의 뇌로 불리는 대뇌다. 후뇌는 본능과 연결된다. 심장이 뛰거나 호흡하는 것처럼 생존과 직결된 영역을 담당한다. 또 죽음과 같은 위협을 감지하고 반응하는 것도 후뇌다. 후뇌는 인류가 포유류로 진화하기 전부터 존재한 아주 오래된 기능을 담당한다. 중뇌는 뇌의 중앙에 위치하는데 주로 감각 정보를 인지한다. 눈과 귀, 입, 손 등을 통해 전해지는 오감을 인지하고 여기에 적절한 행동(근육, 뼈의 움직임 등)을 조절한다. 생존 또는 사냥을 위해 시각, 후각, 청각이 발달해야 했던 포유류는 중뇌가 발달돼 있다. 실제로 진화 초기의 포유류는 후각을 담당하는 뇌의 부분이 발달해 있다고 한다.


뇌의 가장 바깥쪽을 차지하면서 크기도 제일 큰 대뇌는 우리가 보통 생각하는 뇌다. 좌뇌와 우뇌로 나뉜다. 보통 좌뇌는 논리적 사고를, 우뇌는 공감각과 감성 등을 담당하는 것으로 알려져 있다. 대뇌 중 앞쪽에 위치한 부분을 전두엽이라고 하는데, 여기선 주로 언어와 사회성 등을 다룬다. 네안데르탈인과 호모 사피엔스의 가장 큰 차이점은 전두엽에 있다고 한다. 즉, 사피엔스는 언어와 사회성이 뛰어났기 때문에 3만 5000년 전 유럽에서 네안데르탈인과의 싸움에서 이겼다.


그렇다면 우리는 어떻게 생각을 하는가. 과거에 대한 기억, 어떤 사람에 대한 감정 등은 무슨 원리로 저장되는가. 인간의 기억과 감정은 뉴런 하나하나에 저장되는 것이 아니라 뉴런들이 주고받는 패턴 속에 저장된다. 휴대폰 잠금을 풀 때 점 하나하나가 중요한 게 아니라 각 점을 잇는 패턴이 중요하듯 말이다. 그러므로 각각의 기억과 감정은 손가락의 지문처럼 고유의 패턴을 갖고 있다.


1950년 앨런 튜링 이후 인공지능 연구는 한 동안 정체돼 있었다. 1970년대에 미국의 로봇 공학자 한스 모라벡은 ‘모라벡(Moravec)의 역설’을 제기했다. 그는 “인간에게 쉬운 일이 기계엔 어렵고, 기계에 쉬운 일은 인간이 잘 못 한다”고 했다. 예를 들어 자연스럽게 걷고 움직이는 것은 어린아이도 쉽게 할 수 있지만, 로봇에겐 매우 힘들다. 체스와 바둑에선 기계가 이미 인간을 뛰어넘었지만 갓난아이조차 가진 신체적 능력을 기계는 재현하기 어렵다.


이는 생각이라고 부를만한 것에 대해서도 마찬가지다. 컴퓨터는 매우 복잡한 수식을 계산하고 방대한 양의 데이터를 다루는 것은 쉽지만 얼굴을 인식하긴 어렵다. 인공지능이 개와 고양이를 구분하기 시작한 것도 비교적 최근의 일이다. 즉, 인공지능이 지금과 같이 급속도로 발전한 것은 최근의 일이다. 수십년 간 정체됐던 인공지능 기술이 갑자기 발전하게 된 핵심 원인 중 하나는 인공신경망 기술이다. 인간의 뇌처럼 신경망을 연결하는 컴퓨터를 만든 것이다. 인간이 일일이 아날로그 언어를 디지털 언어로 변환해 정보를 입력하는 대신 스스로 학습하도록 했다. 바로 ‘머신 러닝’이다.


놀라운 것은 ‘머신 러닝’의 개념을 처음 제안한 사람이 앨런 튜링이라는 점이다. 1950년에 쓴 「계산기계와 지능」이란 논문에서 ‘아동기계’라는 이름으로 학습하는 컴퓨터를 고안했다. 이제 앨런 튜링의 생각을 살펴보자.



앨런 튜링의 문제제기 「계산기계와 지능」

①흉내게임과 아동기계

튜링의 논문을 요약하면 인간을 흉내낼 수 있는 컴퓨터가 ‘흉내게임’을 통과하면 생각하는 능력을 갖고 있다고 봐야한다는 것이다. 특히 이 컴퓨터는 처음부터 인간 성인과 같은 생각 능력을 갖추기 어려우므로, 어린이 수준의 능력을 가진 ‘아동기계’를 만들어 스스로 학습할 수 있도록 하자는 것이 튜링의 결론이다. 그의 논문은 ‘기계가 생각할 수 있을까’란 첫 문장으로 시작한다. ‘흉내게임’에는 남자, 여자, 질문자 3명이 참가한다. 방식은 간단하다. 질문자는 각각 분리된 공간에 있는 남자와 여자에게 말을 걸어 답변을 듣는 과정에서 누가 남자이고, 여자인지 밝혀내는 것이다.[1]


기계 입장에서 최선의 전략은 최대한 인간처럼 그럴 듯하게 보이려고 노력하는 것이다. 예를 들어 매우 어려운 산식을 문제로 내면, 원래 자신의 능력대로 너무 빨리 답변해선 안 된다. 그런 경우 기계라고 들통 날 것이기 때문이다. 또 “당신은 기계인가”라는 질문에 “당연히 아니다”와 같은 거짓말도 가능하다. 즉, 튜링은 자신이 처음 제기한 질문 ‘기계가 생각할 수 있을까’를 ‘흉내게임을 잘 할 수 있는 상상 가능한 디지털 컴퓨터가 있을까’로 바꿨다. 뒤에서 자세히 살펴보겠지만 이에 대해 잭 코플랜드는 “튜링의 관점이란 ‘컴퓨터가 생각할 수 있는가’ 하는 다소 모호한 철학적 질문을 그저 단순하게 ‘컴퓨터가 튜링 테스트를 통과할 수 있는가’로 정확하고 과학적인 질문으로 대체한 것”이라고 요약한다.[2]


튜링은 논문의 결론에서 생각하는 기계가 성인의 마음을 흉내내는 과정에서 어떤 과정이 그 마음에 이르게 했는지를 다음과 같이 요약했다. ①출생시 마음의 초기 상태 ②마음이 받은 교육 ③(교육이 아닌) 마음이 겪은 경험. 처음부터 성인의 마음보다는 차라리 아동의 마음을 흉내내는 프로그램을 만들고 적절한 교육의 과정 거쳐 성인의 뇌를 얻자고 주장한다.


그 이유는 아동의 뇌가 성인의 뇌에 비해 빈 공책처럼 메커니즘은 별로 없고 여백이 많기 때문이다. 메커니즘이 적으면 쉽게 프로그래밍할 수 있고, 학습의 과정을 거쳐 복잡한 사고를 구현할 수 있게 된다. 튜링은 1950년에 쓴 이 논문에서 “20세기 말이면 언어의 용법과 식자의 여론이 달라져 기계가 생각한다는 말에 거부감이 없어질 것”이라고 예측했고 이는 현실이 됐다.


②생각을 언어로 측정하는 이유

튜링의 이야기를 마무리 짓기 전에 우리는 한 가지 중요한 사실을 짚고 넘어갈 필요가 있다. 튜링 테스트의 요점은 기계와 대화해보고 그 기계가 사람과 별 다른 차이가 없다면 생각하는 능력을 갖춘 것으로 봐도 된다는 것이다. 즉, 인간과 비슷한 언어능력을 갖고 있으면 생각하는 존재로 봐도 무방하다는 이야기다. 여기서 가장 중요한 전제는 ‘생각=언어능력’이라는 것이다. 이 명제가 참이 아니면 튜링테스트의 결과는 무용하다. 그렇다면 생각이 곧 언어능력인 이유는 무엇인지 따져봐야 한다.


인간의 머릿속에 일어나는 생각이라는 과정은 크게 2가지로 이뤄진다. 첫째는 감각을 통한 것이다. 듣고 보고 맡고 느끼는 것인데, 그 중에서도 가장 기본은 시각이다. 퇴근 후 저녁으로 무엇을 먹을까라는 생각을 한다고 치자. 매콤한 김치찌개를 먹을 수도 있고 깔끔한 샐러드를 택할 수도 있다. 머릿속의 생각은 김치찌개와 샐러드의 이미지, 맵거나 달콤한 소스의 향 등이다. 이처럼 단순한 생각은 시각을 중심으로 청각, 후각 등의 감각이 더해져 이뤄진다.


그런데 이번엔 다음 주에 어떤 보고서를 쓸까 하는 생각을 한다고 치자. 물론 하얀 종이와 컴퓨터 자판이 떠오를 수 있지만, 주된 생각은 언어를 매개로 하게 된다. 이미지와 동영상, 나아가 냄새와 촉각 등의 역할은 크게 줄어든다. 언어가 있어야 개념을 정의할 수 있고, 개념이 밑바탕 돼야 논리와 추론이 가능하다. 인간만이 할 수 있는 고차원적인 사고의 본질은 언어라는 것이다. 20세기의 철학자들이 인간 사고의 본질을 탐구하면서 언어 분석에 집중했던 이유도 그 때문이다.


이처럼 언어가 달라지면 생각도 달라진다. 예를 들어 영어권에 있는 사람과 한국어 문화권에 있는 사람은 기본적으로 생각의 틀이 다르다. 대표적인 게 높임말·낮춤말이다. 한국어는 말 자체로 위계서열이 나뉜다. 높임말을 쓰는 사람과 낮춤말을 쓰는 사람에 누구냐에 따라 권력구조가 형성된다. 그러나 영어는 여기서 자유롭다. 어린 소년과 나이 든 할아버지가 대화를 한다고 치자. 이들은 서로 이름을 부르며 대화하고, 서로를 친구라 부르기도 한다. 우리처럼 말을 통해 위계구조가 생기고, 관계가 수직적으로 결정되지 않는다. 최근 여러 기업들이 임직원 간에 영어 이름을 부르고 서로 존댓말을 쓰는 것도 그런 이유에서다.


말의 어순도 생각에 영향을 미친다. 예를 들어 우리말은 ‘나는 너를 사랑해(주어 목적어 동사)’지만 영어는 ‘I love you(주어 동사 목적어)’다. 우리말은 나의 감정 뿐 아니라 너와의 ‘관계’를, 영어는 너를 이야기하기에 앞서 나의 감정을 우선시 한다. 영어권 사람들이 자신의 생각을 솔직하게 표현하고 감정을 나타내는데 익숙한 이유도 이런 영향이 크다고 볼 수 있다. 이처럼 언어가 생각의 전부라고 볼 순 없어도 언어가 생각의 상당 부분인 것은 분명하다. 그런 이유에서 마르틴 하이데거는 “언어가 존재의 집”이라 했고, 루드비히 비트겐슈타인은 “내가 아는 언어의 한계가 내가 사는 세상의 한계”라고 했다.



존 설의 ‘중국어 방’

미국의 철학자 존 설은 「마음, 뇌 그리고 과학」에서 ‘중국어 방’이라는 논증을 통해 생각하는 기계는 말이 안 된다고 일축했다. 튜링의 주장을 정면 반박한 것이다. 「존 설의 비판에 대한 반론」, 「흥미로운 사례, 중국어 방」에서 제시한 레이 커즈와일과 잭 코플랜드의 생각을 읽기에 앞서 존 설의 주장이 무엇인지부터 살펴보자.[3]


중국어 방이라는 곳에는 1명의 사람이 들어 있고 밖에서는 타이핑된 질문지를 구멍으로 집어넣은 후 답변이 나올 때까지 기다린다. 이때 질문과 답은 모두 중국어다. 다만 그 안에 있는 사람은 중국어를 전혀 할 줄 모른다. 그러나 일종의 코드북, 또는 지침서를 통해 질문에 맞는 답변을 짜맞춰 결과물을 내놓는다. 밖에서 보기에 중국어 방에서 나온 결과물은 지능적인 것이라고 볼 수 있다. 중국어로 물었는데 중국으로 답변이 나왔으니 ‘중국어 방’은 중국어를 할 줄 아는구나 하고 생각할 수 있다. 그러나 방 안에 있는 사람은 중국어를 전혀 할 줄 모르고, 글자 역시 구불구불한 그림과 패턴으로만 인식할 뿐이다. 그에게 입출력은 무의미한 기호인 것이다.


존 설은 중국어 방을 컴퓨터로 가정한다. 방 안의 사람이 중국어 질문과 답변은 완벽히 완료했다 하더라도 사실은 중국어를 모르는 것처럼, 중국어로 이야기할 수 있는 컴퓨터가 있다고 해서 그것이 중국어를 이해한다고 볼 수는 없다는 이야기다. 단지 기호를 조작하는 것만으로 언어를 이해하고 생각을 한다고 보면 안 된다는 뜻이다. 설의 이 논증은 큰 파장을 일으켰다. 인공지능 연구자, 또는 인공지능에 관심이 많은 이들은 설의 논증을 ‘바보 같다’고 평가했지만, 그 외의 사람들 중엔 설득력 있다고 느끼는 이들이 많았다. 직관적으로 이해하기엔 그다지 틀린 말이 없어 보이기 때문이다. 그러나 ‘중국어 방’ 논증은 논리적으로 모순된 부분이 많다. 이와 관련해 커즈와일과 코플랜드의 사유를 살펴보자.




‘존 설에 대한 반론’ ① 레이 커즈와일 「존 설의 비판에 대한 반론」

커즈와일은 설의 중국어 방 논증에 대해 ‘동어반복에 불과하다’고 일축한다.[4] 그러면서 “광합성의 결과로 나오는 산소를 탐지하듯 다른 개체의 주관성도 탐지할 수 있으리라 기대한다”는 것은 말이 안 된다고 한다. 즉 “설은 뇌 과정의 핵심을 파악하지 못했고, 뇌를 모방하는 비생물학적 과정들의 핵심도 파악하지 못했다”는 것이다. 커즈와일의 설명에 따르면 생물학적이든 비생물학적이든 인간 언어를 제대로 이해하지 못하는 개체는 유능한 심문자의 추궁에 금방 정체가 탄로난다. 그러므로 사람처럼 대답을 잘 할 수 있는 프로그램이라면 인간의 뇌만큼 복잡해야한다.


중국어 방 전체는 중국어를 이해한다고 볼 수 있지만, 각각의 세부 요소들에 이해력이 담겨 있진 않다. 이는 사람이 한국어나 중국어, 영어를 쓴다고 해서 각각의 뉴런들이 그 언어를 이해하지 못하는 것과 같다. 커즈와일은 “영어에 대한 나의 이해는 신경전달물질의 강도나 시냅스의 활약, 뉴런 간의 연결 등이 취하는 광범위한 패턴에 있다”고 설명한다. 그러므로 “이런 패턴 인식 시스템에 사용되는 기법들은 생물학적 과정을 역분석해 비생물학적 개체에도 옮겨 심을 수” 있다. 인간의 뇌를 따라한 컴퓨터 프로그램을 만들어 실제 생각하는 인공지능을 개발할 수 있다는 이야기다. 앞서 살펴본 것처럼 인공신경망을 사용한 컴퓨터가 대표적인 예다.


커즈와일은 또 중국어 방 안에 있는 사람은 사실 아무런 의미가 없다고 말한다. 그 사람은 기계적으로 컴퓨터에 입력하고, 출력을 전달할 뿐이다. (코드북을 찾아 질문에 대한 답변을 내놓을 뿐이다) 다르게 말하면 프로그램에 정해진 규칙을 반복적으로 따를 뿐이다. 커즈와일에게 중국어 방 논증에 사용된 사람, 방 등은 꼭 필요한 요소가 아니다. 오직 의미있는 한 가지 유일한 요소는 질문에 대한 답변을 내놓는 컴퓨터(코드북)이다.


이 때 이를 해낼 수 있는 컴퓨터는 ‘완벽한 모방’ 능력을 갖추고 있으므로 중국어를 이해한다고 봐야 한다는 게 커즈와일의 요지다. 이를 해낼 수 있는 컴퓨터는 인간의 깊이와 복잡성을 갖추고 있다고 봐야 한다. 이는 사람도 마찬가지다. 앞서 커즈와일이 “영어에 대한 나의 이해는 신경전달물질의 강도나 시냅스의 활약, 뉴런 간의 연결 등이 취하는 광범위한 패턴에 있다”고 말한 것처럼 설의 논리대로면 인간의 뇌 역시 이해력이 없다는 결론에 도달한다. 뉴런과 시냅스는 그저 기호를 다를 뿐이고 그 어디에도 이들 각자가 중국어를 이해한다고 볼 수 있는 증거는 없기 때문이다.


이에 대해 설은 다음과 같은 반박을 내놓는다. “진짜 사람의 뇌는 일련의 특정 신경생물학적 과정들을 통해 의식을 일으킨다. 의식이란 소화, 젖 분비, 광합성, 유사 분열처럼 생물학적 과정임을 인정하는 것이다. 이런 생물학적 과정을 가능케 하는 생물학 원리를 찾듯, 의식을 가능케 하는 생물학 원리를 찾는 게 옳다.”


커즈와일 역시 재반박을 하는데 요약하면 “이런 놀라운 견해에 대한 근거는 전혀 내놓지 않는다”는 것이다. 즉, 주장만 있고 이를 뒷받침할 수 있는 논증을 하지 않았다는 이야기다. 생물이 이산화탄소를 배출하는 것은 객관적 측정이 가능하지만, 어떤 개체가 의식이 있는지는 객관적 측정이 불가능하다. 오직 추론적 논증으로만 가능하다는 게 커즈와일의 논지다. 그러면서 커즈와일은 ‘생물학적 뉴런도 기계나 마찬가지'라고 말한 설의 논리를 토대로 뇌 역시 하나의 컴퓨터와 같다고 결론 내린다. 다만 지금의 컴퓨터는 인간 뇌보다 훨씬 못 미치는 존재라고 단서를 단다. 그러나 이게 끝은 아니다. 수십 년 안에 인간과 컴퓨터의 역전이 벌어질 것이라고 예측한다. 바로 특이점이다.



‘존 설에 대한 반론’ ② 잭 코플랜드 「흥미로운 사례, 중국어 방」

존 설의 중국어 방에 대한 잭 코플랜드의 반론 역시 커즈와일의 지적처럼 날카롭다.[5] 철학자이자 논리학자답게 코플랜드는 설의 주장을 먼저 구문론과 의미론으로 요약한다. 그러면서 설 주장의 핵심은 구문론의 숙달만으로는 의미론을 익히기 미흡하다는 것이라고 압축한다. 구문론은 기호조작을 수행하기 위한 몇 개의 규칙을 완전히 익히는 것이고, 의미론은 기호가 진정 의미하는 바를 이해하는 것이다. 구문에 대한 지식 자체만으로는 의미에 대한 지식에 이해하지 못한다는 뜻이다. 그러면서 아랍어에 문장 앞에 Hal을 붙이면 의문문이 되고, 문장의 술어 앞에 laysa를 붙이면 부정문이 되는 사례를 예로 들었다. 문장의 뜻을 이해하지 못해도 의문문과 부정문을 만들 수 있는 것처럼 구문론만으로는 의미론을 충족시킬 수 없다.


이에 대한 코플랜드의 첫 번째 반박은 ‘시스템 반론’이다. 이는 커즈와일의 생각과 유사하다. “방에 있는 사람은 중국어를 이해하지 못해도 그 사람이 포함된 전체 시스템은 중국어를 이해한다”는 것이다. 이는 커즈와일이 인간의 경우 각각의 뉴런과 시냅스가 중국어를 이해하지 못해도 인간은 중국어를 이해한다고 예시를 든 것과 같다.


코플랜드의 두 번째 반론은 시스템 반론에 대한 설의 반박을 먼저 설명한다. 즉, 설은 시스템 반론이 그 시스템이 중국어를 이해한다는 가설을 별도로 논증하지 않고 직관적인 주장만 함으로써 논점을 회피하려 한다고 말한다. 이에 대해 코플랜드는 논점을 회피한다는 설의 지적에는 동의한다. 그러면서 그의 두 번째 반론을 시작한다. 핵심은 “설의 결론이 전제로부터 도출되지 않는다”는 것이다.


코플랜드에 따르면 방 안에 있는 사람이 중국어를 이해하지 못한다는 전제로부터 이 사람을 구성요소로 하는 시스템이 중국어를 이해할 수 없다고 결론내리는 과정이 타당하지 않다. 즉, 전제와 결론 사이에 논리적 연결 고리가 없다는 뜻이다. 쉽게 말하면 중국어 방이라는 시스템이 중국어를 이해하지 못하는 것이라면 그 시스템 자제를 살펴보고 분석해야지, 단지 그 안에 든 사람이 중국어를 이해하지 못하므로 그 시스템 전체가 중국어를 모른다고 결론짓는 추론 방식이 틀렸다는 이야기다. 이는 다음에 설명할 세 번째 반론과 연결된다.


세 번째 반론은 다음과 같은 명제에 대한 부정이다. 설의 중국어 방이 참이려면 ‘어떤 사람이 X를 할 수 없으면, 그 사람의 어느 부분도 X를 할 수 없다’는 전제가 있어야 한다. 이에 대해 코플랜드는 이 전제가 참이라고 여길만한 근거가 전혀 없다고 주장한다.


네 번째 반론은 ‘단순한 기호 조작이 이해를 만들어낼 수 없다’는 설의 주장이 증명되지 않았다는 것이다. 그러나 이 부분에 대해선 코플랜드조차 “내가 이 주장으르 정면으로 겨루고 있지 않은 건 사실이다, 그러나 설의 주장은 마치 누군가에게 10달러를 빌려서 그 사람에게 빚진 10달러를 갚는 것과 같다”고 말한다. 올바른 논증이 생략됐다는 뜻으로 해석된다.



결론

커즈와일과 코플랜드 모두 설의 ‘중국어 방’을 신랄하게 비판했다. 인공신경망을 가진 오늘날의 컴퓨터가 뇌를 모방해 만들어졌다는 측면에서, 뇌 역시 컴퓨터처럼 뉴런과 시냅스 등의 화학작용을 한다는 관점에서, ‘중국어 방’ 논증은 오늘날 큰 설득력을 잃었다. 아마도 설은 기계와는 차별화 된 인간 고유의 무엇을 지키려 했던 것 같다. 이런 그의 관점은 꼭 틀린 것만은 아니다. 인간에게는 기계가 할 수 있는 생각 말고도 또 다른 차원의 생각이 있기 때문이다. 예를 들어 프로이트가 말한 자아와 초자아의 구분 같은 것들 말이다.


여기서는 코플랜드가 쓴 또 다른 글인 「기계는 생각할 수 있을까」의 내용을 중심으로 인간의 사고와 의식 등을 살펴보는 것으로 논의를 끝맺고자 한다. 코플랜드는 “사고와 의식이 항상 함께 가는 것은 아니다”고 말한다. 즉, “우리의 정신 속에서 벌어지는 일들 중 많은 것을 의식하지 못한다고 말한 프로이트처럼 ”우리의 많은 생각과 행동 중에는 ‘의식하고’ 하는 것들도 있고 ‘무의식적’으로 하는 것들도 있다.


특히 뇌의 여러 부분 중 후뇌와 중뇌에서 일어나는 일들과 상당 부분의 정신작용은 “우리가 알아차리지 못한다”는 것이 코플랜드의 설명이다. 그러므로 “인간의 중요한 정신적 활동, 말을 이해하거나 외부 세계를 지각하는 것 등은 비의식적으로 수행될 수 있다”는 논지다. 그렇기 때문에 “튜링테스트를 통과한 컴퓨터를 생각하는 존재라고 부르는 것을 보류한다면 이는 그저 생각한다는 단어를 인간과 우리의 생물학적 친척만 독점하는 것과 마찬가지”라고 볼 수 있다. 이는 “탄소로 구성된 존재보다 실리콘으로 구성된 존재에게 더 많이 붙는 노골적 편견”인 것이다.


결과적으로 기계든 인간이든 모든 사고가 의식적으로만 이뤄지는 것은 아니다. 좀 더 질문을 쪼개보면 기계가 일반 사고와는 다른 의식 능력이 있는지는 지금껏 살펴본 논의보다 더 복잡한 논쟁이 필요하다. 다만 우리가 알 수 있는 것은, 영화 HER에 나오는 것처럼 거의 모든 경우의 수에 대비할 만큼 복잡한 알고리즘을 가진 인공지능은 사람처럼 ‘보통의’ 생각을 한다고 볼 수 있다는 점이다. 커즈와일이 말하는 2045년의 특이점이 어느 정도 수준에 있을 지는 모르겠지만.



주석

  1. 출처: 「계산기계와 지능(1950)」〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕
  2. 출처: 「기계는 생각할 수 있을까」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 87-134쪽.〕
  3. 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕
  4. 출처: 「존 설의 비판에 대한 반론」은 〔레이 커즈와일 지음/장시형·김명남 옮김, 『특이점이 온다』, 김영사, 2007, 638-654쪽.〕
  5. 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕