인공지능 분야의 고전 읽기
red
목차
앨런 튜링의 논문을 토대로 더글러스 호프스태터의 논문 읽기
요구사항
과제원고 : 김웅기, 김태형, 장민주
인물 정보
①앨런 튜링(1912-1954)
- 영국 런던에서 태어난 앨런 튜링이 20세기 전반기에 이룬 업적은 오랫동안 세상에 알려지지 않았다. (국가적) 비밀이었거나 시대를 너무 앞서간 탓이었다. 1935년 20대 초반의 나이에 케임브리지대 펠로 연구원이 된 튜링은 이듬해 발표한 논문에서 현대 컴퓨터의 기원이 되는 ‘튜링 기계’라는 개념을 제안하였다. 당시 그 가치를 알아볼 수 있는 사람은 전문가 중에서도 극소수였다. 2차 세계대전 중에는 독일군의 암호인 에니그마를 깨는 데 큰 공헌을 한다. 이 과정에서 ‘튜링 기계’를 모델로 하는 세계 최초의 컴퓨터 콜로서스가 개발되기도 하였다. 하지만 전쟁 중의 모든 활동은 30여 년간 비밀에 부쳐져야 했다.
- 가장 유명한 튜링의 업적이라면 인공지능의 개념과 구현할 방법을 확립한 논문 「계산 기계와 지능」(1950)이 손꼽힌다. 이 논문에서 그는 튜링 테스트와 머신 러닝이라는 참신한 아이디어를 제안하였고, 후대 컴퓨터 공학은 이를 토대로 오늘날 인공지능의 상당한 현실화에 이르렀다. 튜링은 이 논문에서 20세기 말이면 인공지능이라는 생각이 보편성을 얻으리라고 내다보았다.
②더글라스 호프스태터(1945~)
- 뉴욕에서 출생한 호프스태더는 1961년 노벨 물리학상을 수상한 독일계 할아버지 로버트 호프스태더의 학문적 자질을 이어받아 일찍이 과학자의 길로 접어들어서 1965년 스탠퍼드 대학교를 졸업했고 1975년에는 오리건 대학교에서 물리학 박사학위를 받았다. 인디애나 대학교 컴퓨터 과학과의 조교수를 지냈으며, 미시간 대학교 심리학과에서는 인공지능 연구에 몰두했다. 독일 레겐스부르크 대학교, 미국 인디애나 대학교와 MIT 등 여러 대학교의 객원교수를 역임했다.
- 현재는 미시간 대학교와 인디애나 대학교에서 인지과학 및 컴퓨터 과학과 교수로 재직 중이다. 또한 프린스턴 대학교와 하버드 대학교에서 과학철학, 비교문학, 심리학 분야의 객원교수로 활동하면서 르네상스적인 천재성을 유감없이 발휘하고 있다. 그는 전문가 경지의 음악적인 실력은 물론 독일어와 프랑스어, 이탈리아어, 스페인어, 네덜란드어, 러시아어, 스웨덴어를 구사하는 언어 천재이기도 하다. 과학계의 움베르토 에코라 불릴 수도 있을 것이다. 호프스태더는 「괴델, 에셔, 바흐」로 1980년 퓰리처 상 일반 논픽션 부문을 수상했고 같은 해에 미국 도서대상(American Book Awards)을 받았다.
튜링테스트의 핵심
튜링테스트(흉내게임, Imitation Game)는 영국의 수학자 앨런 튜링이 고안한 기계의 인공지능 능력 판별 시험의 일종이다. 이 테스트의 규칙은 우선, 각각의 분리된 공간에 질문자(성별 무관)와 실험대상자 X와 Y를 배치한다. 이때 X는 남자(A)이고 Y는 여자(B)라고 했을 때 질문자는 A와 B를 구분하기 위한 질문을 해야 한다. X는 질문자의 혼란을 야기하기 위해 답변해야 하고, Y는 질문자가 정답을 맞출 수 있도록 도와야 한다. 물론 Y는 자신이 B라고 단번에 이야기할 수 있지만, X가 그것은 거짓말이라고 말할 수도 있기 때문에 이와 같은 답변은 효과가 없는 것으로 간주한다. 질문자의 질문에 X와 Y는 음성변조, 문서 작성 등의 방법으로 답변할 수 있으며, 타자기로 답변을 하면 가장 좋다. 규칙이 완성되었으니 튜링은 이제 X자리에 기계를 둔다. 그리고 질문자가 X를 기계로 판별할 수 있는지에 대한 가정을 세운다. 만일 기계가 자신이 기계가 아니라는 결과를 질문자로부터 도출할 수 있다면 튜링은 그 기계는 ‘생각할 수 있는 기계’라고 본다. 이것이 바로 튜링테스트의 핵심이다.
튜링테스트는 우선 (디지털 컴퓨터처럼 프로그래밍 된)기계는 오류를 범할 수 없다는 인간의 보편적인 인식을 전제한다. 다시 말해서 기계는 인간과 다르게 어려운 연산 문제, 체스 게임 문제 등을 상식을 상회하는 수준의 빠른 속도로 풀 수 있다는 점을 역설적으로 활용하고 있다. 만일 기계가 연산 문제를 푸는데 시간이 오래 걸린다거나, 오류를 범한다면 질문자는 기계를 의심할 것이다. 하지만 기계가 오류를 가지는 것만으로는 인간과 동일하다고 볼 수도 없고 생각한다라고 이야기할 수도 없다. 프로그래머가 의도적으로 문제를 몇 번은 맞추고 몇 번은 틀리는 식으로 프로그램을 구성해서 기계를 만들었을 수도 있기 때문이다. 그리고 이렇게 프로그래밍이 되어 있다면, ‘초감각적 지각 논변’을 통해 튜링테스트의 허점을 간파할 수 있을지도 모른다. 초감각적 지각이란 투시능력, 텔레파시, 예지력, 염력 등을 일컫는 말인데 과학과 수학에서는 보편적으로 비과학적 논변이라 무시해도 될 법한 한데도 튜링이 이 문제에 꽤 진지하게 관심을 갖는다는 사실은 주목할 만하다.
우리는 가끔 사람들과 텔레파시를 주고받는다. 소위 ‘이심전심’이라고 하는데, 언어를 통해서 정보를 주고받는 지각 행위 없이도 상대방의 행위나 심리, 정보 등을 예측할 수 있다. 질문자가 “제 오른 손에 있는 카드가 무슨 패인가요?”라고 질문했을 때, 튜링은 인간이 텔레파시를 활용해 기계보다 더 많이 맞출 수 있다고 주장한다. 그 이유는 기계가 정답을 맞추기 위해 무작위 추출밖에 할 수 없기 때문이다. 하지만 이에 대해서도 튜링은 프로그램에 난수발생기를 삽입하면 기계가 확률 계산에서 예상되는 것보다 더 자주 정답을 맞출지도 모르고 그렇게 된다면 질문자는 누가 기계인지 예측할 수 없다고 말한다. 그런데 이러한 반론에 반론이 내포한 문제는 바로 기계가 항상 프로그래밍 된 상태로서만 인간과 비슷해진다는 점에 있다. 따라서 튜링은 ‘학습하는 기계’를 주장한다.
학습하는 기계
기계가 생각을 하기 위해서는 어떻게 해야 할까? 이 말인즉슨 ‘기계가 지능을 가질 수 있는가?’라는 질문과 일맥상통한다. 생각을 한다는 것은 사고방식을 갖춘다는 말이고, 그것은 곧 지능을 활용한 활동양식에 해당하는 것이기 때문이다. 그렇다면 지능이란 또 무엇일까? 듀이의 경험주의 이론을 따르면 지능이라고 하는 것은 경험에 의해 축적된 산물이라 할 수 있다. 다시 말해서 선험적으로 주어지는 지능 이외에 살아가면서 인간이 경험할 수 있는 것들을 토대로 지능이 형성될 수 있다는 것이다. 이러한 관점에서 ‘학습’의 개념은 새로운 경험을 위해 인간을 낯선 환경에 노출시키는 과정이자, 그 과정에서 경험된 지각을 바탕으로 인간의 행동양식이 변화하는 것의 결과라고 이해할 수 있다. 이것은 생존을 위한 ‘진화’와는 다른 방식이고 훈련과도 다른 방식이다. 앞선 방식들보다 경험을 토대로 어떤 문제를 판단했을 때 그 문제를 해결할 가능성은 훨씬 복잡하며 정답율도 낮다.
튜링은 기계에 이러한 경험주의 학습을 도입하고자 한 듯하다. 그는 인간이 가지고 있는 ‘지능’이라고 하는 것은 애초에 프로그래밍이 불가능하다는 결론을 내렸다. 왜냐하면 성장이 끝난 성인의 지능은 매우 복잡하고 방대하기 때문에 그 변수 하나하나를 모두 기계에 주입해야만 기계가 지능을 가질 수 있다는 결론이 서기 때문이다. 반면 성인보다는 한정적인 경험에 노출된 아동의 지능은 그 변수가 훨씬 적고 프로그래밍할 수 있는 가능성이 있어보였다. 따라서 튜링은 학습하는 기계를 만든다. 물론 아동은 눈, 코, 입은 물론 팔과 다리가 모두 있기 때문에 아동의 학습경험을 모두 기계에 적용할 수는 없다. 기계는 아동보다 훨씬 제약적인 환경에서 학습을 시작해야 한다. 따라서 ‘가르치는 과정’ 또한 제약적이며 대부분 지적활동만을 수행하도록 한다. 이렇게 만들어진 아동 기계는 우선 정서적인 소통을 모두 차단한 상태에서 ‘처벌’과 ‘보상’의 원리를 통해 일어난 사건의 확률을 조작해볼 수 있다. 하지만 이렇게 할 경우 아동 기계가 경험할 수 있는 학습의 정보의 양은 처벌과 보상의 총 횟수를 넘지 못한다. 그것은 훈련과 다를 바 없다. 따라서 다른 ‘비정서적’ 소통 수단이 필요한데, 이러한 일종의 언어체계를 아동 기계가 갖출 수만 있다면 처벌과 보상에 의한 학습 경험은 그 수가 확실히 줄 것이라고 말한다. 그리고 이외의 임의적인 결과를 도출하게 될 것이다.
아동 기계를 만드는 것에 있어서 논리체계를 어떻게 구축할 것인가에 대해서는 프로그래머의 관점에 따라서 달라질 수 있다. 하지만 핵심은 변하지 않는다. 그것은 바로 학습된 기계가 인간적 오류의 가능성을 꽤 자연스럽게 표현할 수 있어야 한다는 것이다. 튜링테스트에 참여하기 위해서 아동 기계는 학습과정에서 정답을 100%로 산출하지 않으며, 임의적 요소를 포함한 기계여야 한다. 이를 통해 알 수 있는 것은 튜링의 인공지능 개념이다. 그것은 아동 기계를 학습시킬 수 있다면 기계는 더이상 시키는 일만 정확하게 하는 것이 아니라는 점이다. 다시 말해 반복학습과 시행착오를 겪은 프로그램이 갖가지 명제와 논리를 활용해 임의적으로 한 가지 사건을 일으킬 수 있다. 그 사건은 예측할 수 없는 것이며, 심지어는 정확하지 않을 수도 있다는 것이다.
더글라스 호프스태터의 인공지능
튜링은 기계가 튜링테스트에 참여하기 위해서는 인간적 오류의 가능성, 즉 임의적인 판단에 의한 결과를 기계가 꽤 자연스럽게 연출할 수 있어야 한다고 주장했다. 하지만 상론한 특징으로 설계된 프로그램을 내장한 기계가 튜링테스트를 통과한다면 그것을 의심의 여지없이 지능을 가진 기계라고 말 할 수 있을까?
더글라스 호프스태터는 철학, 수학, 음악, 언어학, 물리학 등 다양한 접근 방식을 통해 튜링테스트에 참여하는 기계의 ‘지능’에 관해 더욱 폭넓게 접근하고 있다. 그는 우선 튜링이 고안해 낸 이 게임의 효용성과 더불어 이 게임을 반박하는 9가지 논변에 대한 튜링의 생각을 옹호하고 있다. 그런데 마지막 논변 ‘초감각 지각 논변’에 이르러서는 견해가 다르다고 밝힌다. 그 이유는 무엇일까?
우선 호프스태터는 초감각적 지각이 존재하지 않는다고 믿는다. 이 말을 반대로 하면 임의적인 예측이라 할지라도 모든 사건은 유기적으로 연결되어 있다는 것으로 해석할 수 있다. 예를 들어서 “오른 손에 쥔 카드는 무슨 패인가요?”라는 질문에 대한 답변에는 실험대상자의 사고방식이 유입된다. 이러한 사고방식은 정답을 말할 확률을 조작할 수 있는 변인에 속한다. 기계가 가장 먼저 ‘스페이스 킹’을 떠올렸다고 가정을 해보자. 그것은 기계의 저장장치 속에 저장된 카드의 종류 중 하나를 무작위로 선정한 것에 불과하다. 이렇게 여러 번 무작위 선정을 반복하다 보면 정답을 맞출 수도 있고 틀릴 수도 있다. 그것을 튜링은 튜링테스트에 참여할 수 있는 자격이 있는 것으로 보았다. 하지만 호프스태터는 그것을 초감각적 지각에 상응하는 비슷한 프로그래밍으로 해결하기 보다는 기계가 갖는 사고방식과 연결 지으려 한다. 따라서 튜링테스트의 방식과 규칙은 옹호하면서도 그것이 ‘기계는 생각할 수 있을까?’라는 질문에 합당한 테스트가 되기 위해서는 우선 기계가 가지는 사고방식부터 이해할 필요가 있었던 것이다.
튜링이 기계가 갖는 규칙 행동을 벗어나 작은 일탈을 일삼는 것으로서 인간적 오류의 가능성을 내포하는 것으로 기계의 지능을 초점했다면, 호프스태터는 그러한 사고방식 자체를 기계가 가질 수 있는가에 방점을 둔다. 우선 그는 인공지능의 역사를 간략하게 정리하면서 “인공지능 연구는 아직까지 이루어지지 않은 모든 것에 대한 연구이다”라는 테슬러의 정리를 인용한다. 이 말은 시사하는 바가 크다. 그 이유는 기계의 지능에 대한 탐구가 항상 인간의 지능에 대한 탐구를 전제할 수밖에 없다는 사실 때문이다. 따라서 다음과 같은 문제가 발생한다. 첫 번째, 인간에게 있어 지능의 정수란 무엇인가? 두 번째, 기계는 인간이 생각하는 지능의 정수를 자체적으로 사고할 수 있는가. 세 번째, 기계가 사고할 수 있다면 사고하고 있다는 사실을 기계가 알아차릴 수 있는가? 호프스태터는 인간이 나름대로 지능의 정수라고 생각하는 탐구 영역을 분류해 놓았다. 그리고 그 영역에서의 기계의 지적활동이 얼마큼의 성과를 보여주는가가 인공지능 연구의 토대가 되어왔다고 설명한다. 이 중에서 체스 게임, 하이쿠, SHRDLU를 예로 든 부분들을 살펴보면 기계가 ‘이해력’ 또는 ‘사고방식’을 가질 수 있는가에 대한 그의 견해를 파악할 수 있다.
체커프로그램과 하이쿠
2016년 세기의 이목을 끈 대결이 있었다. 바로 세계적인 바둑기사 이세돌과 바둑 인공지능 프로그램 알파고의 바둑 대결이 그것이다. 대국은 총 5회에 걸쳐 진행이 되었으며, 알파고가 이세돌에게 4승 1패로 승리를 거두었다. 주지하다시피 바둑은 체스보다 경우의 수가 훨씬 많은 게임이다. 흑돌과 백돌을 번갈아 놓으면서 상대방보다 빈 교차점을 둘러싸 집을 더 많이 만들면 이기는, 게임의 규칙은 간단하지만 변수가 ‘아주 많이’ 존재한다. 총 64칸의 체스판 위에서 기계가 인간을 이기기 위해서는 일어날 수 있는 변수를 모두 계산하여 상대방에게 유리한 변수를 제거하면서 말을 놓게 되면 언젠가는 이길 수 있다.[1] 하지만 바둑은 모든 변수를 계산한다는 것부터가 무리라고 할 수 있다. 그렇게 되면 룰에 따라 시간 초과로 페널티를 받고 쓸쓸히 퇴장할 것이다. 이에 따라서 많은 사람들이 바둑판에서는 기계가 인간을 이기지 못할 것이라고 생각했다. 하지만 2007년 ‘모고’의 승리, 2013년 ‘크레이지 스톤’의 승리, 그리고 2016년 ‘알파고’의 승리는 인간세계에 적잖은 충격을 주었다. 알파고는 몬테카를로 알고리즘에 더해서 딥러닝 알고리즘으로 사람처럼 스스로 바둑을 학습할 수 있다고 한다.[2] 이때 주목해야 할 단어는 바로 ‘스스로’와 ‘학습’이다.
이제 다시 호프스태터의 이야기로 돌아가 보자. 「인공지능 회고」(『괴델, 에셔, 바흐』, 1979)라는 논문이 쓰일 때만 하더라도 기계는 체스판 위에서 인간을 절대로 이길 수 없었다. 개개의 말들이 어디에 놓여야 하는지에 대한 지식보다는 판세를 읽을 수 있는 발견술적인 지식이 기계에는 없었기 때문이다. 이를 마련하기 위해서는 상당히 복잡하고 어려운 기술이 필요했다. 그것은 바로 예측을 통하여 얻어진 지식 자체를 단순해진 규칙으로 번역할 수 있는 프로그램을 개발하는 것이었다. 이런 게임에서의 판세를 판단할 수 있는 프로그램은 그 당시에 새뮤얼의 체커프로그램[3]이 유일했다고 전한다. 새뮤얼의 체커프로그램은 게임에서 판세를 평가할 때 정적인 방식과 동적인 방식을 함께 사용했다. 정적인 방식은 ‘예측하지 않는 것’으로 판세와 상관없이 규정할 수 있는 행마를 연산하는 것이고, 동적인 방식은 ‘예측하는 것’으로 앞으로 가능한 행마의 수형도를 그리는 것이었다. 이러한 두 가지 방식에 대해 프로그램은 동적인 방식으로 행마를 정하고 그 뒤의 행마는 정적인 방식을 취하게 했다. 이렇게 될 경우에 재귀순환적인 효과가 일어나 판세를 판단하는 데 이득을 준다는 것이다. 하지만 체커는 체스보다는 단순한 게임이었기에 체커프로그램을 체스에 응용한다는 것은 백만 배는 더 어려운 일이었다. 그럼에도 불구하고 여기서 호프스태터가 주목하는 것은 체커프로그램이 행마를 선택할 때 그것이 자기 직관을 어느 정도 표현했다는 사실이다. 즉 이 프로그램은 새뮤얼의 체커 실력을 재현한 것이 아니라, 자기 직관에 의해(예측을 통해) 판세를 판단해 행마를 결정하고, 이후 행마는 앞선 행마의 연관된(예측하지 않는) 정적인 판단으로 게임을 이어 간다는 것이다.
하지만 새뮤얼의 체커프로그램이 지능을 가졌다고 말하기에는 아직 이르다. 왜냐하면 체커에서 판세에 대한 판단을 직관적으로 할 수 있을지라도, 그것이 직관이라고 판단할 수 있는 직관, 다시 말해서 메타-직관을 발견하지는 못했기 때문이다. 하이쿠도 마찬가지다. 호프스태터는 튜링테스트를 위한 프로그램을 하나 만든다. 그 프로그램은 유머러스한 문장을 만들기 위해서 말도 안 되는 낱말들을 활용한다. 이 과정에서 몇 가지는 하이쿠의 형식을 띠는 것도 있다. 하지만 그는 이 프로그램이 곧 싫증이 났다. 그 이유는 프로그램이 작동하는 공간의 한계를 느꼈기 때문이다. 다시 말해 프로그램이 일정한 레퍼토리를 반복하고 있다는 느낌을 받은 것이다. 유머라고 하는 것은 신선하면서도 엉뚱한 발상이 교묘한 공감작용을 일으킬 때 성공할 수 있다. 하지만 엉뚱한 낱말들을 서로 연결 짓는다고 해서 그 프로그램이 유머러스한 기계가 되는 건 아니었던 것이다. 이 깨달음은 기계의 임의적인 행동 방식이 일정 시간 동안에는 새롭고 웃길지 몰라도 그것이 지속적으로 웃기기 위해서는 임의적인 행동을 수행하는 공간의 한계를 돌파할 수 있어야 한다는 것을 의미한다. 그것을 위해서는 기계가 ‘학습된’ 낱말을 임의적으로 배치하는 것보다도 ‘스스로’ 자신이 웃긴 말을 생산하고 있다는 사실 자체를 파악할 수 있어야 한다.
메타-사고
호프스태터는 지속적으로 ‘기계는 지능을 가질 수 있는가’라는 튜링의 질문을 자신만의 방식으로 풀어간다. 거기에는 한 가지 철학이 숨겨져 있다. 이 논문의 핵심은 아마도 <정리의 증명과 문제의 환원>이라는 파트 이하에 있을 것이 분명해 보인다. 그 이유는 다음과 같다. 우선 인공지능 연구 초기 단계에서는 간단한 ‘정리’를 증명하는 것을 목표로 프로그래밍을 했다. 하지만 시간이 흐르면서 기계가 인간과 비슷해지기 위해서는 문제 해결 능력이 있어야 한다는 사실을 파악하게 된다. 이 문제 해결 능력은 상당히 복잡한 층위의 지능이라 할 수 있다. 우선 문제 해결이 목표가 되면, 그 목표를 달성하기 위한 하위 목표가 생성된다. 그리고 그 하위 목표를 달성함으로써 궁극적인 목표에로의 거리를 줄여나가야 한다. 그러나 이 과정에서 목표 자체가 달성된다는 보장이 없기 때문에 나중에 가서는 기계가 난감해할지도 모른다. 호프스태터는 이러한 과정을 문제환원이라고 설명한다.
문제환원의 핵심은 <섄디와 뼈다귀>라는 일화를 통해 충분히 알 수 있다. 그 일화의 핵심은 다음에 있다. 개 한 마리가 있다. 이 녀석에게 뼈다귀를 보여주고는 담장 너머로 던져 버린다. 그랬을 때 녀석은 어떻게 행동할까?라는 질문이 바로 그것이다. 녀석은 곧장 담장 쪽으로 뛰어가서 짖을 수도 있고 담장을 돌아나가서 뼈다귀를 주워올 수도 있다. 이때 ‘짖는다’와 ‘돌아나가다’는 각각 ‘뼈다귀’라는 목표의 하위목표가 된다. 이것을 문제환원이라 할 수 있는데, 이때 호프스태터가 주목하는 것은 바로 문제 공간을 변경할 수 있는 지능이 녀석에게 있는가 하는 것이다. 다시 말해서 담장을 무시하면 뼈다귀와 개의 물리적 거리는 직선적이기 때문에 최소거리가 된다. 즉 물리적으로 목표에 가장 가까운 상태가 되는 것이다. 하지만 담장이 있다면 돌아나가야 해서 일시적으로는 궁극적 목표와 거리가 멀어진다. 이것을 개는 이해할 수 있는가? 이제 이 문제를 기계에 도입해보자. 기계는 단순한 과제가 주어졌을 때 그 문제를 해결하는 것을 아주 당연하고 쉬운 일이라고 이해할 것이다. 하지만 그것이 기계가 지능을 가졌는가에 대한 답은 절대로 아니다. 그것은 어떤 문제를 해결할 때, 기계가 한 발자국 물러서서 어떤 문제가 진행되고 있는가를 판단할 수 있는 지능을 가지는 것과는 완전히 다른 문제이기 때문이다.
따라서 호프스태터는 문제환원 방식을 내재한 프로그램을 생성하는 것에서 더 나아가 이러한 알고리즘 자체를 문제로 파악하는 능력을 프로그래밍할 수 있다면 기계가 비로소 지능을 가졌다는 사실을 인정할 수 있을 것이라 말한다. 그것은 말벌이 복잡하고 체계화된 작업을 성공적으로 수행하는 것과 별개로 그 스스로가 그 과정을 이해하고 있는 것인지, 아니면 본능적으로 수행하는 것인지의 차이를 보면 알 수 있다. 다시 말해서 말벌이 스스로를 말벌이라고 객관화하여 인식할 수 있는가 하는 문제가 지능에 있어서 가장 중요한 요소가 되는 것이다. 이것을 메타-사고라고 할 수 있다. 이러한 메타-사고는 인공지능 발전에 기여하는 수많은 프로그램들에 근본적인 질문을 던진다. 만일 음악을 작곡한 기계가 있다고 치자. 그 음악의 창작자는 프로그래머인가 프로그램인가? 엄밀히 따지자면 작곡에 필요한 몇 가지 음계 지식을 삽입한 프로그램을 프로그래머가 만들었으니, 이를 가지고 프로그램이 임의적으로 조합해 작곡한 음악은 두 창작자를 가지게 되는 셈이다. 메타-창작자(프로그래머)와 창작자(프로그램)가 바로 그것이다. 이 사고방식의 괴리를 얼마나 줄일 수 있는가. 더 나아가 그것을 기계의 사고방식으로 전유할 수 있는가? 다시 말해 기계가 ‘스스로’ 음악을 만들었다고 판단할 수 있는 알고리즘을 확보했는가, 이것이 「인공지능 회고」가 갖는 핵심적 질문이라 할 수 있다.
자연지능과 인공지능의 층위
이러한 관점에서 호프스태터는 다시 한 번 이 인공지능을 미래의 분야로 유보시킨다. 문제를 스스로 이해할 수 있는 능력을 가진 프로그램이 인공지능 기계의 전제가 된다고 했을 때, 그 가능성을 그는 위노그래드의 프로그램 SHRDLU[4]에서 찾고 있다. 이 프로그램은 PLANNER라고 하는 인공지능 프로그램을 통해서 기계언어가 자연언어를 구사하기 위한 통사구조를 어떻게 탐색할 수 있는지에 대한 알고리즘을 설명한다. 예를 들어 “피라미드를 받치고 있는 붉은 주사위”라는 문장을 완성하기 위해서 기계가 스스로 그 답을 찾기 위해서는 끊임없는 문제에 봉착해야 한다. 이 프로그램은 블록세계를 기반으로 하고 있는데, 무수한 블록들이 프로그램에 저장되어 있고 그것을 지식으로 활용한다. 이때 PLANNER 인공지능 프로그램을 통해서 나무 블록을 찾게 하고 그것이 빨간 색인지 묻고, 주사위 모양인지 묻고, 이제 피라미드 블록을 찾고, 주사위 위에 피라미드가 있는지 찾는다면 문장이 완성될 수 있다. 각각의 문제들은 서로 연관되어 있으면서 독립적이기 때문에 문제를 해결하지 못하면 계속 처음으로 돌아간다. 이러한 구조는 기계언어가 형성되는 과정 자체가 자연언어를 단순히 번역하는 것이 아니라 통사론과 의미론을 함께 활용함으로써 문장을 찾아간다는 점에서 의의가 있다.
호프스태터는 이런 종류의 결정이 꾸준히 요구되어야 한다고 이야기 한다. 그것은 바로 지능의 다채로운 층위와 성질의 복잡성을 인공지능 기계가 자연지능의 수준에 이르기까지 문제환원의 방식을 확장해야 가능하다. 하지만 자연지능의 범주가 어디까지인지는 아무도 모른다. 만일 인간 z가 하나의 자연지능 체계 z1을 갖는다고 한다면 z가 발전하는 만큼 z1의 층위는 다양해지고 확장될 것이다. 따라서 개별 인간과 개별 자연지능의 전체 집합으로서의 자연지능 Z는 결국 무한하다는 결론에 이르게 될 것이다. 이러한 관점이라면 기계가 어떤 층위에서 어떤 부분과제들을 해결해야 하는지는 파악하는 것이 어렵다.
다시 현재로 돌아와 ‘스스로’ 바둑을 ‘학습’하고 있는 알파고를 바라보자. 현재 알파고는 더욱 강력해졌다고 한다. 그것은 어떤 관점에서는 문제를 해결하기 위해 끊임없이 지능을 사용하고 있는 것이라 볼 수 있다. 이 기계의 단순한 목표가 바둑에서 승리하는 것이라면, 무조건 승리할 수 있는 공식을 찾아내 프로그래밍하면 그만일 것이다. 하지만 왜 스스로 문제를 파악하고, 반복학습과 훈련을 통해서 승리하기 위한 수를 두는 예측률을 높이는 방식으로 프로그래밍 되었을까? 여기에는 기계가 어떤 층위의 지능까지 활용할 수 있는지에 대한 인간의 욕망이 내재돼 있는 탓도 있지만, 한편으로는 ‘기계는 생각할 수 있을까?’에 대한 질문의 유효성을 보여주는 것이기도 하다. 튜링의 이러한 질문은 호프스태터에 와서 ‘어떤 지능을 가질 것인가?’로 확장되었다. 오늘날 4차 산업혁명과 함께 인공지능 개념이 대중화되기 시작했다. 이제 그것은 어쩌면 인간의 지능을 뛰어넘을지도 모른다는 공상 또는 두려움에서 벗어나, ‘기계는 하나의 개별적 주체로서 지능을 가질 것인가?’에 대한 문제로 변화하고 있는지도 모른다.
이런 의미에서 호프스태터의 기계에 대한 지능이론이 메타-사고의 가능성 논의를 기반으로 하고 있다는 사실은 발칙한 것이 아닐까 하는 생각까지 든다. 그것은 튜링이 이야기한 양파껍질 이야기를 다시금 환기하도록 만드는 것이기도 하다. 헤겔은 ‘무언가’에 대해 시간이나 장소 등의 여러 변화에도 불구하고 ‘무언가’ 속에서 변하지 않고 존재하는 ‘무엇’을 가리켜 자기동일성이라고 부른다. 이에 따르면 ‘인간이란 무엇인가?’라는 질문 속에는 ‘인간’이라는 자기동일성이 내재한다. 그렇다면 만일 ‘인공지능이란 무엇인가?’라는 질문을 인간이 아닌 기계가 스스로 할 수 있는 날이 온다면? 앨런 튜링과 호프스태터는 그것이 결코 불가능한 일이라고는 말하지 않을 것이다.
기본자료
- Douglas Hofstadter, 박여성 · 안병서 역, 「인공지능 : 회고」, 『괴델, 에셔, 바흐 : 영원한 황금 노끈』, 까치, 2017.
- Alan Mathison Turing, 노승영 역, 「계산 기계와 지능(1950년)」, 『지능에 관하여』, 에이치비프레스, 2019.
각주
- ↑ 1997년, 컴퓨터가 마침내 체스에서 사람을 꺾었다. IBM 슈퍼컴퓨터에서 동작하는 체스 프로그램인 ‘딥 블루’가 당시 세계 체스 챔피언인 개리 카스파로프를 물리쳤다.
- ↑ 기계가 스스로 학습하기 위해선 ‘인공신경망’을 가져야 하는데, 알파고는 ‘정책망’과 ‘가치망’이라는 2개의 기본 신경망으로 구성됐다. 정책망이 다음 번 돌을 놓을 여러 경우의 수를 제시하면, 가치망은 그중 가장 적합한 한 가지 예측치를 제시하는 역할을 한다. 구글 연구진은 방대한 바둑 데이터베이스를 활용해 알파고의 정책망에 3천만 개 위치 정보를 입력하는 반복 훈련을 시킴으로써 다음 수 예측률을 크게 높였다. 이 같은 지도학습을 끝낸 후에는 실전을 통해 습득한 데이터를 스스로 가다듬는 강화학습으로 정책망을 더욱 똑똑하게 만든다. 가치망 역시 딥러닝의 강화학습으로 바둑 게임 전체를 읽는 능력을 기를 수 있었다.(이성규, 「이세돌의 상대, 알파고가 바둑을 터득한 비결」, 『KISTI의 과학향기 칼럼』, 2016.)
- ↑ 체커 게임(영국에서는 드래프트(draught))은 고대 이집트의 게임인 ‘알케르케’에서 유래되었다. 가장 오래된 것으로 알려진 알케르케 보드는 기원전 1400년경에 만들어진 것이다. 이 게임은 각자 12개의 말을 가로, 세로 5칸씩인 정방형의 보드에 놓고 시작했다. 그리고 한 칸은 게임을 시작할 수 있도록 비워 두었다. 체커 게임에서는 상대의 말을 뛰어 넘으면 그 말을 모두 잡는 것이며 여러 번 뛸 수도 있다.(베탄 패트릭, 존 톰슨, 이루리 역, 『1%를 위한 상식백과』, 2014. 300쪽.)
- ↑ 영문자에서 가장 자주 쓰이는 12개 알파벳으로 만든 ETAOIN SHRDLU에서 따온 것이다. 사전적 의미로는 컴퓨터가 자연 언어로 된 명령을 이해하고 그 명령에 적절하게 응답할 수 있도록 하는 시스템이라 규정되어 있으며 한국에서는 '슈드루'라고 읽는다.
영상자료
튜링테스트와 앨런 튜링의 생애의 연관성을 짧고 굵게 정리한 강연
앨런 튜링의 논문을 토대로 잭 코플랜드의 논문 읽기
요구사항
과제원고 : 아슈토시, 이만호, 임연
생각에서 의식이 필수적인가?
오직 의식이 있는 존재만이 생각할 수 있다. 많은 사람들이 컴퓨터가 생각할 수 있다는 생각을 비웃는다. 왜냐하면 플라스틱과 금속으로 구성된 장치는 결코 의식을 가질 수 없다는 것을 당연하게 여기기 때문이다. 하지만 이 믿음의 첫 출발이 틀렸다. 사고와 의식이 항상 함께 가는 것은 아니다. 이를 깨달으면 , 컴퓨터가 생각할 수 있는지에 대해 논의할 때 고정관념에서 자유로울 수 있다.
지난 세기 프로이트가 우리는 우리의 정신 속에서 벌어지는 일들 중 많은 것을 의식하지 못한다고 주장했던 것이다. 그러나 오늘날엔 이 주장이 심리학자들 사이에서 진부한 말이 되어 버렸다. 프로이트 심리학의 다른 주제들을 받아들이건 말건 상관없이 우리는 모든 혹은 거의 모든 정신 작용을 의식적으로 알아차리지 못한다. 선구적인 뇌연구자인 '칼 래슐리(Karl Lashley)는 이를 실증하는 간단한 실험을 소개한 적이 있다. 당신이 아는 어떤 곡에서 몇 음을 휘파람으로 부른다.바로 이어서 이 음을 거꾸로 불거나, 아니면 더 높은 음정으로 부른다.아마 아주 쉽게 따라 했을 것이다. 그런데 당신은 이 것을 어떻게 한것인가? 당신의 정신은 당신이 알지 못하는 것을 하고있다.그래서 그 정신 작용의 결과로,당신은 역순으로(혹은 기계적으로 높여서)음을 만들어 낼 수 있다.
당신이 의식할 수 있는 것은, 그 작업의 결과, 즉 갑작스런 지각의 변화일 뿐이다.
예시 1. 잠자리에 들기 전에 머리를 써야 하는 문제로 뒤척이다가 잠이 들었고, 아침에 일어났는데 머릿속에 해결책이 떠오른 경험이 있었는가? 프랑스 시인 생폴루(Saint-Pol-Roux)는 잠들기 전 침실 문에 “시를 쓰는 중”이라는 문구를 써 붙였다고 전해진다. 이 문제해결사 [즉 정신]는 잠을 자는 동안에도 문제에 대해 생각한다. 하지만 [우리는] 당연히 의식하지 못한다.
예시 2. 말하기 전에 의식적으로 말을 고르기도 하지만, 대개는 의식적으로 말을 고르지 않은 채 하고 싶은 말을 그냥한다. 다른 사람이 말한 문장의 의미를 이해하는 것은 대개 내 의식에 이를테면 통째로 떠오른다. 나는 어떤 소리 (혹은 현상)에서 의미에, 다다르게 해주는 정신의 작용을 자각하지 못하며 단지 그 작용의 최종 산물만을 의식한다.
이러한 일상적인 예시에 덧붙여 수많은 실험실 사례들이 있다. 이 실험들은 우리가 행하는 모든 정신 작용을 우리가 의식하고 있다는 말이 얼마나 사실과 다른지를 생생하게 보여준다.
- ‘’’맹시(Blindsight)’’’
맹시는 래리 바이스크란츠(Larry Weiskarantz)와 그의 동료들이 70년대 초에 발견하고 명명한 현상이다. 뇌의 시각 피질 부분이 제거된 사람들은 종종 시야에 결손이 있다고 호소한다. 이런 사람의 앞에서 작은 불빛을 움직여보면, 수술을 받기 전에는 보였어야 할 영역에서 불빛이 보이지 않는다고 대답할 것이다. 바이스크란츠와 그의 동료들은 환자를 스크린 앞에 앉히고, 스크린 위에 작은 불빛을 소았다. 실제로 환자는 불빛 어디 있는지 자신은 전혀 모른다고 의식적으로 믿었다. 하지만 환자가 몇 시간에 걸친 실험 내내 그가 가리킨 위치가 매우 정확했다. 이런 사람 불빛을 볼수 없지만 대부분은 불빛의 위치를 추측할 수 있었다. 그래서 지각이란 의식적 활동일 필요가 없는 것이다.
- ‘’’래크너(Lackner)와 개릿(Garrett)의 실험 ‘’’
이 실험은 ‘칵테일 파티 효과’ (the cocktail party effect)라고 부른다. 수많은 대화들 속에 둘어싸였음에도 우리는 그 대화들 중 하나에 집중할 수 있고 다른 대화들을 잊어버릴 수 있다. 이실험은 피험자들은 양쪽귀에 서로 다른 문장들을 틀어 주는 헤드폰을 썼다. 그들은이 채널중 오직 하나만 듣고,각각의 문장이 들릴 때 다른 말로 바꿔서 말하도록 요청받았다. 피험자들이 들었던 채널에서 들리는 문장들 중 일부는 뜻이 중의적이다.
결론적으로, 비록 피험자들은 의미가 명확한 문장을 들은 일조차 의식하지 못했지만, 그들이 비의식적인 충위에서 주의를 기울이지 않은 채널들을 청각적으로 들었으며, 동시에 그 채널 속의 문장들을 부분적으로 이해했던 것이다.
우리는 인간의 중요한 여러 정신적 활동, 가령 말을 이해하는 것, 외부 세계를 지각하는 것 등이 비의식적으로도 수행될 수 있음을 보았다. 가장 근본적인 질문은 인공물이 이러한 인지적 활동들을 그 의미 그대로 수행할 수 있느냐다. 그리고 우리가 이러한 활동들을 비의식적으로 할 수 있기 때문에 인공물에게 의식이 가능한지와 무관하게 이 질문은 논의될 수 있다.
튜링테스트
이미 테스트를 통과했다?
튜링 테스트에 대한 4 가지 반론
- 침팬지 반론
- 감각기관 반론
- 블랙박스 반론
- 시뮬레이션 반론
튜링테스트에 대한 평가
결론
튜링 테스트에 대한 존 설의 입장을 기초로 잭 코플랜드와 레이 커즈와일의 사유 읽기
요구사항
과제원고 : 길혜빈, 윤석만, 임예찬
생각이란 무엇인가
①'생각'의 정의
②뇌의 원리
앨런 튜링의 문제제기 「계산기계와 지능」
①흉내게임과 아동기계
②생각을 언어로 측정하는 이유
존 설의 ‘중국어 방’
‘존 설에 대한 반론’ ① 레이 커즈와일 「존 설의 비판에 대한 반론」
‘존 설에 대한 반론’ ② 잭 코플랜드 「흥미로운 사례, 중국어 방」
결론
주석
- ↑ 출처: 「계산기계와 지능(1950)」〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕
- ↑ 출처: 「기계는 생각할 수 있을까」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 87-134쪽.〕
- ↑ 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕
- ↑ 출처: 「존 설의 비판에 대한 반론」은 〔레이 커즈와일 지음/장시형·김명남 옮김, 『특이점이 온다』, 김영사, 2007, 638-654쪽.〕
- ↑ 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕