"인공지능 분야의 고전 읽기"의 두 판 사이의 차이
red
(→과제원고 : 아슈토시, 이만호, 임연) |
(→튜링테스트에 대한 평가) |
||
(같은 사용자의 중간 판 42개는 보이지 않습니다) | |||
128번째 줄: | 128번째 줄: | ||
====='''과제원고''' : [[아슈토시]], [[이만호]], [[임연]]===== | ====='''과제원고''' : [[아슈토시]], [[이만호]], [[임연]]===== | ||
<div style="text-align:justify"> | <div style="text-align:justify"> | ||
− | ======생각에서 의식이 필수적인가?====== | + | |
− | ======튜링테스트====== | + | |
− | ====== | + | ======'''생각에서 의식이 필수적인가?'''====== |
− | ======튜링 테스트에 대한 4 가지 반론====== | + | ---- |
− | + | ||
− | + | 오직 의식이 있는 존재만이 생각할 수 있다. 많은 사람들이 컴퓨터가 생각할 수 있다는 생각을 비웃는다. 왜냐하면 플라스틱과 금속으로 구성된 장치는 결코 의식을 가질 수 없다는 것을 당연하게 여기기 때문이다. 하지만 이 믿음의 <font color="#007fff">'''첫 출발'''</font>이 틀렸다. 사고와 의식이 항상 함께 가는 것은 아니다. 이를 깨달으면 , 컴퓨터가 생각할 수 있는지에 대해 논의할 때 고정관념에서 자유로울 수 있다. | |
− | + | ||
− | ====== | + | <br/> |
− | ====== | + | |
− | ====== | + | 지난 세기 프로이트가 우리는 우리의 정신 속에서 벌어지는 일들 중 많은 것을 의식하지 못한다고 주장했던 것이다. 그러나 오늘날엔 이 주장이 심리학자들 사이에서 진부한 말이 되어 버렸다. 프로이트 심리학의 다른 주제들을 받아들이건 말건 상관없이 우리는 모든 혹은 거의 모든 정신 작용을 의식적으로 알아차리지 못한다. 선구적인 뇌연구자인 <font color="#007fff">''''칼 래슐리(Karl Lashley)'''</font>는 이를 실증하는 간단한 실험을 소개한 적이 있다. 당신이 아는 어떤 곡에서 몇 음을 휘파람으로 부른다.바로 이어서 이 음을 거꾸로 불거나, 아니면 더 높은 음정으로 부른다.아마 아주 쉽게 따라 했을 것이다. 그런데 당신은 이 것을 어떻게 한것인가? 당신의 정신은 당신이 알지 못하는 것을 하고있다.그래서 그 정신 작용의 결과로,당신은 역순으로(혹은 기계적으로 높여서)음을 만들어 낼 수 있다. |
+ | |||
+ | <br/> | ||
+ | |||
+ | 당신이 의식할 수 있는 것은, 그 작업의 결과, 즉 갑작스런 지각의 변화일 뿐이다. | ||
+ | |||
+ | |||
+ | '''예시 1. '''잠자리에 들기 전에 머리를 써야 하는 문제로 뒤척이다가 잠이 들었고, 아침에 일어났는데 머릿속에 해결책이 떠오른 경험이 있었는가? 프랑스 시인 생폴루(Saint-Pol-Roux)는 잠들기 전 침실 문에 “시를 쓰는 중”이라는 문구를 써 붙였다고 전해진다. 이 문제해결사 [즉 정신]는 잠을 자는 동안에도 문제에 대해 생각한다. 하지만 [우리는] 당연히 의식하지 못한다. | ||
+ | |||
+ | |||
+ | '''예시 2. '''말하기 전에 의식적으로 말을 고르기도 하지만, 대개는 의식적으로 말을 고르지 않은 채 하고 싶은 말을 그냥한다. 다른 사람이 말한 문장의 의미를 이해하는 것은 대개 내 의식에 이를테면 통째로 떠오른다. 나는 어떤 소리 (혹은 현상)에서 의미에, 다다르게 해주는 정신의 작용을 자각하지 못하며 단지 그 작용의 최종 산물만을 의식한다. | ||
+ | |||
+ | 이러한 일상적인 예시에 덧붙여 수많은 실험실 사례들이 있다. 이 실험들은 우리가 행하는 모든 정신 작용을 우리가 의식하고 있다는 말이 얼마나 사실과 다른지를 생생하게 보여준다. | ||
+ | |||
+ | |||
+ | ⓵ '''맹시(Blindsight)''' | ||
+ | |||
+ | 맹시는 래리 바이스크란츠(Larry Weiskarantz)와 그의 동료들이 70년대 초에 발견하고 명명한 현상이다. 뇌의 시각 피질 부분이 제거된 사람들은 종종 시야에 결손이 있다고 호소한다. 이런 사람의 앞에서 작은 불빛을 움직여보면, 수술을 받기 전에는 보였어야 할 영역에서 불빛이 보이지 않는다고 대답할 것이다. 바이스크란츠와 그의 동료들은 환자를 스크린 앞에 앉히고, 스크린 위에 작은 불빛을 소았다. 실제로 환자는 불빛 어디 있는지 자신은 전혀 모른다고 의식적으로 믿었다. 하지만 환자가 몇 시간에 걸친 실험 내내 그가 가리킨 위치가 매우 정확했다. 이런 사람 불빛을 볼수 없지만 대부분은 불빛의 위치를 추측할 수 있었다. 그래서 지각이란 의식적 활동일 필요가 없는 것이다. | ||
+ | |||
+ | |||
+ | ⓶ '''래크너(Lackner)와 개릿(Garrett)의 실험''' | ||
+ | |||
+ | |||
+ | 이 실험은 ‘칵테일 파티 효과’ (the cocktail party effect)라고 부른다. 수많은 대화들 속에 둘어싸였음에도 우리는 그 대화들 중 하나에 집중할 수 있고 다른 대화들을 잊어버릴 수 있다. 이실험은 피험자들은 양쪽귀에 서로 다른 문장들을 틀어 주는 헤드폰을 썼다. 그들은이 채널중 오직 하나만 듣고,각각의 문장이 들릴 때 다른 말로 바꿔서 말하도록 요청받았다. 피험자들이 들었던 채널에서 들리는 문장들 중 일부는 뜻이 중의적이다. 결론적으로, 비록 피험자들은 의미가 명확한 문장을 들은 일조차 의식하지 못했지만, 그들이 비의식적인 충위에서 주의를 기울이지 않은 채널들을 청각적으로 들었으며, 동시에 그 채널 속의 문장들을 부분적으로 이해했던 것이다. | ||
+ | |||
+ | |||
+ | 우리는 인간의 중요한 여러 정신적 활동, 가령 말을 이해하는 것, 외부 세계를 지각하는 것 등이 비의식적으로도 수행될 수 있음을 보았다. 가장 근본적인 질문은 인공물이 이러한 인지적 활동들을 그 의미 그대로 수행할 수 있느냐다. 그리고 우리가 이러한 활동들을 비의식적으로 할 수 있기 때문에 인공물에게 의식이 가능한지와 무관하게 이 질문은 논의될 수 있다. | ||
+ | |||
+ | <br/> | ||
+ | ======'''튜링테스트'''====== | ||
+ | ---- | ||
+ | [[파일:튜링테스트.jpg|200px|center]] | ||
+ | |||
+ | |||
+ | 튜링의 테스트는 인공지능 연구자들 사이에서는 대체로 실험의 타당성을 인정받는 경향이지만, 철학자 그룹에서는 언제나 논쟁거리였다. | ||
+ | |||
+ | |||
+ | <font color="#007fff">'''튜링 테스트'''</font>에는 두 명의 인간과 테스트받는 컴퓨터가 필요하다. 테스트의 기본적인 아이디어는 두 사람 중 한 명, 즉 질문자가 두 참여자 중 어느 쪽이 컴퓨터인지를 알아내는 것이다. 질문자는 키보드와 스크린을 통해 컴퓨터와 나머지 한 사람과 대화한다. 이를 제외하고는 이 세 참여자들은 엄격하게 격리되어 서로 어떤 접촉도 하지 못한다. 질문자는 다른 두 참여자와 나눈 대화를 기초로, 어느 쪽이 기계인지 지목해야 한다. 또한 기계를 간파해내기 위한 직접적인 질문이나 자신이 원하는 한에서의 광범위한 질문이 모두 허용되고, 그에 따라 컴퓨터도 가능한 모두 수단을 사용해서 잘못 식별하게끔 유도한다. ‘’’그래서 ‘당신은 컴퓨터입니까?’라는 질문에 컴퓨터가 ‘아닙니다.’라고 대답하는 영리한 대처가 가능하고 굉장히 큰 수를 곱하라는 요청에 오래 지체하거나 틀린 답을 제시할 수도 있다. ‘’’ | ||
+ | |||
+ | |||
+ | 이 실험이 두 인간의 자리에 다양한 사람들을 놓고 수차례 반복되었을 때, 그 결과 컴퓨터의 정체를 밝혀낸 횟수가 ‘찍는다’라고 할 만한 50%보다 유의미하게 높지 않다면, 그 컴퓨터가 생각할 수 있다고 결론 내릴 수 있다. 잭 코플랜드가 튜링 테스트를 통과한 컴퓨터를 ‘생각하는 존재’라고 부르는 것을 보류한다면, 이는 그저 ‘생각한다’라는 단어를 인간과 우리의 생물학적 친척만 독점하는 것과 마찬가지이며 이는 탄소로 구성된 존재보다 실리콘으로 구성된 존재에게 더 많이 붙는 녹골적인 편견에 불과하다고 주장했다. | ||
+ | |||
+ | <br/> | ||
+ | ======'''와이젠바움의 일라이자 실험과 콜비의 실험'''====== | ||
+ | ---- | ||
+ | |||
+ | |||
+ | ⓵'''와이젠바움의 일라이자가 튜링테스트를 통과했다는 말이 틀린 ''' <font color="#007fff">'''이유:'''</font> | ||
+ | |||
+ | |||
+ | 와이젠바움의 일라이자는 우연하게 튜링테스트의 변형 버전 중 하나로 테스트를받은 적이 있었다. | ||
+ | |||
+ | (실험내용)<ref>어떤 기업임원이 그의 프로그래밍 직원에게 연락했는데,직원대신 일라이자가 메시지를 받은 것을 전혀 모르고 있었다. | ||
+ | |||
+ | |||
+ | 임원: 오늘 아침에는 컴퓨터를 써볼 수 있겠나? | ||
+ | |||
+ | |||
+ | 일라이자: 무슨 일로요? | ||
+ | |||
+ | |||
+ | 임원: 텔콤(Telcomp)의 추가 판매가 가능할지도 모르네. | ||
+ | |||
+ | |||
+ | 일라이자: 확신하시진 않네요? | ||
+ | |||
+ | |||
+ | 임원: 그건 잠재적 고객들이 그 시스템의 시연을 한번도 본 적이 없기 때문이지. | ||
+ | |||
+ | |||
+ | 일라이자: 그건 당신에게 아주 큰 의미가 있겠군요? | ||
+ | |||
+ | |||
+ | 임원: 물론이지. | ||
+ | |||
+ | |||
+ | 일라이자: 당신은 아주 확신에 차 있는 것같습니다. | ||
+ | |||
+ | |||
+ | 임원: 이거 이상한데. | ||
+ | |||
+ | |||
+ | 일라이자: 왜 이상하다는 겁니까? | ||
+ | |||
+ | |||
+ | 임원: 내가 지금 당장 컴퓨터를 사용할 수 없는 어떤 이유가 있는 건가? | ||
+ | |||
+ | |||
+ | 일라이자: 당신의 잠재적 고객들에 대해 더 이야기해 주세요. | ||
+ | |||
+ | |||
+ | <font color="#007fff">'''''여기서 이야기가 더 전행 되면서 화가 난 임원이 아무것도 모르는 직원에게 전화를 걸었다.'''''</font> | ||
+ | |||
+ | |||
+ | 임원: 왜 자꾸 나를 짜중나게 하나? | ||
+ | |||
+ | |||
+ | 프로그래머:왜 제가 당신을 짜중나게 한다는 겁니까? | ||
+ | |||
+ | |||
+ | 이 대화를 두고 일군의 사람들은 일라이자가 튜링 테스트를 통과했다고 주장했다. </ref> | ||
+ | |||
+ | |||
+ | - 비록 임원이 일라이자를 사람으로 착각하긴 했지만, 일라이자가 튜링 테스트를 통과했다고 말하는 것은 틀린다. 우선, 그 절차가 다른 여러 질문자들을 통해 반복되지 않았다. | ||
+ | |||
+ | |||
+ | - 튜링 테스트의 기준을 충족하지 못했다. 그 임원은 컴퓨터와 사람을 구별하려고 애쓰지 않았다. 또한 참가자가 셋이 아니라 둘이라는 점에서도 튜링 테스트의 기준을 위반했다. 컴퓨터와 인간 중에 선택할 필요가 없는 상황에서는 각 질문자들이 컴퓨터의 수행 능력에 관한 사소한 특징들을 간과할 수도 있지만, 선택해야 하는 상황에서는 이것이 결정적인 증거로 작용할 수 있다. 더욱이 비경합적 상황에서 질문자들은 컴퓨터의 대화 능력에 대한 낮은 기대치 등의 요인들로 인해 오판으로 치우칠(biased) 가능성이 있다. | ||
+ | |||
+ | |||
+ | ⓶'''콜비(Colby)의 실험이 튜링테스트를 통과했다는 것으로 할 수 없는''' <font color="#007fff">'''이유:'''</font> | ||
+ | |||
+ | |||
+ | 콜비(Colby)와 그의 연구팀이 보고한 바에 따르면, 편집증적 프로그램, 패리(Parry)는 연구팀이 튜링 테스트와 유사하다고 평가한 테스트를 통과했다. | ||
+ | |||
+ | (실험내용)<ref>''이 실험에서는 5명의 현역 정신과 의사들이 텔레타이프 단말기를 통해 인터뷰 진행했다. 인터뷰 중 일부는 패리와 진행했고 나머지는 편집증을 가진 사람과 진행했다. 각각의 인터뷰마다 정신과 의사들의 목표는 단말기의 반대편에 사람이 있는지,컴퓨터가 있는지 결정 하는 것 이었다. 전체10회의 인터뷰 중에서 5회는 맞추었고 5회는 틀렸다. ''</ref> | ||
+ | |||
+ | |||
+ | 하지만 이 실험은 단지 튜링 테스트와 유사할 뿐이다. | ||
+ | |||
+ | |||
+ | - 두 답변자가 컴퓨터와 사람이라고 알고 있는 질문자가 인터뷰를 동시에 진행하지 않았기때문이다. 대신에 각 의사들은 독립된 두개의 인터뷰를 진행했고, 그래서 그들은 상대방이 모두 환자일 수도 컴퓨터 일수도 있다는 설명을 들었다. | ||
+ | |||
+ | |||
+ | - 튜링 테스트에서 경합이 없다면 편파적인 요소가 끼어든다. 하나의 가능성은 질문자가 단순히 프로그램의 능력을 지나치게 낮게 예상하기 때문에 프로그램을 환자로 착각하는 경우다. 다른 가능성은 환자의 반응에서 찾은 ‘컴퓨터스러운 행동’ <ref>예를 들어 ’기계 같은’ 특징들 – ‘and/or’의 사용법 </ref>이라고 생각하기 쉬운 단서가 판단 착오로 이어지기 쉽다. | ||
+ | |||
+ | |||
+ | - 튜링 테스트는 질문자가 다양한 범위의 질문과 자신이 원하는 한 직접적으로 캐묻는 질문을 할 수 있다는 점에서 그 타당성을 얻는데 여기서는 편집증 환자들의 대화라는 특성-얼버무림, 훼방, 적개심, 주제의 갑작스런 전환, 반복되는 망상적인 주제 등-때문에 이런 시도들이 불가능하다. | ||
+ | |||
+ | |||
+ | |||
+ | - 튜링 테스트와의 마지막 차이점은, 콜비의 실험에서 텔레타이프를 통한 인터뷰가 혼란스러운 경험이었다는 것이다. 그래서 프로그램과 환자를 정확하게 구분하지 못한 질문자들의 무능력은 단지 이런 인터뷰 방식의 결과 일 수 있다는 점이다. 따라서 테스트에 참여한 질문자가 사전에 충분히 단말기를 통해 인터뷰를 진행해보는 것이 튜링 테스트의 조건이 되어야한다. 이러한 훈련은 확실히 콜비가 동시 인터뷰에서 겪은 곤란함들을 해소해 줄 것이다. | ||
+ | |||
+ | |||
+ | |||
+ | ======'''튜링 테스트에 대한 4 가지 반론'''====== | ||
+ | ---- | ||
+ | |||
+ | |||
+ | *'''침팬지 반론''' | ||
+ | |||
+ | |||
+ | 침팬지 반론에 따르면, 튜링 테스트는 너무 보수적이다. 침팬지는 생각할 수 있지만 어떠한 침팬지도 튜링 테스트를 통과할 수 없다는 사실을 부정할 사람은 거의 없을 것이다. 생각하는 동물들이 튜링테스트에 실패한다면, 추정컨대 생각하는 기계 또한 그럴 수 있다. 아마도 첫 번째 생각하는 컴튜터는 테스트를 통과할 만큼 심리적으로 복잡하지 않을지도 모른다. 아니면 생각하는 컴퓨터의 반응이 인간적인 특징을 보이지 않았기 때문에, 혹은 심지어 단지 그 컴퓨터가 꽤 모욕적인 진행 과정이라고 여기는 일에 별 관심이 없기 때문에 테스트에 실패한 것일 수 있다. | ||
+ | |||
+ | |||
+ | 이 반론이 보여주는 것은 이 테스트가 리트머스 시험과 같은 것이 아니라는 점이다. 용액에 파란 리트머스 종이를 넣었을 때, 종이가 붉게 변한다면 그 용액은 산성이다. 반면 그렇게 변하지 않는다면, 산성이 아니다. 그래서 용액이 테스트에 실패했다면, 즉 시험지가 붉게 변하지 않았다면, 이 용액이 산성이 아니라는 결론이 나온다. 튜링 테스트는 이렇기 않다. 테스트에 실패해도 명확한 결과가 도출되지 않는다. | ||
+ | |||
+ | |||
+ | 이로써 우리는 테스트의 부정적 결과가 명확한 무엇을 입증하는 것이 아니라는, 위험하지 않은 결론에 이르렀다. 사고가 불가능한 장치도 테스트를 통과할 수 있기 때문이다. 튜링 테스트는 이렇지 않다.테스트에 실패해도 명확한 결과가 도출되지 않는다. 그렇다고 이로 인해 튜링 테스트을 의심할 필요는 없다. 완벽하고 유용한 많은 테스트들이 이런 특징을 갖고 있다. | ||
+ | |||
+ | |||
+ | *'''감각기관 반론''' | ||
+ | |||
+ | |||
+ | 튜링 테스트는 전적으로 컴퓨터가 언어적으로 반응하는 능력에만 초점을 맞추고 있다 .여기서는 컴퓨터가 자신이 사용하는 단어들을, 그 단어들이 상징하거나 의미하는 실제 사물들과 연결 짓는 능력을 테스트하지 않는다. 예를 들어, 질문자는 재떨이를 들고 ‘이것은 무엇입니까?’라고 물어볼 수 없다. 어떤 컴퓨터가 자신이 사용하는 단어의 의미를 모르면서도 테스트를 통과할 수 있는 것이다. 그러므로 컴퓨터가 테스트를 통과했다는 사실마느올 컴퓨터가 생각할 수 있다는 말에 대한 어떠한 근거도 될 수 없다. | ||
+ | |||
+ | |||
+ | 이 반론의 결론은 그 해결책으로 튜링 테스트를 강화하는 것이다. 컴퓨터는 반드시 인공적인 감각기관, 이를테면 텔레비전 눈(television eye)을 장착해야 한다. 그래야 질문자가 사용하는 단어들이 세상에 대해 무얼 말하는지 컴퓨터가 이해한바를 조사할 수 있다. | ||
+ | |||
+ | |||
+ | 감각기관 반론은 다음을 가정한다. 발언자가 자신이 말하는 단어를 얼마나 이해하는 지를 규명하기 위한 유일한 방법은 환경과의 감각적 상호작용을 검사하는 것이다. 그렇지만 이는 전혀 사실이 아니다. 이 반론의 핵심은 언어적 질문이 이해력에 대한 적절한 테스트인가 하는 문제이지, 컴퓨터가 맨 처음 언어를 습득할 때 감각기관을 제공하는 것이 필요한가의 문제가 아니기 때문이다. | ||
+ | |||
+ | |||
+ | 튜링 자신은 이 테스트에 맞춰 컴퓨터를 훈련시키는 가장 좋은 방법이 기계에 ‘돈으로 살 수 있는 최고의 감각기관’을 장착하는 거, 그리고 ‘적절한 교육과정’을 제공하는 것이라고 분석했다. 그러나 이 말이 감각기관 반론을 지지한다는 뜻은 아니다. 왜냐하면 이 반론의 핵심은 언어적 질문이 이해력에 대한 적절한 테스트인가 하는 문제이지, 컴퓨터가 맨 처음 언어를 습득할 때 감각기관을 제공하는 것이 필요한가의 문제가 아니기 때문이다. | ||
+ | |||
+ | |||
+ | 언어적 능력을 갖춰야 하는 모든 컴퓨터에게 번거로운 ‘교육과정’을 실시할 필요는 없을 것이다. 게다가 다른 기계들은 감각기관을 장착할 필요도 없다. 감각기관이 없는 기계에게는 일부 단어들의 의미가 온전히 전달될 수 없다고 해도, 이는 그저 감각적 경험과 매우 직접적으로 결합되어 있는 단어들의 경우일 뿐이다. 우리 단어의 절대 다수는 이 범주에서 벗어나 있다. | ||
+ | |||
+ | |||
+ | *'''시뮬레이션 반론''' | ||
+ | |||
+ | |||
+ | 이 반론은 X의 시뮬레이션은 X가 아니라는 관찰에서부터 시작한다. 다이아몬드 모조품은 다이아몬드가 아니다. X의 시뮬레이션은 X와 유사하지만, 진짜는 아니다. 이를 참조하여, 이제 어떤 컴퓨터가 튜링 테스트를 통과했다고 가정해보면, 테스트 통과는 단지 컴퓨터가 생각하는 존재를 훌륭하게 시뮬레이션했다는 것을 보여줄 뿐이다. 그리고 이는 실제 생각하는 존재와 동일하지 않다. 이 반론을 펴는 사람들의 결론에 따르면 컴퓨터가 테스트를 통과한다는 사실은 컴퓨터가 생각한다는 것을 입증하지 못한다. 단지 생각하는 답변자를 훌륭하게 시뮬레이션할 수 있는 능력을 가져다고 봐야 한다. | ||
+ | |||
+ | |||
+ | 잭 코플랜드는 이 반론은 무언가를 혼동하고 있다고 밝혔다. 맨처음 이 반론이 약점을 드러내는 부분은 , ‘X의 시뮬레이션은 결코 X가 아니다‘라는 주장이 잘못되었다는 점이다. | ||
+ | |||
+ | |||
+ | ''예: 목소리를 모방하는 걸 생각해보자. 만약 컴퓨터가 (그런대로 괜찮은 억양으로) 말한다면, 이 모방한 목소리는 목소리가 아닌가? 사람의 음성이 아니라 인공물의 음성이지만, 그럼에도 이 또한 음성이지 않은가? '' | ||
+ | |||
+ | |||
+ | <font color="#007fff">시뮬레이션을 구분할 때 전혀 다른 두 종류의 영역이 있다. 시뮬레이션이 원본의 본질적인 특성을 상실한 경우를 시뮬레이션 1로, 시뮬레이션이 원본과 정확하게 동일한 경우, 이를 시뮬레이션 2에 속한다. </font> 앞에서 예로 든 목소리의 모방은 시뮬레이션1이기도 하고 2이기도 하다. 이 모방된 목소리는 목소리의 모든 본질적 특성을 갖고 있다. 그러나 인공적으로 생간된 것이다. 그러므로 ‘시뮬레이션된 X는 X가 아니다’는 오직 절반의 진실일 뿐이다. X의 시뮬레이션은1은 X가 아니다. 하지만 X의 시뮬레이션2는 X다. | ||
+ | |||
+ | |||
+ | 이 반론은 어쨌든 아무런 고려도 없이 다음을 가정한다. 즉 컴퓨터의 사고 시뮬레이션은 언제나 단지 시뮬레이션에 지나지 않을 것이며, 이는 결코 실제로 생각하는 것이 아니라는 것이다. 이 반론은 컴퓨터가 생각을 시뮬레이션하는 것이 얼마나 훌륭하게 발전할지와는 무관하게, 시뮬레이션을 언제나 유형1처럼 묘사할 뿐, 유형2일 수 없다고, 어떤 논증도 없이 단정해버린다. | ||
+ | |||
+ | |||
+ | '''시뮬레이션 반론에도 한 가지 장점은 있다.''' 이 반론은 우리에게 튜링테스트가 시뮬레이션1과 시뮬레이션2 사이에서 올바르게 선을 긋고 있는지 질문하도록 권하는 것이다. 테스트를 통과한 컴퓨터는 곧 생각하는 존재의 시뮬레이션2라고 결론 내릴 수 있는가, 아니면 단지 시뮬레이션1을 모아 놓기만 한 컴퓨터도 테스트를 통과할 수 있다고 말할 법한가? 등을 질문할 수 있다. | ||
+ | |||
+ | |||
+ | *'''블랙박스 반론''' | ||
+ | |||
+ | |||
+ | 흔히 블랙박스란 내부의 작동방식이 미스터리로 남아 있는 장치를 일컫는다. 튜링 테스트에서는 참여한 컴퓨터가 블랙박스처럼 다뤄진다. 컴퓨터가 생각할 수 있는지에 대한 판단은 오직 그 컴퓨터가 겉으로 드러낸 행위에만 의존하고 있다. 튜링은 어떤 사람이 생각한다라는 데 대한 판단도 항상 겉으로 드러난 행위에만 의존한다고 지적했다. 그러므로 대화라는 행위가 컴퓨터가 생각한다고 판단하는 데 적절한 근거를 제공하지 못한다고 말한다면, 당신의 인간 동료가 생각할 수 있다고 한 당신의 판단도 근거가 빈약하다는 것을 인정해야 하는 난처한 입장에 처하게 된다. | ||
+ | |||
+ | |||
+ | 잭 코플랜드가 튜링은 인간과 컴퓨터를 서로 유사하다고 봤다는 점에서 틀렸다고 주장했다. 튜링이 이 문제를 고찰하면서 놓쳐버린 중요한 점은 이것이다. 나는 당신의 외적 행위에 근거해서 당신이 생각하다고 판단할 때, 나는 당신이 나와 비슷한 공정 – 뇌가 처리하는 전기화학적 절차가 사고의 원인이라는 – 이 일어나는 비슷한 육체를 가지고 있다고 믿는 맥락하에서 그렇게 판단하는 것이다. 당연히 컴퓨터는 이러한 맥락이 결여되어 있다. | ||
+ | |||
+ | ======'''튜링테스트에 대한 평가'''====== | ||
+ | ---- | ||
+ | |||
+ | |||
+ | 블랙박스 반론은 튜링 테스트가 타당하지 않음을 보여준다. 이 테스트는 단지 결과에만 주목하기 때문에 ‘생각하는 자’라는 이름에 진정으로 걸맞은 프로그램과, 슈퍼패리처럼 분명히 사고하지 않는 프로그램을 구분할 수 없다. 이런 문제를 해결하기 위해 튜링 테스트를 강화할 방법은 없을까? | ||
+ | |||
+ | |||
+ | 강화하는 방법중 한가지는'''오픈엔드(open-ended) '''구조이다. 컴퓨터는 대화에서든, 질문자가 지정한 과제의 수행에서든 인간과 구분할 수 없어야한다 튜링 테스트의 강화는 두 가지 요소로 이뤄져야 한다. '''첫째''', 대화를 활용하는 본래의 경합 방식이다. 이는 이름을 붙이자면, 결과기준 (output criterion)을 충족하는 지 , 다시 말해, 컴퓨터와 대화한 결과가 인간과 대화한 결과와 구분할 수 없는지 규명할 것이다. '''둘째''', 프로그램 자체에 대한 검사가 있어야 한다. 이는 우리가 설계기준 (design criterion)이라고 명명하는 척도를 충족하는지 규명할 것이다. | ||
+ | |||
+ | |||
+ | <font color="#007fff">'''설계기준은 무엇이 되어야 할까 ? '''</font> | ||
+ | |||
+ | |||
+ | 잭 코플랜드는 두 개의 가능한 선택지를 논의하였다. | ||
+ | |||
+ | |||
+ | '''⓵프로그램은 인간 두개골 안에서 일어나는 일과 대체로 유사한 방식으로 작동해야 한다. ''' | ||
+ | 프로그램이 전반적으로 인간과 비슷하게 작동해야 한다고 주장하는 것은 지나치게 인간중심적으로 보일지도 모른다. 그러나 이 기준을 옹호하자면, 튜링 테스트는 사고를 판별하는 리트머스 시험지가 아니라고 했던 사실을 상기해야 한다. 튜링테스트의 원래 버전은, 컴퓨터에게 인간과 구분할 수 없는 외적 행위의 산출이 요구되었다는 점에서 뻔뻔스러울 정도로 인간중심적인 테스트였다. 이 설계기준의 현재 버전은 인간 중심적 편향을 그저 프로그램 자체로 연장시켰을 뿐이다. 이것이야말로 전적으로 튜링이 제안했던 본령과 일치하는 것이다. | ||
+ | |||
+ | |||
+ | '''⓶두 번째 선택지로, 누군가는 이 설계기준의 훨씬 약한 버전을 선호할 수도 있으며, 단순히 프로그램이 모듈화된 것일 수도 있다.''' 다시 말해, 프로그램은 원리상 통째로 압축되어 다른 프로그램에 얹혀서 어떤 기능을 수행하는 더 복잡한 프로그램이 될 수 있어야 한다. 설계기준의 이러한 버전은, 앞서 논의한 오픈엔드 구조의 튜링 테스트와 유사한 지점이 있다. 그럼에도 중대한 차이점은 프로그램의 검사는 이 기준을 충족하는지 여부를 확인하는 것으로 충분하다는 것이다- 확장된 프로그램이 실제로 테스트의 일부로서 실행될 필요는 없다. | ||
+ | |||
+ | |||
+ | 그래서 잭 코플랜드는 설계기준의 두 가지 버전들 중 무엇도 확실하게 옳거나 확실히 잘못되지 않으며, 또한 하나가 다른 하나보다 명확하게 더 좋지도 않다고 주장했다. 따라서 업그레이드된 튜링 테스트에는 두 버번이 있다. 더 약한 것과 더 강한 것. 전자는 모듈적인 설계기준을 포함하는 것이며, 후자는 인간중심적 설계기준이다. | ||
+ | |||
+ | ======'''결론'''====== | ||
+ | ---- | ||
+ | |||
+ | |||
+ | ‘새로운 사례’형 질문에 대해서 우리는 정답을 발견할 것이 아니라 결정을 내려야 하며, 가능성 있는 답변 중 어떤 것이 이 관련 개념을 도입하는 목적에 가장 잘 부합하는지를 고려하면서 결정에 이르러야 한다. 생각하는 존재에 대한 우리의 개념은 자연적으로 발행하는 살아 있는 유기체에게만 적용되는 환경에서 형성되어 왔다. 이제 우리는 우리가 수행해 온, 말하자면 제기된 문제를 이해하고, 계획을 세우고, 문제를 해결하고, 결정을 내리는 등 광범위한 정신활동을 포괄하는 그런 행위를 수행할 수 있는 능력이라는 면에서 인간과 거의 구별할 수 없는 인공물의 가능성을 최초로 마주하고 있다. | ||
+ | |||
+ | |||
+ | 생각하는 존재의 개념이 두 종류가 있다.''' 풍부한 행동지향적 내부 프로세스로 인해 창의적이고 폭넓은 적응성을 가지며, 다재다능한 존재들이 있다. '''이에 속하는 존재가 지닌 행동지향적 내부 프로세스를 대규모의 적응성을 가졌고 기술할 것이다. '''다른 한편에는 이러한 프로세스가 부족해서 그 행동이 매우 경직되고, 제한되어 있고, 그래서 정형화되어 있는 존재들이 있다. '''생각한다는 개념은 행위의 해석과 예측에 있어 분명 가장 중요한 역할을 한다. | ||
+ | |||
+ | ======'''각주'''====== | ||
+ | <references/> | ||
+ | ---- | ||
+ | |||
2020년 4월 26일 (일) 16:42 기준 최신판
목차
앨런 튜링의 논문을 토대로 더글러스 호프스태터의 논문 읽기
요구사항
과제원고 : 김웅기, 김태형, 장민주
인물 정보
①앨런 튜링(1912-1954)
- 영국 런던에서 태어난 앨런 튜링이 20세기 전반기에 이룬 업적은 오랫동안 세상에 알려지지 않았다. (국가적) 비밀이었거나 시대를 너무 앞서간 탓이었다. 1935년 20대 초반의 나이에 케임브리지대 펠로 연구원이 된 튜링은 이듬해 발표한 논문에서 현대 컴퓨터의 기원이 되는 ‘튜링 기계’라는 개념을 제안하였다. 당시 그 가치를 알아볼 수 있는 사람은 전문가 중에서도 극소수였다. 2차 세계대전 중에는 독일군의 암호인 에니그마를 깨는 데 큰 공헌을 한다. 이 과정에서 ‘튜링 기계’를 모델로 하는 세계 최초의 컴퓨터 콜로서스가 개발되기도 하였다. 하지만 전쟁 중의 모든 활동은 30여 년간 비밀에 부쳐져야 했다.
- 가장 유명한 튜링의 업적이라면 인공지능의 개념과 구현할 방법을 확립한 논문 「계산 기계와 지능」(1950)이 손꼽힌다. 이 논문에서 그는 튜링 테스트와 머신 러닝이라는 참신한 아이디어를 제안하였고, 후대 컴퓨터 공학은 이를 토대로 오늘날 인공지능의 상당한 현실화에 이르렀다. 튜링은 이 논문에서 20세기 말이면 인공지능이라는 생각이 보편성을 얻으리라고 내다보았다.
②더글라스 호프스태터(1945~)
- 뉴욕에서 출생한 호프스태더는 1961년 노벨 물리학상을 수상한 독일계 할아버지 로버트 호프스태더의 학문적 자질을 이어받아 일찍이 과학자의 길로 접어들어서 1965년 스탠퍼드 대학교를 졸업했고 1975년에는 오리건 대학교에서 물리학 박사학위를 받았다. 인디애나 대학교 컴퓨터 과학과의 조교수를 지냈으며, 미시간 대학교 심리학과에서는 인공지능 연구에 몰두했다. 독일 레겐스부르크 대학교, 미국 인디애나 대학교와 MIT 등 여러 대학교의 객원교수를 역임했다.
- 현재는 미시간 대학교와 인디애나 대학교에서 인지과학 및 컴퓨터 과학과 교수로 재직 중이다. 또한 프린스턴 대학교와 하버드 대학교에서 과학철학, 비교문학, 심리학 분야의 객원교수로 활동하면서 르네상스적인 천재성을 유감없이 발휘하고 있다. 그는 전문가 경지의 음악적인 실력은 물론 독일어와 프랑스어, 이탈리아어, 스페인어, 네덜란드어, 러시아어, 스웨덴어를 구사하는 언어 천재이기도 하다. 과학계의 움베르토 에코라 불릴 수도 있을 것이다. 호프스태더는 「괴델, 에셔, 바흐」로 1980년 퓰리처 상 일반 논픽션 부문을 수상했고 같은 해에 미국 도서대상(American Book Awards)을 받았다.
튜링테스트의 핵심
튜링테스트(흉내게임, Imitation Game)는 영국의 수학자 앨런 튜링이 고안한 기계의 인공지능 능력 판별 시험의 일종이다. 이 테스트의 규칙은 우선, 각각의 분리된 공간에 질문자(성별 무관)와 실험대상자 X와 Y를 배치한다. 이때 X는 남자(A)이고 Y는 여자(B)라고 했을 때 질문자는 A와 B를 구분하기 위한 질문을 해야 한다. X는 질문자의 혼란을 야기하기 위해 답변해야 하고, Y는 질문자가 정답을 맞출 수 있도록 도와야 한다. 물론 Y는 자신이 B라고 단번에 이야기할 수 있지만, X가 그것은 거짓말이라고 말할 수도 있기 때문에 이와 같은 답변은 효과가 없는 것으로 간주한다. 질문자의 질문에 X와 Y는 음성변조, 문서 작성 등의 방법으로 답변할 수 있으며, 타자기로 답변을 하면 가장 좋다. 규칙이 완성되었으니 튜링은 이제 X자리에 기계를 둔다. 그리고 질문자가 X를 기계로 판별할 수 있는지에 대한 가정을 세운다. 만일 기계가 자신이 기계가 아니라는 결과를 질문자로부터 도출할 수 있다면 튜링은 그 기계는 ‘생각할 수 있는 기계’라고 본다. 이것이 바로 튜링테스트의 핵심이다.
튜링테스트는 우선 (디지털 컴퓨터처럼 프로그래밍 된)기계는 오류를 범할 수 없다는 인간의 보편적인 인식을 전제한다. 다시 말해서 기계는 인간과 다르게 어려운 연산 문제, 체스 게임 문제 등을 상식을 상회하는 수준의 빠른 속도로 풀 수 있다는 점을 역설적으로 활용하고 있다. 만일 기계가 연산 문제를 푸는데 시간이 오래 걸린다거나, 오류를 범한다면 질문자는 기계를 의심할 것이다. 하지만 기계가 오류를 가지는 것만으로는 인간과 동일하다고 볼 수도 없고 생각한다라고 이야기할 수도 없다. 프로그래머가 의도적으로 문제를 몇 번은 맞추고 몇 번은 틀리는 식으로 프로그램을 구성해서 기계를 만들었을 수도 있기 때문이다. 그리고 이렇게 프로그래밍이 되어 있다면, ‘초감각적 지각 논변’을 통해 튜링테스트의 허점을 간파할 수 있을지도 모른다. 초감각적 지각이란 투시능력, 텔레파시, 예지력, 염력 등을 일컫는 말인데 과학과 수학에서는 보편적으로 비과학적 논변이라 무시해도 될 법한 한데도 튜링이 이 문제에 꽤 진지하게 관심을 갖는다는 사실은 주목할 만하다.
우리는 가끔 사람들과 텔레파시를 주고받는다. 소위 ‘이심전심’이라고 하는데, 언어를 통해서 정보를 주고받는 지각 행위 없이도 상대방의 행위나 심리, 정보 등을 예측할 수 있다. 질문자가 “제 오른 손에 있는 카드가 무슨 패인가요?”라고 질문했을 때, 튜링은 인간이 텔레파시를 활용해 기계보다 더 많이 맞출 수 있다고 주장한다. 그 이유는 기계가 정답을 맞추기 위해 무작위 추출밖에 할 수 없기 때문이다. 하지만 이에 대해서도 튜링은 프로그램에 난수발생기를 삽입하면 기계가 확률 계산에서 예상되는 것보다 더 자주 정답을 맞출지도 모르고 그렇게 된다면 질문자는 누가 기계인지 예측할 수 없다고 말한다. 그런데 이러한 반론에 반론이 내포한 문제는 바로 기계가 항상 프로그래밍 된 상태로서만 인간과 비슷해진다는 점에 있다. 따라서 튜링은 ‘학습하는 기계’를 주장한다.
학습하는 기계
기계가 생각을 하기 위해서는 어떻게 해야 할까? 이 말인즉슨 ‘기계가 지능을 가질 수 있는가?’라는 질문과 일맥상통한다. 생각을 한다는 것은 사고방식을 갖춘다는 말이고, 그것은 곧 지능을 활용한 활동양식에 해당하는 것이기 때문이다. 그렇다면 지능이란 또 무엇일까? 듀이의 경험주의 이론을 따르면 지능이라고 하는 것은 경험에 의해 축적된 산물이라 할 수 있다. 다시 말해서 선험적으로 주어지는 지능 이외에 살아가면서 인간이 경험할 수 있는 것들을 토대로 지능이 형성될 수 있다는 것이다. 이러한 관점에서 ‘학습’의 개념은 새로운 경험을 위해 인간을 낯선 환경에 노출시키는 과정이자, 그 과정에서 경험된 지각을 바탕으로 인간의 행동양식이 변화하는 것의 결과라고 이해할 수 있다. 이것은 생존을 위한 ‘진화’와는 다른 방식이고 훈련과도 다른 방식이다. 앞선 방식들보다 경험을 토대로 어떤 문제를 판단했을 때 그 문제를 해결할 가능성은 훨씬 복잡하며 정답율도 낮다.
튜링은 기계에 이러한 경험주의 학습을 도입하고자 한 듯하다. 그는 인간이 가지고 있는 ‘지능’이라고 하는 것은 애초에 프로그래밍이 불가능하다는 결론을 내렸다. 왜냐하면 성장이 끝난 성인의 지능은 매우 복잡하고 방대하기 때문에 그 변수 하나하나를 모두 기계에 주입해야만 기계가 지능을 가질 수 있다는 결론이 서기 때문이다. 반면 성인보다는 한정적인 경험에 노출된 아동의 지능은 그 변수가 훨씬 적고 프로그래밍할 수 있는 가능성이 있어보였다. 따라서 튜링은 학습하는 기계를 만든다. 물론 아동은 눈, 코, 입은 물론 팔과 다리가 모두 있기 때문에 아동의 학습경험을 모두 기계에 적용할 수는 없다. 기계는 아동보다 훨씬 제약적인 환경에서 학습을 시작해야 한다. 따라서 ‘가르치는 과정’ 또한 제약적이며 대부분 지적활동만을 수행하도록 한다. 이렇게 만들어진 아동 기계는 우선 정서적인 소통을 모두 차단한 상태에서 ‘처벌’과 ‘보상’의 원리를 통해 일어난 사건의 확률을 조작해볼 수 있다. 하지만 이렇게 할 경우 아동 기계가 경험할 수 있는 학습의 정보의 양은 처벌과 보상의 총 횟수를 넘지 못한다. 그것은 훈련과 다를 바 없다. 따라서 다른 ‘비정서적’ 소통 수단이 필요한데, 이러한 일종의 언어체계를 아동 기계가 갖출 수만 있다면 처벌과 보상에 의한 학습 경험은 그 수가 확실히 줄 것이라고 말한다. 그리고 이외의 임의적인 결과를 도출하게 될 것이다.
아동 기계를 만드는 것에 있어서 논리체계를 어떻게 구축할 것인가에 대해서는 프로그래머의 관점에 따라서 달라질 수 있다. 하지만 핵심은 변하지 않는다. 그것은 바로 학습된 기계가 인간적 오류의 가능성을 꽤 자연스럽게 표현할 수 있어야 한다는 것이다. 튜링테스트에 참여하기 위해서 아동 기계는 학습과정에서 정답을 100%로 산출하지 않으며, 임의적 요소를 포함한 기계여야 한다. 이를 통해 알 수 있는 것은 튜링의 인공지능 개념이다. 그것은 아동 기계를 학습시킬 수 있다면 기계는 더이상 시키는 일만 정확하게 하는 것이 아니라는 점이다. 다시 말해 반복학습과 시행착오를 겪은 프로그램이 갖가지 명제와 논리를 활용해 임의적으로 한 가지 사건을 일으킬 수 있다. 그 사건은 예측할 수 없는 것이며, 심지어는 정확하지 않을 수도 있다는 것이다.
더글라스 호프스태터의 인공지능
튜링은 기계가 튜링테스트에 참여하기 위해서는 인간적 오류의 가능성, 즉 임의적인 판단에 의한 결과를 기계가 꽤 자연스럽게 연출할 수 있어야 한다고 주장했다. 하지만 상론한 특징으로 설계된 프로그램을 내장한 기계가 튜링테스트를 통과한다면 그것을 의심의 여지없이 지능을 가진 기계라고 말 할 수 있을까?
더글라스 호프스태터는 철학, 수학, 음악, 언어학, 물리학 등 다양한 접근 방식을 통해 튜링테스트에 참여하는 기계의 ‘지능’에 관해 더욱 폭넓게 접근하고 있다. 그는 우선 튜링이 고안해 낸 이 게임의 효용성과 더불어 이 게임을 반박하는 9가지 논변에 대한 튜링의 생각을 옹호하고 있다. 그런데 마지막 논변 ‘초감각 지각 논변’에 이르러서는 견해가 다르다고 밝힌다. 그 이유는 무엇일까?
우선 호프스태터는 초감각적 지각이 존재하지 않는다고 믿는다. 이 말을 반대로 하면 임의적인 예측이라 할지라도 모든 사건은 유기적으로 연결되어 있다는 것으로 해석할 수 있다. 예를 들어서 “오른 손에 쥔 카드는 무슨 패인가요?”라는 질문에 대한 답변에는 실험대상자의 사고방식이 유입된다. 이러한 사고방식은 정답을 말할 확률을 조작할 수 있는 변인에 속한다. 기계가 가장 먼저 ‘스페이스 킹’을 떠올렸다고 가정을 해보자. 그것은 기계의 저장장치 속에 저장된 카드의 종류 중 하나를 무작위로 선정한 것에 불과하다. 이렇게 여러 번 무작위 선정을 반복하다 보면 정답을 맞출 수도 있고 틀릴 수도 있다. 그것을 튜링은 튜링테스트에 참여할 수 있는 자격이 있는 것으로 보았다. 하지만 호프스태터는 그것을 초감각적 지각에 상응하는 비슷한 프로그래밍으로 해결하기 보다는 기계가 갖는 사고방식과 연결 지으려 한다. 따라서 튜링테스트의 방식과 규칙은 옹호하면서도 그것이 ‘기계는 생각할 수 있을까?’라는 질문에 합당한 테스트가 되기 위해서는 우선 기계가 가지는 사고방식부터 이해할 필요가 있었던 것이다.
튜링이 기계가 갖는 규칙 행동을 벗어나 작은 일탈을 일삼는 것으로서 인간적 오류의 가능성을 내포하는 것으로 기계의 지능을 초점했다면, 호프스태터는 그러한 사고방식 자체를 기계가 가질 수 있는가에 방점을 둔다. 우선 그는 인공지능의 역사를 간략하게 정리하면서 “인공지능 연구는 아직까지 이루어지지 않은 모든 것에 대한 연구이다”라는 테슬러의 정리를 인용한다. 이 말은 시사하는 바가 크다. 그 이유는 기계의 지능에 대한 탐구가 항상 인간의 지능에 대한 탐구를 전제할 수밖에 없다는 사실 때문이다. 따라서 다음과 같은 문제가 발생한다. 첫 번째, 인간에게 있어 지능의 정수란 무엇인가? 두 번째, 기계는 인간이 생각하는 지능의 정수를 자체적으로 사고할 수 있는가. 세 번째, 기계가 사고할 수 있다면 사고하고 있다는 사실을 기계가 알아차릴 수 있는가? 호프스태터는 인간이 나름대로 지능의 정수라고 생각하는 탐구 영역을 분류해 놓았다. 그리고 그 영역에서의 기계의 지적활동이 얼마큼의 성과를 보여주는가가 인공지능 연구의 토대가 되어왔다고 설명한다. 이 중에서 체스 게임, 하이쿠, SHRDLU를 예로 든 부분들을 살펴보면 기계가 ‘이해력’ 또는 ‘사고방식’을 가질 수 있는가에 대한 그의 견해를 파악할 수 있다.
체커프로그램과 하이쿠
2016년 세기의 이목을 끈 대결이 있었다. 바로 세계적인 바둑기사 이세돌과 바둑 인공지능 프로그램 알파고의 바둑 대결이 그것이다. 대국은 총 5회에 걸쳐 진행이 되었으며, 알파고가 이세돌에게 4승 1패로 승리를 거두었다. 주지하다시피 바둑은 체스보다 경우의 수가 훨씬 많은 게임이다. 흑돌과 백돌을 번갈아 놓으면서 상대방보다 빈 교차점을 둘러싸 집을 더 많이 만들면 이기는, 게임의 규칙은 간단하지만 변수가 ‘아주 많이’ 존재한다. 총 64칸의 체스판 위에서 기계가 인간을 이기기 위해서는 일어날 수 있는 변수를 모두 계산하여 상대방에게 유리한 변수를 제거하면서 말을 놓게 되면 언젠가는 이길 수 있다.[1] 하지만 바둑은 모든 변수를 계산한다는 것부터가 무리라고 할 수 있다. 그렇게 되면 룰에 따라 시간 초과로 페널티를 받고 쓸쓸히 퇴장할 것이다. 이에 따라서 많은 사람들이 바둑판에서는 기계가 인간을 이기지 못할 것이라고 생각했다. 하지만 2007년 ‘모고’의 승리, 2013년 ‘크레이지 스톤’의 승리, 그리고 2016년 ‘알파고’의 승리는 인간세계에 적잖은 충격을 주었다. 알파고는 몬테카를로 알고리즘에 더해서 딥러닝 알고리즘으로 사람처럼 스스로 바둑을 학습할 수 있다고 한다.[2] 이때 주목해야 할 단어는 바로 ‘스스로’와 ‘학습’이다.
이제 다시 호프스태터의 이야기로 돌아가 보자. 「인공지능 회고」(『괴델, 에셔, 바흐』, 1979)라는 논문이 쓰일 때만 하더라도 기계는 체스판 위에서 인간을 절대로 이길 수 없었다. 개개의 말들이 어디에 놓여야 하는지에 대한 지식보다는 판세를 읽을 수 있는 발견술적인 지식이 기계에는 없었기 때문이다. 이를 마련하기 위해서는 상당히 복잡하고 어려운 기술이 필요했다. 그것은 바로 예측을 통하여 얻어진 지식 자체를 단순해진 규칙으로 번역할 수 있는 프로그램을 개발하는 것이었다. 이런 게임에서의 판세를 판단할 수 있는 프로그램은 그 당시에 새뮤얼의 체커프로그램[3]이 유일했다고 전한다. 새뮤얼의 체커프로그램은 게임에서 판세를 평가할 때 정적인 방식과 동적인 방식을 함께 사용했다. 정적인 방식은 ‘예측하지 않는 것’으로 판세와 상관없이 규정할 수 있는 행마를 연산하는 것이고, 동적인 방식은 ‘예측하는 것’으로 앞으로 가능한 행마의 수형도를 그리는 것이었다. 이러한 두 가지 방식에 대해 프로그램은 동적인 방식으로 행마를 정하고 그 뒤의 행마는 정적인 방식을 취하게 했다. 이렇게 될 경우에 재귀순환적인 효과가 일어나 판세를 판단하는 데 이득을 준다는 것이다. 하지만 체커는 체스보다는 단순한 게임이었기에 체커프로그램을 체스에 응용한다는 것은 백만 배는 더 어려운 일이었다. 그럼에도 불구하고 여기서 호프스태터가 주목하는 것은 체커프로그램이 행마를 선택할 때 그것이 자기 직관을 어느 정도 표현했다는 사실이다. 즉 이 프로그램은 새뮤얼의 체커 실력을 재현한 것이 아니라, 자기 직관에 의해(예측을 통해) 판세를 판단해 행마를 결정하고, 이후 행마는 앞선 행마의 연관된(예측하지 않는) 정적인 판단으로 게임을 이어 간다는 것이다.
하지만 새뮤얼의 체커프로그램이 지능을 가졌다고 말하기에는 아직 이르다. 왜냐하면 체커에서 판세에 대한 판단을 직관적으로 할 수 있을지라도, 그것이 직관이라고 판단할 수 있는 직관, 다시 말해서 메타-직관을 발견하지는 못했기 때문이다. 하이쿠도 마찬가지다. 호프스태터는 튜링테스트를 위한 프로그램을 하나 만든다. 그 프로그램은 유머러스한 문장을 만들기 위해서 말도 안 되는 낱말들을 활용한다. 이 과정에서 몇 가지는 하이쿠의 형식을 띠는 것도 있다. 하지만 그는 이 프로그램이 곧 싫증이 났다. 그 이유는 프로그램이 작동하는 공간의 한계를 느꼈기 때문이다. 다시 말해 프로그램이 일정한 레퍼토리를 반복하고 있다는 느낌을 받은 것이다. 유머라고 하는 것은 신선하면서도 엉뚱한 발상이 교묘한 공감작용을 일으킬 때 성공할 수 있다. 하지만 엉뚱한 낱말들을 서로 연결 짓는다고 해서 그 프로그램이 유머러스한 기계가 되는 건 아니었던 것이다. 이 깨달음은 기계의 임의적인 행동 방식이 일정 시간 동안에는 새롭고 웃길지 몰라도 그것이 지속적으로 웃기기 위해서는 임의적인 행동을 수행하는 공간의 한계를 돌파할 수 있어야 한다는 것을 의미한다. 그것을 위해서는 기계가 ‘학습된’ 낱말을 임의적으로 배치하는 것보다도 ‘스스로’ 자신이 웃긴 말을 생산하고 있다는 사실 자체를 파악할 수 있어야 한다.
메타-사고
호프스태터는 지속적으로 ‘기계는 지능을 가질 수 있는가’라는 튜링의 질문을 자신만의 방식으로 풀어간다. 거기에는 한 가지 철학이 숨겨져 있다. 이 논문의 핵심은 아마도 <정리의 증명과 문제의 환원>이라는 파트 이하에 있을 것이 분명해 보인다. 그 이유는 다음과 같다. 우선 인공지능 연구 초기 단계에서는 간단한 ‘정리’를 증명하는 것을 목표로 프로그래밍을 했다. 하지만 시간이 흐르면서 기계가 인간과 비슷해지기 위해서는 문제 해결 능력이 있어야 한다는 사실을 파악하게 된다. 이 문제 해결 능력은 상당히 복잡한 층위의 지능이라 할 수 있다. 우선 문제 해결이 목표가 되면, 그 목표를 달성하기 위한 하위 목표가 생성된다. 그리고 그 하위 목표를 달성함으로써 궁극적인 목표에로의 거리를 줄여나가야 한다. 그러나 이 과정에서 목표 자체가 달성된다는 보장이 없기 때문에 나중에 가서는 기계가 난감해할지도 모른다. 호프스태터는 이러한 과정을 문제환원이라고 설명한다.
문제환원의 핵심은 <섄디와 뼈다귀>라는 일화를 통해 충분히 알 수 있다. 그 일화의 핵심은 다음에 있다. 개 한 마리가 있다. 이 녀석에게 뼈다귀를 보여주고는 담장 너머로 던져 버린다. 그랬을 때 녀석은 어떻게 행동할까?라는 질문이 바로 그것이다. 녀석은 곧장 담장 쪽으로 뛰어가서 짖을 수도 있고 담장을 돌아나가서 뼈다귀를 주워올 수도 있다. 이때 ‘짖는다’와 ‘돌아나가다’는 각각 ‘뼈다귀’라는 목표의 하위목표가 된다. 이것을 문제환원이라 할 수 있는데, 이때 호프스태터가 주목하는 것은 바로 문제 공간을 변경할 수 있는 지능이 녀석에게 있는가 하는 것이다. 다시 말해서 담장을 무시하면 뼈다귀와 개의 물리적 거리는 직선적이기 때문에 최소거리가 된다. 즉 물리적으로 목표에 가장 가까운 상태가 되는 것이다. 하지만 담장이 있다면 돌아나가야 해서 일시적으로는 궁극적 목표와 거리가 멀어진다. 이것을 개는 이해할 수 있는가? 이제 이 문제를 기계에 도입해보자. 기계는 단순한 과제가 주어졌을 때 그 문제를 해결하는 것을 아주 당연하고 쉬운 일이라고 이해할 것이다. 하지만 그것이 기계가 지능을 가졌는가에 대한 답은 절대로 아니다. 그것은 어떤 문제를 해결할 때, 기계가 한 발자국 물러서서 어떤 문제가 진행되고 있는가를 판단할 수 있는 지능을 가지는 것과는 완전히 다른 문제이기 때문이다.
따라서 호프스태터는 문제환원 방식을 내재한 프로그램을 생성하는 것에서 더 나아가 이러한 알고리즘 자체를 문제로 파악하는 능력을 프로그래밍할 수 있다면 기계가 비로소 지능을 가졌다는 사실을 인정할 수 있을 것이라 말한다. 그것은 말벌이 복잡하고 체계화된 작업을 성공적으로 수행하는 것과 별개로 그 스스로가 그 과정을 이해하고 있는 것인지, 아니면 본능적으로 수행하는 것인지의 차이를 보면 알 수 있다. 다시 말해서 말벌이 스스로를 말벌이라고 객관화하여 인식할 수 있는가 하는 문제가 지능에 있어서 가장 중요한 요소가 되는 것이다. 이것을 메타-사고라고 할 수 있다. 이러한 메타-사고는 인공지능 발전에 기여하는 수많은 프로그램들에 근본적인 질문을 던진다. 만일 음악을 작곡한 기계가 있다고 치자. 그 음악의 창작자는 프로그래머인가 프로그램인가? 엄밀히 따지자면 작곡에 필요한 몇 가지 음계 지식을 삽입한 프로그램을 프로그래머가 만들었으니, 이를 가지고 프로그램이 임의적으로 조합해 작곡한 음악은 두 창작자를 가지게 되는 셈이다. 메타-창작자(프로그래머)와 창작자(프로그램)가 바로 그것이다. 이 사고방식의 괴리를 얼마나 줄일 수 있는가. 더 나아가 그것을 기계의 사고방식으로 전유할 수 있는가? 다시 말해 기계가 ‘스스로’ 음악을 만들었다고 판단할 수 있는 알고리즘을 확보했는가, 이것이 「인공지능 회고」가 갖는 핵심적 질문이라 할 수 있다.
자연지능과 인공지능의 층위
이러한 관점에서 호프스태터는 다시 한 번 이 인공지능을 미래의 분야로 유보시킨다. 문제를 스스로 이해할 수 있는 능력을 가진 프로그램이 인공지능 기계의 전제가 된다고 했을 때, 그 가능성을 그는 위노그래드의 프로그램 SHRDLU[4]에서 찾고 있다. 이 프로그램은 PLANNER라고 하는 인공지능 프로그램을 통해서 기계언어가 자연언어를 구사하기 위한 통사구조를 어떻게 탐색할 수 있는지에 대한 알고리즘을 설명한다. 예를 들어 “피라미드를 받치고 있는 붉은 주사위”라는 문장을 완성하기 위해서 기계가 스스로 그 답을 찾기 위해서는 끊임없는 문제에 봉착해야 한다. 이 프로그램은 블록세계를 기반으로 하고 있는데, 무수한 블록들이 프로그램에 저장되어 있고 그것을 지식으로 활용한다. 이때 PLANNER 인공지능 프로그램을 통해서 나무 블록을 찾게 하고 그것이 빨간 색인지 묻고, 주사위 모양인지 묻고, 이제 피라미드 블록을 찾고, 주사위 위에 피라미드가 있는지 찾는다면 문장이 완성될 수 있다. 각각의 문제들은 서로 연관되어 있으면서 독립적이기 때문에 문제를 해결하지 못하면 계속 처음으로 돌아간다. 이러한 구조는 기계언어가 형성되는 과정 자체가 자연언어를 단순히 번역하는 것이 아니라 통사론과 의미론을 함께 활용함으로써 문장을 찾아간다는 점에서 의의가 있다.
호프스태터는 이런 종류의 결정이 꾸준히 요구되어야 한다고 이야기 한다. 그것은 바로 지능의 다채로운 층위와 성질의 복잡성을 인공지능 기계가 자연지능의 수준에 이르기까지 문제환원의 방식을 확장해야 가능하다. 하지만 자연지능의 범주가 어디까지인지는 아무도 모른다. 만일 인간 z가 하나의 자연지능 체계 z1을 갖는다고 한다면 z가 발전하는 만큼 z1의 층위는 다양해지고 확장될 것이다. 따라서 개별 인간과 개별 자연지능의 전체 집합으로서의 자연지능 Z는 결국 무한하다는 결론에 이르게 될 것이다. 이러한 관점이라면 기계가 어떤 층위에서 어떤 부분과제들을 해결해야 하는지는 파악하는 것이 어렵다.
다시 현재로 돌아와 ‘스스로’ 바둑을 ‘학습’하고 있는 알파고를 바라보자. 현재 알파고는 더욱 강력해졌다고 한다. 그것은 어떤 관점에서는 문제를 해결하기 위해 끊임없이 지능을 사용하고 있는 것이라 볼 수 있다. 이 기계의 단순한 목표가 바둑에서 승리하는 것이라면, 무조건 승리할 수 있는 공식을 찾아내 프로그래밍하면 그만일 것이다. 하지만 왜 스스로 문제를 파악하고, 반복학습과 훈련을 통해서 승리하기 위한 수를 두는 예측률을 높이는 방식으로 프로그래밍 되었을까? 여기에는 기계가 어떤 층위의 지능까지 활용할 수 있는지에 대한 인간의 욕망이 내재돼 있는 탓도 있지만, 한편으로는 ‘기계는 생각할 수 있을까?’에 대한 질문의 유효성을 보여주는 것이기도 하다. 튜링의 이러한 질문은 호프스태터에 와서 ‘어떤 지능을 가질 것인가?’로 확장되었다. 오늘날 4차 산업혁명과 함께 인공지능 개념이 대중화되기 시작했다. 이제 그것은 어쩌면 인간의 지능을 뛰어넘을지도 모른다는 공상 또는 두려움에서 벗어나, ‘기계는 하나의 개별적 주체로서 지능을 가질 것인가?’에 대한 문제로 변화하고 있는지도 모른다.
이런 의미에서 호프스태터의 기계에 대한 지능이론이 메타-사고의 가능성 논의를 기반으로 하고 있다는 사실은 발칙한 것이 아닐까 하는 생각까지 든다. 그것은 튜링이 이야기한 양파껍질 이야기를 다시금 환기하도록 만드는 것이기도 하다. 헤겔은 ‘무언가’에 대해 시간이나 장소 등의 여러 변화에도 불구하고 ‘무언가’ 속에서 변하지 않고 존재하는 ‘무엇’을 가리켜 자기동일성이라고 부른다. 이에 따르면 ‘인간이란 무엇인가?’라는 질문 속에는 ‘인간’이라는 자기동일성이 내재한다. 그렇다면 만일 ‘인공지능이란 무엇인가?’라는 질문을 인간이 아닌 기계가 스스로 할 수 있는 날이 온다면? 앨런 튜링과 호프스태터는 그것이 결코 불가능한 일이라고는 말하지 않을 것이다.
기본자료
- Douglas Hofstadter, 박여성 · 안병서 역, 「인공지능 : 회고」, 『괴델, 에셔, 바흐 : 영원한 황금 노끈』, 까치, 2017.
- Alan Mathison Turing, 노승영 역, 「계산 기계와 지능(1950년)」, 『지능에 관하여』, 에이치비프레스, 2019.
각주
- ↑ 1997년, 컴퓨터가 마침내 체스에서 사람을 꺾었다. IBM 슈퍼컴퓨터에서 동작하는 체스 프로그램인 ‘딥 블루’가 당시 세계 체스 챔피언인 개리 카스파로프를 물리쳤다.
- ↑ 기계가 스스로 학습하기 위해선 ‘인공신경망’을 가져야 하는데, 알파고는 ‘정책망’과 ‘가치망’이라는 2개의 기본 신경망으로 구성됐다. 정책망이 다음 번 돌을 놓을 여러 경우의 수를 제시하면, 가치망은 그중 가장 적합한 한 가지 예측치를 제시하는 역할을 한다. 구글 연구진은 방대한 바둑 데이터베이스를 활용해 알파고의 정책망에 3천만 개 위치 정보를 입력하는 반복 훈련을 시킴으로써 다음 수 예측률을 크게 높였다. 이 같은 지도학습을 끝낸 후에는 실전을 통해 습득한 데이터를 스스로 가다듬는 강화학습으로 정책망을 더욱 똑똑하게 만든다. 가치망 역시 딥러닝의 강화학습으로 바둑 게임 전체를 읽는 능력을 기를 수 있었다.(이성규, 「이세돌의 상대, 알파고가 바둑을 터득한 비결」, 『KISTI의 과학향기 칼럼』, 2016.)
- ↑ 체커 게임(영국에서는 드래프트(draught))은 고대 이집트의 게임인 ‘알케르케’에서 유래되었다. 가장 오래된 것으로 알려진 알케르케 보드는 기원전 1400년경에 만들어진 것이다. 이 게임은 각자 12개의 말을 가로, 세로 5칸씩인 정방형의 보드에 놓고 시작했다. 그리고 한 칸은 게임을 시작할 수 있도록 비워 두었다. 체커 게임에서는 상대의 말을 뛰어 넘으면 그 말을 모두 잡는 것이며 여러 번 뛸 수도 있다.(베탄 패트릭, 존 톰슨, 이루리 역, 『1%를 위한 상식백과』, 2014. 300쪽.)
- ↑ 영문자에서 가장 자주 쓰이는 12개 알파벳으로 만든 ETAOIN SHRDLU에서 따온 것이다. 사전적 의미로는 컴퓨터가 자연 언어로 된 명령을 이해하고 그 명령에 적절하게 응답할 수 있도록 하는 시스템이라 규정되어 있으며 한국에서는 '슈드루'라고 읽는다.
영상자료
튜링테스트와 앨런 튜링의 생애의 연관성을 짧고 굵게 정리한 강연
앨런 튜링의 논문을 토대로 잭 코플랜드의 논문 읽기
요구사항
과제원고 : 아슈토시, 이만호, 임연
생각에서 의식이 필수적인가?
오직 의식이 있는 존재만이 생각할 수 있다. 많은 사람들이 컴퓨터가 생각할 수 있다는 생각을 비웃는다. 왜냐하면 플라스틱과 금속으로 구성된 장치는 결코 의식을 가질 수 없다는 것을 당연하게 여기기 때문이다. 하지만 이 믿음의 첫 출발이 틀렸다. 사고와 의식이 항상 함께 가는 것은 아니다. 이를 깨달으면 , 컴퓨터가 생각할 수 있는지에 대해 논의할 때 고정관념에서 자유로울 수 있다.
지난 세기 프로이트가 우리는 우리의 정신 속에서 벌어지는 일들 중 많은 것을 의식하지 못한다고 주장했던 것이다. 그러나 오늘날엔 이 주장이 심리학자들 사이에서 진부한 말이 되어 버렸다. 프로이트 심리학의 다른 주제들을 받아들이건 말건 상관없이 우리는 모든 혹은 거의 모든 정신 작용을 의식적으로 알아차리지 못한다. 선구적인 뇌연구자인 '칼 래슐리(Karl Lashley)는 이를 실증하는 간단한 실험을 소개한 적이 있다. 당신이 아는 어떤 곡에서 몇 음을 휘파람으로 부른다.바로 이어서 이 음을 거꾸로 불거나, 아니면 더 높은 음정으로 부른다.아마 아주 쉽게 따라 했을 것이다. 그런데 당신은 이 것을 어떻게 한것인가? 당신의 정신은 당신이 알지 못하는 것을 하고있다.그래서 그 정신 작용의 결과로,당신은 역순으로(혹은 기계적으로 높여서)음을 만들어 낼 수 있다.
당신이 의식할 수 있는 것은, 그 작업의 결과, 즉 갑작스런 지각의 변화일 뿐이다.
예시 1. 잠자리에 들기 전에 머리를 써야 하는 문제로 뒤척이다가 잠이 들었고, 아침에 일어났는데 머릿속에 해결책이 떠오른 경험이 있었는가? 프랑스 시인 생폴루(Saint-Pol-Roux)는 잠들기 전 침실 문에 “시를 쓰는 중”이라는 문구를 써 붙였다고 전해진다. 이 문제해결사 [즉 정신]는 잠을 자는 동안에도 문제에 대해 생각한다. 하지만 [우리는] 당연히 의식하지 못한다.
예시 2. 말하기 전에 의식적으로 말을 고르기도 하지만, 대개는 의식적으로 말을 고르지 않은 채 하고 싶은 말을 그냥한다. 다른 사람이 말한 문장의 의미를 이해하는 것은 대개 내 의식에 이를테면 통째로 떠오른다. 나는 어떤 소리 (혹은 현상)에서 의미에, 다다르게 해주는 정신의 작용을 자각하지 못하며 단지 그 작용의 최종 산물만을 의식한다.
이러한 일상적인 예시에 덧붙여 수많은 실험실 사례들이 있다. 이 실험들은 우리가 행하는 모든 정신 작용을 우리가 의식하고 있다는 말이 얼마나 사실과 다른지를 생생하게 보여준다.
⓵ 맹시(Blindsight)
맹시는 래리 바이스크란츠(Larry Weiskarantz)와 그의 동료들이 70년대 초에 발견하고 명명한 현상이다. 뇌의 시각 피질 부분이 제거된 사람들은 종종 시야에 결손이 있다고 호소한다. 이런 사람의 앞에서 작은 불빛을 움직여보면, 수술을 받기 전에는 보였어야 할 영역에서 불빛이 보이지 않는다고 대답할 것이다. 바이스크란츠와 그의 동료들은 환자를 스크린 앞에 앉히고, 스크린 위에 작은 불빛을 소았다. 실제로 환자는 불빛 어디 있는지 자신은 전혀 모른다고 의식적으로 믿었다. 하지만 환자가 몇 시간에 걸친 실험 내내 그가 가리킨 위치가 매우 정확했다. 이런 사람 불빛을 볼수 없지만 대부분은 불빛의 위치를 추측할 수 있었다. 그래서 지각이란 의식적 활동일 필요가 없는 것이다.
⓶ 래크너(Lackner)와 개릿(Garrett)의 실험
이 실험은 ‘칵테일 파티 효과’ (the cocktail party effect)라고 부른다. 수많은 대화들 속에 둘어싸였음에도 우리는 그 대화들 중 하나에 집중할 수 있고 다른 대화들을 잊어버릴 수 있다. 이실험은 피험자들은 양쪽귀에 서로 다른 문장들을 틀어 주는 헤드폰을 썼다. 그들은이 채널중 오직 하나만 듣고,각각의 문장이 들릴 때 다른 말로 바꿔서 말하도록 요청받았다. 피험자들이 들었던 채널에서 들리는 문장들 중 일부는 뜻이 중의적이다. 결론적으로, 비록 피험자들은 의미가 명확한 문장을 들은 일조차 의식하지 못했지만, 그들이 비의식적인 충위에서 주의를 기울이지 않은 채널들을 청각적으로 들었으며, 동시에 그 채널 속의 문장들을 부분적으로 이해했던 것이다.
우리는 인간의 중요한 여러 정신적 활동, 가령 말을 이해하는 것, 외부 세계를 지각하는 것 등이 비의식적으로도 수행될 수 있음을 보았다. 가장 근본적인 질문은 인공물이 이러한 인지적 활동들을 그 의미 그대로 수행할 수 있느냐다. 그리고 우리가 이러한 활동들을 비의식적으로 할 수 있기 때문에 인공물에게 의식이 가능한지와 무관하게 이 질문은 논의될 수 있다.
튜링테스트
튜링의 테스트는 인공지능 연구자들 사이에서는 대체로 실험의 타당성을 인정받는 경향이지만, 철학자 그룹에서는 언제나 논쟁거리였다.
튜링 테스트에는 두 명의 인간과 테스트받는 컴퓨터가 필요하다. 테스트의 기본적인 아이디어는 두 사람 중 한 명, 즉 질문자가 두 참여자 중 어느 쪽이 컴퓨터인지를 알아내는 것이다. 질문자는 키보드와 스크린을 통해 컴퓨터와 나머지 한 사람과 대화한다. 이를 제외하고는 이 세 참여자들은 엄격하게 격리되어 서로 어떤 접촉도 하지 못한다. 질문자는 다른 두 참여자와 나눈 대화를 기초로, 어느 쪽이 기계인지 지목해야 한다. 또한 기계를 간파해내기 위한 직접적인 질문이나 자신이 원하는 한에서의 광범위한 질문이 모두 허용되고, 그에 따라 컴퓨터도 가능한 모두 수단을 사용해서 잘못 식별하게끔 유도한다. ‘’’그래서 ‘당신은 컴퓨터입니까?’라는 질문에 컴퓨터가 ‘아닙니다.’라고 대답하는 영리한 대처가 가능하고 굉장히 큰 수를 곱하라는 요청에 오래 지체하거나 틀린 답을 제시할 수도 있다. ‘’’
이 실험이 두 인간의 자리에 다양한 사람들을 놓고 수차례 반복되었을 때, 그 결과 컴퓨터의 정체를 밝혀낸 횟수가 ‘찍는다’라고 할 만한 50%보다 유의미하게 높지 않다면, 그 컴퓨터가 생각할 수 있다고 결론 내릴 수 있다. 잭 코플랜드가 튜링 테스트를 통과한 컴퓨터를 ‘생각하는 존재’라고 부르는 것을 보류한다면, 이는 그저 ‘생각한다’라는 단어를 인간과 우리의 생물학적 친척만 독점하는 것과 마찬가지이며 이는 탄소로 구성된 존재보다 실리콘으로 구성된 존재에게 더 많이 붙는 녹골적인 편견에 불과하다고 주장했다.
와이젠바움의 일라이자 실험과 콜비의 실험
⓵와이젠바움의 일라이자가 튜링테스트를 통과했다는 말이 틀린 이유:
와이젠바움의 일라이자는 우연하게 튜링테스트의 변형 버전 중 하나로 테스트를받은 적이 있었다.
(실험내용)[1]
- 비록 임원이 일라이자를 사람으로 착각하긴 했지만, 일라이자가 튜링 테스트를 통과했다고 말하는 것은 틀린다. 우선, 그 절차가 다른 여러 질문자들을 통해 반복되지 않았다.
- 튜링 테스트의 기준을 충족하지 못했다. 그 임원은 컴퓨터와 사람을 구별하려고 애쓰지 않았다. 또한 참가자가 셋이 아니라 둘이라는 점에서도 튜링 테스트의 기준을 위반했다. 컴퓨터와 인간 중에 선택할 필요가 없는 상황에서는 각 질문자들이 컴퓨터의 수행 능력에 관한 사소한 특징들을 간과할 수도 있지만, 선택해야 하는 상황에서는 이것이 결정적인 증거로 작용할 수 있다. 더욱이 비경합적 상황에서 질문자들은 컴퓨터의 대화 능력에 대한 낮은 기대치 등의 요인들로 인해 오판으로 치우칠(biased) 가능성이 있다.
⓶콜비(Colby)의 실험이 튜링테스트를 통과했다는 것으로 할 수 없는 이유:
콜비(Colby)와 그의 연구팀이 보고한 바에 따르면, 편집증적 프로그램, 패리(Parry)는 연구팀이 튜링 테스트와 유사하다고 평가한 테스트를 통과했다.
(실험내용)[2]
하지만 이 실험은 단지 튜링 테스트와 유사할 뿐이다.
- 두 답변자가 컴퓨터와 사람이라고 알고 있는 질문자가 인터뷰를 동시에 진행하지 않았기때문이다. 대신에 각 의사들은 독립된 두개의 인터뷰를 진행했고, 그래서 그들은 상대방이 모두 환자일 수도 컴퓨터 일수도 있다는 설명을 들었다.
- 튜링 테스트에서 경합이 없다면 편파적인 요소가 끼어든다. 하나의 가능성은 질문자가 단순히 프로그램의 능력을 지나치게 낮게 예상하기 때문에 프로그램을 환자로 착각하는 경우다. 다른 가능성은 환자의 반응에서 찾은 ‘컴퓨터스러운 행동’ [3]이라고 생각하기 쉬운 단서가 판단 착오로 이어지기 쉽다.
- 튜링 테스트는 질문자가 다양한 범위의 질문과 자신이 원하는 한 직접적으로 캐묻는 질문을 할 수 있다는 점에서 그 타당성을 얻는데 여기서는 편집증 환자들의 대화라는 특성-얼버무림, 훼방, 적개심, 주제의 갑작스런 전환, 반복되는 망상적인 주제 등-때문에 이런 시도들이 불가능하다.
- 튜링 테스트와의 마지막 차이점은, 콜비의 실험에서 텔레타이프를 통한 인터뷰가 혼란스러운 경험이었다는 것이다. 그래서 프로그램과 환자를 정확하게 구분하지 못한 질문자들의 무능력은 단지 이런 인터뷰 방식의 결과 일 수 있다는 점이다. 따라서 테스트에 참여한 질문자가 사전에 충분히 단말기를 통해 인터뷰를 진행해보는 것이 튜링 테스트의 조건이 되어야한다. 이러한 훈련은 확실히 콜비가 동시 인터뷰에서 겪은 곤란함들을 해소해 줄 것이다.
튜링 테스트에 대한 4 가지 반론
- 침팬지 반론
침팬지 반론에 따르면, 튜링 테스트는 너무 보수적이다. 침팬지는 생각할 수 있지만 어떠한 침팬지도 튜링 테스트를 통과할 수 없다는 사실을 부정할 사람은 거의 없을 것이다. 생각하는 동물들이 튜링테스트에 실패한다면, 추정컨대 생각하는 기계 또한 그럴 수 있다. 아마도 첫 번째 생각하는 컴튜터는 테스트를 통과할 만큼 심리적으로 복잡하지 않을지도 모른다. 아니면 생각하는 컴퓨터의 반응이 인간적인 특징을 보이지 않았기 때문에, 혹은 심지어 단지 그 컴퓨터가 꽤 모욕적인 진행 과정이라고 여기는 일에 별 관심이 없기 때문에 테스트에 실패한 것일 수 있다.
이 반론이 보여주는 것은 이 테스트가 리트머스 시험과 같은 것이 아니라는 점이다. 용액에 파란 리트머스 종이를 넣었을 때, 종이가 붉게 변한다면 그 용액은 산성이다. 반면 그렇게 변하지 않는다면, 산성이 아니다. 그래서 용액이 테스트에 실패했다면, 즉 시험지가 붉게 변하지 않았다면, 이 용액이 산성이 아니라는 결론이 나온다. 튜링 테스트는 이렇기 않다. 테스트에 실패해도 명확한 결과가 도출되지 않는다.
이로써 우리는 테스트의 부정적 결과가 명확한 무엇을 입증하는 것이 아니라는, 위험하지 않은 결론에 이르렀다. 사고가 불가능한 장치도 테스트를 통과할 수 있기 때문이다. 튜링 테스트는 이렇지 않다.테스트에 실패해도 명확한 결과가 도출되지 않는다. 그렇다고 이로 인해 튜링 테스트을 의심할 필요는 없다. 완벽하고 유용한 많은 테스트들이 이런 특징을 갖고 있다.
- 감각기관 반론
튜링 테스트는 전적으로 컴퓨터가 언어적으로 반응하는 능력에만 초점을 맞추고 있다 .여기서는 컴퓨터가 자신이 사용하는 단어들을, 그 단어들이 상징하거나 의미하는 실제 사물들과 연결 짓는 능력을 테스트하지 않는다. 예를 들어, 질문자는 재떨이를 들고 ‘이것은 무엇입니까?’라고 물어볼 수 없다. 어떤 컴퓨터가 자신이 사용하는 단어의 의미를 모르면서도 테스트를 통과할 수 있는 것이다. 그러므로 컴퓨터가 테스트를 통과했다는 사실마느올 컴퓨터가 생각할 수 있다는 말에 대한 어떠한 근거도 될 수 없다.
이 반론의 결론은 그 해결책으로 튜링 테스트를 강화하는 것이다. 컴퓨터는 반드시 인공적인 감각기관, 이를테면 텔레비전 눈(television eye)을 장착해야 한다. 그래야 질문자가 사용하는 단어들이 세상에 대해 무얼 말하는지 컴퓨터가 이해한바를 조사할 수 있다.
감각기관 반론은 다음을 가정한다. 발언자가 자신이 말하는 단어를 얼마나 이해하는 지를 규명하기 위한 유일한 방법은 환경과의 감각적 상호작용을 검사하는 것이다. 그렇지만 이는 전혀 사실이 아니다. 이 반론의 핵심은 언어적 질문이 이해력에 대한 적절한 테스트인가 하는 문제이지, 컴퓨터가 맨 처음 언어를 습득할 때 감각기관을 제공하는 것이 필요한가의 문제가 아니기 때문이다.
튜링 자신은 이 테스트에 맞춰 컴퓨터를 훈련시키는 가장 좋은 방법이 기계에 ‘돈으로 살 수 있는 최고의 감각기관’을 장착하는 거, 그리고 ‘적절한 교육과정’을 제공하는 것이라고 분석했다. 그러나 이 말이 감각기관 반론을 지지한다는 뜻은 아니다. 왜냐하면 이 반론의 핵심은 언어적 질문이 이해력에 대한 적절한 테스트인가 하는 문제이지, 컴퓨터가 맨 처음 언어를 습득할 때 감각기관을 제공하는 것이 필요한가의 문제가 아니기 때문이다.
언어적 능력을 갖춰야 하는 모든 컴퓨터에게 번거로운 ‘교육과정’을 실시할 필요는 없을 것이다. 게다가 다른 기계들은 감각기관을 장착할 필요도 없다. 감각기관이 없는 기계에게는 일부 단어들의 의미가 온전히 전달될 수 없다고 해도, 이는 그저 감각적 경험과 매우 직접적으로 결합되어 있는 단어들의 경우일 뿐이다. 우리 단어의 절대 다수는 이 범주에서 벗어나 있다.
- 시뮬레이션 반론
이 반론은 X의 시뮬레이션은 X가 아니라는 관찰에서부터 시작한다. 다이아몬드 모조품은 다이아몬드가 아니다. X의 시뮬레이션은 X와 유사하지만, 진짜는 아니다. 이를 참조하여, 이제 어떤 컴퓨터가 튜링 테스트를 통과했다고 가정해보면, 테스트 통과는 단지 컴퓨터가 생각하는 존재를 훌륭하게 시뮬레이션했다는 것을 보여줄 뿐이다. 그리고 이는 실제 생각하는 존재와 동일하지 않다. 이 반론을 펴는 사람들의 결론에 따르면 컴퓨터가 테스트를 통과한다는 사실은 컴퓨터가 생각한다는 것을 입증하지 못한다. 단지 생각하는 답변자를 훌륭하게 시뮬레이션할 수 있는 능력을 가져다고 봐야 한다.
잭 코플랜드는 이 반론은 무언가를 혼동하고 있다고 밝혔다. 맨처음 이 반론이 약점을 드러내는 부분은 , ‘X의 시뮬레이션은 결코 X가 아니다‘라는 주장이 잘못되었다는 점이다.
예: 목소리를 모방하는 걸 생각해보자. 만약 컴퓨터가 (그런대로 괜찮은 억양으로) 말한다면, 이 모방한 목소리는 목소리가 아닌가? 사람의 음성이 아니라 인공물의 음성이지만, 그럼에도 이 또한 음성이지 않은가?
시뮬레이션을 구분할 때 전혀 다른 두 종류의 영역이 있다. 시뮬레이션이 원본의 본질적인 특성을 상실한 경우를 시뮬레이션 1로, 시뮬레이션이 원본과 정확하게 동일한 경우, 이를 시뮬레이션 2에 속한다. 앞에서 예로 든 목소리의 모방은 시뮬레이션1이기도 하고 2이기도 하다. 이 모방된 목소리는 목소리의 모든 본질적 특성을 갖고 있다. 그러나 인공적으로 생간된 것이다. 그러므로 ‘시뮬레이션된 X는 X가 아니다’는 오직 절반의 진실일 뿐이다. X의 시뮬레이션은1은 X가 아니다. 하지만 X의 시뮬레이션2는 X다.
이 반론은 어쨌든 아무런 고려도 없이 다음을 가정한다. 즉 컴퓨터의 사고 시뮬레이션은 언제나 단지 시뮬레이션에 지나지 않을 것이며, 이는 결코 실제로 생각하는 것이 아니라는 것이다. 이 반론은 컴퓨터가 생각을 시뮬레이션하는 것이 얼마나 훌륭하게 발전할지와는 무관하게, 시뮬레이션을 언제나 유형1처럼 묘사할 뿐, 유형2일 수 없다고, 어떤 논증도 없이 단정해버린다.
시뮬레이션 반론에도 한 가지 장점은 있다. 이 반론은 우리에게 튜링테스트가 시뮬레이션1과 시뮬레이션2 사이에서 올바르게 선을 긋고 있는지 질문하도록 권하는 것이다. 테스트를 통과한 컴퓨터는 곧 생각하는 존재의 시뮬레이션2라고 결론 내릴 수 있는가, 아니면 단지 시뮬레이션1을 모아 놓기만 한 컴퓨터도 테스트를 통과할 수 있다고 말할 법한가? 등을 질문할 수 있다.
- 블랙박스 반론
흔히 블랙박스란 내부의 작동방식이 미스터리로 남아 있는 장치를 일컫는다. 튜링 테스트에서는 참여한 컴퓨터가 블랙박스처럼 다뤄진다. 컴퓨터가 생각할 수 있는지에 대한 판단은 오직 그 컴퓨터가 겉으로 드러낸 행위에만 의존하고 있다. 튜링은 어떤 사람이 생각한다라는 데 대한 판단도 항상 겉으로 드러난 행위에만 의존한다고 지적했다. 그러므로 대화라는 행위가 컴퓨터가 생각한다고 판단하는 데 적절한 근거를 제공하지 못한다고 말한다면, 당신의 인간 동료가 생각할 수 있다고 한 당신의 판단도 근거가 빈약하다는 것을 인정해야 하는 난처한 입장에 처하게 된다.
잭 코플랜드가 튜링은 인간과 컴퓨터를 서로 유사하다고 봤다는 점에서 틀렸다고 주장했다. 튜링이 이 문제를 고찰하면서 놓쳐버린 중요한 점은 이것이다. 나는 당신의 외적 행위에 근거해서 당신이 생각하다고 판단할 때, 나는 당신이 나와 비슷한 공정 – 뇌가 처리하는 전기화학적 절차가 사고의 원인이라는 – 이 일어나는 비슷한 육체를 가지고 있다고 믿는 맥락하에서 그렇게 판단하는 것이다. 당연히 컴퓨터는 이러한 맥락이 결여되어 있다.
튜링테스트에 대한 평가
블랙박스 반론은 튜링 테스트가 타당하지 않음을 보여준다. 이 테스트는 단지 결과에만 주목하기 때문에 ‘생각하는 자’라는 이름에 진정으로 걸맞은 프로그램과, 슈퍼패리처럼 분명히 사고하지 않는 프로그램을 구분할 수 없다. 이런 문제를 해결하기 위해 튜링 테스트를 강화할 방법은 없을까?
강화하는 방법중 한가지는오픈엔드(open-ended) 구조이다. 컴퓨터는 대화에서든, 질문자가 지정한 과제의 수행에서든 인간과 구분할 수 없어야한다 튜링 테스트의 강화는 두 가지 요소로 이뤄져야 한다. 첫째, 대화를 활용하는 본래의 경합 방식이다. 이는 이름을 붙이자면, 결과기준 (output criterion)을 충족하는 지 , 다시 말해, 컴퓨터와 대화한 결과가 인간과 대화한 결과와 구분할 수 없는지 규명할 것이다. 둘째, 프로그램 자체에 대한 검사가 있어야 한다. 이는 우리가 설계기준 (design criterion)이라고 명명하는 척도를 충족하는지 규명할 것이다.
설계기준은 무엇이 되어야 할까 ?
잭 코플랜드는 두 개의 가능한 선택지를 논의하였다.
⓵프로그램은 인간 두개골 안에서 일어나는 일과 대체로 유사한 방식으로 작동해야 한다.
프로그램이 전반적으로 인간과 비슷하게 작동해야 한다고 주장하는 것은 지나치게 인간중심적으로 보일지도 모른다. 그러나 이 기준을 옹호하자면, 튜링 테스트는 사고를 판별하는 리트머스 시험지가 아니라고 했던 사실을 상기해야 한다. 튜링테스트의 원래 버전은, 컴퓨터에게 인간과 구분할 수 없는 외적 행위의 산출이 요구되었다는 점에서 뻔뻔스러울 정도로 인간중심적인 테스트였다. 이 설계기준의 현재 버전은 인간 중심적 편향을 그저 프로그램 자체로 연장시켰을 뿐이다. 이것이야말로 전적으로 튜링이 제안했던 본령과 일치하는 것이다.
⓶두 번째 선택지로, 누군가는 이 설계기준의 훨씬 약한 버전을 선호할 수도 있으며, 단순히 프로그램이 모듈화된 것일 수도 있다. 다시 말해, 프로그램은 원리상 통째로 압축되어 다른 프로그램에 얹혀서 어떤 기능을 수행하는 더 복잡한 프로그램이 될 수 있어야 한다. 설계기준의 이러한 버전은, 앞서 논의한 오픈엔드 구조의 튜링 테스트와 유사한 지점이 있다. 그럼에도 중대한 차이점은 프로그램의 검사는 이 기준을 충족하는지 여부를 확인하는 것으로 충분하다는 것이다- 확장된 프로그램이 실제로 테스트의 일부로서 실행될 필요는 없다.
그래서 잭 코플랜드는 설계기준의 두 가지 버전들 중 무엇도 확실하게 옳거나 확실히 잘못되지 않으며, 또한 하나가 다른 하나보다 명확하게 더 좋지도 않다고 주장했다. 따라서 업그레이드된 튜링 테스트에는 두 버번이 있다. 더 약한 것과 더 강한 것. 전자는 모듈적인 설계기준을 포함하는 것이며, 후자는 인간중심적 설계기준이다.
결론
‘새로운 사례’형 질문에 대해서 우리는 정답을 발견할 것이 아니라 결정을 내려야 하며, 가능성 있는 답변 중 어떤 것이 이 관련 개념을 도입하는 목적에 가장 잘 부합하는지를 고려하면서 결정에 이르러야 한다. 생각하는 존재에 대한 우리의 개념은 자연적으로 발행하는 살아 있는 유기체에게만 적용되는 환경에서 형성되어 왔다. 이제 우리는 우리가 수행해 온, 말하자면 제기된 문제를 이해하고, 계획을 세우고, 문제를 해결하고, 결정을 내리는 등 광범위한 정신활동을 포괄하는 그런 행위를 수행할 수 있는 능력이라는 면에서 인간과 거의 구별할 수 없는 인공물의 가능성을 최초로 마주하고 있다.
생각하는 존재의 개념이 두 종류가 있다. 풍부한 행동지향적 내부 프로세스로 인해 창의적이고 폭넓은 적응성을 가지며, 다재다능한 존재들이 있다. 이에 속하는 존재가 지닌 행동지향적 내부 프로세스를 대규모의 적응성을 가졌고 기술할 것이다. 다른 한편에는 이러한 프로세스가 부족해서 그 행동이 매우 경직되고, 제한되어 있고, 그래서 정형화되어 있는 존재들이 있다. 생각한다는 개념은 행위의 해석과 예측에 있어 분명 가장 중요한 역할을 한다.
각주
- ↑ 어떤 기업임원이 그의 프로그래밍 직원에게 연락했는데,직원대신 일라이자가 메시지를 받은 것을 전혀 모르고 있었다. 임원: 오늘 아침에는 컴퓨터를 써볼 수 있겠나? 일라이자: 무슨 일로요? 임원: 텔콤(Telcomp)의 추가 판매가 가능할지도 모르네. 일라이자: 확신하시진 않네요? 임원: 그건 잠재적 고객들이 그 시스템의 시연을 한번도 본 적이 없기 때문이지. 일라이자: 그건 당신에게 아주 큰 의미가 있겠군요? 임원: 물론이지. 일라이자: 당신은 아주 확신에 차 있는 것같습니다. 임원: 이거 이상한데. 일라이자: 왜 이상하다는 겁니까? 임원: 내가 지금 당장 컴퓨터를 사용할 수 없는 어떤 이유가 있는 건가? 일라이자: 당신의 잠재적 고객들에 대해 더 이야기해 주세요. 여기서 이야기가 더 전행 되면서 화가 난 임원이 아무것도 모르는 직원에게 전화를 걸었다. 임원: 왜 자꾸 나를 짜중나게 하나? 프로그래머:왜 제가 당신을 짜중나게 한다는 겁니까? 이 대화를 두고 일군의 사람들은 일라이자가 튜링 테스트를 통과했다고 주장했다.
- ↑ 이 실험에서는 5명의 현역 정신과 의사들이 텔레타이프 단말기를 통해 인터뷰 진행했다. 인터뷰 중 일부는 패리와 진행했고 나머지는 편집증을 가진 사람과 진행했다. 각각의 인터뷰마다 정신과 의사들의 목표는 단말기의 반대편에 사람이 있는지,컴퓨터가 있는지 결정 하는 것 이었다. 전체10회의 인터뷰 중에서 5회는 맞추었고 5회는 틀렸다.
- ↑ 예를 들어 ’기계 같은’ 특징들 – ‘and/or’의 사용법
튜링 테스트에 대한 존 설의 입장을 기초로 잭 코플랜드와 레이 커즈와일의 사유 읽기
요구사항
과제원고 : 길혜빈, 윤석만, 임예찬
생각이란 무엇인가
①'생각'의 정의
②뇌의 원리
앨런 튜링의 문제제기 「계산기계와 지능」
①흉내게임과 아동기계
②생각을 언어로 측정하는 이유
존 설의 ‘중국어 방’
‘존 설에 대한 반론’ ① 레이 커즈와일 「존 설의 비판에 대한 반론」
‘존 설에 대한 반론’ ② 잭 코플랜드 「흥미로운 사례, 중국어 방」
결론
주석
- ↑ 출처: 「계산기계와 지능(1950)」〔앨런 튜링 지음/노승영 옮김, 『지능에 관하여』, 에이치비프레스, 2019, 65-112쪽.〕
- ↑ 출처: 「기계는 생각할 수 있을까」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 87-134쪽.〕
- ↑ 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕
- ↑ 출처: 「존 설의 비판에 대한 반론」은 〔레이 커즈와일 지음/장시형·김명남 옮김, 『특이점이 온다』, 김영사, 2007, 638-654쪽.〕
- ↑ 출처: 「흥미로운 사례, 중국어 방」〔잭 코플랜드 지음/박영대 옮김, 『계산하는 기계는 생각하는 기계가 될 수 있을까』, 에디토리얼, 2020, 261-296쪽.〕