Terry Winograd

 

(미국 컴퓨터과학자, 1946~ )

심리철학과 인공지능 분야의 대가이며 특히 SHRDLU 프로그램과 같은 자연어처리 분야 전문가이다.

............ 1970년대초에 혜성처럼 나타난 AI 의 젊은 스타라고 하면 위노그래이드를 꼽을 수 있다. MIT 출신 수재인 그의 명성은 자연언어 이해 시스템 SHRDLU 과 함께 잘 알려졌다. 위노그래이드에 의해 자연언어 이해분야가 활성화되고, 많은 연구자들을 이 분야로 끌어들이게 되었다.

1976년에 완성한 KRL(Knowledge Representation Language) 논문은, Xerox의 공동연구자인  Bobrow 와의 공동연구로 완성된 논문이다. 1970년대초의 Xerox PARC는 방문이 어려운 미스테리한 곳으로 알려졌으나, 그는 [T. Winograd]라는 명패가 붙은 개인 연구실을 PARC 내에 가지고 있었다. 그리고 그는 그의 본거지인 스탠포드 대학보다는 PARC에서 지내는 시간이 더 많았다.

자연언어의 주도자로 있던 싱크가 1970년대 중반에 스탠포드 대학에서 예일대학으로 옮겨 버리자, 자연언어의 테마에 능통한 그가 학생지도를 담당해야 함에도 불구하고, 그는 학생지도보다 연구 쪽에 더 관심을 기울이게 되어, 싱크의 자리는 플로레스(F. Flores)가 대신하게 되었다. 어떻든 위노그래이드의 논문지도를 받은 박사과정 학생을 찾아보기 어렵다는 것만 보더라도 그가 얼마나 연구쪽에 비중을 두고 있는가를 알 수 있다.

KRL의 연구는 지식표현의 형식과 사양을 제한한 것으로, 특징이라면 표현하는 대상세계를 다중시점, 가령 Apple 이라고 하면 하나의 시점은 컴퓨터 회사 이름, 다른 하나의 시점은 과일, 또 다른 시점은 과일가게의 한 가지 상품, ... 등과 같이 다양한 상황에 대응할 수 있는 형식의 테마를 머리에 두고, 그 시점이 어떤 상황에 의해서 선택되는가에 대한 매칭 처리(대조처리)의 틀을 생각했다. KRL은 그와 같은 매칭 처리를 의미적 매처(Semantic Matcher)라고 부르고 있다. 어떤 시점이 결정되면 그에 따라 좀더 상세한 문맥이나 상황이 수반적(Contingent)으로 결정되며 대상 세계의 상세한 의미가 규정된다는 아이디어를 구체화시킨 것이 KRL이다.

최근의 위노그래이드의 연구는 1989년 8월 하순에 샌프란시스코의 IFIP 의 초대강연 "Can Office technology support office dialogues? (오피스 테크놀로지는 오피스 회화를 지원할 수 있는가?)"이다. 이 논문은 오피스의 회화처리로서 회화의 의도나 협조방향을 어떻게 찾으면 되는가 하는 내용이다. ............ (인공지능이란 무엇인가 : 김현숙, 크라운출판사, 1997, Page 306~307)

term :

Terry Winograd   인공지능 (Artificial Intelligence)   자연어처리 (Natural Language Processing)   SHRDLU

site :

Terry Winograd : Stanford Computer Science

Wikipedia : Terry Winograd

article :

기계와 대화하는 사람들 : TECH M : 2016/11/21 : 알파고의 승리 후 몇 달 뒤 인공지능 붐의 산실인 실리콘 밸리를 방문, 인공지능의 현실 적용에 상당한 성과를 거둔 이들과 인공지능이 언어를 이해하게 하려고 노력하고 있는 이들을 만났다. 구글, 페이스북, 애플의 본사에서 그리 멀지 않은 팔로 알토에 사는 위노그라드를 먼저 만났다. 곱슬머리 백발에 덥수룩한 턱수염을 가진 그는 존경 받는 학자 같이 보이면서도 자신의 열정을 다른 이들에게 전하는 능력을 가지고 있었다. 위노그라드는 기계에게 말하는 능력을 가르치려고 한 최초의 학자 중 한 명이다. 1968년 언어에 푹 빠진 수학 천재였던 그는 MIT에 새로 생긴 인공지능 실험실에서 박사과정을 시작, 박사과정 목표로 텍스트를 기반으로 사람과 일상의 언어로 대화할 수 있는 프로그램을 만들겠다고 결심했다. 당시만 해도 이것이 비현실적인 목표라고 여겨지지 않았다. “그때는 여기에 어떤 무한한 가능성이 있다고들 생각했지요.” 당시 인공지능은 가장 활발하게 연구되는 분야였으며 MIT의 다른 이들은 컴퓨터 비전 시스템과 미래형 로봇 팔을 만들고 있었다. 모두가 언어에 대한 정복이 쉽게 이루어질 것이라고 생각했던 것은 아니다. 저명한 언어학자인 노엄 촘스키 MIT 교수를 비롯한 비판가들은 우리가 인간의 언어도 아직 제대로 이해하고 있지 못하다는 점을 들어 기계가 언어를 이해하게 만드는 것은 쉽지 않을 것이라고 생각했다. 위노그라드는 한 파티에서 자신이 인공 지능 연구실에서 일한다고 소개하자 촘스키의 학생 중 하나가 파티장에서 나가버렸다고 회상했다. 그러나 그가 컴퓨터가 언어를 이해하게 될 것이라고 생각했던 이유가 있었다. 그가 박사과정을 시작하기 2년 전 독일 출신의 조셉 와이젠바움 (Joseph Weizenbaum) MIT 교수는 최초의 인공지능 대화 프로그램을 만들었다. 엘리자 (ELIZA )란 이 프로그램은 만화에 나오는 정신과 의사처럼, 환자가 한 말의 중요한 단어를 반복하거나 혹은 대화를 더 진행하게 만드는 질문을 던지는 식으로 동작했다. 예를 들어 어머니에게 화가 난 환자가 있다면 엘리자는 이렇게 말한다. “어머니에 대해 생각할 때 또 어떤 사실이 마음속에 떠오르나요?” 아주 간단한 기술이었지만 이 프로그램은 놀랄 만큼 잘 작동했다. 와이젠바움은 어떤 참가자들이 자신의 가장 어두운 비밀을 엘리자에게 털어 놓는 것을 보고 충격을 받았다. 위노그라드는 진정으로 언어를 이해하는 것처럼 보이는 뭔가를 창조하고 싶었다. 그는 먼저 문제를 간단하게 만들었다. 그는 가상의 물건 몇 개가 가상의 테이블에 놓인 매우 단순한 가상의 공간 ‘블록 월드’를 만들었다. 그리고 이 축소된 가상 세계에 필요한 모든 명사와 동사를 구분하고 간단한 문법 규칙까지 이해하는 SHRDLU(이 단어는 자동식자기의 두번째 줄 글자들로 만들어진 아무 의미 없는 단어다)란 이름의 프로그램을 만들었다. 이 프로그램은 대상을 묘사하고 이들의 관계에 대한 질문에 답할 수 있었다. 또 명령에 따라 이 가상 세계를 변화시킬 수 있었다. 특히 일종의 기억력을 갖고 있어 처음에 ‘붉은 원뿔’을 언급했다면, 나중에 ‘그 원뿔’이라고 말했을 때 사용자가 바로 붉은 원뿔을 가리킨다고 가정했다. SHRDLU는 인공지능의 발전을 알리는 상징이 됐지만 곧, 이 발전이 환상에 불과하다는 것이 밝혀졌다. 위노그라드가 자신의 가상 세계를 더 크게 확장하려 하자 그 새로운 세계를 묘사하기 위한 단어의 수와 문법의 복잡성이 당시의 기술로는 감당할 수 없는 수준으로 늘어난다는 것을 알게 된 것이다. 한 두 해 뒤, 그는 이 문제에 손을 들었고 결국 인공지능 분야를 떠나 다른 분야로 연구주제를 바꿨다. “처음 생각보다 그 한계가 너무 가까이 있었던 거죠.” 위노그라드는 당시의 기술로는 기계가 언어를 진정으로 이해하게 만드는 것이 불가능하다고 결론 내렸다. 허버트 드레퓌스 (Hubert Dreyfus) UC 버클리 철학교수가 1972년 ‘컴퓨터가 할 수 없는 것(What Computers Can’t Do)’에서 주장한 것처럼 인간이 가진 여러 능력은 일종의 직관적 지능이 있어야 하며, 이는 단정적인 규칙으로는 구현하기 어려운 것이라는 점이 문제였다. 바로 이 점 때문에 이세돌 기사와 알파고의 대결을 앞두고 수많은 전문가들이 기계가 바둑으로 인간을 이기기 어려울 것이라고 예측했던 것이다. 그러나 드레퓌스의 그러한 주장에도 불구, 몇몇 연구자들은 기계가 일종의 지능을 가지게 만들 수 있는 방법을 개발해왔다. 뇌과학에서 일부 영감을 받은 이들은 뇌 신경을 수학적으로 흉내 낸 후 이를 여러 층으로 만들고 특정한 입력에 대해 반응하도록 훈련할 수 있는 인공 신경망 기술을 시도했다. 초기에는 이 기술의 속도가 너무나 느렸으며 논리나 추론을 표현하기에는 비현실적이라는 점 때문에 주목받지 못했다. 그러나 신경망은 직접 프로그램으로 쓰여지기 어려운 문제를 학습을 통해 해결할 수 있었으며, 이 때문에 손글씨를 인식하는 것과 같은 간단한 문제에 유용하다는 것이 증명돼 1990년대 들어 수표에 쓰인 숫자를 읽는 기술로 상용화됐다. 이 기술을 지지하는 이들은 신경망이 언젠가는 기계로 하여금 더 많은 일을 하게 만들 것이라고 믿었다. 그들은 심지어 언젠가 이 기술을 통해 기계가 언어를 이해하게 될 것이라고 주장했다. 지난 몇 년간 신경망은 더 복잡해졌고 더 강력해졌다. 신경망 에 사용되는 수학이 더욱 정교해졌을 뿐 아니라 특히 컴퓨터의 속도와 데이터의 양이 모두 기하급수적으로 증가하면서 신경망 기술은 빛을 보기 시작했다. 2009년 캐나다 토론토대학의 연구진은 다층 딥러닝 기술로 음성 인식의 기존 기록을 경신했다. 그리고 2012년 같은 연구팀은 머신-비전 대회에서 딥 러닝 알고리즘으로 놀랄만한 정확도를 보여줬다. 딥러닝 신경망은 사진을 아주 단순한 기술을 사용해 인식한다. 신경망의 한 층은 사진을 입력 받은 뒤 각각 픽셀의 농도에 대해 특정 신경이 발화한다. 이 신호들은 뉴런들이 서로 엮여 있는 여러 층을 거쳐 대상이 무엇인지를 알려주는 마지막 단계에 도달하게 된다. 역전파(backpropagation)라는 수학적 기술은 신경망이 제대로 된 답을 내도록 각 뉴런들의 민감도를 조절, 대상이 무엇인지 구별하는 능력을 학습할 수 있다. 신경망 내부의 다른 층들은 각각 사진의 모서리, 색깔, 재질 등의 특성에 반응한다. 이 기술은 이제 물체, 동물, 그리고 사람의 얼굴을 인식하며 그 인식률은 일반적인 사람의 구별 능력에 견줄 수 있을 정도다. 이 딥러닝 기술을 언어에 적용하는 데는 분명한 어려움이 있다. 언어는 사진과는 근본적으로 다른 기호로 이뤄졌기 때문이다. 예를 들어 전혀 다른 글자로 이뤄진 단어가 비슷한 뜻을 가질 수 있고 같은 단어라도 맥락에 따라 여러 가지 뜻을 가질 수도 있다. 1980년대 연구자들은 언어를 신경망에 적용할 수 있는 문제로 바꾸는 기발한 아이디어를 생각해냈다. 그들은 단어를 하나의 수학적 벡터로 나타낼 수 있으며 이를 통해 이들의 유사성을 계산할 수 있다는 것을 보여줬다. 예를 들어 ‘보트’와 ‘물’은 전혀 다른 단어이지만 벡터 공간에서는 가까이에 자리잡게 된다. 요슈아 벤지오가 이끄는 몬트리올 대학과 구글의 연구팀은 이 아이디어를 바탕으로 문장을 그 문장에 포함된 각각의 단어에 의해 더 복잡한 벡터로 표현하는 - 저명한 딥러닝 연구자로 구글에서 함께 일하기도 한 토론토대학 제프리 힌튼 교수는 이를 ‘생각 벡터’라 불렀다 - 신경망을 만들었다. 두 언어에 대해 이런 신경망을 만듦으로써 연구자들은 두 언어를 놀라운 정확도로 번역할 수 있었다. 또 이와 비슷한 신경망과 사진을 인식하는 신경망을 결합, 매우 그럴듯한 사진 설명을 달 수 있게 됐다.