Generalization

 

어린 아기들은 주위 환경에서의 여러 자극을 감각기관을 통해서 받아들이고, 거기서 유사성을 발견하여 스스로 일반화 시켜서 학습이 이루어지게 된다. 컴퓨터 (또는 로봇) 에게는 그러한 능력을 어떻게 부여할수 있을 것인가? ........ 귀납법 (Induction) 적 일반화 (generalization) 를 통한 학습 (Learning) ...........

다음과 같은 경우 개념 A 는 개념 B 의 일반화 (generalization) 이다. 즉 B 가 A 의 특수화 (specialization) 라면 A 는 B 의 일반화이다.

예를들면, 동물은 새의 일반화이다. 새는 동물이기 때문이다. 그러나 새가 아닌 동물은 존재한다.

특수화 (specialization or particularization) 에 대한 일반화는 상위어 (hypernym) 와 하위어 (hyponym) 와 같은 대조적인 단어들의 경우에도 반영된다. 즉 참나무와 소나무에 대한 나무 (tree), 요트와 증기선에 대한 배 (ship) 와 같이, 일반명 (generic) 으로서의 상위어는 같은 등급의 아이템들의 그룹을 대표한다. 반면에 라일락과 데이지는 꽃에, 새와 물고기는 동물에 포함되는 것과 같이, 하위어는 일반명에 포함되는 아이템중 하나이다. 상위어는 하위어를 포괄하고 (superordinate), 하위어는 상위어에 종속된다 (subordinate). ....... (Wikipedia : Generalization)

term :

귀납법 (Induction)   학습 (Learning)   추론 (Reasoning)   논리학 (Logic)   신경망 (Neural Network)   예측 (Prediciton)   사례기반 추론 (Case Based Reasoning)   inheritance (object-oriented programming)

paper :

귀납에서의 일반화와 특수화 : Philip N. Johnson-Laird

일반화와 기억 : Roger Schank

KAIST 계산신경시스템 연구실 : 이수영

   환자 a는 천연두 환자와 접촉했고, a는 천연두에 걸렸다.

   환자 b는 천연두 환자와 접촉했고, b는 천연두에 걸렸다.

   등등 ……

   따라서 누군가가 천연두 환자와 접촉한다면, 그 병에 걸릴 것이다.

이것은 귀납추론 (Induction) 이다. 즉 유한한 사례들로부터 그 유목에 속한 모든 구성원에 대한 결론을 내리게 된다. 생리학자인 발로우 (Horace Barlow)는 인간의 대뇌피질은 그 세포들이 받은 메시지들 가운데서 <미심쩍은 일치들>을 탐지할 수 있기 때문에 환경에 대한 모델을 형성할 수 있다고 한다. 즉 세포들이 귀납추론을 수행할 수 있다는 것이다 (신경망 (Neural Network)). ......

우리가 <게임>이라고 부르는 절차들을 예로 고려해 보자, 말하자면 보드게임, 카드게임, 올림픽 게임 등등을 생각해 보자. 그것들 모두에 공통점은 무엇인가? <무엇인가 공통점이 있음이 틀림없어, 아니면 그것들은 ' 게임 ' 이라고 불려지지 않았을거야>라고 말하지 말자. 그 대신 그것들 모두에 어떤 공통점이 있는지를 살펴보자 (look and see). 만약에 여러분이 그것들을 살펴본다면, 그것들 모두에 공통적인 어떤 것을 찾아내지 못할 것이지만, 유사성이나 관계성, 그리고 그것들의 전체적인 배열들을 볼 것이다.

비트겐슈타인은 개념들은 공통요소에 의존하는 것이 아니라, 한 가족의 구성원들의 유사성과 같은 유사성의 망조직에 의존한다고 논의하였다. 이러한 생각은 1970년대에 인기를 끌었었다. 이론가들은 세상은 고정형 (stereotypes, 철학의 퍼트남 (Hilary Putnam)), 전형 (prototype, 인류학의 벌린 (Brant Berlin)과 케이 (Paul Kay)), 인공지능의 샹크 (Roger Schank)와 심리학의 아벨슨 (Robert Abelson))로서 개념화된다고 주장해 왔다. 이들 이론가들의 개념들은 용어는 다르지만 기저 이론은 매우 유사하다. 즉 하나의 개념은 유목의 구성원들의 전형적인 특성들을 명시하는 것이며 개념에는 필요조건과 충분조건이 없고, 분명한 경계도 없다는 것이다. 따라서 여려분이 어떤 사람에게 새로운 개념을 가르치려 할 때 여러분은 전형적인 사례들에서부터 시작을 한다. 예를 들어 새에 대해 말할 때 새는 날개와 꼬리를 가진 작은 생물이고, 그것은 날며, 둥지에 알을 낳고, 지저귄다고 전형적인 새에 대해 말한다. 그리고서 여러분은 예외적인 사례들에 대해 말을 할 것이다. 로슈 (Eleanor Rosch)와 그 동료들은 실험을 통해 일상개념들의 사례가 모두 동등하게 대표적인 것은 아님을 보여주었다. 로빈은 전형적인 새인 반면 닭은 그렇지 않다. 따라서 사람들의 반응시간도 그에 따라 적절하게 달라져, 참새를 새라고 판단하는 것이 닭을 새라고 판단하는 것보다 더 빠르다.

전형의 논리는 무엇인가? 비트겐슈타인은 필요, 충분 조건 대신에 준거 (criteria)에 대해 이야기했다. 민스키는 이에 유사한 생각으로 내장값 (default value)이란 개념을 사용했다. 이것은 반대 증거가 없다면 용인되는 것으로 취해질 수 있는 한 대상의 특징을 말한다. 예를 들어 새다움의 내장값은 두 날개와 깃, 꼬리와 지저귀는 능력을 갖는 것을 포함한다. 따라서 내가 새에 대해 언급한다면, 여러분은 반대 증거가 없는 한 그것이 이런 특징들을 갖는다고 내장값에 의해 추론할 수 있다. 그 특성들은 필요조건은 아니지만, (어떤 새는 날개가 하나이며, 털이 없고, 꼬리도 없으며, 지저귀지 못할 수도 있다) 전형은 모든 내장값들을 합병하는 하나의 모델로 심적 표상될 수 있다 ....... (Philip N. Johnson-Laird 1988)

잘못된 일반화 (faulty generalization) 은, 보통 귀납 오류 (Inductive fallacy) 로서 알려져 있으며, 귀납추론의 다음과 같은 에러중의 하나를 의미한다. 즉 일반화에서 포함될수 있는 오류이다.

경솔한 오류 (hasty generalization) 는, 보통 "fallacy of insufficient statistics", "fallacy of insufficient sample", "fallacy of the lonely fact", "leaping to a conclusion", "hasty induction", "secundum quid" 로 알려져 있으며, 증거 (evidence) 가 너무 적은 상태에서 귀납적 일반화에 이르려고 하는 논리적 오류 (logical fallacy) 이다. 그 예는 다음과 같다.

Fallacy: Hasty Generalization : Michael C. Labossiere's Fallacy Tutorial Pro