Activation(활성화 값)
신경망에서 뉴런에 인가되는 가중치 합
Adaline(아달라인)
패턴의 범주화에 쓰이는 Grossberg와 Carpenter에 의해 개발된 이론이며, 안정성-유연성(stability-plasticity) 딜레마에 대해 설명하는 데 쓰인다.
Adaptive Resonance Theory(ART)
단계적으로 문제를 풀어나가는 과정
Annealing(어닐링)
네트워크가 지역최소 값(Local Minimum)으로 떨어지는 것을 막는 처리
ART(Adaptive Resonance Theory)
ART1은 이진입력에 대한 이 이론의 초기개발 결과이다. ART2는 아날로그 입력에 대해 더욱 발전된 것이다. ART3은 가장 최근의 이론이다.
Artificial Neuron(인공 뉴런)
인공 신경망의 주된 목적은 인간의 뇌의 신경세포의 동작을 흉내내는 것이다. 인공 신경 세포는 신경망의 처리 요소이다.
Associative Memory(연상 메모리)
하나의 패턴이나 객체로서 그 자신이나 다른 것을 연상시키는 행위
Autoassociative(자기 연상)
하나의 패턴이나 객체로 그 자신과 대응시키는 것
Backpropagation(역전파)
출력층의 에러가 학습이 이루어지기 전에 이전 계층으로 피드백되는 피드포워드 네트워크를 위한 신경망 트레이닝 알고리즘. 만일, 이전 계층이 입력층이 아니면 이 은닉층의 에러는 이전 계층으로 피드백된다.
BAM
Bidirectional Associative Memory 네트워크 모델
Bias(바이어스)
뉴런의 Activation에 가해지는 값
Binary Digit
0 또는 1의 값
Bipolar Value
-1 또는 +1의 값
Boltzmann Machine(볼츠만 머신)
출력이 확률분포로 결정되는 한 신경망. 시뮬레이티드 어닐링(Simulated Annealing)을 이용하여 트레이닝되고 동작한다.
Brain-State-in-a-Box
Anderson의 단일 계층이며, 글자 그대로 연결된 신경망. 잡음이 섞이거나 불완전한 입력에서도 동작한다.
Cauchy Machine(코시 머신)
Boltzmann Machine과 비슷하며, Cauchy분포가 확률에 사용된다는 것만 다르다.
Cognitron(코그니트론)
Neocognitron의 선행자. 캐릭터를 인식하기 위해 개발된 네트워크
Competition(경쟁)
어떤 기준에 의해 winner가 뉴런의 계층에서 선택되는 과정. 경쟁(competition)은 억제(inhibition)에게 어떤 연결 가중치에 음의 부호의 값을 갖도록 하게 한다.
Conneciton(연결)
하나의 뉴런에서 다른 뉴런으로 입력을 전달하는 방법
Connection weight(연결 가중치)
연결과 관련된 수치적인 라벨이며 입력의 가중치 합에 사용된다.
Constraints(한정)
방정식이나 부등식으로 표현되는 조건이며 그 변수에 의해 만족되어야 한다.
Convergence(수렴)
최종 결과로서 과정을 끝내는 것
Crisp(크리스프)
퍼지의 반대-어떤 실체(entity)에 대한 특정한 수치적 양이나 값
Delta Rule(델타 규칙)
출력과 발생된 에러를 모두 사용하여 연결 가중치를 교정하기 위한 규칙이다. 또한 LMS규칙이라고도 불린다.
Energy Function(에너지 함수)
신경망에서 출력과 가중치의 함수이며, 시스템의 상태, 즉 Lyapunov 함수를 결정한다.
Excitation(여기)
연결에 양의 부호의 가중치를 가하여 출력이 뉴런을 fire하게 한다.
Exampler(견본)
신경망을 트레이닝 시키는 패턴이나 객체의 대표적인 예
Expert System(전문가 시스템)
시스템이 전문가처럼 수행하도록 하는 공식화된 규칙들의 집합
FAM(Fuzzy Associative Memory) 네트워크
퍼지 집합들 간을 관련시킨다.
Feedback(피드백)
퍼지 집합요소의 포함정도(Degree of Membership)의 값으로 이루어진 벡터
Fully connected Network(완전 연결 네트워크)
모든 뉴런이 모든 다른 뉴런과 연결된 신경망
Fuzzy(퍼지)
크리스프(Crisp)와 반대되는 변수와 관련이 있다. 퍼지양(Fuzzy Quantity)은 단일 수치값과 상반된 값의 범위를 나타낸다. 즉, "뜨겁다"와 "89.4도".
Fuzziness(퍼지니스)
어느 정도까지 중복되는 다른 개념. 예를 들면, 순조로운 온도와 차가운 온도에 대한 묘사는 약간의 온도 구간에서 중복된다.
Fuzzy Associative Memory(퍼지 연상 메모리)
퍼지 집합들 간에 관련을 짓기 위한 신경망 모델
Fuzzy Equivalence Relation(퍼지 등가 관계)
반사적이고, 대칭적이며, 바꾸어 놓을 수 있는 퍼지관계(퍼지 변수들 간의 관계)
Fuzzy Partial Order(퍼지 부분 차수)
반사적이고, 반대칭적이며, 천이적인 퍼지관계(퍼지 변수들 간의 관계)
Gain(이득)
액티베이션을 향상시키기 위한 어떤 수치적 요인. 동일한 목적을 위한 연결
Generalized Delta Rule(일반화된 델타규칙)
은닉층의 가중치가 역전파된 에러에 의해 교정되는 역전파 트레이닝(Training)과 같은 네트워크의 트레이닝에 쓰이는 규칙
Global Minimum(전역 최소값)
함수의 값이 함수 영역의 어떤 점에서의 값보다 크지 않은 점
Hamming Distance(해밍 거리)
이진 벡터가 서로 다른 위치의 수
Hebbian Learning(헵의 학습)
Hebb규칙이 사용되는 학습알고리즘
Heteroassociative(이질 연상)
두 개의 서로 다른 패턴이나 물체 사이의 연상을 하는 것
Hidden Layer(은닉층)
입력층과 출력층 사이에 있는 뉴런들의 배열
Hopfield network(홉필드 네트워크)
단일 계층이고, 완전히 연결되고, 자기 연상적인 신경망
Inhibition(억제)
다른 뉴런에 의한 Firing의 기회를 줄이기 위한 뉴런에 의한 시도
Input Layer(입력층)
외부 입력이나 신호가 가해지는 뉴런들의 배열
Instar(인스타)
다른 뉴런과 연결되어 있지 않은 뉴런
Lateral Connection(측면 연결)
같은 계층에 있는 두 뉴런 간의 연결
Layer(계층)
네트워크가 동작하기 위해 구성된 것과 비슷하게 구성한 뉴런들 간의 배열
Learning(학습)
네트워크 동작의 목적을 이루기 위해 연결 가중치의 적절한 집합을 찾는 과정
Linearly Separable(선형적으로 분리 가능한)
선형 장벽(Hyperplane)을 갖는 선형적이 집합의 두 서브셋(Subsets)
LMS Rule(최소 자승 평균 에러 규칙)
Least Mean Squared Error Rule. 자승 에러의 평균을 최소화하기 위한 목적. 델타 규칙과 동일하다.
Local Minimum(지역 최소값)
함수의 값이 이웃한 다른 점의 값보다 크지 않은 점
Long-Term Memory(LTM, 장기 메모리)
확장된 단계를 위해 남겨둔 인코드된 정보
Lyapunov Function(리야프노브 함수)
경계값 이하의 함수이며, 시스템의 상태의 모든 변화에 따라 감소하는 시스템의 상태를 나타낸다.
Madaline(마달라인)
입력층이 Adaline인 유닛을 갖는 신경망. 즉 다중-Adaline
Mappine(매핑)
두 집합의 요소들 간의 대응
Neural Network(신경망)
계층에서의 처리 요소들의 집합이며 뉴런 쌍들 간의 연결 끝의 집합. 입력이 한계층에서 수신되고 출력은 그와 같은 계층이나 다른 계층에서 발생된다.
Noise(잡음)
입력의 왜곡
Nonlinear Optimization(비선형 최적화)
그것의 목적이나 제한이 비선형적인 함수를 갖는 문제를 위한 해결책을 찾는 것
On Center Off Surround
여기적인(Excitatory)가중치를 가까이 있는 뉴런과의 연결에 할당하고, 억제적인 (Inhibitory) 가중치를 멀리 떨어진 뉴런과의 연결에 할당하는 것
Orthogonal Vectors(직교 벡터)
그 내적이 0이 된다.
Outstar(아웃스타)
입력 연결을 갖는 뉴런
Perceptron(퍼셉트론)
선형 패턴 매칭을 하기 위한 신경망
Plasticity(유연성)
새로운 입력으로 시뮬레이션 되거나 새로운 매핑을 학습하거나 또는 현재 존재하는 것을 수정할 수 있는 능력.
Resonance(공진)
입력을 범주화(Categorizing)할 때, 서로 다른 계층에 있는 두 뉴런들의 응답성. 두 방향이 등가인 상태.
Saturation(포화)
뉴런이 점화(fire)할 수 있는 빈도수의 제한 조건.
Self-Organization(자기 조직화)
출력층 뉴런을 개별적인 패턴이나 가케고리로 분할하는 과정이며, 자율학습 또는 클러스터링(Clustering)이라 불린다.
Short-Term Memory(STM, 단기 메모리)
대응하는 입력을 제거한 후에, 오랫동안 저장되지 않는 저장 정보.
Simulated Annealing(시뮬레이티드 어닐링)
에너지나 온도 또는 비용 등을 감소하도록 변화가 이루어지는 알고리즘
Stability(안정성)
네트워크 동작이 정상상태 해에 수렴하는 성질.
Supervised Learning(지도 학습)
견본 집합이 입력과 요구되는 출력의 쌍으로 구성된 학습처리.
Threshold Value(임계값)
뉴런이 점화할 것인가의 여부를 결정하기 위해 뉴런의 활성화 값과 비교하기 위해 사용되는 값. 종종 뉴런의 출력을 결정하는 데 있어 임계값이 0이 되도록 하기 위해 뉴런의 활성화 값에 바이어스 값이 더해진다.
Training(트레이닝)
입력과 출력자극(지도학습)을 인가하거나, 입력자극(자율학습)만을 인가하여 신경망이 학습하도록 도와주는 과정이며, 가중치가 변화되도록 해준다.
Unsupervised Learning(자율 학습)
출력에 대한 외부의 정보가 없는 학습이며, 또한 자기 조직화나 클러스터링이라고도 불린다.
Vigilance Parameter(경계 변수)
ART(Adaptive Resonance Theory)에 사용되는 파라미터. 이것은 네트워크의 종속시스템(Subsystem)의 활성화 값을 선택적으로 막아주기 위해 사용된다.
Weight(가중치)
뉴런이나 두 뉴런 간의 연결과 관련된 수이며, 뉴런의 활성화 값을 결정하기 위한 출력을 할당할 때 사용된다.
'AI' 카테고리의 다른 글
Neural Network - 기계학습(machine learning) (0) | 2011.10.26 |
---|---|
인공지능 - mixMax 알고리즘을 이용한 Tic Tac Toe 구현 (0) | 2011.05.20 |
인공지능에서의 스키마(Schema) (0) | 2011.04.24 |
SOM 구현 가중치 설정 가우스분포, 정규분포 (0) | 2010.06.22 |
정리 - 인공 신경망 (1) | 2010.03.26 |