![[4편-2] 비슷한 것은 비슷하게 : k-NN의 깊은 이해](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https%3A%2F%2Fblog.kakaocdn.net%2Fdna%2FIJq7M%2FbtsM2GUMwcM%2FAAAAAAAAAAAAAAAAAAAAAAlC6lSQb8wvvTzqTSk-NPkgogX-Q8HPwM9xHX1STay3%2Fimg.jpg%3Fcredential%3DyqXZFxpELC7KVnFOS48ylbz2pIh7yKj8%26expires%3D1753973999%26allow_ip%3D%26allow_referer%3D%26signature%3DP%252F%252BzrWkfpk4YcKvlGbgRKdeNUa4%253D)
k-NN은 어떠한 패턴도 학습할 수 있을까?k-NN 알고리즘의 놀라운 특성 중 하나는 보편 근사 능력(Universal Approximation)입니다. 쉽게 말해, 충분한 예시 데이터만 있다면 k-NN은 이론적으로 어떤 복잡한 패턴도 학습할 수 있습니다.이것은 마치 여러분이 지도에서 모든 장소의 날씨를 알고 있다면, 새로운 장소의 날씨도 주변 장소들의 날씨를 보고 꽤 정확하게 예측할 수 있는 것과 비슷합니다.하지만 여기서 중요한 문제가 생깁니다. 지구 표면의 모든 장소에 대한 날씨 정보를 수집하는 것은 불가능하죠. 마찬가지로 고차원 데이터(예: 이미지)에서는 가능한 모든 경우를 커버하는 데이터를 모으는 것이 현실적으로 불가능합니다.이것이 바로 차원의 저주(Curse of Dimensionality)라고..