딥러닝은 인공신경망을 말하는데, 쉽게 말해서
창고를 질서있게 정리한 후 나중에 물건을 빨리 찾아가는 기술입니다.
이는 인간 두뇌의 정보처리와 같은 맥락이기 때문에 인공신경망이라 말하는 거.
인공신경망의 출발점은 '이다/아니다'를 구분하여
인공신경망이 처리해야할 데이터량을 획기적으로 줄여주는 것인데요.
돼지 눈에는 돼지만 보인다는 것과 같이 관찰자의 세계관을 사용자의 필요에 따라 임의로(컴퓨팅 자원에 따라) 정해주어
분류를 빨리 할 수 있도록 하고, 할 수 없는 것은 무시해버리던지 물음표태그(나중에 처리)를 붙여주는 것이 중요합니다.
인간의 경우에도 사용할 수 있는 두뇌의 데이터 처리량은 한계가 있습니다.
그리고 그 한계에 맞추어 세계관 또한 형성되며, 인지할 수 있는 대상 또한 제한됩니다.
세계관이 커진다고 해서 더 많은 데이터를 처리하는게 아니라
하나를 보게 되면 하나를 볼 수 없게 됩니다.
물론 능력(설정)에 따라 상대적인 대상의 연역적 상부구조를 보느냐 하부구조를 보느냐의 차이는 있습니다.
이때 기술의 핵심은 인공지능이 대상의 상부구조를 인지하도록 만들어
하부구조의 데이터는 하향 연역할 수 있게 해야 하는 것입니다.
대부분의 실패는 하부구조의 지나치게 많은 데이터량을 처리하느라고 컴퓨터가 집보다 커져서 생기죠.
게다가 더 큰 문제는 집이 커질 수록 찾는 속도도 느려진다는게 문제.
연역할 수 있게 하면 지나치게 큰 컴퓨팅 자원이 필요하지 않을 수 있습니다.
또한 컴퓨터와 컴퓨터의 사이에는 온라인 허브를 두고 허브에는 인간이 개입할 수 있도록 하여 집단지성을
활용할 수 있도록 하는 것도 중요합니다.
친구끼리 대화를 나누면서 데이터를 정리하는 과정이 컴터에게도 필요하죠. 거기다가 인간의 판단력도 지속적으로 업뎃할 수 있도록 하면 완벽.
관련된 산업은 빅데이터, 음성인식, 사물인터넷, 무인자동차 등입니다. 핫하죠.
인지과학에서 흔히 하는 방법인 것 같은데, 좀 바보같은 방식이죠.
페북에서 사람의 얼굴을 97%로 인지한다고 하는데, 실제로 해보면 좀 뻥인 것 같네요.
사진에서 얼굴의 크기가 좀 작다던지, 뒤통수 혹은 옆모습만 보인다던지 하면 여지없이 틀립니다.
색상구분>덩어리구분>꺾임구분>선구분>점구분의 방식으로 넘어가지 않으면
다른분야에는 적용할 수 없는 일시적인 방식에 그칩니다.
뭔가 순서는 맞는데 노드(연결점)에서 구분하는 언어가 엉뚱하네요.
처형 대상자 명단이 인터넷 상에 자동으로 생성된다는 것이 흥미로운 일.
커밍아웃들 하시라!