사과를 알아본다는 게 뭘까? 사과로부터 '난 사과'라는 정보가 출발해서 최종적으로 나에게 전달된걸까? 틀렸다. 정보에는 정보가 없다. 량은 단지 무언가 위치바뀜이 벌어졌다는 사실 자체일 뿐이다.
사과로부터 반사된 빛이 하필 눈에 전달되어 눈의 시상세포 쯤에서 자리를 바꾼것이 중요하다. 만약 사과 빛이 종아리에 쪼여졌다면 종아리 피부에서 미세하게 자리바뀜이 벌어졌겠지만 그 자리바뀜은 뇌까지 전달되지 않는다.
백열등의 예로 바꿔보겠다. 백열등을 눈으로 보면 쪼여진 빛은 눈과 신경을 거쳐 뇌까지 자리바꿈을 일으킨다. 눈을 감고 백열등을 손으로 만진다면 온도감이 손과 신경을 거쳐 뇌까지 자리바꿈이 벌어진다.
다만 뇌에서 시각과 온감각을 수용하는 뇌의 위치는 다르다. 각각 다른 위치로 자리바뀜이 전이된다. 뇌의 입장에선 정보가 도착한 좌표를 알 뿐이며 그 내용은 모른다. 수용한 자극이 온감인지 시각인지는 뇌가 재해석하는 것이다.
똑같은 전기자극이라도 뇌의 어떤 문을 두드렸냐에 따라 그것이 청각인지 촉각인지 시각인지 분류된다. 형식이 내용을 결정한다. 정보가 문을 열고 뇌에게 구체적인 내용을 전달하는 것이 아니다.
뇌는 크게 청각 문, 촉각 문, 시각 문이라는 문의 좌표만을 알 뿐이며 두들겨지는 문을 가지고서 원본되는 자극을 추론한다. 또한 시각 문들도 더 잘게 쪼개져 있으므로 이러한 문들의 좌표를 가지고 스크린 상에 이미지를 그려넣을 수 있다.
정보에는 내용이 없다. 우주의 형식은 구조론 밖에 없다. 하지만 내용은 다양하다. 공간의 자리바꿈이라는 형식은 동일하다. 하지만 어디서 바뀌는지는 다양하다. 모든 다양한 내용은 자리바뀜이 어디서 벌어지는지에 대한 것이다.
어디서라는 게 절대적인 좌표공간을 전제하는 게 아니다. 상대적으로 내외부이냐 혹은 원근이냐이다. 관계로 말하자면 만유는 통째로 관계있지만 그 관계의 긴밀함은 국지적으로 다르다.
고양이를 어떻게 알아볼 수 있을까? 여러 단서들이 뇌의 문들을 두들기면 뇌는 그 문들의 좌표를 조합한다. 고양이 울음소리가 청각 문으로, 고양이 모습이 시각 문으로 전달된다고 치자. 청각 문과 시각 문이 각각 a, b라는 변수이다.
인풋은 고양이로부터 전달되는 정보이고 아웃풋은 이놈이 고양이라는 판단이다.
z(확률적 판단값)=a(뇌의 시각 수용)*x(고양이 사진)+b(뇌의 청각 수용)*y(고양이 소리)
인풋에 해당하는 x,y 인수들도 계속 변화하지만 받으들인 인풋을 연산하는 변수 역시 지속적으로 최신화된다. 우리는 고양이에 대하여 절대적인 기준을 가지고 판단하지 않는다. 학습하는 고양이 정보도 달라지지만 동시에 판단기준도 변화한다.
이전글 '확률은 바꿀 수 있다'
http://gujoron.com/xe/gujoron_board/1227485
a,b...라 쓴 변수들은 크게 오감일 수 있다. 세부적으로는 같은 시각 정보라도 어느 시신경을 통해 들어온건지에 따라 좌표가 다 다르다. 더 나아가 동영상 정보라면 또다시 동물의 움직임 특성과 같이 다 다르다.
말을 좀 어수선하게 쓰게 되었지만 짧게 정리해야겠다. 인공지능도 인간도 크게 다르지 않다. 인풋(x,y...)과 아웃풋(z) 쌍 형태의 데이터를 쥐어주고 그 사이 a,b,c... 변수들을 특정해내는 게 학습이다.
다양하게 수집한 고양이 사진과 소리 등에 따라 판단기준 역시 지속적으로 최신화된다. 고양이 사진만 가지고도 그 안에서 다양한 특징들이 추출될 수 있다. 각각의 특징이란 동물 안에서 고양이가 지니는 상대적인 위치값들이다.
귀가 얼마나 뾰족한지, 눈이 얼마나 큰지, 발톱이나 털은 어떤지 등 동물이 가지는 각각의 좌표축에서의 고양이의 상대적인 좌표값들이다. 좌표값이 좌표축에서만 성립하듯이 모든 특징들은 상위 형식 내에서만 성립한다.
사과로부터 반사된 빛이 하필 눈에 전달되어 눈의 시상세포 쯤에서 자리를 바꾼것이 중요하다. 만약 사과 빛이 종아리에 쪼여졌다면 종아리 피부에서 미세하게 자리바뀜이 벌어졌겠지만 그 자리바뀜은 뇌까지 전달되지 않는다.
백열등의 예로 바꿔보겠다. 백열등을 눈으로 보면 쪼여진 빛은 눈과 신경을 거쳐 뇌까지 자리바꿈을 일으킨다. 눈을 감고 백열등을 손으로 만진다면 온도감이 손과 신경을 거쳐 뇌까지 자리바꿈이 벌어진다.
다만 뇌에서 시각과 온감각을 수용하는 뇌의 위치는 다르다. 각각 다른 위치로 자리바뀜이 전이된다. 뇌의 입장에선 정보가 도착한 좌표를 알 뿐이며 그 내용은 모른다. 수용한 자극이 온감인지 시각인지는 뇌가 재해석하는 것이다.
똑같은 전기자극이라도 뇌의 어떤 문을 두드렸냐에 따라 그것이 청각인지 촉각인지 시각인지 분류된다. 형식이 내용을 결정한다. 정보가 문을 열고 뇌에게 구체적인 내용을 전달하는 것이 아니다.
뇌는 크게 청각 문, 촉각 문, 시각 문이라는 문의 좌표만을 알 뿐이며 두들겨지는 문을 가지고서 원본되는 자극을 추론한다. 또한 시각 문들도 더 잘게 쪼개져 있으므로 이러한 문들의 좌표를 가지고 스크린 상에 이미지를 그려넣을 수 있다.
정보에는 내용이 없다. 우주의 형식은 구조론 밖에 없다. 하지만 내용은 다양하다. 공간의 자리바꿈이라는 형식은 동일하다. 하지만 어디서 바뀌는지는 다양하다. 모든 다양한 내용은 자리바뀜이 어디서 벌어지는지에 대한 것이다.
어디서라는 게 절대적인 좌표공간을 전제하는 게 아니다. 상대적으로 내외부이냐 혹은 원근이냐이다. 관계로 말하자면 만유는 통째로 관계있지만 그 관계의 긴밀함은 국지적으로 다르다.
고양이를 어떻게 알아볼 수 있을까? 여러 단서들이 뇌의 문들을 두들기면 뇌는 그 문들의 좌표를 조합한다. 고양이 울음소리가 청각 문으로, 고양이 모습이 시각 문으로 전달된다고 치자. 청각 문과 시각 문이 각각 a, b라는 변수이다.
인풋은 고양이로부터 전달되는 정보이고 아웃풋은 이놈이 고양이라는 판단이다.
z(확률적 판단값)=a(뇌의 시각 수용)*x(고양이 사진)+b(뇌의 청각 수용)*y(고양이 소리)
인풋에 해당하는 x,y 인수들도 계속 변화하지만 받으들인 인풋을 연산하는 변수 역시 지속적으로 최신화된다. 우리는 고양이에 대하여 절대적인 기준을 가지고 판단하지 않는다. 학습하는 고양이 정보도 달라지지만 동시에 판단기준도 변화한다.
이전글 '확률은 바꿀 수 있다'
http://gujoron.com/xe/gujoron_board/1227485
a,b...라 쓴 변수들은 크게 오감일 수 있다. 세부적으로는 같은 시각 정보라도 어느 시신경을 통해 들어온건지에 따라 좌표가 다 다르다. 더 나아가 동영상 정보라면 또다시 동물의 움직임 특성과 같이 다 다르다.
말을 좀 어수선하게 쓰게 되었지만 짧게 정리해야겠다. 인공지능도 인간도 크게 다르지 않다. 인풋(x,y...)과 아웃풋(z) 쌍 형태의 데이터를 쥐어주고 그 사이 a,b,c... 변수들을 특정해내는 게 학습이다.
다양하게 수집한 고양이 사진과 소리 등에 따라 판단기준 역시 지속적으로 최신화된다. 고양이 사진만 가지고도 그 안에서 다양한 특징들이 추출될 수 있다. 각각의 특징이란 동물 안에서 고양이가 지니는 상대적인 위치값들이다.
귀가 얼마나 뾰족한지, 눈이 얼마나 큰지, 발톱이나 털은 어떤지 등 동물이 가지는 각각의 좌표축에서의 고양이의 상대적인 좌표값들이다. 좌표값이 좌표축에서만 성립하듯이 모든 특징들은 상위 형식 내에서만 성립한다.