토론실
프로필 이미지
[레벨:27]오리
read 3778 vote 0 2021.07.19 (12:21:06)

뇌는 어떻게 보면 암흑속에 있는 상자라 볼 수 있으며 그 상자와 연결된 신경망 다발을 통해서만 
외부와 소통하기 때문에 의사가 환자의 머리뼈를 열어서 직접 뇌를 만져도 환자는 아무것도 못 느낀답니다.. 

뇌는 어두운 방안에서 오감을 통해서 들어오는 정보를 기반으로 세상을 해석하는 모델을 만듭니다. 
그 모델을 기반으로 들어오는 정보를 해석하여 다음 단계를 예측하며 그 예측을 기반으로  능동적으로 신체를 움직이게 한 다음 돌아오는  정보를  다시 분석합니다. 
뇌는 분석 결과에 따라 사용한 모델을 수정하는 작업을 반복하여 자신의 모델을 계속 고도화 하는 작업을 한다고 볼 수 있습니다. 
뇌의 입장에서 보면 구조론은 세상을 해석하는 일종의 고차원 모델이라고 볼 수 있죠.

test1.jpg


위 그림에서 어떤 로봇이 눈을 감고 앞에 놓인 물건에 한 손가락으로  A  라는 지점을 터치 하고 
물건이 뭔지 예측한다면 둥근면 때문에 3개의 후보군이 나올 수 있습니다. 컵, 캔, 공 .

다시  B 라는 부분을 터치 하면  모서리 부분 때문에 후보군이 컵과 캔으로 줄어들고
그다음  C 를 터치 하면  손잡이 때문에 후보군이 컵 하나로 줄어  눈 앞에 있는 물건이 확실히 컵이다 라고 말할 수 있습니다.  

로봇에 비해 사람은 여러 손가락으로 저컵을  순식간에  단계적으로 만지면서  내가 만지는게 컵이구나 인식을 하죠.  
사람도 눈감고 한 손가락을 이용한 한번의 터치 만으로는 앞에 놓인 물건이 컵이라고 인지하기 어렵다는 거죠.

인공지능은 어떻게 보면 이러한 정보 처리 메카니즘을 어떻게 구현 할 것인가가 관건입니다.

이 간단해 보이는것을 프로그램 언어로 구현하는 방법론이 나온게 별로 없습니다 .

첫번째 터치 후 발생한 정보를 어떤 식으로 저장을 하고 후보군을 선택할 것인지
두번째 터치 후 발생한 정보를 첫번째 결과와 어떻게 연결을 할것인지 그리고 어떤 후보군을 삭제할 것인지
세번째 터치 후 어떤 물건이 최종후보임을 어떻게 처리하고 기존 정보를 강화할 것인지.. 등등

더 나아가면 네번째 터치 때 따뜻한 온도가 감지되면 컵안에 뜨거운게 있을지 모르니 넘어뜨리지 말자 라는 생각이 들어 다음 행동에 영향을 미친다던가.

인공지능을 만든다는 것은 이러한 메카니즘을  어떤 정보를 최소 단위로 해서  어떻게 정보를 처리할 것인지 설계해야  하는 작업 입니다. 

vincenzo-blog-1-600x294.png

위 그림에서 왼쪽이 시각 정보( deep learning 방법)을 이용하여  컵을 인식하는 모델이고
오른쪽이  여러가지 감각이 별도로 동작하면서  각각의 뇌가 서로 상호작용 하여 컵을 인식하는 모델 입니다. 
정답을 맞추는게 목표인거 같은 왼쪽 모델보다 오른쪽과 같이 여러뇌가 상호작용하는 모델이 합리적으로 보입니다.  
조금씩 다른 방법론이 나오고 있는 상황입니다. 


아메바나 쥐 같이 언어를 사용하지 않는 생물도 인간과 비슷한 정보처리 메카니즘을 가지고 있을 텐데  
만약 그 핵심 메카니즘을 구현할 수 있다면 그리고  그 메카니즘을  양적으로 100만배 늘리고 
거기에 특별한 알고리즘을 넣으면 인간의 지능과 비슷해 지지 않을까요?

구조론의  관점으로 보면 삼엽충 같은 최초의 척추 동물이 나왔을 때 이미  미래에 인간과 같은 생물은 나오게 되어 있으며 ,
수학에서 최초의 숫자 1을 정의 할 때  모든 수학 문제의 답은 이미 풀린거나 마찬가지인거 처럼 .

구조론 관점을 활용하여  뇌가 처리하는 최소 정보 처리절차를 정의하고 그 모델을 잘 정리하여 
지능의 기본 메카니즘을 구현을 한다면 미래의 인공지능은 이미 완성됬다고 볼 수 있습니다. 

구조론이 사회와 만나는 접점에 제품으로 만나는 방법도 있을 수 있습니다. 

미래의 인공지능 알고리즘은 제품화 되어 판매 될 수도 있을 텐데  예전 '인텔인사이드' 처럼 
'구조론인사이드' 마크가 붙은 구조론 알고리즘이  탑재된 제품이 판매 될 수 있습니다. 

인간과 같이 유려한 사고를 하면서 양적으로 얼마든지 늘리 수 있는 인공지능이 나온다면 
아마도 그 시장의 크기는 현재 구글의 100배 정도의 규모이지 않을까 예상해 봅니다.  



[레벨:10]다원이

2021.07.19 (17:05:29)

문외한이지만 흥미롭습니다. 제게는 상당히 일리가 있습니다.
프로필 이미지 [레벨:30]id: 김동렬김동렬

2021.07.19 (17:38:17)

솔직히 컵이나 고양이를 찾는게 왜 지능인지 모르겠소.

그냥 카메라의 성능을 좋게하면 되는데

딥러닝은 쓸모가 없는 뻘짓이라는 생각이 듭니다.

지능이 뭐냐?

이게 가장 중요한 문제가 아니겠소?

지능은 뒤집어보는 능력입니다.

30억년 전 최초의 단세포 생물은 먹이를 삼키다가 소화가 안 되면 뱉어냅니다. 

즉 반대로 행동한다는 거지요.

쥐는 미로를 가다가 막히면 뒤로 갑니다.

머리가 나쁜 참새는 유리창으로 막혔는데도 계속 대가리를 박습니다.

머리가 좋으냐 나쁘냐는 단 하나

뭘 하다가 막히면 방향을 트느냐 아니면 반복하느냐입니다.

이러다가 안 되면 저러는 것은 머리가 좋은 것이고

이러다가 안 되는데 계속 이러고 있는 것은 머리가 나쁜 경우입니다.

이러다가 안 되어 저러려면 내가 이러고 있다는 사실을 알아야겠지요. 

대칭적으로 범주화 하는게 지능이라는 말이지요.

프로필 이미지 [레벨:27]오리

2021.07.19 (18:03:23)

단세포 동물이 돌멩이를 삼켰다가 뱉어내고 이 돌멩이 정보를저장해 놨다가

다음에 다른 먹이를 먹을 때  돌멩이 인지 아닌지 비교를 할텐데.  

못먹는것 과 먹는것이라는 분류 체계안에 비교해서 넣는 과정을 거칠거라 예상이 됩니다. 


그런데 이걸 프로그램으로 구현 할 때  어떻게 이런 분류 정보를 저장하고  비교할지  좋은 방법이 아직 없는 거 같습니다.



프로필 이미지 [레벨:30]id: 김동렬김동렬

2021.07.19 (18:09:55)

인간의 뇌가 크고 뇌세포가 많고

뉴런의 연결이 활발하니까 막연히 그게 무슨 

의미가 있을 거라고 여기지만 그거 다 쓸데없는 껍데기입니다.

인간 뇌의 90퍼센트는 그냥 폼으로 있는 거고

나머지 10퍼센트 중에 90퍼센트는 뭔가를 기억하는 것이고

실제 생각을 하는 부분은 0.0001퍼센트 쯤 될 겁니다.

이 말은 뇌의 90퍼센트가 망실되어도 지능은 변함이 없다는 거지요.

어떤 개는 머리통이 아주 동전만 한데도 똑똑해요.

조그만 치와와는 뇌가 작잖아요.

뇌의 99.99퍼센트는 아무 것도 하지 않는데

아주 안 하는 것은 아니고 뭐라도 하긴 하겠지요.

가만있기를 한다거나 중심을 잡는다거나.

핵심적인 부분은 극히 일부입니다.

사람들이 지능에 대해 뭔가 판타지를 가지고 있는듯.

프로필 이미지 [레벨:20]이금재.

2021.07.19 (18:27:21)

머신러닝을 그냥 카메라라고 하는 것은 무리가 있는 해석입니다. 패턴인식이란 게 단순히 해상도만 높여서 될 리가 없죠. 패턴이란 말 그대로를 머신러닝도 해석합니다. 반복되는 것과 차이 나는 것을 선별하여 기억하고 나중에 인식한다는 거죠. 그리고 이렇게 인식한 몇 가지 패턴 혹은 심볼이 조합된 것으로 2차 해석, 즉 상황해석까지는 합니다. 비록 그 방법의 일부가 원자론적인 면이 없잖아 있지만, 기본적으로 통계학의 방법을 사용함으로 연역적입니다. 사실이지 연역적이지 않으면 분류나 해석 자체가 불가능 하기 때문. 객관식의 문제를 맞춘다는 거죠. 우리가 주관식 문제를 푼다고 해도 사실은 객관식 문제를 푸는 것처럼, 머신러닝도 정확히! 객관식 문제를 풉니다. 사진 백만장 찍어서 기억한다고 한들 분류를 할 수 있는 것은 아닙니다. 분류자에 대한 분류지가 없으면 말짱 황이죠. 이름이 다를뿐 논리의 기본적인 컨셉은 모두다 사용하는게 머신러닝입니다. 범주라는 표현을 하시는데 그래서 제가 지능은 분류라고 하는 겁니다. 그게그거죠. 지금 머신러닝이 하는 게 분류고요. 실제로 구현해보면 그렇게 단순한 문제는 아닙니다.


현기술의 수준 상 그것을 사용하는 인간 연구자 이해의 한계 덕분에 인공지능의 발전이 더딘 거지, 기본 컨셉은 문제가 없습니다.

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (18:31:19)

사람들이 지능에 대해 판타지를 가지고 있는것은 맞습니다.

그래서 혼선을 없애기 위해 지능의 최소 단위가 무엇인지 정의를 내려야 하는데

그게 사람마다 다 다릅니다.  


머신러닝(Deep Learngin)의 정점이라 할 수 있는 테슬라의 자동 주행 시스템 과 

단세포 동물의 먹을것과 못먹는것을 구분하고 기억하는 메카니즘이 좀 다릅니다. 


전자는 수학을 통한 통계적 기법으로 처리하는 방식이라 컴퓨터를 이용하여 문제를 풀면 되는데

후자는 생물학적 접근이며 아직 이렇다할 성과가 안나온 분야 입니다. 


프로필 이미지 [레벨:20]이금재.

2021.07.19 (18:34:27)

보통 통계를 어떤 것의 개수를 세는 것으로 이해하는데, 통계의 진의는 모집단인 것과 아닌 것을 가르는 것입니다. 단순히 숫자민 셀 리가 없잖아요.
프로필 이미지 [레벨:27]오리

2021.07.19 (18:40:34)

모집단(먹을 수 있는것) 과 모집단 아닌것(먹을수 없는것) 을 어떻게 구분해서 저장해야 다음에 비교를 할 수 있는지 그 메커니즘이 확실한게 없다는거죠.  이 패턴과 저패턴이 다르다는것을 어떻게 구분하냐는 문제 입니다.


그러니까 A(학교종)라는 노래와 B(고향의봄) 라는 노래를 구분하는 방법의 문제라고 설명을 할 수 있는데.

A 와 B는 전혀 다른 노래지만  한키를 높여 부른 학교종 A' 는 같은노래인데 . 이것의 구분 매거니즘과 비슷하다 볼 수 있습니다. 

 

프로필 이미지 [레벨:20]이금재.

2021.07.19 (18:43:47)

그 정도는 지금도 합니다.
프로필 이미지 [레벨:27]오리

2021.07.19 (18:56:57)

컴퓨터로 뭔가 하려면 정보를 모두 숫자로 변환을 해야 하는데. 

만약 먹는거 (1)  못먹는거(2) 이런식으로 정보를 저장한다면

거기에서 유연성과 확장성이 떨어지게 됩니다. 


한키 높여 부른 노래와 그냥 부른 노래가 같은 노래라는 것을 단순 구분된 숫자로 알아내기 어렵습니다.

프로필 이미지 [레벨:20]이금재.

2021.07.19 (19:00:41)

많은 분들이 머신러닝을 처음 접했을 때 오해하시는 부분인데,
실제로 알고리즘에 있어 숫자의 크기는 별로 안 중요합니다. 다만 그렇게 보이는 거죠.
정말 중요한 것은 비교입니다.
가령 키 183이라는 숫자가 아니라 "쟤 보다는 내가 크지"가 중요하다는 겁니다.
머신러닝도 정확히 이 논리로 구현됩니다.
프로필 이미지 [레벨:27]오리

2021.07.19 (19:05:34)

이 돌멩이와 저돌멩이가 같은 못먹는 돌멩이라는 것을 어떻게  정보를 저장을 해야 알수 있냐는거죠. 

프로필 이미지 [레벨:20]이금재.

2021.07.19 (19:27:09)

보통 그런 걸 "맥락"이라고 합니다.


1. 돌멩이냐 벌레냐?(딥러닝, 이미지 인식 등): 돌멩이냐 아니냐

2. 그게 나랑 무슨 상관이냐?(맥락 > 강화학습): 먹을 수 있냐 없냐, 주체와 대상의 문제


근데 거의 모든 학자들이 강화학습은 보통 말 그대로 컴퓨터게임인 경우만 해당된다고 착각하는 게 문제입니다.

세상 모든 일이 게임이라는 걸 모르는 거죠. 지구상에 게임이론을 이해하는 사람이 몇 명일까? 구조론에 몇 명 있는듯.


참고로

줄거주고 받을거 받자는 게 일종의 손빈의 삼사법인데, 

강화학습의 파트 중에 미니맥스minimax법이라는게 바로 삼사법입니다.

게임이론에서 유래하여 컴퓨터과학에 사용되는 방법입니다.

최악의 경우에 일어날 손실을 최소로 하는 경로를 선택한다고 설명되는데

사실은 "어차피 줄 거 최대한 적게 주고 최대한 많이 챙길 수 있는 경로"를 선택하는 방법.

원래 딥러닝 기반 알파고(몬테카를로 트리 서치) 이전에 흔히 사용되던 방법이었습니다.


야, 그럼 게임 상황만 잘 훈련시켜주면 되는 거 아냐?

구조론에서도 자주 말하는 바, 한 단계의 추론이 올라가면 추정해야 할 정보가 기하급수적으로 올라갑니다.

보통 이 시점에서 연구자들이 이해를 못하는 건데,

그냥 노가다를 하면 되지만

노가다를 하는게 맞는지 아닌지를 몰라서

감히 해보지를 못합니다.

풀섶을 하나씩 뒤집어 바늘을 찾으면 되는데

풀섶 뒤집어서 바늘 나오는 줄을 몰라서 못 찾는 거죠.

인간들이 이렇게 멍청합니다.

그럼 알파고는 왜 되냐?

"바둑판이 작기 때문입니다."


구조론에서 말하는 "나의 범위" 까지 안 가더라도

이 정도만 해결하면

현 시점에서 요하는 자율주행은 어렵지 않습니다.


참고로

머신러닝: 인공신경망을 사용하는 것을 포함하는 기계학습을 통칭

딥러닝: 인공신경망을 깊게 사용

강화학습: 게임 상황에 특화된 머신러닝

알파고: 딥러닝을 사용한 강화학습법

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (20:36:18)

맥락을 물어보는게 아니고 실제로  어떤식으로  정보를 저장을 해야 하는지 숫자로 한번 표현을 해보세요.  예를들어 1 과 2라든가 아니면 100이상의 숫자와 100 이하의 숫자로 구분한다든가. 아니면 홀수 짝수 라든가.

구현을 하려면 실제로 뭔가 기준을 잡아야 하잖아요. 


맥락을 넣을 수 있는 숫자 표현법을 예를들어 보라는거고요. 

정말로 물어보는거예요. 

프로필 이미지 [레벨:20]이금재.

2021.07.19 (20:47:47)

숫자는 심볼일 뿐입니다. 사례 반복에서 의미가 있을 뿐이죠. 그냥 "이것은 어떤 것"이라고 가리키는 거죠.

보통은 함수의 형태로 표현합니다. 일대일 대응 같은 거죠. 전단사 함수라고도 하고.


보통은 개수냐 크기냐를 헷갈리는 문제인데

현대 수학에서 가르치는 수 자체가 이 구분을 모호하게 만들어서 사람들을 헷갈리게 만들고 있습니다.

우리가 말하는 크기는 보통 질적 차이를 의미합니다.

큰 사람을 보면 괜히 주눅들고 하는 거죠.

자동차 크기가 다르면 용도가 다르고 하는 식.

차가 몇 대냐? 에서의 크기와

차가 얼마나 크냐? 에서의 크기가 다르다는 것은 

실제로 시간이냐 공간이냐의 차이지만

현대 수학은 구분하지 않습니다.

머신러닝에서도 수의 크기는 별로 중요하지 않습니다. 

그건 그냥 임의로 정해주면 그만입니다.

공통점과 차이점이 있고 부모와 자식이 있고 우열이 있어 구분이 가능하면 그것이 분류입니다.

저도 말장난 하는 거 아닙니다.

대화가 어려운 이유는 보통 맥락을 이해하고 있냐 없냐 때문입니다.

사람들이 생각하는 맥락이 사실 초라한 경우가 많거든요.

특히 공학에서 잘못 가르치는게 문제인데

절대값으로 대상을 가르치므로 맥락을 잘 이해하지 못합니다.

자연수 1과 실수 1은 다른 건데

이게 묘한 거거든요.

통계학으로 말하면

1이라도

분모가 2냐 3이냐에 따라 값(의미)이 다르듯이.

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (20:50:14)

말로 구분하는것 말고. 실제로 맥락(시간) 이 들어가는 표현법을 알고 있는것을 이야기 해보시라는 거고요. 

예를들어 노래는 아주 좋은 예죠. 시간이 흐름에 따른 음률의 변화를 기록 하면  , 키가 높은 노래나 박자 가 다른 노래라도 리듬이 같으면 같은 노래라는것을 알 수 있잖아요. 

프로필 이미지 [레벨:20]이금재.

2021.07.19 (20:51:36)

같은 음이라도 어떤 음 뒤에 있느냐에 따라서

상승인지 하강인지가 정해지겠죠.

이때 상승과 하강이 제가 말하는 의미입니다.

어떤 음은 맥락 쯤 될 꺼고.

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (20:56:48)

제가 말하려는게  하나 음정( 손가락의 한번의 터치) 로는 노래가 구분이 안되고 몇음정을 들어봐야 내가 듣는노래가 내 머리속에 기억하고 있는노래와 동일한 노래라는것을 구별할 수 있잖아요. 이런식으로 이정보와 저정보를 어떤식으로 구분하는 메카니즘중에 아시는것이 있으면  말씀해 달라는 거예요. 말로는 할 수 있지만  이게 어떻게 숫자로 표현하느냐가 관건이거든요.

프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:00:32)

(음성인식용) 딥러닝이요. 물론 현재의 딥러닝이 전체를 다 연결해서 알아듣는 것은 아니지만. (적당한 길이로 된) 파편적으로 알아듣기는 하죠. 네이버에 음악 인식 서비스가 있습니다만. 숫자로 표현하는게 중요한 건 아니고, 보통 미분해서 기울기로 표현합니다. 상승인지 하강인지를 편미분으로 구하는 거죠. 편미분을 쓰는 건 변수의 개수가 많아서 그렇고요. 책에 나오는 건뎅. 이미지 인식이나 음성인식이나 사용하는 알고리즘은 크게 다르지 않습니다. 예전에는 RNN이니 해서 썼었는데, RNN이나 CNN이 까보면 사실 비슷합니다. 미분해서 나온 기울기도 값이 있지 않냐?라고 물을 수 있는데, 미분 한 거 또 미분합니다. 그렇게 해서 패턴의 패턴의 패턴의 패턴의.. 하면서 깊어지는 거죠. 그래서 딥러닝.
Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (21:07:20)

노래는  제가 예로 든거고.  못먹는거와 먹는것을  맥락을 넣어서 숫자로 표현을 해야 한다면 어떤 방법이 있냐는거죠.    알고리즘을 묻는게 아니고  실제로 어떻게 정보를 기록할지 컴퓨터 앞에 앉아 있다 생각하고 핵심을 말씀해보라는거예요. 


프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:10:05)

나면 먹는 거고, 너면 뱉는 건데

알파고에서는 엔지니어가 흑돌이냐 백돌이냐로 미리 정해줍니다.

현재의 머신러닝에 이런 게 있느냐? 라고 물으면 없죠.

근데 묘하게 질답의 핀트가 어긋나는 것 같습니다만.

차라리 수를 없애버리고 대화를 하면 접근이 빠를 듯합니다.

수는 대소를 비교함에 의미가 있을뿐

수 없이도 사람이 대상을 볼 수 있듯이

컴퓨터도 마찬가지로 할 수 있습니다.

다만 실제로 구현하려면 수가 필요한 것은 맞으나

실제로 구현함에도 컴퓨터에서 사용되는 수와 

인간이 생각하는 수의 관념에는 차이가 있습니다.

어떤 것의 가치가 상대적이냐 절대적이냐의 차이 정도로 이해할 수 있을듯.

현재 수학이나 과학에서 사용하는 수의 표현법은 지극히 임의적입니다.

첫번째 화살을 날려서

대강 그게 어디에 꽂혔다고(값을) 정하고

다시 두번째 화살을 날려서

첫번째와 얼마나 차이가 나는 지를

다시 세번째 화살을 날려서 그것을 다시 임의의 수로 정하고

이를 네번, 다섯번.. 반복하는데

이 과정에서 수는 상대적으로 규정됩니다.


다만 편의를 위해서

절대치를 미리 만들어 두죠.

화살 두 개만 날려도 대강 알 수 있도록

근데 절대치를 미리 만든다는 것 자체가

사실 세번째 화살을 미리 날리는 것과 같습니다.

화살 아끼려고 수를 미리 대강 합의해둔 거죠.


이건 제 생각이 아니라

실제로 머신러닝이나 과학이 하고 있는 거죠.

전 다만 그걸 좀 다르게 설명하는 거고.

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (21:13:35)

아라비아 숫자로 말씀해보라는 거예요. 그래야 저장도 되고 연산도 되잖아요. 이게 어렵다는것을 말하려는 거고요. 

프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:21:21)

아라비아 숫자는 중요하지 않습니다. 제가 답해드릴 수 있는 건 여기까지입니다.

그리고 실제로 과학자들도 중요하게 생각하지 않습니다. 미분이라는 도구가 그 증거입니다.

기하의 각도를 산정함에 대수의 크기는 무시되는 겁니다.

대수에서 크기를 정해봐야 기하로 넘어가면, '비교'를 제외하고 싹 무시되는 거죠.

물론 이렇게 해도 저장도 되고 연산도 됩니다.

저장과 연산이 사실 비교이기 때문입니다.

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (21:29:39)

제가  반복해서 묻는 것은 제가 챠우님이 하는 말씀을 몰라서 그러는게 아니라. 말로는 이렇게 저렇게 하면 된다 말하지만 실제로 하려 하면 막막하다는것을 전달하려는거고요. 실제로 많은 실패의 역사가 있습니다. 

제가 묻는 내용이 만약 된다면 레고 블록쌓듯이 일사천리로 다른 복잡한 것도 처리 하여 강 인공 지능으로 까지 갈 수 있는 가능성이 있을거라고 생각해서예요. 오늘은 날씨도 더운데 여기까지만 하고 다음에 만나면 주둥이로 떠들면서 논쟁해 보죠. 

프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:32:18)

조금만 생각하면 됩니다. 이것이 그것인지 못 알아보는게 문제일뿐. 다만 제가 쿠팡 배달을 하는 게 문제입니다. 이 문제가 해결이 안 되네요.
Drop here!
프로필 이미지 [레벨:20]이금재.

2021.07.19 (18:44:53)

머신러닝에게 젤 어려운 게, 의외로 인간에게는 비유나 유추에 해당하는 겁니다.
Drop here!
프로필 이미지 [레벨:20]이금재.

2021.07.19 (19:37:43)

인공신경망도 많이들 오해하시는데

인공신경망은 연결과 단절, 그리고 비교를 하고자 만든 컨셉입니다.

실제로 알고리즘을 풀어서 보면 졸라 무식하게 만들었습니다.

아주 그냥 개판이에요.

그래도 대강 작동을 하는 건 연역적이라서 그렇습니다.

객관식 문제라는 거죠.

다만 단을 쌓지 못하는 게 문제인데

사실 이런 건 인간도 잘 못 하잖아요?

제가 보니깐 대부분 인간들이 잘 못 하던데요? 

그래도 인간이 꽤 인간 행세를 하잖느냐?

남 보고 따라하는 건 잘하죠.

어쨌건 단을 쌓는 문제는 비유와 유추가 되어야 합니다.

안 그럼 객관식 문제가 100만 가지가 될 수 있기 때문.


그냥 만들어도 되는데 왜 하필이면 신경망이라고 이름을 붙였냐?

처음 만든 놈이 뉴런에서 영감을 얻었다잖아요.

나뭇가지가 갈라지는 데서 뭔가를 느낀 거죠.



Drop here!
프로필 이미지 [레벨:20]이금재.

2021.07.19 (20:07:27)

방송을 들으니 주체와 대상을 분리하는 게 지능의 본질이라고 하시는데,

바둑과 같은 게임은 일단 그걸 정해주고 시작을 합니다.

그러니깐 알파고가 게임을 푸는 것.

알파고한테 누가 흑돌인지 백돌인지는 미리 알려주니깐.

그런데 인간과 생물은 이걸 하고(잘하진 못 합니다.)

머신러닝은 이걸 못 하고 하는 차이가 있습니다.

Drop here!
[레벨:7]오자

2021.07.19 (20:14:58)

머신러닝에게 젤 어려운게 의외로 인간에게는 비유나 유츄에 해당하는 겁니다



이 어려운 것을 AI는 빅데이터로 해결하는 것으로 보입니다.

프로필 이미지 [레벨:20]이금재.

2021.07.19 (20:19:16)

네. 보통 사례를 많이 모으는 걸로 해결하려고 합니다.

테슬라의 자율주행이 이런 식이죠.

그래서 잘 안 되기도 하고 의외로 잘 되기도 합니다.

사례를 벗어나면 헤매는 거죠.

근데 사실 비유나 유추는 인간도 잘 못하잖아요?

주체와 대상의 문제도 마찬가지

인간도 잘 못하잖아요?

그리고 사실 비유/유추가 되는 이유가 주체와 대상을 구분하는 방법을 알기 때문입니다.

보통 사람들은 관광만 하고 여행을 안 해서 이게 잘 안 되는데

평생 비슷한 사람들만 보고 비슷한 환경에서만 살기 때문입니다.

좀 돌아다녀보고 다양한 사람과 환경에 놓이면

이게 좀 됩니다.

Drop here!
프로필 이미지 [레벨:20]이금재.

2021.07.19 (20:34:39)

구조론에서 말하는 주체와 대상을 구분하는 것을 두고

보통 전통적으로 컴공에서는 이런 걸 두고 (튜링의) 정지 문제라고 합니다.

딱 같다고 말하긴 좀 그렇지만 대강 비슷한 것을 가리키고 있습니다.

정지문제는 러셀의 역설과도 연결되는 겁니다.

소위 문제의 문제, 혹은 메타문제를 다루는 거죠.

학자들이 이 문제를 제대로 정의하지 않고 

헷갈리게 기술하므로 https://namu.wiki/w/%EC%A0%95%EC%A7%80%20%EB%AC%B8%EC%A0%9C

인공지능이 어둠을 헤매고 있습니다.

문제는 푸는데, 문제의 문제는 못 푸는 거죠.

못 푼다기 보다는 거기에 문제가 있다는 것을 인지하지 못합니다.

먹을 수 있느냐 아니냐의 문제도

사실은 주체와 대상의 문제입니다.

먹는다는 것은 인간의 언어고

단세포가 다세포로 진화할 때는

너냐 나의 일부냐의 문제였습니다.

나니깐 먹는 거죠. 아니면 뱉는 거고.

Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (21:34:38)

난지 넌지 구별을 어떻게  숫자를 이용해서 구별할지 한 번 생각해 보시죠.

프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:38:51)

사실 난지 넌지 구별하는 게 의미가 아니라 "조만간 너는 내가 될꺼야"가 의미가 있죠. 구조론에서는 방향성이라고 하는듯. 숫자를 이용해서 구별한다기 보다는 "구분"한다는 행위 자체가 심볼을 이용한다는 것과 같은 것이라 중복되므로 오히려 구별이 아니라 그 상황을 어떻게 표현할 것이냐를 고민해야 한다고 봅니다.
Drop here!
프로필 이미지 [레벨:27]오리

2021.07.19 (21:57:25)

오늘은 그만 하려 했는데 자꾸 입이 근질근질 하군요. 

우린 서로 전혀 다른 곳을 보고 있는거 같아요. 





프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:58:10)

정답입니다~
Drop here!
[레벨:7]오자

2021.07.19 (21:49:28)

사례를 벗어나면 헤매는 거죠.

사례를 벗어나면을 다른 말로 하면 데이터가 충분하지 않으면 아닐까요?

프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:54:20)

데이터가 곧 머신러닝에게는 사례입니다. 


인간은 사례를 벗어나는 것을

1. 남이 알려줘서

2. 직접 부딪치고 비벼서 알게 됩니다.

Drop here!
프로필 이미지 [레벨:20]이금재.

2021.07.19 (21:57:32)

거 봐요. 인공지능이 이렇게 좋은 겁니다. 철학과 과학, 기술이 만나는 접점이거든요.
Drop here!
프로필 이미지 [레벨:2]징기스

2021.09.03 (11:28:47)

할말은 링커 영상으로 대처 합니다

소프트웨어적으로만은 불가능 합니다

하드웨어의 진보가 필연적이다

https://www.youtube.com/watch?v=-Nr2nJPQdAg

List of Articles
No. 제목 글쓴이 날짜sort 조회
공지 구조론 매월 1만원 정기 후원 회원 모집 image 29 오리 2020-06-05 79824
2086 진보와 보수 1 레인3 2023-05-22 5966
2085 장안생활 격주 목요모임 image 오리 2023-05-10 6288
2084 仁流 image 덴마크달마 2023-05-10 6333
2083 사토시 나카모토 추정 인물 image 2 오리 2023-05-09 6357
2082 학폭예방법의 가장 큰 문제는 관계를 배울 기회를 실종시켜 버렸다는 점 이상우 2023-05-08 5878
2081 감자 보급과 이중의 역설 SimplyRed 2023-05-06 5643
2080 1980년대, 2000년대의 2 사이클 dksnow 2023-05-06 5064
2079 장안생활 격주 목요모임 image 오리 2023-04-26 5086
2078 구글 바드 테스트 image 1 chow 2023-04-21 5072
2077 장안생활 격주 목요모임 image 김동렬 2023-04-13 4774
2076 구조론, 내시균형과 컴퓨터게임 SimplyRed 2023-04-11 4978
2075 ChatGPT의 훈련 방법 image chow 2023-03-24 6287
2074 장안생활 격주 목요모임 image 오리 2023-03-22 5234
2073 노블 vs 도킨스 1 오리 2023-03-18 5514
2072 대중음악과 발성의 구조 SimplyRed 2023-03-17 4605
2071 빙ai에게 구조론에 대해 물어봤습니다 image 1 오민규 2023-03-15 4610
2070 드라마 '더 글로리'와 ‘정순신 사태’가 교사에게 주는 의미는 image 2 이상우 2023-03-13 4624
2069 구조론 데이터를 통한 ChatGPT 테스트 1 오리 2023-03-11 3993
2068 장안생활 격주 목요 모임 image 오리 2023-03-09 3081
2067 챗gpt와의 대화 33가지 image 1 아란도 2023-02-28 3425