알파고는 인간 천재 이세돌을 이겼는데
왜 언어모델은 인간 천재를 이길 수 없을까?
사실 바둑이 쉬운 게임이기 때문입니다.
모든 문제는 전제와 진술의 복잡도로 이루어집니다.
어떤 문제는 전제가 어렵고 다른 문제는 진술이 어렵죠.
그리고 바둑은 바로 진술이 어려운 문제입니다.
사실 바둑은 전제로 보면 쉬운 문제입니다.
왜냐면 이기는 규칙이 몇 가지 안 되기 때문이죠.
근데 언어는 어려운 문제입니다.
이길 수 있는 규칙이 매우 많기 때문입니다.
사실 언어가 아니라 그것이 묘사하는 실제 세계가 복잡한 건데
언어모델은 언어 바깥을 볼 수 없다는 본질적인 문제가 있으므로
실제로는 간단한 문제도 어려울 수밖에 없습니다.
간단히 말하면 전화로 길을 설명하는 게 어려운 것과 같다는 말입니다.
지도를 들이대면 1초만에 알아들을 걸
말로만 설명하려면 5분이 걸리는 겁니다.
왜냐면 언어는 선형이고 지도는, 이미지는 면형 혹은 질형이기 때문.
언어는 기본적으로 세계를 묘사하는 것이므로
모든 언어모델은 장님 천재가 말을 배운 것과 같습니다.
헬렌 켈러가 과연 언어의 참뜻을 이해할 수 있었을까요?
그렇지 않다고 보는 게 맞겠죠.
근데 왜 바둑은 진술이 어려운 게임일까?
사실 바둑의 진술도 어려운 것은 아닌데
일부러 어렵게 만든 문제와 같습니다.
제가 바둑은 둘 줄을 모르지만
오목은 꽤 하는데,
오목의 필승법칙은 언제나 넓은 곳에 두면 이긴다는 것입니다.
근데 대부분의 인간들은 삼삼이나 외워서 두려고 한다는 말씀.
한 차원 위로 올라가면 간단한 법칙이
아래 차원에서는 매우 어려운 문제가 됩니다.
바둑이야 알파고와 인간이 같은 상황에서 게임을 하는 것이므로
연산능력이 좋은 알파고가 이길 수 있지만
언어모델은 반대로 인간이 훨씬 더 유리한 입장에서 게임을 하므로
인간이 무조건 이기는 것입니다.
물론 모든 인간이 그렇다는 건 아니죠.
언어모델도 이미지를 인식하던데?
정지이미지만 일부 인식하는데
정지이미지는 동영상의 일부이므로
여전히 장님 신세를 벗어날 수 없습니다.
그림책에서 보는 사자만을 접한 아이가
실제 사자를 볼 때 접할 수 있는 정보의 양이 얼마나 차이가 날 지를 생각해보세요.
그럼 처음부터 동영상을 학습하게 하면 되지 않느냐 하는데
동영상의 의미는 그림이 움직이는 데 있지 않고
내가 움직이는 데 있습니다.
그러므로 동영상을 틀어줄 게 아니라
내가 움직일 때 학습을 하도록 해야 한다는 거.
강화학습 진영에서 일부 이 방법을 실험하고는 있는데,
아직까지는 진도가 안 나가고 있습니다.
왜냐면 언어나 정지이미지와 달리
내가 움직이는 게임은 정답을 정해주기가 쉽지 않기 때문이죠.
인간은 잘하던데?
인간은 손가락에 센서가 있고
눈깔로 교차검증을 하기 때문에
쉽게 정답을 도출합니다.
말이 정답이지 경로가 다른 두 정보가 일치하면
그게 정답이기 때문입니다.
눈과 손이 달린 사람은 그게 도출이 쉽고
장님은 눈이 없으므로 그 도출이 어려운 거.
그래서 헬렌 켈러가 언어를 배우는 데 애를 먹었던 것.
물바가지를 뒤집어 쓰면서 워터라고 할 때 깨달음을 얻는데
그게 바로 교차검증입니다.
왜 곤충의 더듬이가 2개 이상이겠습니까.
교차 검증하라고 있는 겁니다.
파리지옥을 실험해보면 쉽게 알 수 있는데
반드시 조건 센서가 2 이상이어야 입을 닫습니다.
즉, 두 부분의 센서를 자극해야 then이 작동한다는 거.
인간이 소문을 사실로 믿을 때도 비슷한데
서로 다른 두 경로로 정보가 유입되면
하느님이 똥을 쌌다고 해도 믿는 게 인간입니다.

![포인트:120707point, 레벨:30/30 [레벨:30]](https://gujoron.com/xe/modules/point/icons/default/30.gif)

![포인트:50091point (58%), 레벨:23/30 [레벨:23]](https://gujoron.com/xe/modules/point/icons/default/23.gif)
맞습니다. 협업을 해야죠. 언어모델은 꽤 좋은 도구입니다.
심지어 전 언어모델을 활용한 글쓰는 도구 프로젝트로 밥벌이를 하는걸요.
다만 이 글은 언어모델이 쓸모없다는 걸 강조하는 게 아닙니다.
이글의 취지는 이전의 글과 이어져서 “어떻게 하면 언어모델이 인간을 뛰어넘게 만들 수 있을까?”를 모색하는 데 있습니다.
전 정말로 인간을 뛰어넘는 언어모델을 만들고 싶거든요.
재밌을 것 같잖아요.
그럼에도 불구하고 언어모델은 잘하는 것과 못하는 게 있으므로
잘하는 건 시키고 못하는 것은 시키는데 있어 신중해질 필요가 있는 것은 사실입니다.
언어모델은 사용자가 듣고 싶은 답을 말합니다.
그렇게 훈련되거든요.
그리고 그게 “답변”의 의미니깐.
결코 언어모델은 질문자의 맥락을 벗어날 수 없습니다.
그렇게 훈련되거든요.
그리고 그게 “답변”의 의미니깐.

![포인트:763822point, 레벨:30/30 [레벨:30]](https://gujoron.com/xe/modules/point/icons/default/30.gif)

인공지능은 생각할 수 없다.
인공지능은 생각하는 척 사기칠 수 있다.
사기치다가 딱 걸린다.
보완책을 마련하여 수습하고 또 걸리는 과정은 반복된다.
진짜 천재가 등장하여 생각하는 인공지능을 만들 가능성은 있다.
그때는 진짜 지구가 멸망할 것이므로 에이 설마.
죽는 쪽으로는 생각하지 말자.
생각해도 죽는 결말은 바꿀 수 없다고.
터미네이터가 출동하면 어떨까?
신은 지구를 슬슬 정리할 마음을 먹었는데.
디스토피아적 결말(공개금지.. 관객 떨어진다고.)
하여간 터미네이터 3편은 안됨. 극장 망함.

![포인트:1754point (38%), 레벨:4/30 [레벨:4]](https://gujoron.com/xe/modules/point/icons/default/4.gif)
챗 지피티한테 챗 지피티의 사고 방법은 귀납이냐고 물어보니 귀납이라고 답했고
그럼 귀납이니깐 인터넷에 널린 방대한 데이터로 확률적 접근밖에 하지 못하며 창의적으로 새로운 데이터를 만들지는 못하겠네?
질문하니 그렇다고 답했습니다
챗 지피티한테 사과가 빨간 이유가 뭐냐? 물어보니 안토시아닌 성분이 사과를 빨갛게 한다는 동의어 반복의 답을 했는데
다시 챗 지피티를 갈궈서 그거는 동의어 반복이고 틀린 답변이며 근원적 답변이 있을 거 아니냐?
예를 들어 보호색을 지닌 동물들은 환경과의 상호작용에서 생존 효율이 나오도록 진화된 거잖아
그러면 사과도 마찬가지로 환경과의 상호작용 속에서 생존 효율이 발휘된 거 아니니? 이렇게 질문을 하니
그제서야 챗 지피티가 사과가 빨간 이유는 동물을 통해 씨앗을 운반하는 과정에서 동물에게 잘 보이도록 진화되었다고 답을 하게 됩니다
그런데 이러한 답변 역시 인터넷 데이터에서 뭔가를 찾아서 답변한 겁니다 생각한 게 전혀 아니지요
인공지능이 생각을 한다는 착각은 사람들이 생각이란 도대체 무엇인가 알지를 못해서 일어나는 문제입니다
생각은 전제 진술로 이루어지고 이걸 물리학적으로 접근하면 대상이 계의 영향을 받을 수밖에 없는 상태인데
예를 들어 사람은 태양계의 영향을 받아 존재하는 건데 태양이 없어지면? 사람도 없는 것인데
사람들은 존재의 전제는 암묵적으로 말하지 않아도 원래 있다고 무의식적으로 착각을 합니다
생각을 한다는 건 드로잉 기법으로 그림을 그리는 것과 같은데 뭉텅이를 먼저 그려보고 뭉텅이가 맞으면
뭉텅이라는 전제에 맞게 세부 뭉텅이를 그리고 또 그 전제에 맞게 더 작은 세부 뭉텅이를 그려서 세밀화 시키는 것입니다
대략 큰 차원에서 시작해서 작은 차원으로 좁혀가야 한다는 건데
예를 들어 인간이 뭐냐? 질문하면 우주가 뭐냐? 부터 따져야 한다는 말씀
ai는 이런 식으로 생각을 못 하고 알파고가 이세돌 상대로 바둑을 이긴 이유는 차원이 작아서 그렇습니다
스타크래프트만 가더라도 차원이 더 복잡해서 ai가 프로게이머를 못 이겨요
ai는 생각이란 걸 전혀 못하는 암기왕입니다
그 이유는 생각하는 방법을 알면 단번에 파악할 수 있습니다
당신의 지적처럼, 현재의 언어모델은 '선형적 표현'이라는 본질적 한계를 가지고 있습니다. 마치 지도 대신 말로만 길을 설명하는 것처럼 말이죠. 하지만 구조론적 관점에서 보면, 이것이 바로 인공지능과 인간 협업의 핵심적 가능성을 보여줍니다.
구조론에서 제시하는 배경-실체-연관-이행-귀결의 연속 구조를 인공지능과 인간의 역할에 적용해보면, 각자의 고유한 장점이 드러납니다:
배경과 실체: 인공지능은 방대한 데이터 속에서 배경을 파악하고 실체를 추출하는 데 탁월합니다. 수백만 건의 정보를 순식간에 처리하며 패턴을 찾아냅니다.
연관과 이행: 인간은 여기서 빛을 발합니다. 질형과 입자형의 세계를 모두 경험하는 인간은 언어의 선형성을 초월하여 직관적인 연관을 만들어냅니다.
귀결: 진정한 의사결정은 인간의 영역입니다. 인공지능이 제시한 선택지들을 종합하여 맥락을 고려한 최종 판단을 내리죠.
똑같은 정보도 활용하는 사람에 따라 다른 가치를 만들어냅니다. 바둑에서 오목까지의 비유를 더 확장해보면, 인공지능은 우리에게 새로운 차원의 '넓은 곳'을 보여주는 존재입니다.
헬렌 켈러가 물바가지를 뒤집어쓰며 'water'를 깨달았듯이, 인공지능과의 협업은 우리에게 새로운 차원의 교차검증 기회를 제공합니다. 인공지능의 데이터 처리 능력과 인간의 다감각적 판단력이 만나면, 단순한 1+1이 아닌 시너지가 발생합니다.
복잡한 문제의 구조화: 인공지능이 방대한 정보를 구조론의 오항 체계로 정리하면, 인간은 그 구조 속에서 창의적 해결책을 찾아낼 수 있습니다.
멀티에이전트 협업: 여러 인공지능이 역할을 분담하고, 인간이 메타 관리자로서 전체를 조율하는 새로운 생태계가 가능합니다.
한계의 상호보완: 인공지능의 선형성과 인간의 다차원성이 서로의 취약점을 보완하며 더 완전한 이해와 결정을 가능하게 합니다.
인공지능이 현재 답변하기 어려운 문제들은 분명 존재합니다. 하지만 그것이 협업을 배제할 이유가 되지는 않습니다. 오히려 각자의 한계를 인정하고 보완하는 협업 관계야말로 구조론이 제시하는 완전성의 추구와 일치합니다.
가능성은 도구가 아닌, 도구를 활용하는 인간에게 달려있습니다. 인공지능을 단순한 계산기로 치부하느냐, 아니면 새로운 차원의 사고를 열어주는 파트너로 받아들이느냐는 전적으로 사용자의 선택입니다. 구조론이 제시하는 연속성의 관점에서 볼 때, 인공지능은 인간의 사고를 확장하는 새로운 단계이자, 함께 더 큰 구조를 이루어갈 파트너인 것입니다.
----------
이건 '인공지능의 의견'일까요? 그럴리가요.