할루시네이션(개소리, 거짓말)을 없애는 방법은 다양한데, 방법은 원인에 의하므로 원인과 함께 생각해봐야 합니다.
1) 정보에 맥락의 부재: 우리는 사실이 틀리면 할루시네이션이라고 단순히 생각하지만, 사실, 사실의 틀림은 맥락의 틀림에 의합니다.
초대형언어모델이 맥락없는 정보만을 사전 학습 한 게 가장 큰 문제인데, 사실 챗GPT가 성공한 이유는 사후학습에서 맥락을 넣어줬기 때문입니다. 프롬프트 엔지니어링이라고 하는게 일종의 사후 맥락 학습인데, 쉽게 말해 책으로 사전학습한 AI가 사후에 현장학습을 한 것입니다. 물론 사전에 맥락을 학습하는 게 가장 중요한데, 모든 학습은 이전이 이후를 지배하기 때문이죠. 인간에게 유아교육이 중요한 이유와 같은 맥락이라고 생각하면 됩니다. 사전에 맥락을 학습하지 않으므로 사후에 행동교정이 매우 힘들어집니다. 즉 사전 맥락 학습을 하면 모델의 사이즈가 작아지고 운용에 드는 비용도 획기적으로 작아질 거란 말입니다. 근데 아무도 연구를 안 하는 게 재밌는 거. 지금이야 집채만한 서버로 AI를 돌리지만 5년 이내로 스마트워치에서 돌리게 됩니다.
2) 경쟁 구도의 형성: 이것도 챗GPT가 이미 수행하고 있는 것입니다. 물론 제한적이죠. 왜냐하면 3번 항을 하지 않으면 단순 경쟁은 큰 의미가 없기 때문. 기존의 룰을 뛰어넘어 새로운 룰을 만들어야 하는데 기껏 경쟁해서 아는 룰에 그친다면 그게 무슨 소용.
3) 추상화: 이게 가장 핵심 기능인데, 챗GPT가 하지 않는 것입니다. 이 부분은 사정상 자세히는 말하지 않겠습니다. 하여간 추상화가 가능해져야 인간 지능을 뛰어넘을 수 있습니다. 인간이 추상화를 하는 이유는 사실 물리적인 이유에 의한 것입니다. 하고 싶어서 한 게 아니라 지능의 물리적인 한계를 뛰어넘는 과정에서 파생된 거죠.
하여간 현재의 챗GPT는 잘해봤자 한계가 현재 인간입니다. 무슨 짓을 해도 인간보다 뛰어나지는 경우는 없다는 거죠. 귀납과 연역의 원리로 보면 그렇습니다. 추상화가 되어야 변증법적 도약이 가능해지는데, 이게 겉으로 보면 사람들이 바라는 기술의 방향과 반대이기 때문에 오히려 절대로 보이질 않는 지점이라 아는 놈과 모르는 놈의 차이가 굉장히 큽니다. 하여간 현재 기술 발전 방향은 절대로 추상화 하지 않는 방향입니다. 왜냐하면 그게 더 좋아 보이거든요.
#
인공지능 관련 과학자 들이나 기업가 들이 핵 위협이 어쩌고 하는 게 아예 틀린 말은 아닙니다. 챗GPT가 상용화되면서 대중에게는 잘 알려지지 않는 어떤 기술적 허들을 넘었기 때문이죠. 인간이 만든 모든 기술은 사실 인간을 대체하는 것입니다. 기술이 없어도 살 수는 있는데, 대신 뭘 하든 시간이 오래 걸리죠. 과거 기계가 인간 신체를 대체했듯, 컴퓨터가 기억을 대체했듯, 인공지능은 인간의 판단을 대체할 것입니다. 인공지능의 개발이 핵위협과 맞먹는다고 말하는 건 좀 오버지만, 과거 모든 기술 발전이 그랬듯 인공지능은 확실하게 인간의 많은 부분을 대체합니다. 주위를 둘러보면 인간의 판단없이는 돌아가지 않는 것이 많은데, 그 부분을 인공지능이 대체할 것입니다. 과거 인터넷이 사람과 사람을 연결했다고 하는데, 사실 중간자를 없앤 거라고 보는 게 더 맞습니다. 더 작은 시간 단위에 더 많은 인간을 넣을 수 있게 된 겁니다. 그래서 효율을 달성하죠. 마찬가지로 인공지능도 그런 중간 단계의 어떤 것을 대체합니다. 인간과 인간은 더욱 가까워집니다. 거꾸로 말하면 하나의 인간이 행사할 수 있는 파급력이 더 넓어집니다. 인터넷이 그러했듯이.
이런 문인가?