in context learning(=챗 지피티의 방법론)의 한계와 정확히 일치합니다.
이름 잘 지었죠. 맥락 내 학습.
문제는 맥락을 사용자가 매번 구체적으로 정해줘야 한다는 거.
메모리에 저장할 수도 있지만
문제는 맥락이 입자적이지 않다는 거.
맥락은 매순간 사안에 따라 미묘하게 바뀝니다.
그런데 현재의 컴퓨터가 메모리에 기록하는 방식은
당연히 입자적일 것.
아마 개인화라고 해서 개인 정보를 기록하며 최적화 하려고 시도하겠지만
그게 그렇게 말처럼 간단한 일이 아닙니다.
인간의 두뇌는 맥락을 파악하는데 90%의 에너지를 씁니다.
대부분의 인간은 사회의 규칙과 룰, 문화, 매너 같은데서 맥락을 조달하죠.
그래서 머리를 안 쓰는 거기도 하고.
그게 효율적이니깐.
실제로 코딩노가다 하는 시간은 얼마 안 되는데
챗지피티는 그 노가다를 대신해 줄뿐 맥락 조달은 불가능
맥락조달이 가능하다면
with context learning라고 이름을 지었을 것입니다.
코딩노가다의 시간이 길다고요?
회사를 운영해보면 그건 찰나일뿐이라는 걸 알게 됩니다.
코딩하기 전까지 의사결정이 100배는 더 많거든요.
그 의사결정의 총합을 달리 표현하면 맥락입니다.
잘 생각해보면, 타인과 협업을 할 때
프로토콜을 맞추는데 걸리는 시간이
일하는 시간보다 훨씬 길다는 걸 알 수 있습니다.
당연하게도 인간이 진짜로 원하는 것은
맥락의 조달을 대신해주는 것입니다.
그게 두뇌 자원을 가장 많이 잡아먹으니깐.
연애를 할 때 생각해보면,
결정적인 건 찰나이고
거기까지 가도록 빌드업 하는 시간이 99%라는 걸 알 수 있습니다.
물론 나이트클럽에서 만났다면
많은 사항이 암묵적으로 약속되기 때문에
원나잇도 가능은 하죠.
그래서 여성들이 조심해야 하고.
남자들은 약속했다고 착각하니깐.
ChatGPT는 자체 메카니즘을 따른다.
질문을 입력하는 사람의 메카니즘을 따라올 수 없다.
그래서 ChatGPT만의 논리로 대답을 한다.
그래서 매번 질문자가 그점을 지적하면
ChatGPT는 사과하기 바쁘다.
맞는 말인지 틀린 말인지 모르지만
틀린말로도 기승전결을 만들어 내는 사람을
우리는 TV에서 많이 보고있다.
AI같은 사람.
어제도 국회 나와서 말을 많이 한더만... 주어 없다.