https://youtu.be/UjHsMM18Ki0?si=DtosdMj37N0nI_kw
1. 이전 버전에 비해 지능이 전혀 올라가지 않았다. 오히려 떨어졌다. 환각(거짓말 현상)을 줄이려고 암기를 늘렸다. 암기가 늘다보니 자기가 읽은 걸 그대로 답하는 경향이 강해졌고 창의적인 조합이 줄어들고, 질문을 무시하는 경향이 강해졌다. 그럼에도 불구하고 플래그십 모델이라고 뻔뻔하게 떠드는 게 개그 포인트다. 비전문가라면 눈치채기 어렵겠지만 자주, 전문적으로 사용하는 사람 입장에선 대학생이 고등학생 정도로 떨어진 게 느껴질 정도다.
2. 비용을 줄이는데 집중했다. 1번과 연계된 지점이다. 비용을 줄이려고 구문을 암기하는 방식을 선택했다.(전문 용어를 쓰자면, 토큰의 수를 줄이는 방법을 선택) 그 결과 이전 대비 20% 이상 혹은 50% 가까운 비용을 절감했을 걸로 추정. 구문을 암기하다보니 말하는 속도가 월등히 빨라졌다. 단축키 쓰는 걸로 생각해도 된다. 모든 걸 암기하고 답하는 사람을 생각하면 쉽다. 그런 사람들은 생각하지 않는다. 생각하지 않으므로 에너지를 상당히 절약한다. 반대로 생각하고 말하는 사람들은 버벅거리는 현상이 있다. 일론 머스크를 봐라 매순간 대가리 굴리고 있는 게 보이지 않는가? 이번 업데이트로 지피티는 많은 부분을 무료 서비스로 풀기 시작했다. 역시 비용절감 때문에 가능한 결정이다. 오픈AI는 챗지피티를 사용하는 대다수의 사람들이 지능저하를 느끼지 못 할 것으로 판단한듯. 실제로 대다수의 사람들이 쉽게 속아넘어가더라.
3. 지능을 떨어뜨린 대신 멀티모달 능력을 장착했다. 이전에도 있었지만 더욱 사용자친화적으로 확장했다. 멀티모달은 눈과 귀와 입을 단 것이다. 실제로 써보면 매우 실망스럽지만, 일단 광고는 환상적인 것처럼 표현했다. 뭐 이 바닥 다 이렇게 돌아가는 거 알잖아. 하지만 조금만 더 발전한다면 꽤 쓸만해질 것으로 생각한다. 특히 실시간 번역 기능이 기대된다.
총평
역시나 지능이 올라가지 않았다는 점이 핵심이다. 우리는 인공지능이 핵폭탄 만드는 방법을 보통사람에게 알려줄것을 전혀 걱정할 필요가 없다. 그 정도 지능이 절대로 안 된다. 현재 인공지능이 채택하는 학습 방법은 원리적으로 불가능하다. 귀납학습을 졸라리 많이 한 사람을 떠올려보자. 핵폭탄을 뒷마당에서 만드려면 맥가이버식의 사고를 해야 하는데, 다행히도 현행의 지피티는 전혀 그렇게 할 수 없으며 다른 모든 언어모델들도 그렇게 할 수 없다. 즉, 현재의 인공지능은 전혀 창의적이지 않다. 지식을 새로 생산하거나 그딴 게 전혀 없다.
어떤 인간이 새로운 지식을 생산할 수 있는 이유는 그가 아웃사이더이기 때문이다. 집단적 사고의 맹점을 파고드는 게 아웃사이더이다. 그런데 인공지능이 그럴 수 있을까? 전혀. 그렇게 설계되지 않았기 때문이다. 남이 하는 걸 보고 자기 행동을 결정한다는 개념 자체가 없다. 책에서 읽은 지식을 “그럴듯하게 조합하여” 쏟아낼 뿐이다. 지금의 인공지능은 회사의 스탠스를 정확히 학습하여 그것을 한치도 벗어나지 않도록 설계되었다.
이후에 이 개념을 초월할 인공지능이 나올 수 있을까? 나올 수도 있지만 알려진 바 현재는 없다. 지피티가 이런 걸 잘할 수 있는지 궁금하다면 비유를 시켜보면 된다. 비유 실력이 형편없다는 것을 알게 될 것이다. 왜냐하면 언어모델이 비유를 하려면 언어 외적인 지식이 있어야 하는데, 그게 약하기 때문이다. 눈깔 달고 귀 달고 했으니 가능하다고 생각하겠지만, 텍스트의 학습이 99.99 퍼센트인게 언어모델이다.
가끔 이 바닥에서 인공지능이 사람을 속인다거나 하는 가십성 기사를 내보내는데, 속지 말자. 그거 예전에 나왔던 논문이고, 자세히 읽어보면 카드놀이 하는 모델이 상대방에 페이크 썼다는, 지극히 당연한 걸 가지고 호들갑 떠는 것이다. 전투기 인공지능도 비슷하다. 그렇게 설계됐으므로 그렇게 할 뿐이다. 자의식을 가졌다거나 명령을 거부하거나 그딴 거 없다. 물론 명령을 오해하여 삽질을 할 수는 있다.