이전에 지적했듯이 chatGPT는 실제로 써보면 팩트가 상당히 틀리는 걸 알 수 있습니다.
또한 이전에 많은 사람들이 팩트체크를 하는 알고리즘을 만드려고 했으나
어디에서도 그럴듯한 게 나왔다는 소식이 없는 걸 보면
이 문제는 기술이 아니라 철학이나 인문학의 문제라는 걸 알 수 있습니다.
사람들은 가치중립적인 팩트가 있다고 생각하고 체크를 하려고 하지만
그게 될 리가 있나.
양자역학을 조금만 공부해보면 모든 정보에는 관점이 있다는 것을 알게 됩니다.
영상에서는 자기편의 입맛에 맞는 팩트를 믿으려는 사람들을 비판하지만
그게 이상한게 아니라 원래 팩트는 엿가락이 맞습니다.
자신의 행동과 차이가 나면 생각을 비틀어버리는 게 인간인데
자신이 속한 집단의 방향과 맞으면
개뼉다구라도 팩트가 되는 게 당연한 거죠.
우리는 인공지능이 가치중립적이길 바라지만
가치중립을 선언하는 기자나 검사가 내용을 왜곡하기 이전에
기사와 기소를 선택할 때 왜곡을 하듯이
당연히 인공지능도 가치중립적이지 않습니다.
한때 포털의 뉴스편향이 문제가 됐을 때
인공지능 알고리즘을 썼기 때문에 가치중립적이라는 개소리를 네이버와 다음이 했었는데
그럴 리가 있나. 알고리즘은 중립적이지만
학습 대상인 데이터의 선택이 중립적이지 않은데, 장난하는 것도 아니고.
그러므로 오히려 진보에 적극적으로 가치를 두는 알고리즘, 인공지능을 만드는 게 맞습니다.
즉 진보의 관점으로 뉴스의 가치와 팩트를 해석해야 한다는 겁니다.
사용자와 같은 관점을 가지는 것도 좋겠지만
내가 트럼프와 2찍들을 도와줄 리가 없잖아요.
알고리즘은 데이터에 관점이 없다고 치고 만드는 것보다는
관점이 있다고 만드는 게 불확정성을 줄이게 됩니다.
왜냐하면 원래 있는 빈칸을 없다고 하면
그 빈칸만큼이 숨은 변수가 되어
알고리즘의 복잡성 또는 정보엔트로피가 지수적으로 늘어나기 때문입니다.
인공지능의 경우에도 세상에 대한 뚜렷한 자기 입장
즉 자아가 없는 게 문제인데,
chatGPT도 같은 문제를 가지고 있습니다.
그래서 동기를 갖게 하는 게 필요하죠.
인간의 동기는 세계관과 자아의 성립에서 생기기 때문입니다.
선입견 없이는 아무것도 볼 수 없듯이
관점 없이는 그 어떤 정보도 해석이 불가능합니다.
관점이 곧 통계학의 1을 의미하기 때문입니다.
강화학습에서 이걸 제대로 설명을 안 해서
전술(policy)이 왜 그렇게 이상하게 해석이 되는지를
연구자들이 이해하기 어려운 건 덤입니다.
전술이 곧 관점이자 통계의 1이며 계이며
환경에 대한 에이전트의 태도입니다.
트럼프 현상을
팩트 문제로 좁혀서 보는 것은 아주 잘못된 것입니다.
사람들이 트럼프의 거짓말에 속았다거나
혹은 편향된 사고에 빠져 트럼프를 의심하지 않았다고 여긴다면 착각입니다.
진실을 말하면 대중이 지식권력에 대항한 것입니다.
가짜뉴스에 속은게 아니라 가짜뉴스를 필요로 한 것입니다.
예컨대 광주항쟁과 같은 상황에서
광주시민들이 유언비어에 속았다고 조중동은 말하고 싶겠지만
때려죽일 전두환 일당들에게 맞서는 무기가 된다면 가짜뉴스라도 필요하다는게 진실입니다.
무기가 된다면 가짜도 환영이라는 거지요.
대중이 왜 지식권력에 저항하는가 이러한 본질을 봐야 합니다.
권력이니까 당연히 저항하는 거지요.
군인의 지배에 저항하는게 당연하다면 지식의 지배에 저항하는 것도 당연합니다.
그럼 무식의 지배는 좋냐?
제가 관찰해 본 결과 외부 경쟁자가 없으면
백 퍼센트 그렇게 가는게 인간이라는 동물입니다.
인간은 지식의 지배, 도덕의 지배, 합리성의 지배를 좋아하지 않습니다.
발등에 불이 떨어져야만 지식과 도덕을 찾습니다.