인메모리컴퓨팅은 CPU의 캐시메모리의 병렬적 구현이라고 할 수 있는데, CPU의 연산자 옆에서 임시저장소 역할을 하던 캐시메모리 덩어리를 개별적 연산자에 직렬하여 전체적으로는 병렬 연산/저장을 하도록 하여 효율을 극단적으로 높인 것입니다. 정보의 분배라는 중간단계가 생략되었으므로 병목이 제거되어 당연히 전력/연산 효율이 좋아집니다. 캐시메모리가 사용된 이유는 CPU의 처리속도와 보조/주 기억장치의 속도 차이가 크기 때문이고요.
문제는 이게 전통적인 방식의 컴퓨터 설계와는 완전히 동떨어진 것이라 하드웨어를 만드는 게 문제가 아닌, 그것을 다룰 수 있는 운영체제설계의 개념으로 접근해야 하는데, 근래에 등장한 AI(머신러닝)칩이 지향하던 바가 여기에 비교적 부합된다고 할 수 있겠습니다. 머신러닝 계산이 단순반복노가다 작업이라 컴퓨터공학에서는 그래픽작업과 유사합니다.
그간 머신러닝은 그래픽 병렬연산에 특화된 GPU를 용도변경하여 사용했었는데 GPU를 사용하더라도 메모리는 외부에 따로 두고 사용하므로 두 장치 사이에 정보전달 병목현상이 CPU의 사례와 마찬가지로 필연적입니다. 알파고에 사용된, 머신러닝에 특화된 TPU(일종의 GPU라고 볼 수 있으나 머신러닝 연산에 특화된 것)라는 것도 있는데 얘도 여전히 메모리 병목 현상은 피해갈 수 없었으나
인메모리 컴퓨팅이 메모리를 병렬화 하여 더욱 효율적으로 발전했다는 말. 이런 설명이 너무 어려우면 그냥 "더 효율적인 머신러닝 전용칩"을 만들었다고 생각하면 됩니다. 물론 구조가 복잡해지므로 집적도가 문제인데, 그건 차차 해결되겠죠뭐.
여담으로 비슷한 효과로 성공을 한 게 애플실리콘과 같은 SOC 방식 설계인데, 얘는 그냥 하나의 칩 위에 컴퓨터의 모든 칩을 다 올려 두어 정보전달의 거리상 이점을 누린 것이라 차이가 있습니다. 이거 하나로 요새 인텔을 바보 만들었죠. SOC는 스마트폰에서 원래 흔히 사용되던 방식입니다. 스마트폰은 작으니깐 이런 설계가 필수적.
결론적으로, 잘 되면 애플실리콘 만큼의 성공이 나올 수도 있겠으나, 더 상위 문제인, 머신러닝의 개념 자체가 여전히 논의 중인 상황이라(구조론에서 논의했던 것처럼), 중간 기술로 끝날 수도 있다는 한계는 있겠습니다. 머신러닝은 아직 제대로 사용되고 있지 않기 때문.
인메모리컴퓨팅은 CPU의 캐시메모리의 병렬적 구현이라고 할 수 있는데, CPU의 연산자 옆에서 임시저장소 역할을 하던 캐시메모리 덩어리를 개별적 연산자에 직렬하여 전체적으로는 병렬 연산/저장을 하도록 하여 효율을 극단적으로 높인 것입니다. 정보의 분배라는 중간단계가 생략되었으므로 병목이 제거되어 당연히 전력/연산 효율이 좋아집니다. 캐시메모리가 사용된 이유는 CPU의 처리속도와 보조/주 기억장치의 속도 차이가 크기 때문이고요.
문제는 이게 전통적인 방식의 컴퓨터 설계와는 완전히 동떨어진 것이라 하드웨어를 만드는 게 문제가 아닌, 그것을 다룰 수 있는 운영체제설계의 개념으로 접근해야 하는데, 근래에 등장한 AI(머신러닝)칩이 지향하던 바가 여기에 비교적 부합된다고 할 수 있겠습니다. 머신러닝 계산이 단순반복노가다 작업이라 컴퓨터공학에서는 그래픽작업과 유사합니다.
그간 머신러닝은 그래픽 병렬연산에 특화된 GPU를 용도변경하여 사용했었는데 GPU를 사용하더라도 메모리는 외부에 따로 두고 사용하므로 두 장치 사이에 정보전달 병목현상이 CPU의 사례와 마찬가지로 필연적입니다. 알파고에 사용된, 머신러닝에 특화된 TPU(일종의 GPU라고 볼 수 있으나 머신러닝 연산에 특화된 것)라는 것도 있는데 얘도 여전히 메모리 병목 현상은 피해갈 수 없었으나
인메모리 컴퓨팅이 메모리를 병렬화 하여 더욱 효율적으로 발전했다는 말. 이런 설명이 너무 어려우면 그냥 "더 효율적인 머신러닝 전용칩"을 만들었다고 생각하면 됩니다. 물론 구조가 복잡해지므로 집적도가 문제인데, 그건 차차 해결되겠죠뭐.
여담으로 비슷한 효과로 성공을 한 게 애플실리콘과 같은 SOC 방식 설계인데, 얘는 그냥 하나의 칩 위에 컴퓨터의 모든 칩을 다 올려 두어 정보전달의 거리상 이점을 누린 것이라 차이가 있습니다. 이거 하나로 요새 인텔을 바보 만들었죠. SOC는 스마트폰에서 원래 흔히 사용되던 방식입니다. 스마트폰은 작으니깐 이런 설계가 필수적.
결론적으로, 잘 되면 애플실리콘 만큼의 성공이 나올 수도 있겠으나, 더 상위 문제인, 머신러닝의 개념 자체가 여전히 논의 중인 상황이라(구조론에서 논의했던 것처럼), 중간 기술로 끝날 수도 있다는 한계는 있겠습니다. 머신러닝은 아직 제대로 사용되고 있지 않기 때문.