ChatGPT 같은 서비스 구현은 다음의 3 가지가 준비되야 할것 같읍니다 ...
첫째 ChatGPT 같은 서비스 구현에 필수적인 대규모 데이터셋 준비가 필요한데 시간과 비용이 많이 필요 합니다 ...
둘째 ChatGPT 같은 서비스 구현에 필수적인 클라우드 딥러닝 서버 인프라 구축을 위해 필요한 세부 기술들 여러 세부 기술 이슈들 이런것들 공부할께 엄청 많은것 기술 노하우를 준비해야 합니다 ... 클라우드 딥러닝 서버 인프라 구축에 엄청난 비용이 필요한데 제 생각엔 클라우드 딥러닝 서버 인프라 구축 세부 설계 기술 노하우 부터 확보가 우선 일듯 싶읍니다 ...
셋째 ChatGPT 같은 서비스 구현에 필수적인 Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악이 확실히되야 합니다 ... Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악이 확실히되면 이 노하우를 적용해 NPU AI 칩셋 설계가 가능해 집니다 ...
넷째 NPU AI 칩셋 설계 구현시 Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악이 확실히되는것도 중요하고 클라우드 딥러닝 서버 인프라 구축시 수천개의 엔비디아 A100 GPU 같은 것을 사용해 분산학습 / 병렬학습을 시키려면 클라우드 딥러닝 서버 인프라에서 수천개의 엔비디아 A100 GPU 가 Matrix 연산 같은것을 어떤 동작 구조로 ChatGPT 같은 모델 설계 구조에서 어떻게 각각의 수천개의 쓰레드가 동기를 맞춰서 동작시키려면 CUDA API 의 어떤 어떤 기능이 필요한지 등등의 세부 파악이 필요 합니다 ... Tensor Core 에서 처리 가능한 Matrix 연산의 행렬의 크기가 정해져 있는데 이걸 엔비디아 개발환경의 라이브러리의 API 가 어떤식으로 수천 수만개의