ChatGPT 같은 서비스 구현은 다음의 3 가지가 준비되야 할것 같읍니다 ...

첫째  ChatGPT 같은 서비스 구현에 필수적인 대규모 데이터셋 준비가 필요한데 시간과 비용이 많이 필요 합니다 ...

둘째  ChatGPT 같은 서비스 구현에 필수적인 클라우드 딥러닝 서버 인프라 구축을 위해 필요한 세부 기술들 여러 세부 기술 이슈들 이런것들 공부할께 엄청 많은것 기술 노하우를 준비해야 합니다 ...  클라우드 딥러닝 서버 인프라 구축에 엄청난 비용이 필요한데 제 생각엔  클라우드 딥러닝 서버 인프라 구축 세부 설계 기술 노하우 부터 확보가 우선 일듯 싶읍니다 ...

셋째  ChatGPT 같은 서비스 구현에 필수적인  Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악이 확실히되야 합니다 ...    Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악이 확실히되면 이 노하우를 적용해 NPU AI 칩셋 설계가 가능해 집니다 ...

넷째  NPU AI 칩셋 설계 구현시  Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악이 확실히되는것도 중요하고  클라우드 딥러닝 서버 인프라 구축시 수천개의 엔비디아 A100 GPU 같은 것을 사용해 분산학습 / 병렬학습을 시키려면  클라우드 딥러닝 서버 인프라에서  수천개의 엔비디아 A100 GPU 가   Matrix 연산 같은것을 어떤 동작 구조로 ChatGPT 같은 모델 설계 구조에서 어떻게 각각의 수천개의 쓰레드가 동기를 맞춰서 동작시키려면 CUDA API 의 어떤 어떤 기능이 필요한지 등등의 세부 파악이 필요 합니다 ...   Tensor Core 에서 처리 가능한 Matrix 연산의 행렬의 크기가 정해져 있는데 이걸 엔비디아 개발환경의 라이브러리의 API 가 어떤식으로 수천 수만개의 Tensor Core 에서 처리 가능한 Matrix 연산의 행렬을 어떻게 분산 처리가 가능한지 이런것들의 고민이 필요 합니다 ...

 

한국이나 미국이나 이런  ChatGPT 같은 서비스 구현에 필요한 기술 노하우를 확보하려고 다들 고군분투하는것 같고 Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악 이라든가 클라우드 딥러닝 서버 인프라 구축을 위해 필요한 세부 기술들 여러 세부 기술 이슈들의 노하우 확보를 하는게 대기업들도 어려워 하거든요 ...   제 기업블로그에는  클 라우드 딥러닝 서버 인프라 구축을 위해 필요한 세부 기술들 여러 세부 기술 이슈에 대해 저희 딥네트워크가 그동안 파악했던 노하우를 제 블로그에서 소개하고 있구요 ...  Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리 파악은 굉장히 자랑할만큼 파악이 됬는데 여기 블로그에서는 공개하지 않고 있읍니다 ...       이런 저의 일인 AI 스타트업 딥네트워크의 준비된 LLM 구현 기술력을 자세히 소개드리고 싶어도 너무 다뤄야할께 워낙 많아서  라우드 딥러닝 서버 인프라 구축 일부 노하우를 소개 드리고  Transformer LLM Model 세부 모델 설계 메커니즘 구현시 필요한 각종 알고리즘 동작원리는 자세히 공개는 하지 않고 있읍니다 ...

 

관련해서  제  기업블로그  자세히 검토하신후 저희  딥네트워크와의 사업제휴 내지 기술자문 요청 건으로  문의  주시면  자세히 검토의견 드리겠읍니다 

 

딥네트워크  / CEO   장석원

Contact  :  sayhi7@daum.net  

 

 

 

+ Recent posts