안녕하세요 ?  일인 AI 스타트업 딥네트워크 CEO 장석원 입니다 ...     저희 딥네트워크는 LLM 분석 관련해 논문분석을 그동안 거의 700 - 800 편 가까이 분석을 진행했구요 ...       대표적으로  ChatGPT 같은  LLM Model 이 전 세계 AI 시장 판도를 뒤 흔들지 않읍니까 ?   미국만 해도 샘 알트만이  위험 부담성이 있는 ChatGPT 같은 서비스 개발에 인프라 비용 등등 거대한 투자를 받지 않았읍니까 ?  한국은 아직 미국 만큼 자본력이 없어서 그런지는 몰라도  위험 부담성이 있는 ChatGPT 같은 서비스 개발에 인프라 비용 등등에 위험 부담성 때문에 그렇게 적극적으로 달려든 대기업은 없었던것 같구요  .....         이제  저의 딥네트워크 이야기를 해 보겠읍니다 ...    저는 처음에 LLM 분석 시작할때  LLM 의 밑바탕은 구글 트랜스포머 모델이라고 봤거든요 ...   그래서 처음에는 구글 트랜스포머 모델의 세부 구현 알고리즘이 어떻게 동작하는지  그 원리 분석에 많은 시간을 보냈구요 ...   이렇게 구글 트랜스포머 모델 알고리즘 원리를 분석하다 보니 텐서플로우 개발 환경은 도대체 어떻게 구축되서 어떤 방식으로 동작하는지를 알아야 구글 트랜스포머 모델의 알고리즘의 동작 원리도 더 선명해 질것 같아 텐서플로우 개발 환경을 분산학습 및 병렬학습 환경으로 구축하려면 내가 뭘 공부해야 하나 ?  를 고민했구요 ...   분산학습 내지 병렬학습이 처리되려면 엔비디아의 CUDA 개발환경이 필요하다는것을 알게됬구요 ...  이런것들 세부 분석하다 보니 이런 설계 구조 원리를 어떻게 적용해 NPU AI 칩셋의 개발 인프라를 어떤식으로 구축해야 할까 ? 까지 고민하게 되었읍니다 ...   그럼 도대체 추론 전문 NPU 칩셋은 어떻게 어떤 기능들을 어떻게 설계를 해야 하나를 고민했읍니다 ...   행렬 연산 병렬 계산 메커니즘 구현도 엔비디아가 어떤 고민을 어떻게 해서 설계 구조를 확립했는지 등등을 파악할수 있었구요 ...      저는 NPU 추론 칩셋을 개발하려면 예를 들어 어텐션부 처리시 어느 부분을 어떻게 처리하게 엔비디아 등등이 어떻게 고민했는지 이런 자료를 확보했읍니다 ...    이런것 고민시 한 두가지 관계만 고민 하면  안되고  엔비디아가 돈 벌려고 했던 고민 모두를 다 고민시 다 집어 넣어서 내가 생각한 NPU 설계 구조 및 원리 또는 LLM 설계 구조 및 원리가 어느 부분이 적합하고 어느 부분이 모자른지 이런것 고민하고 있읍니다 ...

딥네트워크  CEO /   장석원  /  HP :   010 3350 6509 /   sayhi7@daum.net 

+ Recent posts