안녕하세요 ?  저는 일인 AI 스타트업 CEO 겸 CTO 장석원 61 세 입니다 ...  저도 대학원 전자공하과 졸업하고 IT 분야 SW 개발 및 HW 개발 분야 30 년 경험이 있는데 그동안 시행착오가 수천번 될겁니다 ...  저도 2005 년쯤 H.264 Video Deocder 상용화해보겠다고 나섰는데 결과적으로 2 % 부족해서 상당히 큰 손해를 입었읍니다 ...  제가 딥러닝 분야에 관심을 가지게된게 구글에서 2017 년에 트랜스포머 모델을 발표하면서 관심이 생긱기 시작했읍니다 ...   LLM 상용화 라는게 냉정히 까놓고 애기하면 대규모 학습데이터를 글로벌 빅테크와 경쟁이 가능하게 확보 가능하냐 ?  이게 냉정한 업계 전문가들의 애기 입니다 ...  그리고 AI 인프라 구축 비용 확보를 위해 글로벌 빅테크와 경쟁이 가능한 자금동원 능력이 되느냐 ?  이게 또 하나의 LLM 상용화의 핵심 이슈거든요 ...   한국 정부나 대기업도 이 두가지에 대한 확실한 답변이 어려울겁니다 ...    그리고 요즘 세상살이는 대기업 이든 중소기업이든 국내외적으로 일등을 인정 받을수 있느냐 도 핵심 입니다 ...  엔비디아가 주식이 몇년 사이에 20 배 상승한게 기술력이 어느 기업도 엔비디아를 뛰어 넘을수 없다는것이 사람들이 인정하자 결국 엔비디아를 일등으로 인정한것 입니다 ...   OpenAI 의 ChatGPT 도 결국 거대 규모의 AI 인프라 투자 유치도 성공했고 LLM 상용화에 핵심적으로 필요한 학습데이터도 타의 추종을 불허할만큼 전세계 일등의 학습데이터 확보에 성공한것이 성공의 가장 밑바닥이 되는 요인이라고 저는 판단합니다 ...   이런 LLM 상용화 산업 동향은 잘 알고 있구요 ...   그럼 이런 거대 규모 자금과 인력이 필요한 LLM 상용화 분야에서 그럼 딥네트워크는 어떤것을 제시해야 사람들한테 어필할수 있을까를 그동안 고민을 많이 했읍니다 ...    저는 그래서 엔비디아 GPU 는 어떻게 설계됬고 어떻게 동작시키는지를 분석을 시작했읍니다 ...  요즘 이슈가 ChatGPT 가 추론 서비스 비용이 많이 든다는게 한계점으로 다들 애기하고 있고 엔비디아도 추론시 비용을 절감하려면 GPU 가 어떻게 동작되야 하는지 그런 솔루션을 발표했구요 ...   물론 LLM 모델 설계 구조 개선도 이에 못지 않게 중요 합니다 ...   추론시 비용 절감을 위한 엔비디아의 설계 아이디어도 분석해 봤고 LLM 모델 설계 구조 개선쪽 설계 아이디어도 분석해 봤읍니다 ...  다들 아시겠지만 LLM 의 추론 서비스 비용 절감 아이디어에 100 점짜리 방안을 찾기는 쉽지 않구요 ...  저도 추론 비용 절감을 위해 100 점짜리 아이디어는 아니어도 그에 근접한 성능 구현이 가능하겠다 하는 설계 아이디어를 파악하고 있읍니다 ...    저도 이렇게 파악 가능한거는 그동안 30 년의 IT 분야 개발 경험 없이 제가 어떻게 이렇게 가능하다고 얘기할수 있었겠읍니까 ?   저도 제가 이렇게 NPU 설계 관련 핵심 구현 아이디어가 있다고 말씀드릴수 있는게 그동안의 30 년간의 IT 개발 분야 경험 없이 어떻게 서뿔리 가능하다고 할수 있겠읍니까 ?         

관련해서 많은 기술협의 문의 부탁드립니다 ....   

딥네트워크  CEO / CTO 장석원  -   sayhi7@daum.net 

 

 

 

 

 

 

 

 

 

 

 

+ Recent posts