저는 LLM 사업화 준비를 위해 밤 새고 있는 일인 AI 스타트업 딥네트워크 CEO/CTO 장석원 60 세 입니다 ...

요즘 글로벌 빅테크들이 LLM(대규모 언어 모델) 기술 확보하면 몇백조가 내껏이 되니 LLM 기술 가지려고 안간힘을 쓰지 않읍니까  ?   

그런데 LLM 기술 이란게 LLM 의 1 층부터 10 층까지 모든것을 막라하는 Full Stack Architect 가 되야 명함을 내밀거든요 ...  

그래서 저도 

LLM 의 1 층부터 10 층까지 모든것을 막라하는 Full Stack Architect 가 되려고 그동안 3 년 밤새고 공부한 거구요 ...    단순히  LLM 소스 코딩 실력만 갖고는 글로벌 빅테크와 애기 상대도 안 되거든요 ...  여기에는  인프라 설계 기술 즉 H100 GPU 와 CUDA 그리고 Tensorflow 는 어떤 관계로 어떻게 동작시켜야 하는지  이런것 분석 하느라 밤새고 있읍니다 ...     이런게 요즘 이슈가 되는 ChatGPT 추론 서비스 비용 절감 방안 확보가 핫 이슈인데 이것을 하기위한 요즘 가장 핫한 추론용 NPU 설계를 하려면 H100 GPU 와 CUDA 그리고 Tensorflow 는 어떤 관계로 어떻게 동작시켜야 하는지  이런것 분석 없이는 불가거든요 ...  그래서 저는 이런것 몇 일 밤을 새면서 분석 중 입니다 ...  

대기업(글로벌 빅테크) AI(LLM/NPU) 사업화 의사결정 경영진과 이런것들 애기해 보고 싶읍니다    가능하실지 궁금 합니다  .....  

 

일인 AI 스타트업 딥네트워크 CEO/CTO 장석원 / sayhi7@daum.net  

 

 

 

 

I am Seokweon Jang, a 60-year-old CEO/CTO of the one-person AI startup DeepNetwork, currently working tirelessly to commercialize LLM (Large Language Model) technology.

As you know, global big tech companies are making every effort to secure LLM technology because possessing it can lead to the creation of value worth hundreds of trillions of dollars. However, LLM technology requires a comprehensive Full Stack Architect who understands everything from the first to the tenth layer of LLM.

That is why I, too, have been studying and working day and night for the past three years to become a Full Stack Architect who can master all aspects of LLM, from its foundational layers to its highest functionalities. Simply having the ability to code LLM source code is not enough to compete with global big tech companies. It also demands infrastructure design expertise. This involves analyzing the relationships between H100 GPUs, CUDA, and TensorFlow, and understanding how they function together.

Such expertise is essential, especially in addressing the current hot topic of reducing inference service costs for ChatGPT. Designing cutting-edge inference NPUs requires a deep understanding of the interactions between H100 GPUs, CUDA, and TensorFlow, and I have been spending sleepless nights analyzing these aspects.

I am eager to discuss these matters with the decision-making executives in AI (LLM/NPU) commercialization at large corporations (global big tech). Would such a conversation be possible?

 

Sincerely,
Seokweon Jang
CEO/CTO of DeepNetwork, a one-person AI startup
sayhi7@daum.net

 

 

 

'Kernel Porting > Linux' 카테고리의 다른 글

[기술 컨설팅 문의 환영][일인 AI 스타트업 딥네트워크는 위에 소개된 내용은 제가 파악하고 있는 반도체 파운드리 산업에서 EUV 장비 / 증착 장비 / 식각 장비 관련해서 관련 세부 이슈 내용의 일부를 소개드리는것 입니다]  (4) 2025.01.01
웨이퍼의 온도가 일정하게 동작하게 제어하는 부분과 이 웨이퍼에 화학가스를 어떻게 가스를 분사시키는 부분의 설계 구조 및 원리가 어떻게 구성되게 증착장비나 식각장비가 설계되었는지도 아주 심도 있게 분석되 있읍니다 ....  (0) 2024.12.29
저희 딥네트워크는 ChatGPT o1 시리즈 같이 그동안 2 년 동안 프로토타입의 기본 설계 구조가 어떤 식으로 왜 이렇게 동작하는지 정도 까지를 저희 딥네트워크는 구현 노하우를 확보하고 있읍니다 ...  (2) 2024.12.22
온 디바이스 AI 의 경우도 삼성 폰에 언어 번역 내지 언어 통역은 어떻게 처리해야 스마트폰에서 LLM 이 동작 가능한지 이런것 노하우 확보가 어디 쉽읍니까 ? 빡시게 시행착오를 겪으니 이 부분의 노하우도 확보에 성공했읍니다 ...  (0) 2024.12.21
쇼어 알고리즘(Shor's Algorithm)은 양자컴퓨터가 큰 수의 소인수분해 문제를 매우 효율적으로 해결해서 RSA 와 ECDSA 같은 현대 암호 시스템의 보안 기반을 무너뜨릴 수 있습니다  (0) 2024.12.17

+ Recent posts