Kernel Porting/Linux

저는 반대로 이렇게 질문드리겠읍니다 ... 그럼 대기업 AI 연구소분들은 OpenAI 사의 몇조원 짜리 AI 인프라가 내는 우수한 분석 내용을 무시할수 있다고 보십니까 ?

파란새 2025. 1. 10. 04:50

 

위의 기사 내용에서 보듯이 한국의 AI 대기업도 이런 설계 아이디어를 적용하니 LLM 의 성능 개선이 이렇게 됬읍니다 ...  라고 소개하는 기사 입니다 ...  

저는  LLM 을 세부 분석한지 3 년이 훌쩍 넘어가는 IT 개발 분야 30 년 경험을 가진 일인 AI 스타트업 딥네트워크의 CEO 장석원 61 세 입니다 ...    제가 여기 블로그에 그동안 LLM 관련 해서 이런식의 설계 원리가 좋은 아이디어 일수 있다라고 글을 수십개 올렸거든요 ...    요즘 LLM 학습 과 추론 관련해서 어떻게 설계해야 성능 개선이 되냐 가 큰 이슈꺼리 입니다 ...     저도 그동안 LLM 의 학습 과 추론의 기본적인 동작 구조 및 그 원리 파악에 집중했었구요 ...    이게 어느정도 파악이 되니 그럼 세상이 떠들썩한 LLM 추론 성능 향상은 어느 부분에 어떤 문제가 있어 성능 개선이 덜 됬는가를 파악하기 시작했구요 ...    물론 위의 기사 내용과 유사한 성능 개선 방안을 엔비디아 사이트에서도 상세히 소개한것을 봤읍니다 ...    제가 파악한바로는 LLM 성능 개선의 근본적인 이슈는 엔비디아의 GPU 입니다 ...   그래서 저는 엔비디아 GPU 는 LLM 의 학습 및 추론시 어느 부분이 어떻게 설계되서 어떻게 설계됬길래 성능 개선이 도대체 어떤 부분에서 처리가 필요한지를 분석했고요  이미 OpenAI 가 최고의 성능은 입증했다는것으로 엔비디아 GPU 는 이미 주가가 엄청 뛰어 이를 증명하지 않읍니까 ?     위의 네이버와 인텔의 협업 맥락 기사도 기본 아이디어는 제가 개선하려고 했던것과 같다고 봅니다 ... 

사람들은 제가 딥러닝 학위가 없고 개발실적이 거의 없는데 이런 애기 할 자격이 되냐 라고 애기 합니다 ...  그런 분들에게 저는 이렇게 답변드릴수 있읍니다 ...  저는 거의 일년반 전부터 OpenAI 사의 생성형 AI 등등의 도움을 받아 이런 부분들의 세부 분석을 한 일년반 진행했읍니다 ...  저는 반대로 이렇게 질문드리겠읍니다 ...  그럼 대기업 AI 연구소분들은 OpenAI 사의 몇조원 짜리 AI 인프라가 내는 우수한 분석 내용을 무시할수 있다고 보십니까 ?    저는 AI 의 전문적인 도움을 받아 AI 의 세부 설계 구조 및 성능향상 관련 개선 방안을 분석하는 일인 기업 입니다 ...   저는 이제 나름대로 LLM 설계 구현 관련 100 점은 아니지만 나름 당당하게 제 설계 아이디어를 제시할수 있읍니다 ...    제 설계 아이디어는 글로벌 빅테크의 LLM 설계 아이디어를 분석해서 파악한것 이구요 ...  

제가 이제 나이도 61 이고 그래도 몇조원짜리 AI 인프라의 도움을 받으면 웬만한 국내외 AI 전문가를 능가하는 분석 및 구현 컨설팅도  가능하구요   관련해서 많은 업계분들의 기술협력 문의 메일 부탁드립니다 ...

 

IT 분야 30 년차 딥네트워크  CEO / CTO 장석원 61 세  /   sayhi7@daum.net