딥 네트워크 - 딥러닝 모델 분석/네트웍 통신/카메라 3A 튜닝 분야

[딥 네트워크 - 개발용역 / 기술자문] 초거대모델 LLM 개발관련 논문분석 및 기술블로그 자료를 통해 개발 및 자문 기술자료 근거를 확보하고있읍니다 ... 연락 부탁드립니다 ... 본문

Kernel Porting/Linux

[딥 네트워크 - 개발용역 / 기술자문] 초거대모델 LLM 개발관련 논문분석 및 기술블로그 자료를 통해 개발 및 자문 기술자료 근거를 확보하고있읍니다 ... 연락 부탁드립니다 ...

파란새 2023. 2. 24. 07:36

ChatGPT 가 큰 변혁을 가져왔는데 ...    초거대모델 LLM 개발관련 저는 어떻게 해야 하는지 ...   이런 이야기를 해보려 합니다 ...    초거대모델 LLM 개발 관련해서는 구글 트랜스포머 모델 기반이기에 구글 트랜스포머 모델을 어떻게 커스토마이징 할것인가 이게 이슈 인데요 ...   Auto Regressive 언어모델인 GPT-3 기반으로 작업되는데 ...    GPT-3도 2021년 12월에 파인튜닝 기능이 새로 생겼습니다.  정확한 알고리즘은 공개되지 않았습니다.   업 스트림 타스크로 대표적인 학습 방법이 NSP 나 MLM 이 적용되고 있구요 ...  다운 스트림 타스크로 학습하는 문장 분류 / 자연어 추론 / 질의 응답 / 문장생성  학습데이터셋이 적용되고 있고 ....      파인 튜닝 / 프롬프트 러닝 /  In-Context Learning 학습 방법이 있읍니다 ...     강화학습을 통해 Reward Model 의 policy (학습모델) 최적화 하는것이 가장 핵심으로 저는 파악 합니다 ...   초거대 모델의 크기가 상당히 크기에  파인튜닝 방식으로 초거대모델 전체를 업데이트하려면 엄청난 비용이 듭니다 ...    그래서 프롬프트 러닝, 인컨텍스트 러닝으로 학습한 모델이 경쟁력 있는 태스크의 성능을 보여준다고 저는 판단 합니다 ...    In-context Learning 은 사전학습된 모델 파라미터 1B 이상의 초거대모델을 PreTrained 된것을 적용해서 In-context Learning 을 작은 양의 데이터로 Few-Shot Learning 을 시킬 수 있다를 파악할수 있었구요...     프롬프트 러닝, 인컨텍스트 러닝 발표 논문을 좀 더 세밀히 살펴보려 합니다 ...  

초거대 모델 구현의 경우, Supervized Fine Tuning 모델 확보한것을 적용해서 강화학습을 사용해 Reward Model 에 대해 policy 를 최적화한 InstructGPT 설계 기법이 이슈 입니다 ...   저의 경우,  초거대 모델 학습관련 어떤게 핵심이슈이다 라는것을 파악 성공했읍니다 ...  초거대 모델을 학습시키려면 여러가지의 학습 메커니즘이 사용되는데  OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지를 파악하는게 성과가 있었읍니다 ...  요즘엔 세상 좋아져서 국내외 여러 기술 블로그에 관련된 내용의 언급이 있는것을 살펴서 파악한것 입니다 ...    OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지 파악하는데 성공했다 ...   물론 학습데이터도 Fine Tuning 시 어떻게 설계해서 성능을 냈는지도 완벽하진 않아도 파악에 성공했다 ...    그리고 PyTorch 에서 Pre-Trained Model 을 어떻게 Fine Tuning 하는지 그 설계 기법도 파악하고 있다 ...    LLAMA-13B 는 단독 GPU 에서도 문제없이 동작했다고 하구요 ...  이렇게 경량화는 또 어떻게 설계하고 있는지도 분석하고 있다 ...    고성능 인터커넥트 네트워킹 솔루션 기업 멜라녹스(Mellanox Technologies)를 인수해서 엔비디아 네트워킹 사업부가 됬구요 .... 멜라녹스는 20여 년간 인피니밴드 솔루션과 그리고 이더넷 솔루션은 약 6년간 글로벌 고객들에게 제공해 온 기업입니다.  인피니밴드 기술은 초당 200Gbps의 데이터를 처리할 수 있는 네트워크를 지원하는 규격인데 초거대 모델 학습데이터의 대역폭이 크기 때문에 멜라녹스 인피니밴드 솔루션에 대해서 검토 분석이 필요할수밖에 없읍니다 ...      GPT-3 사전학습 을 통해 습득한 지식은 내용에 대한 이해가 아니라 전후의 문맥으로부터 단어를 맞추기 위한 조건부 확률 이구요 ...  이런 것들이 GPT-3 의 노하우가 될수 있는 정보라고 생각합니다 ...  GPT-3 가 합성한 문장은 보통 언어적으로 적법하며 내용도 제법 타당하게 보인다고 하구요 ... 

저도 초거대 모델 학습의 노하우를 속시원히 공개하지는 못해도 그 실마리 정도는 위에서 언급드렸읍니다 ...      GPT-3 모델의 학습 노하우는 저도 어느정도 파악 성공했구요 ...  기대 이상으로 깊이있게 파악했다는것을 공개 합니다 ...    요즘엔 구글링에 시간을 상당히 투자하면 못 얻을 정보도 없는것 같읍니다 ...  

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509