초거대 모델 구현의 경우, Supervized Fine Tuning 모델 확보한것을 적용해서 강화학습을 사용해 Reward Model 에 대해 policy 를 최적화한 InstructGPT 설계 기법이 이슈 입니다 ... 저의 경우, 초거대 모델 학습관련 어떤게 핵심이슈이다 라는것을 파악 성공했읍니다 ... 초거대 모델을 학습시키려면 여러가지의 학습 메커니즘이 사용되는데 OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지를 파악하는게 성과가 있었읍니다 ... 요즘엔 세상 좋아져서 국내외 여러 기술 블로그에 관련된 내용의 언급이 있는것을 살펴서 파악한것 입니다 ... OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지 파악하는데 성공했다 ... 물론 학습데이터도 Fine Tuning 시 어떻게 설계해서 성능을 냈는지도 완벽하진 않아도 파악에 성공했다 ... 그리고 PyTorch 에서 Pre-Trained Model 을 어떻게 Fine Tuning 하는지 그 설계 기법도 파악하고 있다 ... LLAMA-13B 는 단독 GPU 에서도 문제없이 동작했다고 하구요 ... 이렇게 경량화는 또 어떻게 설계하고 있는지도 분석하고 있다 ... 고성능 인터커넥트 네트워킹 솔루션 기업 멜라녹스(Mellanox Technologies)를 인수해서 엔비디아 네트워킹 사업부가 됬구요 .... 멜라녹스는 20여 년간 인피니밴드 솔루션과 그리고 이더넷 솔루션은 약 6년간 글로벌 고객들에게 제공해 온 기업입니다. 인피니밴드 기술은 초당 200Gbps의 데이터를 처리할 수 있는 네트워크를 지원하는 규격인데 초거대 모델 학습데이터의 대역폭이 크기 때문에 멜라녹스 인피니밴드 솔루션에 대해서 검토 분석이 필요할수밖에 없읍니다 ... GPT-3 사전학습 을 통해 습득한 지식은 내용에 대한 이해가 아니라 전후의 문맥으로부터 단어를 맞추기 위한 조건부 확률 이구요 ... 이런 것들이 GPT-3 의 노하우가 될수 있는 정보라고 생각합니다 ... GPT-3 가 합성한 문장은 보통 언어적으로 적법하며 내용도 제법 타당하게 보인다고 하구요 ...
저도 초거대 모델 학습의 노하우를 속시원히 공개하지는 못해도 그 실마리 정도는 위에서 언급드렸읍니다 ... GPT-3 모델의 학습 노하우는 저도 어느정도 파악 성공했구요 ... 기대 이상으로 깊이있게 파악했다는것을 공개 합니다 ... 요즘엔 구글링에 시간을 상당히 투자하면 못 얻을 정보도 없는것 같읍니다 ...
제가 운영하는 일인기업 딥 네트워크 장석원
제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...