I have been working in the IT field for 30 years… Lately, there’s a buzz that Nvidia’s market capitalization is around 2 trillion dollars…” Nvidia has been manufacturing GPUs such as V100 / A100 / H100 at TSMC in Taiwan… The issue of super-large language models is flooding the media in Korea and abroad… Global companies are desperate to secure the original technology of how to develop something like a super-large model GPT-3.5… In the case of such a GPT-3.5 Model, the detailed model design structure information is confidential, and I know that the model design structure of GPT-3 is also non-disclosed… So, EleutherAI, an open-source version of GPT-3, has learned and released the GPT-J model, and there seem to be quite a few places preparing for development based on this… Because it is possible to understand how GPT-3 has what characteristics when it has what structure with this model. GPT-J and GPT-NeoX are GPT Opensource made by a place called EleutherAI. EleutherAI is an open-source AI organization made by voluntary researchers, engineers, and developers. It is known to make Large Language Models (LLM) open source. I also have a considerable understanding of the detailed structure information of the GPT-3 model necessary for understanding and distilling the model structure of GPT-3.5 or GPT-3, and how to apply and implement this with the TensorFlow API… But after studying this super-large model for about 3 years, I felt that it was necessary to understand how to operate the GPT-3 Model on the cloud GPU server and how to operate the TensorFlow development environment on the A100 / H100 GPU on the cloud GPU server… To implement this, Docker design technology is needed… Nvidia GPU can be operated with Docker technology… To operate Nvidia GPU with Docker design technology, software development of a function that operates it, which is a function of Nvidia library, is necessary. These days, it’s a boom in Korea’s fabless to make NPU, and if this is to grow like Nvidia, software development of a function that operates it, which is a function of Nvidia library (in the case of Korea’s fabless, it is a function of the operation library of NPU (Neural Processing Unit) developed by Korea’s fabless), is necessary to operate Nvidia’s GPU like Nvidia. I have a plan for this, but I haven’t been informed about this yet, so there is no suggestion to jointly identify technical issues, but I hope you will contact me after seeing this blog…
Deep Network, a one-person startup specializing in consulting for super-large language models
E-mail : sayhi7@daum.net
Representative of a one-person startup / SeokWeon Jang
IT 분야에서 일한지 30 년이다 ... 요즘 엔비디아 시총이 2400조 라고 떠들석 하다 ... 엔비디아는 그동안 GPU 를 V100 / A100 / H100 을 대만 TSMC 에서 제조해왔다 ... 요즘 초거대 언어 모델 이슈가 한국이나 외국 언론을 도배하고 있다 ... 초거대 모델 GPT-3.5 같은걸 어떻게 개발하는가의 원천 기술을 확보하려고 글로벌 기업들이 혈안이 되있다 ... 이런 GPT-3.5 Model 같은 경우도 세부 모델 설계 구조 정보는 대외비이고 GPT-3 의 경우도 모델 설계 구조는 비공개로 알고 있다 ... 그래서 EleutherAI 이라는 GPT-3 의 오픈소스 버전인 GPT-J 모델을 학습하여 공개했다고 하고 이것을 기반으로 개발준비를 하는곳도 꽤 있는듯 하다 ... 왜냐하면 GPT-3 가 어떤 구조일때 어떻게 특성을 내는지 이 모델로 파악이 가능하기 때문이다. GPT-J와 GPT-NeoX는 일루더에이아이 라는 곳에서 만든 GPT Opensource 이다. EleutherAI는 자발적인 연구자, 엔지니어, 개발자들이 만든 오픈소스 AI 단체이다. Large Language Model (LLM)을 오픈소스로 만드는 것으로 알려져 있다. 저도 GPT-3.5 내지 GPT-3 의 모델구조 파악과 지식증류를 하려면 필요한 GPT-3 모델의 세부 구조 정보 같은것도 상당히 파악되 있고 이것을 TensorFlow API 로 어떻게 적용해 구현하는지도 상당 부분 파악되 있다고 자신한다 ... 그런데 이렇게 초거대 모델을 한 3 년 공부하다 보니 도대체 클라우드 GPU 서버는 어덯게 동작시켜서 GPT-3 Model 을 클라우드 GPU 서버에서 텐서플로우 개발환경을 어떻게 A100 / H100 GPU 에서 어떻게 동작시키는지를 파악이 필요하다고 느겼다 ... 이것을 구현하려면 도커 설계 기술이 필요하다 ... 도커 기술로 엔비디아 GPU 를 동작시킬수 있다 ... 이렇게 도커 설계 기술로 엔비디아 GPU 를 동작시키려면 이를 구동하는 엔비디아 라이브러리 기능을 하는것의 SW 개발이 필요하다. 요즘 한창 한국의 팹리스에서 NPU 를 만드는게 붐 인데 이게 엔비디아 처럼 크려면 이런 엔비디아 처럼 엔비디아의 GPU 를 동작시키려면 이를 구동하는 엔비디아 라이브러리 기능(한국의 팹리스에서는 한국의 팹리스가 개발한 NPU(신경망처리장치) 의 동작 라이브러리 같은것의)을 하는것의 SW 개발이 필요하다. 이런것 구상은 되 있는데 이런것 관련해서 아직 제가 알려지지 않아서 공동으로 기술이슈 파악같은 제의가 아직은 없는데 추후 이런 제의도 이 블로그를 보고 연락을 주시길 기대한다 ...
딥네트워크는 그동안 3 년 이상 초거대 모델 등등 관련 딥러닝 분야 논문을 최소 몇백편을 세부 검토분석을 했고 구글의 딥러닝 개발환경인 텐서플로우 환경에 대해서도 세부 분석작업을 진행했읍니다 ...
딥네트워크는 현재 초거대 모델의 모든 이슈에 대해 해결방안이 있는것은 아니지만 일부 이슈에 대한 해결 방안은 확보하고 있읍니다 ... 초거대 모델의 가능성을 확실히 제시한 GPT-3 모델의 세부분석은 나름 자신있게 분석되 있읍니다 ... 요즘엔 LLM 의 개발 이슈가 sLLM 으로 옮겨 가고 있고 또 그래서 딥네트워크 또한 sLLM 세부 이슈에 대한 기술 이슈 연구를 진행해서 나름 의미있는 분석 결과물도 확보하고 있읍니다 ...
제가 이렇게 말씀드리니까 그럼 논문 분석만 한것 아니냐고 하실수도 있는데 저의 경우 텐서플로우 개발환경에서 구글 트랜스포머 모델 설계를 텐서플로우 API 로 세부 구현하는 딥러닝 개발 노하우 또한 꽤 깊이있게 파악에 성공했읍니다 ... 구글 트랜스포머 모델 설계를 텐서플로우 환경에서 개발시 꼭 필요한 텐서플로우 API 의 인자들의 응용 방법도 나름 깊이있게 준비되 있읍니다 ....
초거대 모델 경량화의 핵심인 Quantization 기법과 지식 증류 구현 노하우도 아주 구체적으로 구현 노하우를 확보하고 있읍니다 ... Quantization 기법과 지식 증류 구현을 해외 논문에서는 어떤 설계 구조로 어떤 방식으로 구현했고 또 여기에 더해 텐서플로우 환경에서 API 를 어떻게 적용해 설계 하는가에 대한 노하우도 확보하고 있읍니다 ...
제가 운영하는 딥네트워크는 초거대 모델 내지 sLLM 구현 관련해서 국내외 글로벌 기업들의 LLM 과 sLLM 세부 이슈를 딥네트워크 또한 중요도가 있는것은 심도 있게 그동안 3 년 넘게 준비해서 확실하게 파악 성공했다고 말씀드릴수 있읍니다 ...
저 같은 딥러닝 일인기업 도 대기업 연구소에 버금가는 LLM 과 sLLM 관련 세부 이슈 분석 및 텐서플로우 API 로 그 구현 능력까지 딥네트워크도 여기에 글을 적을만큼 확실하게 준비되 있다는것을 말씀드리고 싶읍니다 ...
저도 제 LLM 과 sLLM 관련 세부 이슈에 대한 해결 방안 준비가 확실하니 진짜 의미있는 기업들과 기술 이슈에 대해 서로 협의해 보고 싶읍니다 ...
딥네트워크는 초거대 언어 모델인ChatGPT의 세부 설계 구조 분석에 대한 깊은 이해를 바탕으로 다양한 분야에서 활용할 수 있는 정보를 제공하고 있습니다. 아래에서ChatGPT의 기술적 세부 사항과 학습 원리, 데이터에 대한 분석 정보를 단계별로 설명드리겠습니다.
ChatGPT란?
ChatGPT는 OpenAI에서 개발한 생성형 인공지능 모델로, 주로 자연어 처리 작업(Natural Language Processing, NLP)을 위해 설계되었습니다. 이 모델은Narrow AI에서General AI로 향해 가는 변곡점을 나타내며, 다양한 작업에 적용될 수 있습니다.그러나 여전히 진정한 의미의General AI는 아닙니다.
ChatGPT는 사전에 정의된 학습 데이터를 기반으로 학습됩니다. 이 데이터는 다양한 자연어 문장, 문서, 대화, 뉴스 기사, 웹 페이지 등을 포함하며, 이를 통해 모델은 언어 이해와 생성에 필요한 지식을 습득합니다. 학습 데이터의 다양성과 균형이 모델의 성능에 큰 영향을 미치며, 따라서 데이터 수집과 전처리 과정에서 주의가 필요합니다.
딥네트워크의 ChatGPT 설계 분석 노하우의 활용/응용 분야
ChatGPT는 다양한 분야에서 활용될 수 있습니다. 예를 들어 다음과 같은 분야의 AI 설계 구현 노하우를 파악하는데 성공했읍니다:
IT 분야 SW 펌웨어 소스 개발의 세부 구현 노하우 파악 성공: ChatGPT를 활용하여 코드 생성, 버그 수정, 알고리즘 설계 등에 도움을 줄 수 있습니다.
의료분야 전문정보 및 지식 학습의 세부 구현 노하우 파악 성공: 의료 관련 문서, 논문, 진료 기록 등을 학습하여 의료 전문가들에게 지식을 제공할 수 있습니다.
법률 분야 전문정보 및 지식 학습의 세부 구현 노하우 파악 성공: 법률 문서, 판례, 법규 등을 학습하여 변호사나 법률 전문가들에게 도움을 줄 수 있습니다.
안녕하세요. 저는 일인기업 딥네트워크의 대표이자 개발총괄인 장석원입니다. 저는 딥러닝 기반 광학문자 인식 솔루션을 제공하는 회사를 운영하고 있습니다. 광학문자 인식이란 사람이 쓰거나 인쇄한 문서, 촬영된 사진이나 스캔된 이미지 내의 문자를 인식하여 기계가 읽고 편집할 수 있는 디지털 텍스트로 변환하는 기술을 의미합니다. 저는 이러한 기술을 다양한 분야에 적용할 수 있는 솔루션을 개발하고 있습니다.
저는 최신의 딥러닝 기술인 ViT 모델을 광학문자 인식쪽 이슈를 분석하였습니다. ViT 모델은 이미지를 고정 크기의 패치로 나누고, 각 패치를 임베딩 벡터로 변환하여 Transformer의 입력으로 사용하는 모델입니다. Transformer는 병렬 처리, 긴 거리 의존성, 자기 주의 메커니즘 등의 장점을 가지고 있습니다. ViT 모델은 CNN 모델보다 더 높은 정확도와 더 적은 파라미터 수를 가질 수 있습니다.
저는 사전 학습된 ViT 모델을 기반으로 하여, 광학문자 인식에 특화된 데이터셋에서 미세 조정을 통해 성능을 향상시키는것의 모델 구조를 분석작업을 했습니다. 저는 자신의 목표 도메인에 맞는 광학문자 인식 데이터셋을 구축 준비를 하려 하며, 공개적으로 제공되는 데이터셋도 활용 준비를 하였습니다. 저는 ViT 모델의 학습 속도, 패치 크기, Transformer의 층 수와 헤드 수 등을 조정하면서 최적의 성능을 찾는것을 분석했습니다.
ViT 모델로 광학문자 인식을 구현하는 논문 3 가지의 핵심적인 세부 이슈는 다음과 같습니다.
sLLM은 소형언어모델 (Small Language Model)의 약자로, 매개변수 (Parameter)의 수가 LLM (Large Language Model)보다 적은 언어 모델을 말합니다. sLLM은 훈련 및 운영 비용이 저렴하고, 특정 도메인에 효과적인 성능을 발휘할 수 있는 장점이 있습니다. LLM은 대량의 데이터와 막대한 비용이 필요하고, 보안 문제나 윤리적 이슈가 발생할 수 있는 단점이 있습니다. sLLM과 LLM은 각각 다른 장단점을 가지고 있으므로, 적절한 상황에 맞게 활용할 필요가 있습니다.
인공지능 논문분석 전문 일인기업 딥네트워크은 다음과같은 sLLM 의 논문의 세부이슈 분석이 가능할것 같읍니다 ...
인공지능 논문분석 전문 일인기업 딥네트워크는 sLLM과 LLM의 요즘 최근 기술 개발 이슈에 대해 다음과 같이 사업화 준비내지 논문의 세부 기술이슈 분석을 다음과 같은 사업화 방안의 검토가 가능할것 같습니다.
스테이블LM을 활용한 논문 생성 서비스: 스테이블LM은 텍스트와 이미지, 코드를 생성할 수 있는 언어 모델이므로, 이를 활용해 인공지능 관련 논문을 생성하는 서비스를 제공할 수 있습니다. 사용자는 논문의 주제, 키워드, 요약 등을 입력하면, 스테이블LM이 논문의 본문, 그림, 코드 등을 생성해줍니다. 이렇게 생성된 논문은 인공지능 분야의 연구자나 학생들에게 유용한 참고 자료가 될 수 있습니다.
파이-1을 활용한 논문 요약 서비스: 파이-1은 파라미터 수가 적어도 높은 성능을 보이는 언어 모델이므로, 이를 활용해 인공지능 관련 논문을 요약하는 서비스를 제공할 수 있습니다. 사용자는 논문의 제목이나 URL을 입력하면, 파이-1이 논문의 핵심 내용을 간략하게 요약해줍니다. 이렇게 요약된 논문은 인공지능 분야의 최신 동향을 파악하거나 논문 리뷰를 할 때 편리하게 사용할 수 있습니다.
엑사원 2.0을 활용한 논문 검증 서비스: 엑사원 2.0은 다양한 파라미터 수의 언어 모델을 제공하므로, 이를 활용해 인공지능 관련 논문의 검증을 도와주는 서비스를 제공할 수 있습니다. 사용자는 논문의 내용이나 코드를 입력하면, 엑사원 2.0이 논문의 가설이나 실험 결과를 재현하거나 평가해줍니다. 이렇게 검증된 논문은 인공지능 분야의 연구 질을 향상시키거나 논문 작성을 개선할 수 있습니다.
딥네트워크는 PMSM Motor 를 3 상 인버터로 Motor 의 속도 및 토크 제어 펌웨어 개발이 가능 합니다 ... 귀사의 개발 사양에 따라 개발기간이나 비용이 조정될수 있고 확실히 결과 내드리는것이 가능 합니다 ... TI 사 TMS320F28377 로 PMSM Motor 의 FOC 알고리즘을 적용한 펌웨어 개발이 확실히 가능 합니다 ... TI 사 BMS 칩셋인 EMB1428Q 바테리 BMS 칩셋으로 SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 바테리 충전 BMS 제어도 인증절차 기간을 제외하면 빠르게 귀사의 요구에 맞춰 펌웨어 개발이 가능 합니다 ... 저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은 BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ... 맡겨 주시면 확실하게 결과내드리는것이 가능 합니다 ... 참고로 저는 지역이 수원 입니다 ...
딥네트워크는 PMSM 모터를 제어하는 획기적인 솔루션을 제공하는 일인기업입니다. 딥네트워크는 TI의 모터제어 개발 보드를 사용하여 FOC 알고리즘과 TI의 FOC 소프트웨어 라이브러리를 기반으로 한 펌웨어 설계 세부 검토 분석을 수행하였습니다.
PMSM Motor의 FOC 제어 세부 구현 노하우 제공
딥네트워크는 PMSM Motor의 FOC (Field-Oriented Control) 제어에 대한 깊은 이해와 세부 구현 노하우를 보유하고 있습니다. 저희는 다음과 같은 기술을 통해 고객님의 요구사항을 충족시킬 수 있습니다:
1. 최대 토크 구현 - d 축 전류와 q 축 전류의 지령값 설정 노하우 - Motor 제어 루프에서 최대 토크를 내기 위한 최적의 전류 지령값 설정 - 전류 리플 안정화
2. Motor의 전기적 상수값의 영향을 고려한 전류 리플 정도의 안정화 - 로봇 축 관절 제어에 적용 시 전류 리플을 최소화하는 기술 - PI 루프 제어 튜닝
3. P 이득과 I 이득의 최적 튜닝을 통한 전류 리플 안정화 - 최종적으로 안정적인 Motor 동작을 보장하는 세부 튜닝 작업 - 알고리즘 계산 수식
4. 약 20개의 세부 알고리즘 계산 수식을 확보하여 정확한 구현 가능 - 위의 작업을 확실하게 수행할 수 있는 기술적 기반 제공
5. RDC : AD2S1210WDSTZRL7 와 레졸버 : TAMAGAWA 사 TS2620N21E11 로 회전자 위치 검출 노하우도 보유함
딥네트워크는 귀사의 요구에 맞춘 최적의 솔루션을 제공하기 위해 항상 준비되어 있습니다. 많은 관심과 문의 부탁드립니다.
영구자석 동기 모터(PMSM)의 d 축과 q 축 전류를 PI 제어 루프로 제어하는 과정은 로봇 축 관절 제어에서 중요한 역할을 합니다. 이 과정에서 MTPA(Maximum Torque Per Ampere)와 PWM(Pulse Width Modulation)을 사용한 FOC(Field Oriented Control)을 활용하여 모터의 효율성을 극대화하고 성능을 최적화합니다. 다음은 이 과정을 자세히 설명하고, 토크와 위치 제어를 어떻게 처리하며 PI 제어 이득을 어떻게 튜닝해야 하는지 설명하겠습니다.
1. FOC(자장 지향 제어) 개요
FOC는 모터의 자속(Flux)과 토크를 독립적으로 제어하기 위해 사용됩니다. 이는 모터의 자속과 토크를 수평 및 수직 축으로 변환하여 제어할 수 있게 합니다. 일반적으로 d 축(직류 축)과 q 축(직교 축)으로 변환하여:
d 축: 자속 방향
q 축: 토크 방향
FOC를 사용하여 모터의 전류를 d 축과 q 축으로 분리하고, 이를 각각 제어함으로써 모터의 자속과 토크를 독립적으로 조절할 수 있습니다.
2. PI 제어 루프와 MTPA
PI(비례-적분) 제어는 d 축과 q 축 전류를 제어하는 데 사용됩니다. PI 제어는 각각의 축에서 전류를 원하는 값으로 유지하고자 하는 제어 방식입니다. MTPA는 주어진 전류에서 최대의 토크를 생성하기 위한 원리를 따릅니다.
d 축 전류(Id): 자속 제어에 영향을 미칩니다. 일반적으로 PMSM에서는 자속 제어를 위해 d 축 전류가 필요하며, Id는 주로 0에 가까운 값으로 유지되도록 설계됩니다.
q 축 전류(Iq): 토크 제어에 영향을 미칩니다. Iq는 실제로 모터의 토크를 생성하는 전류로, 토크를 원하는 값으로 제어하기 위해 조절됩니다.
3. 로봇 축 관절 제어
로봇의 축 관절 제어에서, 토크 제어와 위치 제어는 서로 다른 목적을 가지고 있습니다:
(1) 토크 제어
PI 제어 루프: q 축 전류(Iq)를 제어하여 모터의 토크를 제어합니다.
PI 제어 이득 튜닝:
비례 이득(Kp): 반응 속도를 조절합니다. 너무 높으면 시스템이 불안정해질 수 있고, 너무 낮으면 응답 속도가 느려질 수 있습니다.
적분 이득(Ki): 정밀도를 조절합니다. 적분 이득이 너무 높으면 시스템이 과도하게 응답하거나 진동할 수 있고, 너무 낮으면 정밀도가 떨어질 수 있습니다.
튜닝 방법: 일반적으로 Ziegler-Nichols 방법이나 다른 자동 튜닝 방법을 사용하여 이득을 조절합니다. 실험을 통해 최적의 이득을 찾는 것도 중요합니다.
(2) 위치 제어
위치 제어 루프: 위치를 제어하기 위해 속도 제어 루프와 토크 제어 루프를 결합합니다. 속도 제어는 보통 q 축 전류를 통해 이루어지며, 최종적으로 위치 제어를 위해 사용됩니다.
PI 제어 이득 튜닝:
위치 제어의 비례 이득(Kp): 위치의 정확성을 조절합니다. 너무 높으면 진동이 발생할 수 있고, 너무 낮으면 응답이 느려질 수 있습니다.
위치 제어의 적분 이득(Ki): 위치의 오차를 보상하는 데 사용됩니다. 적분 이득이 너무 높으면 시스템이 진동하거나 과도한 반응을 보일 수 있습니다.
튜닝 방법: PID 튜닝 방법과 유사한 방식으로 조정합니다. 위치 제어의 경우, 시스템의 역동적인 특성과 모터의 특성에 따라 조정이 필요합니다.
4. PWM 제어
PWM(Pulse Width Modulation)은 전류를 제어하기 위한 방법으로, 모터의 전압을 조절하여 원하는 전류를 생성합니다. FOC와 함께 사용하여 d 축과 q 축의 전류를 정확하게 제어할 수 있습니다.
5. 요약
FOC를 통해 d 축과 q 축 전류를 독립적으로 제어하며, MTPA를 만족하여 최대 토크를 생성합니다.
PI 제어 루프를 사용하여 d 축 전류(Id)와 q 축 전류(Iq)를 각각 제어합니다.
토크 제어와 위치 제어를 통해 로봇 축 관절의 성능을 최적화합니다.
PI 제어 이득은 Ziegler-Nichols 방법이나 실험적인 조정을 통해 튜닝합니다.
이러한 제어 방식과 튜닝 방법을 통해 로봇 축 관절의 성능을 극대화하고, 원하는 제어 목표를 달성할 수 있습니다.
토크 제어시 대표적인 제어 이득 값
토크 제어에서의 일반적인 Kp값: 1~10 범위 (모터와 응용에 따라 다를 수 있음)
토크 제어에서의 일반적인 Ki 값: 0.01~1 범위 (모터와 응용에 따라 다를 수 있음)
위치제어시 대표적인 제어이득 값
위치 제어에서의 일반적인 Kp 값: 10~100 범위 (모터와 응용에 따라 다를 수 있음)
위치 제어에서의 일반적인 Ki 값: 0.1~10 범위 (모터와 응용에 따라 다를 수 있음)
1. d/q 축 변환의 원리와 중요성
설명: d/q 축 변환은 3상 교류 전류를 2상 직류 전류로 변환하여 모터의 전류를 효율적으로 제어하는 기법입니다. 클라크 변환과 파크 변환을 통해 이루어지며, 이를 통해 모터의 자속과 토크를 독립적으로 제어할 수 있습니다.
중요성: 정확한 d/q 축 변환은 모터의 안정적이고 효율적인 동작을 위해 필수적입니다.
2. d/q 축 틀어짐의 원인
센서 오류: 리졸버, 엔코더, 홀센서 등의 위치 센서가 오작동하거나 고장 나면 d/q 축 변환이 부정확해질 수 있습니다.
전기적 노이즈: 노이즈는 센서 신호에 영향을 미쳐 변환 행렬의 정확성을 저하시킬 수 있습니다.
제어기 설정 오류: PI 제어기의 Kp와 Ki 설정이 부적절하면 d/q 축 변환의 정확성이 떨어질 수 있습니다.
3. PI 제어기의 Kp와 Ki 설정
Kp 설정: Kp가 너무 크면 오버슈팅과 진동이 발생하고, 너무 작으면 응답이 느려집니다. 적절한 Kp 설정이 필요합니다.
Ki 설정: Ki가 너무 크면 오차가 누적되어 불안정해지고, 너무 작으면 잔류 오차가 충분히 보상되지 않습니다. 적절한 Ki 설정이 필요합니다.
튜닝 방법: Ziegler-Nichols 방법이나 실험적 튜닝을 통해 Kp와 Ki를 적절히 설정합니다.
4. 리졸버를 통한 회전자 위치와 제어기 동기화
리졸버의 역할: 리졸버는 모터의 회전 각도를 아날로그 신호로 변환하여 제공합니다. R/D 변환기를 통해 디지털 신호로 변환되어 제어기에 전달됩니다.
실시간 위치 정보 업데이트: 고속 샘플링과 DSP를 사용하여 실시간으로 위치 정보를 업데이트합니다.
지연 최소화: 고속 통신 인터페이스와 최적화된 알고리즘을 사용하여 지연을 최소화합니다.
5. 좌표계 불일치 최소화 및 검출 방법
센서 정확성 향상: 고해상도 센서와 노이즈 필터링을 통해 변환 행렬의 정확성을 높입니다.
고속 연산 장치 사용: DSP나 FPGA와 같은 고속 연산 장치를 사용하여 실시간 연산 지연을 최소화합니다.
실시간 모니터링 및 피드백 제어: d/q 축 변환 후의 신호를 실시간으로 모니터링하고, 피드백 제어를 통해 불일치를 검출하고 수정합니다.
이와 같은 방법들을 통해 d/q 축 변환의 정확성을 높이고, 모터 제어의 안정성과 성능을 최적화할 수 있습니다.
저의 경우 로봇 축 관절제어를 위한 BLDC Motor 의 토크/위치/속도 제어를 위한 모터 제어 펌웨어가 어떤 설계 구조로 구현하는지를 파악하는데 성공했읍니다 ... 전기차 모터제어도 모터 전기 상수인자들 로 전달함수를 설계하면 2 차 라플라스 방정식이 되고 이것으로 제어응답 특성 파악이 가능은 한데 여기에 PI 제어 루프 도 전달함수에 포함되면 3 차 라플라스 방정식이 되는데 이것의 제어응답 특성을 파악하려면 MATLAB SIMULINK TOOL 이 반드시 필요합니다 저는 현재 2 차 라플라스 방정식의 응답특성 분석은 가능한 상태 입니다 로봇 축 관절제어를 위한 모터제어 프로토타입 펌웨어 구현 정도의 노하우를 확보했구요 ... 저도 구글링 2000 번 넘는 시행착오(국내외 논문분석)를 거쳐 3 년여만에 제가 원하는 돈이 되는 세부 정보를 얻는데 성공했읍니다 .... 제가 확보한 BLDC 모터 정밀제어 노하우는 위치제어 / 속도제어 / 토크제어를 Closed Loop PI 제어를 하는데 필요한 제어 알고리즘 수식을 확보해서 이해하는데 성공했읍니다 ... BLDC Motor 로 위치제어 / 속도제어 / 토크제어를 Closed Loop PI 제어를 하려면 BLDC Motor 는 어떤 규격의 것을 선택해야 하는지와 이는 또 어느 업체에서 이를 취급하는지 등등도 파악하고 있읍니다 ... 4 Pole - BLDC Motor 제어를 PWM 구동 방식으로 6 - STEP Sequence 로 제어하려면 세부적으로 어떻게 제어해야 하는지 등등도 파악에 성공했읍니다 ...
밸런싱 실행: EMB1428Q는 EMB1499 DC/DC 컨트롤러 IC와 함께 작동하여, 필요한 시점에 적절한 셀 간 연결을 활성화시키고 에너지를 효율적으로 전송합니다.
리튬 배터리 열폭주의 동작 원리
리튬 배터리에서 열폭주가 발생하는 주된 이유는 자가증폭 루프입니다. 열폭주가 시작되면 배터리의 온도가 급격히 상승하며, 이 과정에서 발생한 에틸렌과 같은 가스는 추가적인 열폭주를 유발할 수 있습니다. 이를 이해하기 위해 다음 단계를 살펴보겠습니다.
1. 열폭주의 초기 단계
과충전 또는 단락: 리튬 배터리에 과충전, 단락, 또는 기타 전기적 스트레스가 가해지면 내부 온도가 상승합니다. 이러한 열은 내부의 전기화학적 반응을 유도합니다.
전해질 분해: 배터리의 온도가 특정 임계점을 초과하면 전해질이 분해되기 시작합니다. 전해질 분해 과정에서 에틸렌, 메탄, 그리고 기타 가스가 방출됩니다.
온도 상승: 전해질 분해와 전극의 반응은 추가적인 열을 발생시킵니다. 이 열은 배터리의 온도를 더욱 상승시킵니다.
2. 자가증폭 루프의 작동
가스 생성: 전해질 분해는 에틸렌과 같은 가스를 생성합니다. 이 가스는 배터리 내부의 압력을 증가시키며, 압력 상승은 배터리 케이싱의 파손을 초래할 수 있습니다.
산소 발생: 전해질의 분해와 전극 물질의 반응은 산소를 생성합니다. 이 산소는 가연성 가스와 혼합되어 화학적 연소 반응을 촉진합니다. 에틸렌과 같은 가스는 산소와 결합하여 열을 방출하며, 이로 인해 온도가 더욱 상승합니다.
열의 자가 증폭: 생성된 열은 추가적인 전해질 분해와 전극 반응을 유도하여 열 발생을 가속화합니다. 이 과정이 계속 반복되면서 열폭주가 더욱 심각해집니다.
최종 단계: 열폭주가 진행되면 배터리 내부 온도가 극단적으로 상승하여 화재나 폭발을 초래할 수 있습니다.
해결 방안 및 동작 원리
리튬 배터리의 열폭주를 예방하고 제어하기 위해서는 다음과 같은 해결 방안을 고려할 수 있습니다.
1. 전해질 개선
안정적인 전해질 사용: 열적 안정성이 높은 전해질을 사용하여 전해질 분해를 방지합니다. 이로 인해 가스 발생을 줄이고, 열폭주를 예방할 수 있습니다.
고온 안전 전해질: 고온에서도 안정적인 전해질을 사용하여 배터리의 안전성을 높입니다.
2. 열 관리 시스템
냉각 시스템: 배터리의 온도를 효과적으로 제어하기 위해 냉각 시스템을 설계합니다. 팬, 히트 싱크, 액체 냉각 시스템 등을 활용하여 배터리의 열을 방출합니다.
열 전도성 재료: 열을 효과적으로 분산시키기 위해 열 전도성 재료를 사용하여 배터리의 온도를 관리합니다.
3. 배터리 보호 회로
과충전 보호 회로: 배터리가 과충전되지 않도록 보호하는 회로를 설계합니다. 과충전이 감지되면 전원을 차단하여 열폭주를 방지합니다.
단락 보호 회로: 단락 상황에서 배터리를 보호하기 위한 회로를 설계하여 내부 단락을 방지합니다.
4. 기계적 설계 개선
강화된 케이싱: 배터리의 외부 케이싱을 강화하여 압력 상승에 따른 파손을 방지합니다. 고온에도 견딜 수 있는 재료를 사용합니다.
가스 배출 시스템: 내부 압력이 과도하게 상승할 경우, 가스를 안전하게 배출할 수 있는 시스템을 설계합니다.
5. 모니터링 및 제어 시스템
온도 센서: 배터리의 온도를 지속적으로 모니터링하여 과도한 온도 상승을 조기에 감지합니다.
자동 차단: 이상 상태가 감지되면 자동으로 배터리 전원을 차단하거나 냉각 시스템을 활성화하여 배터리의 안전성을 유지합니다.
리튬 배터리의 열폭주를 방지하고 해결하기 위한 핵심적인 해결 방안을 다음과 같이 제시할 수 있습니다. 각 해결 방안은 배터리 내부의 온도 상승, 전해질 분해, 그리고 열폭주 현상을 효과적으로 제어하는 데 초점을 맞추고 있습니다.
1. 안정적인 전해질 개발
문제: 전해질이 열에 의해 분해되면서 에틸렌, 메탄 등의 가스가 방출되고, 이는 열폭주를 유발합니다.
해결 방안:
고온 안정성 전해질: 고온에서도 안정적인 전해질을 사용하여 전해질 분해를 지연시키거나 방지합니다. 예를 들어, 고온 내성 전해질 또는 세라믹 기반 전해질을 사용하여 높은 온도에서도 화학적 안정성을 유지하도록 설계합니다.
세라믹 전해질: 세라믹 전해질은 높은 온도에서도 안정적인 성질을 가지고 있으며, 열폭주를 방지하는 데 효과적입니다. 리튬 이온 세라믹 전해질(LiPON 등)은 높은 온도 안정성을 제공하며, 전해질의 열 분해를 최소화합니다.
첨가제 사용: 전해질에 특수 첨가제를 추가하여 열적 안정성을 높이고, 분해 시 발생하는 가스를 억제합니다.
구현 예:
사용할 전해질: LiPON (리튬 인산 산화물) 또는 고온 안정성 전해질 혼합물 전해질 첨가제: 열적 안정성을 높이기 위한 첨가제(예: 사이클로헥산)
2. 효과적인 열 관리 시스템
문제: 배터리의 온도가 상승하면 전해질 분해가 촉진되고, 가스 발생이 가속화됩니다.
해결 방안:
액체 냉각 시스템: 액체 냉각 시스템을 사용하여 배터리의 온도를 효과적으로 제어합니다. 냉각 액체가 배터리의 열을 흡수하고, 이를 외부로 방출하여 온도를 낮춥니다.
열 전도성 재료: 배터리의 열을 효율적으로 분산시키기 위해 열 전도성이 높은 재료를 사용합니다. 예를 들어, 열 전도성 패드를 배터리와 냉각 핀 사이에 삽입하여 열을 효과적으로 전달합니다.
온도 센서 및 제어 시스템: 배터리 내부에 온도 센서를 배치하여 실시간으로 온도를 모니터링하고, 과열 시 자동으로 냉각 시스템을 활성화합니다.
구현 예:
액체 냉각 시스템: 냉각수 순환 시스템 열 전도성 재료: 알루미늄 또는 구리 열 전도성 패드 온도 센서: NTC 열 저항 센서 또는 다채널 온도 센서
3. 배터리 보호 회로와 안전 장치
문제: 배터리의 열폭주를 예방하기 위해서는 배터리 내부의 이상 상태를 조기에 감지하고 대응하는 것이 필요합니다.
해결 방안:
과충전 및 과방전 보호: 배터리의 충전 상태를 모니터링하고, 과충전이나 과방전 상황이 발생할 경우 자동으로 충전 전원을 차단하거나 전류를 조절합니다.
단락 및 과열 보호 회로: 배터리의 전류를 모니터링하여 단락 상태를 감지하고, 과열 감지 시 배터리를 자동으로 차단합니다.
가스 배출 시스템: 배터리 내부에 가스 배출 시스템을 설계하여 내부 압력이 과도하게 상승할 경우 가스를 안전하게 배출합니다. 이를 통해 배터리의 폭발 위험을 줄입니다.
구현 예:
과충전 보호 회로: 충전 상태 모니터링 및 전원 차단 회로 단락 보호 회로: 전류 감지 및 차단 회로 가스 배출 시스템: 압력 해소 밸브 및 가스 배출 경로 설계
이러한 해결 방안을 통해 리튬 배터리의 열폭주를 효과적으로 방지하고, 배터리의 안전성을 크게 향상시킬 수 있습니다. 각 해결 방안은 배터리의 안정성을 높이는 데 중요한 역할을 하며, 이를 통해 안전하고 신뢰성 높은 배터리 시스템을 구축할 수 있습니다.
저의 전기차 바테리 BMS 개발 보드의펌웨어 설계 커스토마이징 노하우 소개
이러한 과정을 통해 EMB1428Q는 배터리 팩의 전체 성능을 최적화하고, 각 셀의 수명을 균일하게 유지하며, 전체 시스템의 안정성과 효율성을 높이는 데 기여합니다. 저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은 BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ... TI 의 EMB1428Q 칩셋이 SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 펌웨어 설계 원리를 파악에 성공했읍니다 저는 이를 위해 MOSFET 스위칭 제어를 위한 설계 방법 파악을 통해에너지 이동을 위한 플로팅 MOSFET 게이트 드라이버 제어를 TI 사 EMB1428Q칩셋을 적용해 펌웨어로 BMS 펌웨어 구현 노하우도 확보 성공했읍니다 ... 제가 파악한바로는 BMS HW 설계의 핵심은 셀 충방전 회로 설계시 스위치 캐패시티드 네트워크로 설게하는데 이때 MOSFET 스위칭 소자의 게이트 구동회로 설계시 MOSFET 회로가 플로팅됬을때 게이트 구동회로에 인가전압을 어떻게 인가하도록 설계하는냐가 핵심인데 이것도 파악에 성공했읍니다 ...
저희 회사는 전기차 바테리 충전 제어 전문 일인기업으로서, TI 사 EMB1428Q 칩셋을 활용하여 삼성 21700 50E / 7S 20P 바테리 셀의 충전 성능을 극대화할 수 있는 펌웨어와 기법을 분석하였습니다.저희 회사의 제품과 서비스에 관심이 있으시다면, 저희 기업 블로그 사이트를 방문하시거나 연락주시기 바랍니다. 감사합니다.
딥네트워크는 PMSM Motor 를 3 상 인버터로 Motor 의 속도 및 토크 제어 펌웨어 개발이 가능 합니다 ... 귀사의 개발 사양에 따라 개발기간이나 비용이 조정될수 있고 확실히 결과 내드리는것이 가능 합니다 ... TI 사 TMS320F28377 로 PMSM Motor 의 FOC 알고리즘을 적용한 펌웨어 개발이 확실히 가능 합니다 ... TI 사 BMS 칩셋인 EMB1428Q 바테리 BMS 칩셋으로 SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 바테리 충전 BMS 제어도 인증절차 기간을 제외하면 빠르게 귀사의 요구에 맞춰 펌웨어 개발이 가능 합니다 ... 저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은 BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ... 맡겨 주시면 확실하게 결과내드리는것이 가능 합니다 ... 참고로 저는 지역이 수원 입니다 ...
딥네트워크는 PMSM 모터를 제어하는 획기적인 솔루션을 제공하는 일인기업입니다. 딥네트워크는 TI의 모터제어 개발 보드를 사용하여 FOC 알고리즘과 TI의 FOC 소프트웨어 라이브러리를 기반으로 한 펌웨어 설계 세부 검토 분석을 수행하였습니다.
PMSM Motor의 FOC 제어 세부 구현 노하우 제공
딥네트워크는 PMSM Motor의 FOC (Field-Oriented Control) 제어에 대한 깊은 이해와 세부 구현 노하우를 보유하고 있습니다. 저희는 다음과 같은 기술을 통해 고객님의 요구사항을 충족시킬 수 있습니다:
1. 최대 토크 구현 - d 축 전류와 q 축 전류의 지령값 설정 노하우 - Motor 제어 루프에서 최대 토크를 내기 위한 최적의 전류 지령값 설정 - 전류 리플 안정화
2. Motor의 전기적 상수값의 영향을 고려한 전류 리플 정도의 안정화 - 로봇 축 관절 제어에 적용 시 전류 리플을 최소화하는 기술 - PI 루프 제어 튜닝
3. P 이득과 I 이득의 최적 튜닝을 통한 전류 리플 안정화 - 최종적으로 안정적인 Motor 동작을 보장하는 세부 튜닝 작업 - 알고리즘 계산 수식
4. 약 20개의 세부 알고리즘 계산 수식을 확보하여 정확한 구현 가능 - 위의 작업을 확실하게 수행할 수 있는 기술적 기반 제공
5. RDC : AD2S1210WDSTZRL7 와 레졸버 : TAMAGAWA 사 TS2620N21E11 로 회전자 위치 검출 노하우도 보유함
딥네트워크는 귀사의 요구에 맞춘 최적의 솔루션을 제공하기 위해 항상 준비되어 있습니다. 많은 관심과 문의 부탁드립니다.
영구자석 동기 모터(PMSM)의 d 축과 q 축 전류를 PI 제어 루프로 제어하는 과정은 로봇 축 관절 제어에서 중요한 역할을 합니다. 이 과정에서 MTPA(Maximum Torque Per Ampere)와 PWM(Pulse Width Modulation)을 사용한 FOC(Field Oriented Control)을 활용하여 모터의 효율성을 극대화하고 성능을 최적화합니다. 다음은 이 과정을 자세히 설명하고, 토크와 위치 제어를 어떻게 처리하며 PI 제어 이득을 어떻게 튜닝해야 하는지 설명하겠습니다.
1. FOC(자장 지향 제어) 개요
FOC는 모터의 자속(Flux)과 토크를 독립적으로 제어하기 위해 사용됩니다. 이는 모터의 자속과 토크를 수평 및 수직 축으로 변환하여 제어할 수 있게 합니다. 일반적으로 d 축(직류 축)과 q 축(직교 축)으로 변환하여:
d 축: 자속 방향
q 축: 토크 방향
FOC를 사용하여 모터의 전류를 d 축과 q 축으로 분리하고, 이를 각각 제어함으로써 모터의 자속과 토크를 독립적으로 조절할 수 있습니다.
2. PI 제어 루프와 MTPA
PI(비례-적분) 제어는 d 축과 q 축 전류를 제어하는 데 사용됩니다. PI 제어는 각각의 축에서 전류를 원하는 값으로 유지하고자 하는 제어 방식입니다. MTPA는 주어진 전류에서 최대의 토크를 생성하기 위한 원리를 따릅니다.
d 축 전류(Id): 자속 제어에 영향을 미칩니다. 일반적으로 PMSM에서는 자속 제어를 위해 d 축 전류가 필요하며, Id는 주로 0에 가까운 값으로 유지되도록 설계됩니다.
q 축 전류(Iq): 토크 제어에 영향을 미칩니다. Iq는 실제로 모터의 토크를 생성하는 전류로, 토크를 원하는 값으로 제어하기 위해 조절됩니다.
3. 로봇 축 관절 제어
로봇의 축 관절 제어에서, 토크 제어와 위치 제어는 서로 다른 목적을 가지고 있습니다:
(1) 토크 제어
PI 제어 루프: q 축 전류(Iq)를 제어하여 모터의 토크를 제어합니다.
PI 제어 이득 튜닝:
비례 이득(Kp): 반응 속도를 조절합니다. 너무 높으면 시스템이 불안정해질 수 있고, 너무 낮으면 응답 속도가 느려질 수 있습니다.
적분 이득(Ki): 정밀도를 조절합니다. 적분 이득이 너무 높으면 시스템이 과도하게 응답하거나 진동할 수 있고, 너무 낮으면 정밀도가 떨어질 수 있습니다.
튜닝 방법: 일반적으로 Ziegler-Nichols 방법이나 다른 자동 튜닝 방법을 사용하여 이득을 조절합니다. 실험을 통해 최적의 이득을 찾는 것도 중요합니다.
(2) 위치 제어
위치 제어 루프: 위치를 제어하기 위해 속도 제어 루프와 토크 제어 루프를 결합합니다. 속도 제어는 보통 q 축 전류를 통해 이루어지며, 최종적으로 위치 제어를 위해 사용됩니다.
PI 제어 이득 튜닝:
위치 제어의 비례 이득(Kp): 위치의 정확성을 조절합니다. 너무 높으면 진동이 발생할 수 있고, 너무 낮으면 응답이 느려질 수 있습니다.
위치 제어의 적분 이득(Ki): 위치의 오차를 보상하는 데 사용됩니다. 적분 이득이 너무 높으면 시스템이 진동하거나 과도한 반응을 보일 수 있습니다.
튜닝 방법: PID 튜닝 방법과 유사한 방식으로 조정합니다. 위치 제어의 경우, 시스템의 역동적인 특성과 모터의 특성에 따라 조정이 필요합니다.
4. PWM 제어
PWM(Pulse Width Modulation)은 전류를 제어하기 위한 방법으로, 모터의 전압을 조절하여 원하는 전류를 생성합니다. FOC와 함께 사용하여 d 축과 q 축의 전류를 정확하게 제어할 수 있습니다.
5. 요약
FOC를 통해 d 축과 q 축 전류를 독립적으로 제어하며, MTPA를 만족하여 최대 토크를 생성합니다.
PI 제어 루프를 사용하여 d 축 전류(Id)와 q 축 전류(Iq)를 각각 제어합니다.
토크 제어와위치 제어를 통해 로봇 축 관절의 성능을 최적화합니다.
PI 제어 이득은 Ziegler-Nichols 방법이나 실험적인 조정을 통해 튜닝합니다.
이러한 제어 방식과 튜닝 방법을 통해 로봇 축 관절의 성능을 극대화하고, 원하는 제어 목표를 달성할 수 있습니다.
토크 제어시 대표적인 제어 이득 값
토크 제어에서의 일반적인Kp값: 1~10 범위 (모터와 응용에 따라 다를 수 있음)
토크 제어에서의 일반적인 Ki값: 0.01~1 범위 (모터와 응용에 따라 다를 수 있음)
위치제어시 대표적인 제어이득값
위치 제어에서의 일반적인Kp 값: 10~100 범위 (모터와 응용에 따라 다를 수 있음)
위치 제어에서의 일반적인Ki 값: 0.1~10 범위 (모터와 응용에 따라 다를 수 있음)
1. d/q 축 변환의 원리와 중요성
설명: d/q 축 변환은 3상 교류 전류를 2상 직류 전류로 변환하여 모터의 전류를 효율적으로 제어하는 기법입니다. 클라크 변환과 파크 변환을 통해 이루어지며, 이를 통해 모터의 자속과 토크를 독립적으로 제어할 수 있습니다.
중요성: 정확한 d/q 축 변환은 모터의 안정적이고 효율적인 동작을 위해 필수적입니다.
2. d/q 축 틀어짐의 원인
센서 오류: 리졸버, 엔코더, 홀센서 등의 위치 센서가 오작동하거나 고장 나면 d/q 축 변환이 부정확해질 수 있습니다.
전기적 노이즈: 노이즈는 센서 신호에 영향을 미쳐 변환 행렬의 정확성을 저하시킬 수 있습니다.
제어기 설정 오류: PI 제어기의 Kp와 Ki 설정이 부적절하면 d/q 축 변환의 정확성이 떨어질 수 있습니다.
3. PI 제어기의 Kp와 Ki 설정
Kp 설정: Kp가 너무 크면 오버슈팅과 진동이 발생하고, 너무 작으면 응답이 느려집니다. 적절한 Kp 설정이 필요합니다.
Ki 설정: Ki가 너무 크면 오차가 누적되어 불안정해지고, 너무 작으면 잔류 오차가 충분히 보상되지 않습니다. 적절한 Ki 설정이 필요합니다.
튜닝 방법: Ziegler-Nichols 방법이나 실험적 튜닝을 통해 Kp와 Ki를 적절히 설정합니다.
4. 리졸버를 통한 회전자 위치와 제어기 동기화
리졸버의 역할: 리졸버는 모터의 회전 각도를 아날로그 신호로 변환하여 제공합니다. R/D 변환기를 통해 디지털 신호로 변환되어 제어기에 전달됩니다.
실시간 위치 정보 업데이트: 고속 샘플링과 DSP를 사용하여 실시간으로 위치 정보를 업데이트합니다.
지연 최소화: 고속 통신 인터페이스와 최적화된 알고리즘을 사용하여 지연을 최소화합니다.
5. 좌표계 불일치 최소화 및 검출 방법
센서 정확성 향상: 고해상도 센서와 노이즈 필터링을 통해 변환 행렬의 정확성을 높입니다.
고속 연산 장치 사용: DSP나 FPGA와 같은 고속 연산 장치를 사용하여 실시간 연산 지연을 최소화합니다.
실시간 모니터링 및 피드백 제어: d/q 축 변환 후의 신호를 실시간으로 모니터링하고, 피드백 제어를 통해 불일치를 검출하고 수정합니다.
이와 같은 방법들을 통해 d/q 축 변환의 정확성을 높이고, 모터 제어의 안정성과 성능을 최적화할 수 있습니다.
저의 경우 로봇 축 관절제어를 위한 BLDC Motor 의 토크/위치/속도 제어를 위한 모터 제어 펌웨어가 어떤 설계 구조로 구현하는지를 파악하는데 성공했읍니다 ... 전기차 모터제어도 모터 전기 상수인자들 로 전달함수를 설계하면 2 차 라플라스 방정식이 되고 이것으로 제어응답 특성 파악이 가능은 한데 여기에 PI 제어 루프 도 전달함수에 포함되면 3 차 라플라스 방정식이 되는데 이것의 제어응답 특성을 파악하려면 MATLAB SIMULINK TOOL 이 반드시 필요합니다 저는 현재 2 차 라플라스 방정식의 응답특성 분석은 가능한 상태 입니다 로봇 축 관절제어를 위한 모터제어 프로토타입 펌웨어 구현 정도의 노하우를 확보했구요 ... 저도 구글링 2000 번 넘는 시행착오(국내외 논문분석)를 거쳐 3 년여만에 제가 원하는 돈이 되는 세부 정보를 얻는데 성공했읍니다 .... 제가 확보한 BLDC 모터 정밀제어 노하우는 위치제어 / 속도제어 / 토크제어를 Closed Loop PI 제어를 하는데 필요한 제어 알고리즘 수식을 확보해서 이해하는데 성공했읍니다 ... BLDC Motor 로 위치제어 / 속도제어 / 토크제어를 Closed Loop PI 제어를 하려면 BLDC Motor 는 어떤 규격의 것을 선택해야 하는지와 이는 또 어느 업체에서 이를 취급하는지 등등도 파악하고 있읍니다 ... 4 Pole - BLDC Motor 제어를 PWM 구동 방식으로 6 - STEP Sequence 로 제어하려면 세부적으로 어떻게 제어해야 하는지 등등도 파악에 성공했읍니다 ...
밸런싱 실행: EMB1428Q는 EMB1499 DC/DC 컨트롤러 IC와 함께 작동하여, 필요한 시점에 적절한 셀 간 연결을 활성화시키고 에너지를 효율적으로 전송합니다.
리튬 배터리 열폭주의 동작 원리
리튬 배터리에서 열폭주가 발생하는 주된 이유는 자가증폭 루프입니다. 열폭주가 시작되면 배터리의 온도가 급격히 상승하며, 이 과정에서 발생한 에틸렌과 같은 가스는 추가적인 열폭주를 유발할 수 있습니다. 이를 이해하기 위해 다음 단계를 살펴보겠습니다.
1.열폭주의 초기 단계
과충전 또는 단락:리튬 배터리에 과충전, 단락, 또는 기타 전기적 스트레스가 가해지면 내부 온도가 상승합니다. 이러한 열은 내부의 전기화학적 반응을 유도합니다.
전해질 분해:배터리의 온도가 특정 임계점을 초과하면 전해질이 분해되기 시작합니다. 전해질 분해 과정에서 에틸렌, 메탄, 그리고 기타 가스가 방출됩니다.
온도 상승:전해질 분해와 전극의 반응은 추가적인 열을 발생시킵니다. 이 열은 배터리의 온도를 더욱 상승시킵니다.
2.자가증폭 루프의 작동
가스 생성:전해질 분해는 에틸렌과 같은 가스를 생성합니다. 이 가스는 배터리 내부의 압력을 증가시키며, 압력 상승은 배터리 케이싱의 파손을 초래할 수 있습니다.
산소 발생:전해질의 분해와 전극 물질의 반응은 산소를 생성합니다. 이 산소는 가연성 가스와 혼합되어 화학적 연소 반응을 촉진합니다. 에틸렌과 같은 가스는 산소와 결합하여 열을 방출하며, 이로 인해 온도가 더욱 상승합니다.
열의 자가 증폭:생성된 열은 추가적인 전해질 분해와 전극 반응을 유도하여 열 발생을 가속화합니다. 이 과정이 계속 반복되면서 열폭주가 더욱 심각해집니다.
최종 단계:열폭주가 진행되면 배터리 내부 온도가 극단적으로 상승하여 화재나 폭발을 초래할 수 있습니다.
해결 방안 및 동작 원리
리튬 배터리의 열폭주를 예방하고 제어하기 위해서는 다음과 같은 해결 방안을 고려할 수 있습니다.
1.전해질 개선
안정적인 전해질 사용:열적 안정성이 높은 전해질을 사용하여 전해질 분해를 방지합니다. 이로 인해 가스 발생을 줄이고, 열폭주를 예방할 수 있습니다.
고온 안전 전해질:고온에서도 안정적인 전해질을 사용하여 배터리의 안전성을 높입니다.
2.열 관리 시스템
냉각 시스템:배터리의 온도를 효과적으로 제어하기 위해 냉각 시스템을 설계합니다. 팬, 히트 싱크, 액체 냉각 시스템 등을 활용하여 배터리의 열을 방출합니다.
열 전도성 재료:열을 효과적으로 분산시키기 위해 열 전도성 재료를 사용하여 배터리의 온도를 관리합니다.
3.배터리 보호 회로
과충전 보호 회로:배터리가 과충전되지 않도록 보호하는 회로를 설계합니다. 과충전이 감지되면 전원을 차단하여 열폭주를 방지합니다.
단락 보호 회로:단락 상황에서 배터리를 보호하기 위한 회로를 설계하여 내부 단락을 방지합니다.
4.기계적 설계 개선
강화된 케이싱:배터리의 외부 케이싱을 강화하여 압력 상승에 따른 파손을 방지합니다. 고온에도 견딜 수 있는 재료를 사용합니다.
가스 배출 시스템:내부 압력이 과도하게 상승할 경우, 가스를 안전하게 배출할 수 있는 시스템을 설계합니다.
5.모니터링 및 제어 시스템
온도 센서:배터리의 온도를 지속적으로 모니터링하여 과도한 온도 상승을 조기에 감지합니다.
자동 차단:이상 상태가 감지되면 자동으로 배터리 전원을 차단하거나 냉각 시스템을 활성화하여 배터리의 안전성을 유지합니다.
리튬 배터리의 열폭주를 방지하고 해결하기 위한 핵심적인 해결 방안을 다음과 같이 제시할 수 있습니다. 각 해결 방안은 배터리 내부의 온도 상승, 전해질 분해, 그리고 열폭주 현상을 효과적으로 제어하는 데 초점을 맞추고 있습니다.
1. 안정적인 전해질 개발
문제: 전해질이 열에 의해 분해되면서 에틸렌, 메탄 등의 가스가 방출되고, 이는 열폭주를 유발합니다.
해결 방안:
고온 안정성 전해질: 고온에서도 안정적인 전해질을 사용하여 전해질 분해를 지연시키거나 방지합니다. 예를 들어, 고온 내성 전해질 또는 세라믹 기반 전해질을 사용하여 높은 온도에서도 화학적 안정성을 유지하도록 설계합니다.
세라믹 전해질: 세라믹 전해질은 높은 온도에서도 안정적인 성질을 가지고 있으며, 열폭주를 방지하는 데 효과적입니다. 리튬 이온 세라믹 전해질(LiPON 등)은 높은 온도 안정성을 제공하며, 전해질의 열 분해를 최소화합니다.
첨가제 사용: 전해질에 특수 첨가제를 추가하여 열적 안정성을 높이고, 분해 시 발생하는 가스를 억제합니다.
구현 예:
사용할 전해질: LiPON (리튬 인산 산화물) 또는 고온 안정성 전해질 혼합물 전해질 첨가제: 열적 안정성을 높이기 위한 첨가제(예: 사이클로헥산)
2. 효과적인 열 관리 시스템
문제: 배터리의 온도가 상승하면 전해질 분해가 촉진되고, 가스 발생이 가속화됩니다.
해결 방안:
액체 냉각 시스템: 액체 냉각 시스템을 사용하여 배터리의 온도를 효과적으로 제어합니다. 냉각 액체가 배터리의 열을 흡수하고, 이를 외부로 방출하여 온도를 낮춥니다.
열 전도성 재료: 배터리의 열을 효율적으로 분산시키기 위해 열 전도성이 높은 재료를 사용합니다. 예를 들어, 열 전도성 패드를 배터리와 냉각 핀 사이에 삽입하여 열을 효과적으로 전달합니다.
온도 센서 및 제어 시스템: 배터리 내부에 온도 센서를 배치하여 실시간으로 온도를 모니터링하고, 과열 시 자동으로 냉각 시스템을 활성화합니다.
구현 예:
액체 냉각 시스템: 냉각수 순환 시스템 열 전도성 재료: 알루미늄 또는 구리 열 전도성 패드 온도 센서: NTC 열 저항 센서 또는 다채널 온도 센서
3. 배터리 보호 회로와 안전 장치
문제: 배터리의 열폭주를 예방하기 위해서는 배터리 내부의 이상 상태를 조기에 감지하고 대응하는 것이 필요합니다.
해결 방안:
과충전 및 과방전 보호: 배터리의 충전 상태를 모니터링하고, 과충전이나 과방전 상황이 발생할 경우 자동으로 충전 전원을 차단하거나 전류를 조절합니다.
단락 및 과열 보호 회로: 배터리의 전류를 모니터링하여 단락 상태를 감지하고, 과열 감지 시 배터리를 자동으로 차단합니다.
가스 배출 시스템: 배터리 내부에 가스 배출 시스템을 설계하여 내부 압력이 과도하게 상승할 경우 가스를 안전하게 배출합니다. 이를 통해 배터리의 폭발 위험을 줄입니다.
구현 예:
과충전 보호 회로: 충전 상태 모니터링 및 전원 차단 회로 단락 보호 회로: 전류 감지 및 차단 회로 가스 배출 시스템: 압력 해소 밸브 및 가스 배출 경로 설계
이러한 해결 방안을 통해 리튬 배터리의 열폭주를 효과적으로 방지하고, 배터리의 안전성을 크게 향상시킬 수 있습니다. 각 해결 방안은 배터리의 안정성을 높이는 데 중요한 역할을 하며, 이를 통해 안전하고 신뢰성 높은 배터리 시스템을 구축할 수 있습니다.
저의 전기차 바테리 BMS 개발 보드의펌웨어 설계 커스토마이징 노하우 소개
이러한 과정을 통해 EMB1428Q는 배터리 팩의 전체 성능을 최적화하고, 각 셀의 수명을 균일하게 유지하며, 전체 시스템의 안정성과 효율성을 높이는 데 기여합니다. 저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은 BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ... TI 의 EMB1428Q 칩셋이 SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 펌웨어 설계 원리를 파악에 성공했읍니다 저는 이를 위해 MOSFET 스위칭 제어를 위한 설계 방법 파악을 통해에너지 이동을 위한 플로팅 MOSFET 게이트 드라이버 제어를 TI 사 EMB1428Q칩셋을 적용해 펌웨어로 BMS 펌웨어 구현 노하우도 확보 성공했읍니다 ... 제가 파악한바로는 BMS HW 설계의 핵심은 셀 충방전 회로 설계시 스위치 캐패시티드 네트워크로 설게하는데 이때 MOSFET 스위칭 소자의 게이트 구동회로 설계시 MOSFET 회로가 플로팅됬을때 게이트 구동회로에 인가전압을 어떻게 인가하도록 설계하는냐가 핵심인데 이것도 파악에 성공했읍니다 ...
저희 회사는 전기차 바테리 충전 제어 전문 일인기업으로서, TI 사 EMB1428Q 칩셋을 활용하여 삼성 21700 50E / 7S 20P 바테리 셀의 충전 성능을 극대화할 수 있는 펌웨어와 기법을 분석하였습니다.저희 회사의 제품과 서비스에 관심이 있으시다면, 저희 기업 블로그 사이트를 방문하시거나 연락주시기 바랍니다. 감사합니다.
제 나이 올해 60 입니다 ... IT 분야 일 한지가 30 년 입니다 ... 최근에 미국이 국가안보 기술로 애기했던게 반도체 설계/제작 기술이고 또 하나가 인공지능 기술 입니다 ... 저는 최근 한 3 년 이상을 딥러닝 논문 이슈를 계속 공부해왔읍니다 ... 이렇게 한 3 년 딥러닝 논문 이슈를 공부하다 보니 딥러닝 비젼 설계쪽 기술도 살펴봤고 또 하나가 초거대 모델쪽 입니다 ... 최근 초거대 모델을 살피다 보니 비젼쪽 기술인 광학문자인식(OCR 기술) 노하우가 어떤식으로 가능하겠다가 눈에 보이더라구요 ... 광학문자인식쪽은 네이버도 오래전부터하는것 같더군요 ... 이제 본론으로 들어가자면 초거대 모델 기술의 기반기술이 구글 트랜스포머 딥러닝 모델 설계 기술이 그 근원 이거든요 ... 구글 트랜스포머 모델이 나온지 한 4 - 5 년 되는것 같구요 ... 초거대 모델의 근원이 되는 딥러닝 모델이 GPT-3 모델이고 이것의 기반이 트랜스포머 모델 이거든요 ... 얼마전 유튜브를 보다 보니 유튜브 사회자가 대기업 연구개발 중역한테 트랜스포머 모델 실력자가 한국에도 상당한데 그렇다면 초거대 모델 구현도 이런 사람들이 다 가능한것 아니냐 라고 질문을 하더군요 ... 제 생각은 이렇습니다 ... 초거대 모델이 됬건 뭐가 됬건 자기가 파악하고 있으면 별것아닌 쉬운게 되는거구 자기가 모르면 한없는 기술장벽을 느껴야 하는것 같읍니다 ... 제가 딥러닝 논문 이슈를 한 3 년 이상 꾸준히 분석했다고 했는데요 ... 제가 초거대 모델 분석이 가능한것도 이렇게 한 3 년 딥러닝 논문의 이슈를 여러가지를 세부분석한게 없었으면 아마도 초거대 모델 분석이 벽을 만나 아무것도 진행이 안됬을텐데 그래고 딥러닝 이슈 몇십가지를 그동안 파악에 성공하다 보니 이렇게 초거대 모델 분석도 진행이 가능한것 같읍니다 ... 구글 트랜스포머 모델 분석도 하다 보면 진짜 공부할께 계속 나오구요 ... 이런 부분들 그동안 3 년여 공부를 했던것 같읍니다 ... 처음엔 구글 트랜스포머 모델 공부를 뭘 어덯게 해야 하는지 감도 못 잡았는데 시행착오를 3 년간 수없이 겪다 보니 이제 앞이 보이는것 같읍니다 ... 그래도 3 년간 논문 이슈 분석을 위해 하루에 최소 3 시간 이상은 공부했던것 같읍니다 ... 저도 3 년을 시간투자해서 초거대 모델 설계 구조와 동작원리 분석이 되있으니 가능하다면 대기업쪽 초거대 모델 기술자문을 맡아보고 싶은데 어떻게 대기업쪽에서 판단하실지는 잘 모르겠읍니다 ....
트랜스포머 모델로 초거대 모델 학습시 가중치값등의 파라미터겂은 어떤식으로 처리하는지 핵심 3 가지
트랜스포머 모델로 초거대 모델을 학습하려면, 다음과 같은 방법을 사용해야 합니다.
대규모 데이터세트를 사용하여 트랜스포머 모델을 사전학습합니다. 사전학습은 트랜스포머 모델의 파라미터를 초기화하고, 일반적인 언어 지식을 습득하게 합니다. 사전학습에는 마스크드 언어 모델링 (Masked Language Modeling)과 넥스트 센텐스 프리딕션 (Next Sentence Prediction)과 같은 자기지도 학습 방법을 사용할 수 있습니다.
분산 학습을 사용하여 트랜스포머 모델의 학습 속도와 효율을 높입니다. 분산 학습은 여러 개의 GPU나 TPU와 같은 가속기를 사용하여 트랜스포머 모델의 파라미터를 병렬로 업데이트합니다. 분산 학습에는 데이터 병렬화 (Data Parallelism)와 모델 병렬화 (Model Parallelism)와 같은 방법을 사용할 수 있습니다.
파인튜닝을 사용하여 트랜스포머 모델을 특정 도메인이나 태스크에 적용합니다. 파인튜닝은 사전학습된 트랜스포머 모델의 파라미터를 소량의 라벨링된 데이터로 재학습하여, 성능을 향상시킵니다. 파인튜닝에는 슈퍼글루 (SuperGLUE)와 같은 벤치마크를 사용할 수 있습니다.
트랜스포머 모델로 초거대 모델 구현시 핵심 이슈
트랜스포머 모델로 초거대 모델을 구현하면서 마주칠 수 있는 핵심 이슈는 다음과 같습니다.
메모리 부족 문제: 트랜스포머 모델은 많은 양의 데이터와 파라미터를 처리하기 때문에, 메모리 용량과 대역폭에 제한을 받을 수 있습니다. 메모리 부족 문제를 해결하기 위해, 트랜스포머 모델의 크기를 줄이거나, 메모리 효율을 높이는 방법을 사용할 수 있습니다. 예를 들어, 모델 압축 (Model Compression), 스파스 어텐션 (Sparse Attention), 리포머 (Reformer)와 같은 기법들이 있습니다.
일반화 문제: 트랜스포머 모델은 사전학습된 언어 지식을 바탕으로 다양한 태스크에 적용될 수 있지만, 때로는 특정 도메인이나 상황에 과적합되거나, 비논리적이거나 부적절한 결과를 생성할 수 있습니다. 일반화 문제를 해결하기 위해, 트랜스포머 모델의 훈련 데이터와 목적 함수를 다양화하거나, 정규화 (Regularization)나 적대적 학습 (Adversarial Learning)과 같은 방법을 사용할 수 있습니다.
딥네트워크는 초거대모델의 경량화 세부원리 및 그 설계구조 분석을 전문으로 하는 일인기업입니다. 저희는 대규모의 텍스트 데이터를 기반으로, 효율적이고 강력한 언어 모델을 구축하고, 다양한 응용 태스크에 적용하는 방법을 연구하고 있습니다. 저희는 메타의 LLaMA 논문과 같은 경량화 초거대모델을 설계하고 훈련하는 방법에 대해 1년 반 동안 연구하였으며, 70억 개, 130억 개, 700억 개의 파라미터를 갖는 세 가지 크기의 모델을 구축 준비에 관련한 세부 정보를 확보하는데 성공했습니다.
딥네트워크의 기술력
딥네트워크의 기술력은 다음과 같습니다:
데이터셋의 구축: 저희는 공개적으로 이용할 수 있는 데이터셋을 수집하고 전처리하는 방법을 분석하고 있습니다. 저희는 다양한 언어와 도메인의 데이터를 활용하여, 품질이 높고 편향이 적은 데이터셋을 구축관련 정보를 확보할 수 있습니다.
모델의 설계: 저희는 LLaMA와 같은 효율적인 Transformer 모델을 설계하고 최적화하는 방법을 알고 있습니다. 저희는 Linear Layer, Cross-Attention, Multi-head Attention, Adaptive Attention Span과 같은 모듈을 적용하여, 모델의 크기와 속도를 개선할 수 있는 세부 모델 설계 구조 분석이 되있습니다.
모델의 훈련: 저희는 GPU나 TPU와 같은 고성능 장치를 사용하여, 병렬로 모델을 훈련하는 방법을 알고 있습니다. 저희는 클라우드 서비스나 오픈소스 플랫폼을 활용하여, 컴퓨팅 자원을 저렴하고 효율적으로 확보할 수 있습니다.
딥네트워크의 성과
딥네트워크의 성과는 다음과 같습니다:
저희는 70억 개, 130억 개, 700억 개의 파라미터를 갖는 세 가지 크기의 경량화 초거대모델을 구축하는것의 세부준비를 위해 관련 부분들의 세부 연구를 진행 하였습니다. 저희는 이러한 모델을 다양한 응용 태스크에 적용하여, GPT-3와 같은 상용 모델과 경쟁할 수 있는 성능을 보였다는것을 파악했습니다.
저희는 LLaMA와 같은 경량화 초거대모델을 설계하고 훈련하는 방법에 대해 1년 반 동안 연구하였습니다. 저희는 이러한 연구를 통해, 초거대모델의 경량화에 관한 다양한 기법과 원리를 발견하였습니다.
저희는 초거대모델의 경량화에 관심이 있는 다른 연구자나 개발자들과 협력하고 소통하고 있습니다. 저희는 저희의 모델과 코드를 오픈소스로 공개하였으며, 피드백과 의견을 적극적으로 수용하고 있습니다.
딥네트워크의 비전
딥네트워크의 비전은 다음과 같습니다:
저희는 초거대모델의 경량화를 통해, 언어 모델의 성능과 효율성을 동시에 높이고자 합니다. 저희는 언어 모델을 더 빠르고 저렴하게 이용할 수 있도록 하여, 다양한 분야와 사람들에게 혜택을 제공하고자 합니다.
저희는 초거대모델의 경량화를 통해, 언어 모델의 품질과 편향성을 개선하고자 합니다. 저희는 언어 모델이 더 정확하고 공정하게 정보를 처리하고 생성할 수 있도록 하여, 사회적 가치와 윤리를 존중하고자 합니다.
저희는 초거대모델의 경량화를 통해, 언어 모델의 창의성과 혁신성을 증진하고자 합니다. 저희는 언어 모델이 더 다양하고 흥미로운 콘텐츠를 생성하고 제안할 수 있도록 하여, 문화적 다양성과 예술성을 증대하고자 합니다.
저희는 딥네트워크를 통해, 초거대모델의 경량화를 선도하고, 언어 모델의 발전에 기여하고자 합니다. 저희는 저희의 기술력과 성과를 자랑스럽게 생각하며, 저희의 비전을 실현하기 위해 노력하고 있습니다. 저희는 저희의 사이트를 방문해주신 여러분께 감사드리며, 저희의 모델과 연구에 관심을 가져주시기를 바랍니다
일인기업 딥네트워크는 STMH743 CPU Evaluation Board 의 커스토마이징 전문 업체입니다. STMH743 CPU Evaluation Board 는 STMicroelectronics 에서 제공하는 Arm ® Cortex ® -M7 기반의 STM32H743XI 와 STM32H753XI 마이크로컨트롤러를 위한 고성능 개발 플랫폼입니다. 이 보드는 다양한 주변 장치들을 지원하며, CubeMX IDE 개발 툴을 통해 손쉽게 Configuration 설정을 할 수 있습니다.
일인기업 딥네트워크는 STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소 중에서 다음의 구성 요소들을 커스토마이징하여 고객의 요구에 맞게 제공할 수 있습니다.
MIPI-CSI Camera 부분
USB Host/Device 송수신 부분
SD Card 저장 부분
Ethernet / WIFI 네트웍 송수신 부분
LTDC TFT-LCD 부분
MIPI-DSI TFT-LCD 부분
일인기업 딥네트워크는 이러한 구성 요소들의 Configuration 설정을 CubeMX IDE 개발 툴을 적용하여 효율적으로 수행하며, 필요한 경우 추가적인 기능을 개발하여 완성도 높은 제품을 제공합니다.
일인기업 딥네트워크의 커스토마이징 기술력의 핵심 노하우는 다음과 같습니다.
STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소들을 깊이 있게 이해하고 분석하여, 각각의 구성 요소들이 어떻게 동작하고 어떻게 상호작용하는지 파악합니다.
고객의 요구사항과 목적에 맞게, 각각의 구성 요소들의 Configuration 설정을 최적화하고, 필요한 경우 추가적인 기능을 개발합니다.
STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소들을 통합하여, 완성도 높은 제품을 제공합니다.
STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소들의 성능과 안정성을 검증하고, 문제가 발생할 경우 신속하고 정확하게 해결합니다.
회사 기술력 소개
일인기업 딥네트워크는 STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소 중에서 다음의 구성 요소들을 커스토마이징하여 고객의 요구에 맞게 제공할 수 있습니다.
MIPI-CSI Camera 부분: STMH743 CPU Evaluation Board 는 MIPI-CSI 인터페이스를 통해 카메라 모듈을 연결할 수 있습니다. CubeMX IDE 에서는 카메라 모듈의 해상도, 프레임 레이트, 포맷 등을 설정할 수 있으며, DMA, DCMI, JPEG 등의 드라이버를 사용하여 카메라 데이터를 처리할 수 있습니다. 일인기업 딥네트워크는 카메라 모듈의 종류와 성능에 따라 최적화된 Configuration 설정을 제공하며, 카메라 데이터를 화면에 출력하거나 저장하거나 전송하는 기능을 구현할 수 있습니다.
USB Host/Device 송수신 부분: STMH743 CPU Evaluation Board 는 USB OTG_HS 와 OTG_FS 를 지원하며, CubeMX IDE 에서는 USB 모드, 클래스, 프로토콜 등을 설정할 수 있습니다. 일인기업 딥네트워크는 USB 장치의 종류와 용도에 따라 적절한 Configuration 설정을 제공하며, USB 장치와의 데이터 송수신 기능을 구현할 수 있습니다.
SD Card 저장 부분: STMH743 CPU Evaluation Board 는 SDIO3.0 인터페이스를 통해 microSD™ 카드를 연결할 수 있습니다. CubeMX IDE 에서는 SD 카드의 버전, 용량, 속도 등을 설정할 수 있으며, FATFS, SDMMC 등의 드라이버를 사용하여 SD 카드에 데이터를 읽고 쓸 수 있습니다. 일인기업 딥네트워크는 SD 카드의 성능과 호환성을 고려하여 최적화된 Configuration 설정을 제공하며, SD 카드에 데이터를 저장하거나 불러오는 기능을 구현할 수 있습니다.
Ethernet / WIFI 네트웍 송수신 부분: STMH743 CPU Evaluation Board 는 Ethernet RJ45 커넥터를 통해 유선 네트워크에 연결할 수 있으며, WIFI 모듈을 추가하여 무선 네트워크에 연결할 수 있습니다. CubeMX IDE 에서는 네트워크의 IP 주소, 게이트웨이, 서브넷 마스크 등을 설정할 수 있으며, LwIP, TCP/IP, UDP 등의 프로토콜을 사용하여 네트워크 통신을 할 수 있습니다. 일인기업 딥네트워크는 네트워크의 종류와 환경에 따라 적절한 Configuration 설정을 제공하며, 네트워크를 통해 데이터를 송수신하거나 원격 제어하는 기능을 구현할 수 있습니다.
LTDC TFT-LCD 부분: STMH743 CPU Evaluation Board 는 LTDC 인터페이스를 통해 5.7” 640×480 TFT 컬러 LCD 와 터치스크린을 연결할 수 있습니다. CubeMX IDE 에서는 LCD 의 해상도, 색상, 백라이트 등을 설정할 수 있으며, DMA2D, GFXMMU, FMC 등의 드라이버를 사용하여 LCD 에 그래픽을 출력할 수 있습니다. 일인기업 딥네트워크는 LCD 의 성능과 품질을 고려하여 최적화된 Configuration 설정을 제공하며, LCD 에 다양한 그래픽을 출력하거나 터치스크린을 이용한 사용자 인터페이스를 구현할 수 있습니다.
MIPI-DSI TFT-LCD 부분: STMH743 CPU Evaluation Board 는 MIPI-DSI 인터페이스를 통해 고해상도 TFT LCD 를 연결할 수 있습니다. CubeMX IDE 에서는 LCD 의 해상도, 색상, 백라이트 등을 설정할 수 있으며, DSI, LTDC, DMA2D 등의 드라이버를 사용하여 LCD 에 그래픽을 출력할 수 있습니다. 일인기업 딥네트워크는 LCD 의 성능과 품질을 고려하여 최적화된 Configuration 설정을 제공하며, LCD 에 다양한 그래픽을 출력하거나 터치스크린을 이용한 사용자 인터페이스를 구현할 수 있습니다.
딥네트워크는 광학문자 인식 OCR 딥러닝 논문 분석쪽에서 선도적인 일인기업입니다. 딥네트워크는 최근에 Vision Transformer라는 새로운 딥러닝 모델을 OCR에 적용한 논문들을 분석했읍니다.. Vision Transformer는 이미지를 작은 패치들로 나누고, 이들을 순차적인 토큰으로 취급하여 트랜스포머라는 자연어 처리 모델에 입력하는 방식입니다. 이를 통해 이미지의 전역적인 특징과 문맥을 잘 파악할 수 있습니다. 딥네트워크의 기술력은 다음과 같은 세 가지 핵심에 기반합니다.
1. Vision Transformer를 이용한 문자 검출 및 인식
딥네트워크는 Vision Transformer를 OCR에 적용하기 위해, 두 가지 방법을 제안하였습니다. 첫 번째 방법은 Vision Transformer를 문자 검출과 인식을 동시에 수행하는 엔드-투-엔드 모델로 사용하는 것입니다. 이 방법은 이미지를 패치들로 나누고, 각 패치에 대해 문자의 존재 여부와 클래스를 예측하는 방식입니다. 이 방법은 별도의 문자 분할 과정이 필요 없으며, 다양한 크기와 방향의 문자에도 적응할 수 있습니다. 두 번째 방법은 Vision Transformer를 문자 검출과 인식을 각각 수행하는 두 단계 모델로 사용하는 것입니다. 이 방법은 첫 번째 단계에서 Vision Transformer를 이용하여 문자 영역을 검출하고, 두 번째 단계에서 Vision Transformer를 이용하여 검출된 영역의 문자를 인식하는 방식입니다. 이 방법은 문자 영역의 정확도와 문자 인식의 정확도를 각각 향상시킬 수 있습니다.
2. 데이터 증강 및 사전 학습을 통한 성능 향상
딥네트워크는 OCR에 적합한 데이터 증강 및 사전 학습 기법의 논문들을 분석하였습니다. 데이터 증강은 이미지에 다양한 변형을 적용하여, 실제 환경에서 발생할 수 있는 다양한 상황을 모방하는 것입니다. 딥네트워크는 이미지의 크기, 회전, 왜곡, 노이즈, 색상, 밝기 등을 조절하는 방법을 사용하였습니다. 데이터 증강은 모델의 일반화 능력을 향상시키고, 과적합을 방지하는 효과가 있습니다. 사전 학습은 대량의 데이터에 대해 미리 학습을 수행하여, 모델의 가중치를 초기화하는 것입니다. 딥네트워크는 ImageNet이라는 대규모 이미지 데이터셋에 대해 Vision Transformer를 사전 학습하였습니다. 사전 학습은 모델의 학습 속도를 높이고, 성능을 향상시키는 효과가 있습니다.
3. 다양한 언어 및 폰트에 대한 적용
딥네트워크는 다양한 언어 및 폰트에 대한 OCR을 지원합니다. 딥네트워크는 영어, 한국어, 중국어, 일본어, 아랍어 등 다양한 언어의 데이터를 수집하고, 모델을 학습에 대한 논문을 분석 하였습니다. 또한, 서체, 굵기, 기울기, 장식 등 다양한 폰트의 데이터를 수집하고, 모델을 학습하였습니다. 딥네트워크는 이러한 다양한 언어 및 폰트에 대해 높은 인식률을 보여주었습니다.
딥네트워크는 GPT-3.5 초거대 모델 관련 세부 설계 구조에 대한 전문적인 분석과 검토를 주로 진행해 왔습니다. 저희 회사는 직접적인 딥러닝 학습 구현 작업 경험은 없지만, 해당 논문의 핵심 설계 구조를 세부적으로 분석하고 검토하는 데 전문성을 가지고 있습니다. 이러한 전문성은 2년 이상의 연구와 경험을 바탕으로 하고 있습니다.
GPT-3.5 초거대 모델은 자연어 처리(NLP) 분야에서 가장 강력하고 복잡한 모델 중 하나입니다. 이 모델은 수백억 개의 파라미터를 가지고 있으며, 이를 통해 사람처럼 자연스럽게 대화하고, 복잡한 문제를 해결하며, 창의적인 내용을 생성할 수 있습니다.
GPT-3.5 초거대 모델관련 논문의 핵심 설계 구조는 다음과 같습니다:
트랜스포머 아키텍처: GPT-3.5 초거대 모델은 트랜스포머 아키텍처를 기반으로 합니다. 트랜스포머는 입력 데이터의 시퀀스를 처리하는 데 효과적인 아키텍처로, 각 입력 요소가 다른 모든 요소와 상호 작용할 수 있도록 합니다.
언어 모델링: GPT-3.5 초거대 모델은 언어 모델링에 초점을 맞추고 있습니다. 이 모델은 주어진 문맥에서 다음 단어를 예측하는 방식으로 학습됩니다. 이를 통해 모델은 문장, 문단, 심지어는 전체 문서를 생성할 수 있습니다.
자기 지도 학습: GPT-3.5 초거대 모델은 자기 지도 학습 방식을 사용합니다. 이 방식은 레이블이 지정된 학습 데이터가 필요 없으며, 대신 입력 데이터 자체를 사용하여 모델을 학습시킵니다.
GPT-3.5 초거대 모델의 경량화 구현 논문은 모델의 크기를 줄이고 계산 효율성을 향상시키는것을 주로 분석합니다. 이는 모델을 더 작은 장치에서 실행할 수 있게 하고, 학습 및 추론 시간을 줄일 수 있습니다.
GPT-3.5 초거대 모델의 경량화에 대한 핵심 설계 구조는 다음과 같습니다:
모델 프루닝: 모델 프루닝은 모델의 크기를 줄이는 데 사용되는 기술입니다. 이는 모델의 파라미터 중 일부를 제거하여 모델의 복잡성을 줄이고, 계산 효율성을 향상시킵니다.
양자화: 양자화는 모델의 파라미터를 더 작은 비트로 표현하여 모델의 크기를 줄이는 기술입니다. 이는 모델의 메모리 사용량을 줄이고, 추론 속도를 향상시킵니다.
지식 증류: 지식 증류는 큰 모델(선생님 모델)의 지식을 작은 모델(학생 모델)에 전달하는 과정입니다. 이는 학생 모델이 선생님 모델과 유사한 성능을 달성할 수 있게 합니다.
딥네트워크의 경우 이러한 핵심 설계 구조를 세부적으로 분석하고 검토하였습니다. 이를 통해 GPT-3.5 초거대 모델 관련 논문들의 작동 방식을 더 잘 이해하고, 이 모델의 성능을 최적화하는 데 도움이 될 수 있는 인사이트를 얻었습니다. 이러한 노력은 딥네트워크를 GPT-3.5 초거대 모델 관련 논문들의 세부 설계 구조 분석 분야에서의 선도적인 기업으로 만들었습니다. 딥네트워크의 전문성과 경험은 이 분야에서의 혁신과 발전에 크게 기여하였습니다.
내 나이 올해 60 이 됬다 ... IT 업계쪽 일을 한지가 30 년 이다 .... 나는 요근래 3 - 4 년은 딥러닝 비젼쪽 / 초거대 모델쪽 국내외 논문들을 살펴 보고 있다 ... 이런저런 애기는 다 빼고 요즘 가장 큰 이슈가 되고 있는 삼성 스마트폰에 온 디바이스 AI 가 탑재됬다는것은 이제 다 알것 같다 ... 삼성 스마트폰에서 온 디바이스 AI 가 가능하려면 스마트폰에 NPU 가 탑재되야 가능하다 ... 나는 초거대 모델 이든 뭐든 딥러닝 경량화 구현 논문을 최소 한 1 년은 살핀것 같다 ... 초거대 모델은 학습 및 추론시 인프라 비용이 만만치 않아서 이를 최소화해서 이윤을 발생시키기 위해 모델 경량화가 진행되고 있다 ... 나도 이쪽으로 논문을 살핀지 4 년이다 ... 물론 그동안 딥러닝만 한건 아니지만 꾸준히 손을 놓지않고 꾸준히 했다 ... 요즘은 5 년전 10 년전에 비해 인터넷에 공유되는 여러 정보들의 양이 수백배가 늘어났다 ... 예전 같으면 초거대 모델 분석 연구도 대기업 이나 할수 있다고 다들 여겼지만 지금은 인터넷에 정보 공유가 수백배가 늘어나서 관심을 갖고 이런 공유 정보들로 몇년을 꾸준히 검토 분석하면 초거대 모델도 이제는 대기업이 아니더라도 분석 및 연구가 가능한 시대이다 ... 그런데 모든일이 그렇듯 국내외 논문들에서 그렇게 친절하게 정보를 주는 논문은 많지 않다 ... 그러하니 몇년을 꾸준히 이런 논문들을 검토분석해야 까칠한 논문들의 고급 정보도 얻을수 있는 기회가 생긴다 ... 그래서 세상사 공짜가 없다고 다들 애기하지 않는가 ? 나도 그래서 오늘 애기하고 싶은 애기는 온 디바이스 AI 로 어떻게 경량화가 가능했는지 그 설계 아이디어 논문들을 파악하고 있다 ... 이런 설계 아이디어들을 어떤 방안으로 어떻게 구현 가능한지에 대한 세부 구현 정보 또한 나는 완벽치는 않아도 상당 부분 준비가 되 있다 ... 아직도 한국의 대기업이나 미국의 대기업 이나 이런 기술개발관련 경영 마인드가 경직되 있다고 나는 느끼고 있다 ... 대기업들은 돈이 몇십조 몇백조가 있으니 그 돈으로 상용화 기술을 아예 사겠다는 그런 경영 의도가 많은것 같다 ... 준비가 된 초기기업들과 함께 같이 성장하겠다는 마인드는 나로서는 경험을 못한것 같다 ... 내가 이런 글을 올리니 사람들은 제가 초거대 모델 경량화 구현 준비가 뭐가 얼만큼 됬는지 애기하기가 나로서도 애매하기 때문에 이 정도 언급만하는데 ... 이 정도 언급만 하면 제가 어느 정도 능력인지 사람들은 결과물 갖고 판단하는게 요즘 세상사 이기에 나로서도 뭐라 더 애기하기가 애매해진다 ... 그런데 확실한것은 요즘은 기술정보 등등해서 정보 공유가 몇백배가 늘어났기 때문에 꼭 결과물 갖고만 능력을 판단하는게 반드시 정답인지 나는 의문을 가진다 ... 챗GPT 가 출시된지 일년이 넘어 간다 ... 앞으로 일년이 더 지나가면 어떻게 세상이 변할수 있는지 지금 아무도 예측 불가인 세상이다 ... 물론 내 애기도 다 정답은 아니지만 그렇다고 다 틀리지도 않는다고 나는 생각한다 ... 챗GPT 가 앞으로 일년 어떻게 세상을 바꿀지 아무도 예측 불가인 세상이라 나도 이런 챗GPT 딥러닝 논문 분석 연구를 하는 사람으로써 세상은 변하기 싫어도 변할수 밖에 없을것 이다
OpenAI 가 발표한 Text To Video 의 SORA 모델의 세부설계 구조와 원리 파악에 성공해 기분 좋다 ... 그동안 디퓨젼 모델 도 분석을 했던게 큰 도움이 된것 같다 Sora는 트랜스포머 아키텍처를 기반으로 하며, 비디오와 이미지를 패치라는 작은 데이터 단위로 표현한다. 이를 통해 다양한 길이, 해상도, 종횡비를 가진 시각 데이터에 대해 효율적으로 학습할 수 있다. Sora는 DALL-E의 리캡션기법을 사용하여 생성된 비디오에서 텍스트 프롬프트를 더 잘 따르도록 한다. 리캡션기법은 시각적 훈련 데이터에 대해 설명력이 높은 캡션을 생성하는 방법이다. 그리고 Text to Image Model 세부 구조 분석이 됬던 부분이 Sora Model 이해하는데 도움이 된것 같다 ... Text to Image Model은 트랜스포머 아키텍처를 기반으로 하며, 이미지를 패치라는 작은 데이터 단위로 표현한다. 이를 통해 다양한 해상도, 종횡비를 가진 시각 데이터에 대해 효율적으로 학습할 수 있다.
저는 그동안 4 년 가까이 초거대 모델 설계 구조를 제시한 논문들 세부 분석 작업을 했었읍니다 ... 나름 초거대 모델 구조 설계의 대표적인 해외 대기업의 논문의 핵심 아이디어가 무었인지 파악하려고 노력했던것 같읍니다 ... 딥러닝 공부도 기반 지식들을 어느 정도 준비가 된 상태라야 이런 논문의 핵심 아이디어도 눈에 보이는것 겉읍니다 ... GPT-3.5 의 핵심 설계 아이디어가 무었인지 파악하는데 주력했고 나름 제 판단으로는 이 정도면 꽤 핵심에 접근했다라고 저는 판단되거든요 ... GPT-3.5 도 그 주변 논문들이 굉장히 많구요 ... GPT-3.5 발표 훨씬 그 이전에 초거대 모델의 각종 아이디어 논문들이 몇년간 발표되서 제시됬던 핵심 아이디어 기반으로 구성된다는것을 파악할수 있었다 ... 내가 그동안 4 년간 분석한것은 논문만이 아니고 초거대 모델을 분산학습 과 병렬학습을 시키려면 딥러닝 모델 구현을 어떤식으로 구현 가능한지 그 세부 방안이 어떤게 있는지 이런것들을 검토분석 했다 ... 공부하다 보니 논문분석 만큼 이나 구글 텐서플로우 개발 환경 관련 세부 정보 파악도 굉장히 중요하다는것을 깨달았다 .... 초거대 모델 구현중 나는 특히 통번역 서비스를 구글 트랜스포머 모델로 구현시 어떤 설계 구조로 경량화 구현을 해야 하는지 글로벌 기업의 논문에서 핵심 아이디어를 파악하는데도 성공했다 ... 초거대 모델 구현 및 경량화 구현 관련 모델 설계 핵심 아이디어도 나름 퀄리티 있는 정보를 파악 성공했고요 ... 경량화 구현도 마찬가지 입니다 ... 관련해서 서로 정보 교류 및 협력 방안을 협의할수 있는 기술정보 협의 채널이 형성되기를 기대합니다 ...
STMH743 CPU 펌웨어의 경우 MIPI-CSI Camera 부분 / USB Host/Device 송수신 부분 / SD Card 저장 부분 / Ethernet / WIFI 네트웍 송수신 부분 / LTDC TFT-LCD 부분 / MIPI-DSI TFT-LCD 부분 의 개발을 CubeMX IDE 개발 툴을 사용해서 각각의 부분의 Configuration 설정 노하우를 확보하고 있고 이를 바탕으로 고객사의 세부사양을 근거로 펌웨어 커스토마이징 개발이 가능 합니다 ....
Nordic nRF52840 펌웨어 의 경우 Nordic nRF52840 SDK 소스에 블루투스 프로토콜 스텍의 세부 구현 소스가 공개되 있는데 이중 nRF52840 이 USB Dongle 로 동작하는 부분의 SDK 소스의 세부 설계 구조를 파악하고 있고 nRF52840 이 Blutooth Device 로 동작하는 부분의 SDK 소스의 세부 구조 또한 파악하고 있읍니다 .... 나름 nRF52840 SDK 소스가 동작시 블루투스 프로토콜 스택의 각 부분별로 어떤식으로 설계되서 동작되는지를 파악하고 있기에 고객사의 세부 사양의 커스토마이징 개발이 가능합니다 ...
내가 그동안 초거대 모델에 대해 여러 글을 썼었다 .... 오늘은 요즘 온 디바이스 AI 의 이슈인 초거대 모델 경량화 에 대해 조금 이야기 하려 한다 ... 초거대 모델 경량화가 되야 NPU 칩도 개발이 가능하기 때문이다 .... 뭐든지 알면 쉽고 모르면 어렵듯이 초거대 모델 경량화도 마찬가지인것 같다 ... 경량화 논문을 한 4 - 5 달 찾아보니 감이 오는것 같다 ... 글로벌 대기업들의 경량화 논문을 살피면서 이런것에서 나도 실마리를 찾는것 같다 ... 사실 또 글로벌 대기업의 경량화 논문도 사실 그 전에 이미 발표됬던 발표된 딥러닝 모델 논문들의 핵심 아이디어에서 온것이구요 ... 나도 이렇게 글로벌 대기업들이 그동안 논문으로 발표했던 핵심 이슈 쫓아가기 바쁘다 ... 내가 할수 있는것은 여기까지 이다 ... 어찌됬던 초거대 모델 경량화의 핵심 이슈를 그래도 세세히 이해했으니 나로서는 만족한다 ...
SAR 군사위성(합성개구 레이더) 동작 원리를 분석하고 있다 ... 최근 한 7 - 8 달을 합성개구레이더(SAR : Synthetic Aperture Radar) 국내외 논문을 하루에 2 편 정도씩 세부 검토 분석을 매일 매일 꾸준히 하고 있다 ... 합성개구레이더(SAR : Synthetic Aperture Radar)의 설계 구조 이론중 가장 대표적으로 인용되는 설계 구조 알고리즘이 Doppler Shifter 이론 이다 ... 합성개구 레이더에서 Doppler Shifter 이론이 어떤 설계 구조로 동작하는지 이해 하는데 8 달이 걸려 세부 노하우 파악에 성공했다 ... 이것의 확실한 이해 없이는 SAR 군사위성 설계 구조를 이해하는게 불가능하다 ... 이런 기술적 기반 기술들로 지상 또는 해상에서 움직이는 물체와 움직이지 않는 물체의 구별이 가능해 지고 이것이 군사 SAR 위성의 핵심 동작 원리라 나는 파악하고 있다 ... 그동안 8 달 동안 SAR 위성 논문만 한 200 편 살펴봐서 이것의 파악에 성공했다 ...
GPT-3 사전학습 모델 구현 이해가 초거대 모델 구현의 기본중 기본이다 .... 어떤 동작원리와 설계 구조로 몇천억개의 학습데이터를 분산학습 및 병렬학습을 도대체 어떻게 구현했을까가 가장 궁금했다 ... 구글 텐서플로우 개발환경에서 딥러닝 분산학습과 병렬학습의 구현에 필요한 기술요소들의 지원이 되고 있고 한동안 이것의 세부 설계 방안에 대해 심도있게 분석도 했었다 ... 이것만 파악하면 초거대 모델의 사전 학습이 처리가 되느냐 하면 그건 아니다 ... 예를들어 클라우드 환경인 AWS GPU 서버들이 어떤 네트웍 통신구조를 가져야 수천억개의 학습 데이터의 분산 병렬 학습에 필요한 네트웍 통신이 가능할지 이런것을 구글 텐서플로우 개발 전문가들은 어떤식으로 처리를 했을지 그런것들의 검토 분석이 세부적으로 필요하다 ... 나도 이런 검토사항들을 완벽히 파악은 못했고 그 핵심 몇가지를 파악하는데 성공했다 ... 이렇게 초거대 모델의 사전학습이 완료되면 이 사전 학습 모델을 적용해서 초거대 모델의 세부 응용분야가 굉장히 여러 분야지만 어떤 특정 분야에 특화해서 성능이 우수한 초거대 모델을 개발할수 있을것 이다 ... 나는 이렇게 초거대 모델을 어떤 특정 분야에 특화해서 세부 커스토마이징 처리가 어떻게 되야 이것이 가능한지 그 설계 구조를 이해 하고 있다 .... 나도 이런것들의 분석이 가능해진게 초거대 모델 세부분석 준비를 시작한게 거의 3 년전쯤 이다 ... 3 년 동안 이 자료 저 자료 검토분석하다 보니 이런 저런 시행착오들이 쌓이고 쌓여서 내가 이런것들의 파악이 가능하게 하는것 같다 ... 나는 이제 나이 60 인데 내 나이에 맞지 않는 분야지만 나이는 숫자에 불과하다를 얘기하고 싶다 ...
OpenAI 가 핵심 사업 구조로 생각하는 GPT 이니셔티브 사업화에 내가 소기업 이지만 이런것을 목표로 분석작업을 해야할것 같읍니다 ... 다음에 설명하겠지만 커스토마이징 초거대 모델 개발을 위한 준비가 나의 공부 목표와도 일치하는것 같읍니다 ... 즉 초거대 모델의 분야 분야별 특성에 맞게 그 기능을 커스토마이징을 어떻게 구현 해야 가능한지 뭐 이런것들의 고민이 필요할것 같읍니다 .... OpenAI 는 다음과 같이 GPT 이니셔티브 사업화 를 애기합니다 ..... 사용자가 자신만의 ChatGPT 버전을 만들 수 있도록 지원하는 GPT 이니셔티브를 진행하고 있습니다. GPT 이니셔티브는 사용자의 개인 및 직업적 요구 사항을 더 잘 충족할 수 있도록 AI의 기능을 개선하는 것을 목표로 합니다.
나는 꿈이 몇개 있다 ... 나는 70 년대 국민학교를 다녔을때 그때 흑백 TV 로 방송했던 만화영화 마징가 Z 라는것을 보면서 어린 나이에 생각했던것이 나도 커서 로봇 과학자가 되야겠다라고 생각했었다 ... 나 중학교때인가 600 만불의 사나이라는 미국 드라마도 흑백 TV 로 방송했었다 ... 이런것 보면서 로봇 이라는것에 관심을 가지기 시작했다 ... 이런 내가 올해 나이 60 이 됬다 ... 나는 그동안 인생동안 IT 분야 30 년 경험이 있다 ... 내 세대를 지내온 엔지니어들이 공통적으로 느끼는게 인터넷 세상이 본격적으로 나와서 각종 정보가 홍수를 이루는 시대가 된지 5 - 10 년 밖에 안된다 ... 인터넷 시대 전에는 이런 그급 정보가 주로 유명대 교수님 연구실이나 대기업 연구소 아니면 국영기업 연구소나 되야 이런 고급정보를 접근이 가능햿던 시대였기에 나도 뭔가를 시도하려 했을때 가장 큰 문제가 이런 고급 기술 정보 확보(내지 접근 자체가 불가능했기에)가 너무 어려웠기에 나는 해봐야겠다 라는 생각을 접어야 했었다 ... 그래서 내가 지금 나이 60 이지만 본격적으로 뭔가를 해보겠다고 뛰어든것은 최근 6 - 7 년 사이의 일 이다 ... 이때 부터 인터넷 세상의 고급정보들이 꽤 도움이 되는게 상당히 많이 공개되기 시작했다 ... 내가 거의 50 년전 국민학교 시절 로봇 공부해 보겠다고 어린 시절 마음 먹었지만 실제로 공부를 해보겠다고 시작한것은 최근 3 - 4 년전쯤에 적극적으로 공부하기 시작했다 ... 이런 우여곡절 끝에 로봇 개발의 기본인 모터의 정밀 토크 및 위치제어 공부를 시작하게 된다 ... 모터 토크 제어 및 위치제어의 핵심 원리 이해가 가능한 정보를 얻는것을 무려 3 년 이상을 노력(시행착오)하고서야 이제 비로소 나는 거의 정답에 가까운 고급 정보 확보에 성공했다 .... 이제서야 비로소 모터의 토크제어 / 위치제어를 PI 제어루프로 정밀제어하는 고급 기술정보 확보에 성공했다 ... 내가 모터 정밀 제어 노하우를 확보한것으로 로봇 개발 준비를 여기서 멈추지는 않았다 ... 로봇제어도 미사일 제어 처럼 자세검출 및 정밀 자세제어가 기본이다 ... 정밀 자세검출 및 제어를 위해서는 9 축 센서 칩으로 자세 검출하는것을 정밀 구현하는것도 필요하고 여기에 50 년전에 개발된 이론인 칼만필터로 자세 정밀 제어 하는것 까지 공부를 또 해야 한다 ... 진짜 쉽게 되는게 없다 ... 칼만필터 동작 원리 분석도 시작한지 1 년도 넘어가지만 그 원리의 핵심을 아직 파악하지 못했다 ... 이것 파악도 앞으로 수많은 시행착오를 거치면 파악에 성공할것 이다 ... 보스톤 다이나믹스가 1 조원에 현대차에 인수됬는데 아무려면 1 조원짜리 기술이 쉽게 파악 가능하리라고는 생각치 않았지만 공부해 보니 진짜 산 너머 산이다 ... 칼만필터 아직 파악 성공은 못하고 있지만 그래도 로봇 설계의 기본인 모터 정밀 제어 노하우는 파악에 성공했다 차근 차근 앞으로 나아가려 한다 ...
올해 나이 60 이 됬다 ... 대기업 연구소도 대학원 졸업하고 한동안 다녀보고 그동안 30 년 할 얘기가 참 많다 ... 인생에는 정답이 없는것 같다 ... 그동안 30 년은 그럭저럭 밥벌이는 했는데 문제는 지금 부터다 ... 나이 60 이니 이제 회사에 조인해 일하는것은 너무 힘들어졌다 ... 그래서 한 5 년전부터 매일 매일 하루에 최소 3 시간 이상을 글로벌 대기업에서 이슈화가 많이 되는 기술분야를 공부를 적극적으로 시작했다 ... 지금 생각하면 이렇게 5 년전에 공부를 시작한게 진짜 잘한 일이 됬다 ... 요즘 가장 뜨겁게 이슈화가 되는 기술분야인 인공지능 초거대 모델 개발을 주로 대기업들이 진행하고 있다 ... OpenAI 는 ChatGPT 개발 인프라 구축에 거의 1 조 를 썼다고 본것 같다 ... 요즘 살펴보니 OpenAI 는 능력있는 ChatGPT 전문가 영입에 100 억을 쓴다고 본것 같다 ... 주변 얘기가 이러하니 감히 저 같은 소기업은 이런 초거대 모델 뭘 하겠다는 얘기를 할수가 없는 상황이다 ... 그래도 5 년전부터 GPT 를 관심있게 살피기 시작했구요 ... 나 같은 소기업이 초거대 모델을 공부해 보려면 뭘 어디 부터 살펴봐야 하는지 가늠하기가 참 어려웠다 ... 맨 처음 공부 시작할때 든 생각은 구글 트랜스포머 모델을 잘 분석해 봐야 겠다라고 생각했구요 ... 공부하다 보니 구글 트랜스포머 모델로 GPT 모델을 학습시키려면 초기에 공부 시작할때 든 생각은 딥러닝 모델 세부 구조를 어떻게 구성해야 하나가 제일 중요한줄 알았다 ... 공부하다 보니 분산학습 시 구글 트랜스포머 모델을 어떤식으로 동작하도록 구현해야 하는지가 더 중요할수 있겠다고 깨닮음이 있었다 ... 이렇게 깨닮음을 얻기는 했는데 공부하다 보니 구글 트랜스포머 모델을 학습 시키는데 필요한 엔비디아 딥러닝 서버 DGX-1 의 HW 설계 및 SW 설계를 파악이 필요하다는것을 절실히 느꼈다 ... 산 너머 산 이다 ... 지금 하나 하나 파악해 가고 있다 ... 엔비디아 딥러닝 서버 SW 설계의 핵심 중 하나가 리눅스커널상에서 엔비디아 딥러닝 서버의 네트웍 통신 개발 환경을 어떤식으로 구현했는지 또 이것을 구글 텐서플로우 환경에 어떻게 적용시켰는지 뭐 이런것 파악이 분산학습 이나 병렬학습 공부시 필요해서 공부중이다 ... 요즘 엔비디아 A100 GPU 나 H100 GPU 가 초거대 모델 구현시 너무나 큰 비중을 차지하는것이 요즘 화두 이기에 이걸 견제하려고 전 세계 글로벌 기업들이 너도나도 할것 없이 나만의 NPU 개발을 위해 시도를 하고 있다 ... 내가 지금까지 애기한 이런것들을 공부를 하는것도 나한테 기회가 오면 나도 NPU 관련 이슈도 대응할 능력을 갖기 위해서다 ... NPU 이슈 전체 대응 능력 보유는 쉽지 않으니 그 일부라도 확실히 준비하자는게 나의 생각 이다 ...
인공지능 기술이 너무 빨리 발전하는통에 생각치도 못했던 일들이 가능해졌고 이로인해 세상이 급변 하는 시대에 살고있다 ... 내가 올해 나이 60 이다 .... 92 년 1 월에 대기업 연구소 입사했을때가 엇그제 같다 ... 대기업 연구소는 7 년만에 자의반 타의반으로 그만두었다 ... 90 년대말 / 2000 년초에는 초고속 인터넷이 보급되면서 웹 설계 기술인 프론트 엔드 설계 기술과 백 엔드 설계 기술로 웹 서비스나 회사 홈페이지 를 만들수 있으면 넉넉한 밥벌이가 됬던 시절이다 ... 이 시기에 네이버 와 다음도 대기업 경력자들이 창업했던 시기였다 ... 이때 나의 한계는 무었인가 하면 이 시기는 지금과는 달리 인터넷에 고급 기술정보가 거의 없어서 기술정보를 획득하기가 너무 힘들어서 나는 웹 서비스 설계를 하는 구현 노하우 공부하는것을 거의 포기했었기에 대기업을 그만두었을때 한동안 힘들었고 나도 IMF 시기에 대기업을 그만뒀는데도 불구하고 나는 이런 사업 관련 세부 준비가 너무나 부족해서 네이버 다음 창업자처럼 철저한 사업 여러가지 세부 준비가 안 됬기에 IMF 시기에 거대한 창업은 엄두도 못냈었다 ... 이때가 기회였는데 말이다 ... 김대중 정부 들어서고 벤쳐 창업 지원을 정부가 적극적으로 했던 시기라 이때 창업해서 크게 성공한 벤쳐 창업가가 이제는 대기업이 된곳이 꽤 있다 .... 그래서 요즘이나 그때나 사람은 기회가 올때 잡기 위해 항상 철저히 준비된 사람이 되야 한다고 귀에 못이 박히게 애기해도 이를 허술히 듣는 경우가 굉장히 많고 나도 그때는 여러가지로 준비가 전혀 안됬었다 ... 내 나이 60 이다 나도 15 년전쯤 사업하다 쫄딱 말아 먹었었고 그래서 한 15 년 세월이 쉽지 않았다 ... 이렇게 쫄딱 말아 먹고 그래도 근근히 생활비 벌이는 했다 ... 그러다가 한 6 년전쯤 이렇게 지내서는 나의 노후가 너무 막막할것 같았다 ... 그래서 이때 부터 대기업의 핵심 기술분야 국내외 논문과 해외 글로벌 대기업의 각종 기술자료를 매일 매일 하루에 3 시간 이상을 돈이 되는 기술정보 확보를 위해서 꾸준히 세부 검토 분석을 했다 ... 그래서 현재는 카메라 분야 그리고 로봇 분야와 방산 레이더 개발 분야의 모든 노하우를 확보 성공한것은 아니고 이와 관련해서 나는 인터넷의 기술정보 분석으로 파악 가능한 돈이 되는 정보인 핵심 노하우 정보를 수십 가지 파악에 성공한 상태다 .... 내가 파악한 노하우를 소개하자면 SAR 위성에서 지상의 지형지물의 영상 데이터을 얻는 노하우 중 핵심 구현 노하우 전부는 아니고 그중 돈이 되는 몇가지 기술정보를 파악 성공했고 인공지능 분야의 경우도 삼성이 스마트폰에 10 개 국어 통번역 기능의 온 디바이스 AI 기술을 상용화해 출시 했는데 이의 구현과 관련해 공부해야 할 이슈가 굉장히 여러가지 인데 초거대 모델인 GPT-3 모델의 파인튜닝을 대기업들은 어떻게 처리하는지 라든가 OpenAI 가 엔비디아 A100 GPU 를 수천개 이상을 클라우드 환경에서 어떻게 초거대 모델을 분산학습 처리를 어떻게 처리했는지 등등 이런 기술 이슈들을 그동안 6 년간 기술자료를 검토 분석했읍니다 ... 나름 성과도 있으니 이런 글도 쓰겠지요 ... OpenAI 가 초거대 모델 개발을 위해 몇조원을 투입해 개발 성공했는데 나 같은 소기업이 가능하겠냐 라고 하시겠지만 요즘은 인터넷에 이런 고급 기술정보를 한 매일 매일 몇시간씩 몇년 검토분석하면 나름 의미있는 고급 정보를 확보하는게 가능하거든요 ...
이쪽으로 관심있어서 연락 주실 분은 아래의 연락처로 연락 부탁드립니다 ....
일인기업 딥네트워크 장석원 HP 010 3350 6509 이메일 sayhi7@daum.net
올해 내 나이가 60 이 됬다 ... IT 분야 종사한지 30 년 이다 ... 쉽지않은 세월 이었다 ... 오늘 지금은 밤 12시 50 분이다 ... 요즘 챗 GPT 가 나온지 1 년이 넘으면서 이제 챗 GPT 가 인간을 위협하는것을 걱정할 정도로 인공지능 기술이 발전했다 ... 원래 챗 GPT 의 모체가 되는 기술은 GPT-3 기술이다 ... 삼성전자도 일주일전쯤 갤럭시 24 폰에 온 디바이스 AI 를 탑재해서 10 개국어 통변역 기능을 상용화했다고 한다 ... 이제 구글 트랜스포머 모델이 스마트폰에서 동작하는것이 가능한 시대가 됬다 ... 나도 구글 트랜스포머 모델 논문 분석한지는 4 년도 넘는 세월동안 분석 검토를 계속 했었다 ... 4 년 넘는 세월동안 구글 트랜스포머 모델을 분석하면서 아직까지는 세상에 본격적으로 나오기는 이른가 라는 생각을 했었기에 4 년 동안 일주일에 한 6 - 7 시간 정도를 시간 투자를 했었다 ... 이제 삼성이 갤럭시 24 폰에 음성 통번역을 구글 트랜스포머 모델로 상용화 성공하는것을 보면서 나도 지금 부터는 본격적으로 구글 트랜스포머 모델을 파야하겠다라고 결심했다 ... 구글 트램스포머 모델을 판다고 하면 기본적으로 검토분석해야 할 딥러닝 모델이 GPT-3 이다 ... GPT-3 모델은 학습 데이터 갯수가 3000 억개 이다 ... 여기서 부터가 출발점이다 ... 그리고 GPT-3 모델을 학습시키려면 가장 기본으로 엔비디아 A100 GPU 를 100 개 이상 준비해야 한다 ... 요즘 엔비디아 GPU 는 부르는게 값이다 한장에 5000 만원 이상이라고 한다 ... 그렇다면 나는 GPT 모델을 학습시키기 위한 준비작업으로 어떤것을 해야할까 ? GPT-3 모델은 수백장의 GPU 에서 동작하므로 구글 트랜스포머 모델을 어떻게 설계해야 GPU 수백장에서 3000 억개의 학습 데이터가 한쪽에 치우치지 않고 GPU 를 어떤식으로 수백장을 동작시킬수 있는지 이런것의 파악이 가장 중요하다 ... 내가 그동안 4 년여 기간 동안 이런 사항들의 준비는 어느정도 되 있다 .... 삼성이 갤럭시 24 폰에 통번역 기능을 집어 넣을때 가장 핵심 기술이 지금 말했던 이게 가장 핵심이다 ... 이게 기본이 되서 인공지능 핵심 칩셋인 NPU 설계가 가능해진다 ... 이게 NPU 칩 설계의 기본이 되는 사항이다 ... NPU 칩 설계를 하려면 구글 트랜스포머 모델의 경량화 설계관련 딥러닝 모델의 세부 검토분석이 당연 필요하다 ... 나는 구글 트랜스포머 모델로 음성언어 통번역만 검토 분석한게 아니고 초거대 언어모델인 LLM 이슈도 검토분석하고 있다 ... 챗 GPT 도 기본이 되는게 GPT-3 PreTrained Model 을 기반으로 설계했다고 하고 그래서 GPT-3 Pre-Trained Model 의 구조 및 학습 데이터 설계 그리고 대규모 GPU 로 학습시키는 노하우 뭐 이런것들이 준비가 안됬다면 모래성으로 집을 지은것과 같다 ... 나도 GPT-3 학습 시키는 준비는 약 70 % 는 준비가 된것 같다 ... 이런것들 분석하면서 어느것에서 돈이 되는 포인트가 되는지 이런 생각하면서 요즘 분석을 하고 있다 ... 경기가 요즘 얼어 붙어서 일꺼리 의뢰가 아예 없다 ... 나와 생각이 통하는 기업과 애기해 보고 싶다 ... 요즘은 정보 공유가 10 년전보다 100 배 이상 많아 졌기에 나같은 일인기업도 대기업에 비벼볼수 있는 사업 기술 노하우 확보가 가능한데 이런것 이해 못하시는 경영자분들도 상당히 많다 ... 관심있으신 분들 연락 부탁드립니다 ....
딥네트워크 장석원 / HP 010 3350 6509 / 이메일 sayhi7@daum.net
먼저 웨이퍼 위에 감광액이라는 빛에 민감한 물질을 얇게 도포합니다. 감광액의 두께와 균일성이 매우 중요하며, 회전 코팅 방법 등이 사용됩니다. 다음으로 노광장비라는 기계에 웨이퍼를 넣고, 반도체 설계도인 마스크를 씌웁니다. 마스크에 특정 파장의 빛을 통과시켜 웨이퍼에 회로 패턴을 프린팅합니다. 이때, 노광의 시간과 빛의 강도가 회로의 정밀도에 큰 영향을 미칩니다. 그 후에 감광액을 화학 용액에 담가서 빛을 쏘인 부분이나 쏘지 않은 부분을 제거합니다. 이 과정을 통해 웨이퍼 위에 나노 단위의 미세한 회선들이 그려집니다. 이렇게 만들어진 회로 패턴은 다른 공정을 거쳐 반도체 칩으로 완성됩니다.
나는 3 나노 회로 선폭을 웨이퍼에 회로를 새기는 작업이 어떻게 되는지가 가장 궁금했다 ... EUV 장비의 13.5 nm 의 광파장을 E-Beam 이라고 부르는데 3 나노 회로 선폭을 웨이퍼에 회로를 새기는 작업의 핵심이 EUV 장비가 13.5 nm 의 광파장인 E-Beam 을 웨이퍼에 쏠때 어떻게 제어해서 3 나노 회로 선폭의 정밀도로 광파장을 정확한 위치에 쏠수 있을까가 EUV 장비의 핵심 이더라구요 .... EUV 장비의 13.5 nm 의 광파장 E-Beam 을 전기장과 자기장을 제어해서 3 나노 회로 선폭의 정밀도로 광파장을 정확한 위치에 쏘는것 이더군요 ... EUV 장비의 13.5 nm 의 광파장 E-Beam 을 전기장과 자기장을 제어해서 3 나노 회로 선폭의 정밀도로 광파장을 정확한 위치에 쏘는것이 핵심 이라는것은 파악했는데 이것을 구현하려면 광파장 E-Beam 을 웨이퍼로 쏠때 이때 E-Beam 의 미세한 방향제어를 E-Beam 발사 과정에서 전기장과 자기장을 가하는 초정밀 제어로 한번에 가능할것 같지는 않고 이것 구현이 시행착오를 많이 해야 할것 같읍니다 ... 딥네트워크는 이런것들 고민하고 있읍니다 ....
EUV 노광공정 / 증착공정 / 건식 에칭공정의 반도체 공정설계 기술의 동작구조를 약 70 % 파악한 일인기업의 사이트의 구현 기술력 위주 소개 자료를 5 가지 정도의 핵심으로 나누어서 다음과 같이 소개 합니다 ...
EUV 노광공정은 극자외선 파장의 광원을 사용하여 웨이퍼에 미세한 회로 패턴을 새기는 공정이다. EUV 노광공정은 기존의 불화아르곤 노광공정보다 더 높은 해상도와 생산성을 제공하며, 차세대 반도체 공정의 핵심 기술로 간주된다. EUV 노광공정에서는 빛을 반사하는 거울을 사용하여 레이저 광원을 웨이퍼에 투사한다. 이 때, 거울의 표면은 매우 정밀하고 깨끗해야 하며, 빛의 흡수를 최소화하기 위해 진공 상태를 유지해야 한다. 거울의 품질과 진공도는 EUV 노광공정의 성능과 안정성에 큰 영향을 미친다. EUV 노광공정에서는 웨이퍼에 코팅된 감광액 (PR)이 빛에 민감하게 반응하여 회로 패턴을 형성한다. 감광액은 막이 얇고 균일해야 하며, EUV 빛에 적합한 특성을 갖춰야 한다. 감광액의 품질과 적용 방법은 EUV 노광공정의 정밀도와 효율성에 중요한 역할을 한다. EUV 노광공정에서는 웨이퍼에 새겨진 회로 패턴을 식각하여 원하는 형태로 만든다. 식각은 건식 에칭과 습식 에칭의 두 가지 방법이 있다. 건식 에칭은 플라즈마를 이용하여 원하는 부분만 제거하는 방법이고, 습식 에칭은 화학액을 이용하여 원하는 부분만 제거하는 방법이다. 식각의 방법과 조건은 EUV 노광공정의 정확성과 속도에 영향을 미친다. EUV 노광공정에서는 웨이퍼에 증착하여 다양한 소자를 형성한다. 증착은 물질을 원하는 부분에 아주 얇은 막으로 입히는 공정이다. 증착은 화학기상증착 (CVD) 와 원자층증착 (ALD) 의 두 가지 방법이 있다. CVD 는 가스 상태의 물질을 화학 반응을 통해 웨이퍼에 증착하는 방법이고, ALD 는 원자 단위로 물질을 웨이퍼에 증착하는 방법이다. 증착의 방법과 재료는 EUV 노광공정의 전기적 특성과 내구성에 영향을 미친다. 이상으로 EUV 노광공정 증착공정 건식 에칭공정의 공정설계 처리과정등의 정보를 70 % 파악한 일인기업의 사이트의 구현 기술력 위주 소개 자료를 5 가지 정도의 핵심으로 나누어서 상세히 소개하였습니다.
제가 운영하는 딥네트워크는 SAR 레이더 구현에 대해 다음과 같이 보유한 3가지 핵심 노하우를 소개하고자 합니다.
FMCW 레이더 기술: FMCW 레이더는 주파수가 연속적으로 변화하는 신호를 송수신하여 타겟의 거리와 속도를 측정하는 기술입니다. FMCW 레이더는 다른 레이더 방식에 비해 제작이 용이하고, 가까운 거리에서도 높은 해상도를 가집니다. FMCW 레이더는 차량 레이더 분야에 많이 사용되고 있으며, SAR 레이더에도 적용할 수 있습니다. 위상배열 안테나 기술: 위상배열 안테나는 여러 개의 안테나 요소를 배열하여 전자적으로 빔을 조절하는 기술입니다. 위상배열 안테나는 빔의 방향과 형태를 다양하게 바꿀 수 있으며, 많은 타겟을 탐지할 수 있습니다. 위상배열 안테나는 SAR 레이더의 이득과 성능을 향상시키는 데 도움이 됩니다. SAR 위성 알고리즘 기술: SAR 위성 알고리즘은 위성에서 송수신한 SAR 신호를 처리하여 지상의 지형지물을 고해상도로 획득하는 기술입니다. SAR 위성 알고리즘은 SAR 신호의 특성과 위성의 운동을 고려하여 영상을 복원하고, 간섭계, 편파, 다중입출력 등의 기술을 활용하여 영상의 품질과 정보량을 높입니다.