딥네트워크 :: 합성개구레이더(SAR) 도플러 효과 동작원리 분석 전문기업

일인기업 딥네트워크는 SAR 위성 기술을 통해 지상의 특정 지점에서 반사되어 돌아오는 신호의 위상을 측정하고, 이를 통해 거리에 비례하는 위상 변화량을 정확하게 보정하는 설계를 구현합니다. 이 과정은 복잡한 신호 처리 알고리즘과 정밀한 계산을 필요로 합니다.

 

다음과 같은 SAR 위성에서 Raw Radar Data 를 처리하는 핵심 원리 노하우 확보 성공

  1. Range Compression (거리 압축)
    • SAR 시스템은 펄스 압축 기술을 사용하여 거리 해상도를 향상시킵니다.
    • 송신된 펄스는 특정한 ‘chirp’ 신호로 변조되어, 각각의 반사 신호가 독립적인 주파수를 가지게 됩니다.
    • 수신된 신호는 매치드 필터를 통과하여, 각 반사점의 거리에 따른 시간 지연을 주파수 영역에서 분리합니다.
    • 이 과정은 거리 방향으로의 해상도를 높이고, 반사점들을 더 선명하게 구분할 수 있게 합니다.
  2. Azimuth Compression (방위 압축)
    • 방위 압축은 SAR 위성이 이동하면서 여러 각도에서 획득한 데이터를 합성하여 해상도를 향상시키는 과정입니다.
    • 위성의 이동으로 인해 발생하는 도플러 효과를 이용하여, 각 반사점의 방위 위치를 결정합니다.
    • FFT(Fast Fourier Transform)를 사용하여 시간 영역의 신호를 주파수 영역으로 변환하고, 도플러 주파수를 분석합니다.
    • IFFT(Inverse Fast Fourier Transform)를 통해 주파수 영역의 데이터를 다시 시간 영역으로 변환하여 방위 방향의 해상도를 향상시킵니다.
  3. Range Cell Migration Correction (RCMC)
    • SAR 데이터 처리 과정에서, 원거리에 있는 반사점들은 가까운 거리에 있는 반사점들보다 더 큰 거리 이동을 경험합니다.
    • RCMC는 이러한 거리 이동을 보정하여, 모든 반사점들이 올바른 위치에 나타나도록 합니다.
    • 이는 거리-방위 영역에서의 이미지 왜곡을 줄이고, 정확한 지형 정보를 제공합니다.
  4. Matched Filter Algorithm (매치드 필터 알고리즘)
    • 매치드 필터는 수신된 신호의 SNR(Signal-to-Noise Ratio)을 최대화하기 위해 사용됩니다.
    • 송신된 ‘chirp’ 신호와 동일한 형태의 신호를 생성하여, 수신된 신호와 결합함으로써 원하는 신호를 강조하고 잡음을 줄입니다.
    • 이 과정은 SAR 이미지의 선명도와 정확도를 크게 향상시킵니다.
  5. Data Synthesis and Image Formation (데이터 합성 및 이미지 형성)
    • SAR 시스템은 위성이나 항공기가 이동하면서 획득한 데이터를 합성하여 2차원 이미지를 생성합니다.
    • 이 과정에서 각각의 데이터 포인트는 고유한 위치와 반사 특성을 가지며, 이를 통해 지형의 3차원적 형상을 재구성할 수 있습니다.
    • 최종적으로, 이러한 데이터 합성을 통해 얻어진 SAR 이미지는 지상의 물체들을 높은 해상도로 관찰할 수 있는 능력을 제공합니다.

이러한 원리들은 SAR 위성이 날씨와 시간에 구애받지 않고, 지상의 물체들을 고해상도로 관찰할 수 있게 하는 기술적 기반을 형성합니다. 각 단계는 신호 처리의 다른 부분을 담당하며, 함께 작동하여 SAR 이미지의 품질을 향상시키는 데 중요한 역할을 합니다. 이러한 과정을 통해, SAR 위성은 지상의 물체들을 높은 해상도로 관찰할 수 있게 됩니다.

 

Interferometric SAR (InSAR)을 이용한 수치표고모델 (DEM) 생성은 지형의 고도 정보를 정밀하게 파악하는 데 매우 유용한 기술입니다. InSAR 기술은 두 개의 SAR 이미지를 이용하여 지상의 변화나 높이를 측정할 수 있습니다. 이 과정에서 주로 다음과 같은 단계를 거칩니다:

  1. 코-레지스트레이션(Co-registration): 두 SAR 이미지를 정확히 겹치도록 조정합니다. 이는 동일한 궤도와 취득 모드를 가진 이미지들을 슬랜트 레인지 기하학적으로 정렬하는 과정입니다.
  2. 인터페로그램 생성(Interferogram Generation): 한 이미지를 다른 이미지의 복소 공액과 곱하여 인터페로그램을 생성합니다. 이는 지상의 높이 정보를 포함하는 위상 정보를 담게 됩니다.
  3. 위상 언래핑(Phase Unwrapping): 인터페로그램에서 얻은 위상 정보를 연속적인 높이 정보로 변환합니다. 이 과정은 위상의 불연속성을 해결하여 실제 지형의 높이를 추출하는 데 필요합니다.
  4. DEM 생성: 위상 언래핑을 통해 얻은 높이 정보를 바탕으로 DEM을 생성합니다. 이 DEM은 지형의 고도 정보를 제공하는 데이터셋으로 활용됩니다.

InSAR 기법으로 생성된 DEM의 정확성은 기존의 지형도나 다른 참조 DEM과 비교하여 평가될 수 있습니다. 예를 들어, 한 연구에서는 ERS 위성으로부터 취득한 InSAR 이미지를 이용하여 터키 Kayseri 지방의 DEM을 생성하고, 이를 기존의 지형도에서 얻은 등고선을 이용해 생성된 참조 DEM과 비교하여 정확성을 평가하였습니다.

이러한 과정을 통해 InSAR는 지형의 미세한 변화까지 감지할 수 있는 높은 밀도의 측정 정보를 제공하며, 이는 환경 모니터링, 도시 계획, 자원 관리 등 다양한 분야에서 중요한 응용을 가지고 있습니다. InSAR 기술과 DEM 생성에 대해 더 깊이 이해하고 싶으시다면, 관련 학술 자료나 연구 논문을 참고하시는 것도 좋은 방법입니다.

 

Omega-k 알고리즘은 합성개구레이다(Synthetic Aperture Radar, SAR)의 초고해상도 스포트라이트 모드 이미징을 위한 처리 기법입니다. 이 알고리즘은 넓은 범위 대역폭과 긴 방위각 조명 시간을 사용하는 고급 SAR 시스템에서 고해상도를 달성하기 위해 설계되었습니다. Omega-k 처리는 SAR 초점 문제에 대한 이상적인 해결책으로 널리 받아들여지고 있습니다.

Omega-k 알고리즘의 기본 원리는 다음과 같습니다:

  1. 데이터 수집: SAR 시스템은 이동하는 플랫폼(예: 위성 또는 항공기)에서 레이더 신호를 발사하여 지상의 반사 신호를 수집합니다.
  2. 레인지 압축: 수집된 데이터는 레인지 방향으로 압축되어야 합니다. 이는 푸리에 변환(Fourier Transform)을 사용하여 수행됩니다.
  3. 오메가-k 변환: 데이터는 주파수-시간(frequency-time) 도메인에서 주파수-방위각(frequency-wavenumber) 도메인으로 변환됩니다. 이 과정에서 레인지 셀 마이그레이션(Range Cell Migration, RCM) 보정이 이루어집니다.
  4. 방위각 압축: 변환된 데이터는 방위각 방향으로 압축되어 최종 이미지를 생성합니다.

스퀸트(squint) 모드에서는, Omega-k 알고리즘은 레이더가 직선 경로를 따라 이동하지 않고 일정 각도로 기울어져 있을 때 사용됩니다. 이는 레이더가 관측 대상에 대해 비스듬히 위치할 때 발생하는 기하학적 왜곡을 보정하는 데 필요합니다.

또한, Dechirp-on-Receive 기법은 SAR 원시 데이터의 아날로그 대역폭을 줄이기 위해 사용됩니다. 이는 지연된, 반대의 펄스 복제본을 사용하여 포인트 산란체로부터의 반환을 dechirp하는 시스템입니다. Dechirped 반환은 포인트 산란체와 센서 간의 거리에 따라 주파수가 달라지는 사인파 신호입니다. 따라서 레인지 압축은 푸리에 변환을 통해 달성됩니다.

이러한 과정을 통해, Omega-k 알고리즘은 고해상도의 SAR 이미지를 생성할 수 있으며, 특히 고스퀸트 스포트라이트 모드에서 더욱 정밀한 이미지 재구성이 가능합니다. 이 알고리즘은 SAR 데이터 처리에 있어서 매우 중요한 역할을 하며, 특히 고해상도 및 넓은 영역 커버리지를 요구하는 응용 분야에서 중요합니다.

 

FMCW(Frequency Modulated Continuous Wave) 레이다에서 수신된 신호의 비트 주파수 정보는 K-5 영상의 각 이미지 픽셀에 인코딩되어, 진폭과 위상 정보를 포함하게 됩니다. 이 과정은 다음과 같이 이루어집니다:

  1. FMCW 레이다에서 신호 수신: FMCW 레이다는 주파수 변조 연속파를 사용하여 대상과의 거리를 측정합니다이때, 송신된 FMCW 파형과 수신된 FMCW 파형의 상관관계를 분석하여 비트 주파수를 얻습니다비트 주파수는 송신 신호와 수신 신호 사이의 주파수 차이를 나타내며, 이는 대상과의 거리를 결정하는 데 사용됩니다.
  2. 비트 주파수 정보의 디지털 변환: 수신된 신호는 아날로그-디지털 변환기를 통해 디지털 신호로 변환됩니다이 변환 과정에서, 각 비트 주파수는 복소수 (I와 Q) 크기 값으로 표현됩니다.
  3. 복소수 정보의 인코딩: 디지털 변환된 비트 주파수 정보는 K-5 영상의 각 이미지 픽셀에 인코딩됩니다. 복소수의 절대값은 진폭을 나타내고, 복소수의 인수는 위상을 나타냅니다따라서, 각 픽셀에서 반사되는 신호의 강도(진폭)와 위상 변화(위상)를 모두 캡처할 수 있습니다.

이러한 과정을 통해, FMCW 레이다에서 수신된 신호의 비트 주파수 정보는 K-5 영상의 각 픽셀에 인코딩되어, 진폭과 위상 정보를 포함하게 됩니다이렇게 하면, K-5 영상은 대상과의 거리뿐만 아니라, 대상의 물리적 특성(예: 반사율, 표면 질감 등)에 대한 정보도 포함하게 됩니다.

 

합성개구 레이더(SAR)는 움직이는 플랫폼에서 도플러 효과를 이용하여 고해상도의 영상을 생성하는 기술입니다. 이를 위해 SAR은 다음과 같은 주요 설계 원리를 적용합니다:

  1. FMCW 레이더의 원리: FMCW(Frequency Modulated Continuous Wave) 레이더는 전파의 주파수를 연속적으로 변화시키며 송신하고, 반사된 신호의 주파수 변화를 측정함으로써 거리와 속도 정보를 얻습니다이 방식은 X 밴드에서 효과적으로 작동하며, 송수신된 전파를 증폭하여 디지털 신호로 변환한 후, 거리/속도/방향 등의 유의미한 정보로 변환합니다.
  2. 산란점 매칭과 템플릿 매칭: SAR-ATR(합성개구 레이더 자동 표적 인식) 분야에서는 산란점 매칭과 템플릿 매칭 기반 알고리즘을 적용하여 표적을 식별합니다산란점 매칭은 점을 World View Vector (WVV)로 재구성 후 Weighted Bipartite Graph Matching (WBGM)을 수행하며, 템플릿 매칭은 서로 인접한 산란점으로 재구성한 두 영상 간의 상관계수를 사용합니다.
  3. 복소수 활용: SAR 영상에서의 복소수는 절댓값과 편각을 가지며, 절댓값은 해당 지형 또는 물체의 레이다 반사도와 직접적인 연관이 있고, 편각은 전자기파의 위상으로 레이다와 목표물 사이의 거리 정보를 일부 가지게 됩니다.

이러한 원리들을 적용하면, 지상 500 Km 상공에서 초속 7.5 Km/S로 움직이는 합성개구 레이더에서 X 밴드 FMCW 파형을 송수신해서 얻은 SAR 이미지는 표적을 식별할 정도의 정밀도를 얻을 수 있습니다. 

 

SAR 이미지의 스펙클 노이즈는 합성 개구 레이더(Synthetic Aperture Radar, SAR) 이미지에서 발생하는 일종의 잡음으로, 이미지의 품질을 저하시키는 요소입니다. 스펙클 노이즈는 SAR 시스템이 산란체로부터 되돌아오는 신호를 수집할 때 발생하는 간섭 현상으로 인해 생기는 거친 질감의 무작위 패턴입니다.

 

스펙클 노이즈는 SAR 이미지의 해석을 복잡하게 만들며, 특히 세밀한 구조나 경계를 가진 객체의 탐지와 분류에 영향을 줄 수 있습니다. 

 

스펙클 노이즈의 제거는 SAR 이미지의 해석과 응용에 있어 매우 중요한 과정이며, 이를 통해 이미지의 품질을 향상시키고, 더 정확한 정보를 추출할 수 있게 됩니다.

 

SAR(Synthetic Aperture Radar) 이미지의 스펙클 노이즈를 제거하는 방법은 이미지 품질을 향상시키고 객체 탐지 및 분류를 더 정확하게 수행하기 위해 중요합니다. 여러 기술적 접근 방법이 있으며, 다음은 주요한 방법들입니다:

  1. 다중 룩 처리 (Multi-look Processing):
    • 여러 개의 독립적인 영상을 평균화하여 스펙클 노이즈를 줄이는 방법입니다.
    • 각 픽셀의 밝기 값을 여러 개의 인접한 픽셀 값의 평균으로 대체합니다.
    • 단점: 공간 해상도가 낮아질 수 있습니다.
  2. 비선형 필터링:
    • 스펙클 노이즈 특성에 따라 비선형 필터를 적용합니다.
    • 주요 비선형 필터:
      • LEE (Lee Enhanced Lee) 필터: 국지적 통계 정보를 이용하여 스펙클 노이즈를 제거합니다.
      • Refined LEE 필터: LEE 필터를 개선한 방법으로, 더 정교한 스펙클 제거를 수행합니다.
      • EPOS (Edge Preserving Optimal Speckle) 필터: 스펙클 자체의 통계 특성을 이용하여 에지를 보존하면서 스펙클 노이즈를 제거합니다.
  3. 웨이블렛 변환 (Wavelet Transform):
    • 스펙클 노이즈를 가법적 잡음으로 변환한 후 웨이블렛 분해를 수행합니다.
    • 임계치 처리를 통해 스펙클 노이즈 성분을 제거하고 원본 이미지를 복원합니다.
    • 주요 임계치 선택 방법: VisuShrink, SureShrink, BayesShrink, 수정된 BayesShrink.

이러한 방법들은 SAR 이미지의 스펙클 노이즈를 효과적으로 제거하여 이미지의 품질을 향상시키고, 더 정확한 정보를 추출할 수 있도록 도와줍니다.

 

스펙클 노이즈를 제거하는 기술을 선택할 때, 특정 상황과 요구사항에 따라 적합한 방법을 고려해야 합니다. 다음은 스펙클 노이즈 제거 기술 중 일부를 설명하고, 선택할 때 고려해야 할 사항입니다:

  1. 다중 룩 처리 (Multi-look Processing):
    • 장점: 스펙클 노이즈를 줄이면서 이미지의 공간 해상도를 유지할 수 있습니다.
    • 단점: 공간 해상도가 낮아질 수 있습니다.
  2. 비선형 필터링:
    • LEE 필터와 Refined LEE 필터는 국지적 통계 정보를 활용하여 스펙클 노이즈를 제거합니다.
    • EPOS 필터는 스펙클 노이즈를 제거하면서 에지를 보존합니다.
  3. 웨이블렛 변환 (Wavelet Transform):
    • 스펙클 노이즈를 가법적 잡음으로 변환한 후 웨이블렛 분해를 수행합니다.
    • 임계치 처리를 통해 스펙클 노이즈 성분을 제거하고 원본 이미지를 복원합니다.
  4. 고대역 통과 필터 (High-pass Filtering):
    • 주파수 영역에서 DC 노이즈를 제거하는 방법입니다.
    • 고대역 통과 필터를 사용하여 프린지 패턴 데이터의 주파수 영역에서 DC 노이즈를 감소시킵니다.
  5. 기타 방법:
    • 평균값 차감 방법: 평균값을 빼는 방식으로 DC 노이즈를 제거합니다.
    • 다양한 특허 지수 활용: 특허 기술수준 평가에 사용되는 지수들을 활용하여 스펙클 노이즈를 감소시킬 수 있습니다.

선택할 기술은 데이터 특성, 연구 목적, 계산 효율성 등을 고려하여 결정해야 합니다.

 

제가 분석하고 있는 스펙클 노이즈 관련 알고리즘을 설명한 대표적인 논문 3가지는 다음과 같습니다:

  1. “Speckle Noise Suppression in SAR Images Using a Three-Step Algorithm” - 이 논문은 MDPI에서 발표되었으며, 비선형 필터링(non-local filtering) 과 확률적 패치 기반(probabilistic patch-based, PPB) 알고리즘을 기반으로 하는 새로운 세 단계 접근 방식을 제안합니다. 이 방법은 밝은 구조물의 영향을 최소화하면서 스펙클 노이즈를 억제하는 것을 목표로 합니다.
  2. “A Review on SAR Image and its Despeckling” - 이 리뷰 논문은 Archives of Computational Methods in Engineering에 게재되었으며, SAR 이미지의 스펙클 노이즈를 감소시키는 다양한 방법들을 종합적으로 검토합니다. 이 논문은 스펙클 노이즈의 패턴 분포를 이해하는 데 어려움을 겪는 연구자들을 위한 자료로 사용될 수 있습니다.
  3. “The algorithm of SAR speckle noise suppressing by using generalized multi-scale CB…” - 이 논문은 IEEE Xplore에 게재되었으며, 일반화된 다중 스케일 CB를 사용하여 SAR 스펙클 노이즈를 억제하는 알고리즘에 대해 설명합니다. 이 연구는 스펙클 노이즈를 효과적으로 줄이면서도 이미지의 세부 사항을 보존하는 방법에 초점을 맞춥니다

SAR(Synthetic Aperture Radar) 위성 데이터에서 지상이나 해상의 타겟 오브젝트를 검출하고 인식하기 위한 딥러닝 학습 구조로는 Convolutional Neural Networks(CNN)가 일반적으로 사용됩니다. t-SNE를 이용하여 CNN의 특징 추출 능력을 평가하거나, 학습된 모델의 특징 공간을 시각화하는 데 사용할 수 있습니다.

 

CNN 이 일반적으로 사용되고 여기에 t-SNE를 이용하여 CNN의 특징 추출  동작 원리:

  • t-SNE는 각 데이터 포인트를 중심으로 한 주변 이웃의 밀도를 고려하여, 고차원 공간에서의 이웃 관계를 저차원 공간에서도 유지하도록 합니다.
  • 이 과정에서, t-SNE는 각 데이터 포인트에 대해 개별적인 가우시안 분포를 사용하여 유사도를 계산하고, 이를 저차원 공간의 t-분포와 일치시키려고 합니다.
  • t-SNE의 핵심은 고차원 공간에서 가까운 데이터 포인트들이 저차원 공간에서도 가까이 배치되도록 하는 것입니다.

저희 딥네트워크는 합성개구 레이더의 스펙클 노이즈 감쇄 알고리즘을 세부 분석하고 있읍니다 ....    SAR 이미지의 스펙클 노이즈는 합성 개구 레이더(Synthetic Aperture Radar, SAR) 이미지에서 발생하는 일종의 잡음으로, 이미지의 품질을 저하시키는 요소입니다.    스펙클 노이즈는 SAR 이미지의 해석을 복잡하게 만들며, 특히 세밀한 구조나 경계를 가진 객체의 탐지와 분류에 영향을 줄 수 있어서  딥네트워크는 이 부분의 노하우 확보에 주력하고 있는중 입니다 ....   t-SNE 기법으로  고차원 데이터의 유사도를 저차원에서의 유사도 변환을 통해  위성에서 타겟의 검출 및 식별의 구현이 가능 합니다 ...   합성개구 레이더의 스펙클 노이즈 감쇄 알고리즘 세부동작 구조 세부 정밀 분석에 성공했기에 이렇게 글을 올리구요 ...   한국의 방산 대기업 관계자분들의 많은 관심 부탁드립니다 ...

 

제가 운영하는 일인기업인 딥네트워크는 합성개구 레이더 해외 논문들을 세부 분석을 진행하고 있읍니다 ....   한국의 방산 대기업들도 요근래  SAR 위성의  합성개구 레이더  개발을 본격 진행하는것 같으니 저희와도 협력할 기회흫 주셨으면 합니다 ...   저희 딥네트워크는 SAR 위성에서 지상의 타겟의 윤곽을 검출할수 있는 노하우를 현재 보유중 입니다 ....    또한 SAR 위성에서 지상 또는 해상의 타겟을 검출 / 인식하는 딥러닝 모델의 세부 설계 구조도 분석이 되있고  이를 구현하기 위해 텐서플로우 파이썬 소스의 세부 구현 방법도 어느 정도 파악하고 있읍니다 ....   SAR 위성 제작에 최소 100 억은 드는데  저같은 소기업이 핵심적인것중 SAR 위성에서 지상의 타겟 검출 및 인식 구현의 펌웨어 및 딥러닝 개발관련 노하우도 갖고 있다는점  말씀 올립니다 ....   저희는  합성개구 레이더 해외 논문들을 세부 분석 노하우를 보유하고 있읍니다 ....  많은 관심 부탁드립니다 ....

 

일인기업  딥네트워크     장석원    010 3350  6509      sayhi7@daum.net

The one-person enterprise, DeepNetwork, is developing a Transformer model in the TensorFlow development environment. TensorFlow is an open-source machine learning framework created by Google, which allows you to easily and quickly build and deploy deep learning models on various platforms. TensorFlow provides official tutorials and APIs for implementing the Transformer model.

Here are the key points that DeepNetwork should pay attention to when developing the Transformer model:

Key 3 points on how distributed learning is possible Distributed learning refers to the process of analyzing, interpreting, and structuring data. The Transformer model uses the following methods for distributed learning:

  • It uses an architecture composed of encoders and decoders to convert input data into vectors and generate output data. Encoders and decoders are each composed of multiple self-attention layers and feed-forward layers.
  • Self-attention calculates how much each element of the input data is related to other elements, understanding the meaning and structure of the data. Self-attention is implemented as multi-head attention, allowing data analysis from various perspectives.
  • Position encoding is used to preserve the order information of sequential data. Position encoding adds a unique vector to each element of the input data, conveying order information to self-attention.

Key 3 points on how to handle parameters such as weight values when training a super-large model with a Transformer model To train a super-large model with a Transformer model, you should use the following methods:

  • Pre-train the Transformer model using a large dataset. Pre-training initializes the parameters of the Transformer model and acquires general language knowledge. Self-supervised learning methods such as Masked Language Modeling and Next Sentence Prediction can be used for pre-training.
  • Use distributed learning to increase the speed and efficiency of Transformer model learning. Distributed learning uses multiple accelerators such as GPUs or TPUs to update the parameters of the Transformer model in parallel. Methods such as Data Parallelism and Model Parallelism can be used for distributed learning.
  • Use fine-tuning to apply the Transformer model to specific domains or tasks. Fine-tuning re-trains the parameters of the pre-trained Transformer model with a small amount of labeled data to improve performance. Benchmarks such as SuperGLUE can be used for fine-tuning.

Key issues when implementing a super-large model with a Transformer model The key issues that can be encountered when implementing a super-large model with a Transformer model are as follows:

  • Memory shortage problem: The Transformer model can be limited by memory capacity and bandwidth because it handles a large amount of data and parameters. To solve the memory shortage problem, you can reduce the size of the Transformer model or use methods to increase memory efficiency. For example, techniques such as Model Compression, Sparse Attention, and Reformer are available.
  • Generalization problem: While the Transformer model can be applied to various tasks based on pre-trained language knowledge, it can sometimes overfit to a specific domain or situation, or generate illogical or inappropriate results. To solve the generalization problem, you can diversify the training data and objective function of the Transformer model, or use methods such as Regularization or Adversarial Learning.

Deep Network, a one-person startup specializing in consulting for super-large language models  

E-mail : sayhi7@daum.net    

Representative of a one-person startup /  SeokWeon Jang

 

Hello, I am DeepNetwork, a one-person enterprise specializing in the analysis of super-large AI models. Over the past 3 years, DeepNetwork has conducted detailed review and analysis of hundreds of deep learning papers related to super-large models, and has also carried out detailed analysis work on Google’s deep learning environment, TensorFlow.

While DeepNetwork does not have solutions for all issues related to super-large models, we do have solutions for some issues. We are confident in our detailed analysis of the GPT-3 model, which clearly demonstrated the potential of super-large models. Recently, the development issue of LLM is moving to sLLM, and DeepNetwork is also conducting technical issue research on sLLM’s detailed issues, securing meaningful analysis results.

You might think that I only analyzed papers, but I have also successfully gained a deep understanding of the know-how of deep learning development, specifically implementing the design of Google’s transformer model in the TensorFlow environment using TensorFlow API. I am also well-prepared with a deep understanding of how to apply the arguments of the necessary TensorFlow API when developing Google’s transformer model design in the TensorFlow environment.

I have also secured very specific implementation know-how for Quantization techniques and knowledge distillation implementation, which are key to the lightweighting of super-large models. I have know-how on how to design and implement Quantization techniques and knowledge distillation in foreign papers, and how to apply the API in the TensorFlow environment to design it.

DeepNetwork, which I operate, has been preparing for over 3 years to successfully identify the detailed issues of LLM and sLLM related to the implementation of super-large models or sLLM, which are of importance to domestic and foreign global companies. I can say that DeepNetwork is also prepared to the extent that it can write here with certainty about the analysis of detailed issues related to LLM and sLLM and the ability to implement them using TensorFlow API.

I also have a solid preparation for the solution to my detailed issues related to LLM and sLLM, so I would like to discuss technical issues with truly meaningful companies.

 

Deep Network, a one-person startup specializing in consulting for super-large language models  

E-mail : sayhi7@daum.net    

Representative of a one-person startup /  SeokWeon Jang

 

I have been working in the IT field for 30 years…  Lately, there’s a buzz that Nvidia’s market capitalization is around 2 trillion dollars…”   Nvidia has been manufacturing GPUs such as V100 / A100 / H100 at TSMC in Taiwan… The issue of super-large language models is flooding the media in Korea and abroad… Global companies are desperate to secure the original technology of how to develop something like a super-large model GPT-3.5… In the case of such a GPT-3.5 Model, the detailed model design structure information is confidential, and I know that the model design structure of GPT-3 is also non-disclosed… So, EleutherAI, an open-source version of GPT-3, has learned and released the GPT-J model, and there seem to be quite a few places preparing for development based on this… Because it is possible to understand how GPT-3 has what characteristics when it has what structure with this model. GPT-J and GPT-NeoX are GPT Opensource made by a place called EleutherAI. EleutherAI is an open-source AI organization made by voluntary researchers, engineers, and developers. It is known to make Large Language Models (LLM) open source. I also have a considerable understanding of the detailed structure information of the GPT-3 model necessary for understanding and distilling the model structure of GPT-3.5 or GPT-3, and how to apply and implement this with the TensorFlow API… But after studying this super-large model for about 3 years, I felt that it was necessary to understand how to operate the GPT-3 Model on the cloud GPU server and how to operate the TensorFlow development environment on the A100 / H100 GPU on the cloud GPU server… To implement this, Docker design technology is needed… Nvidia GPU can be operated with Docker technology… To operate Nvidia GPU with Docker design technology, software development of a function that operates it, which is a function of Nvidia library, is necessary. These days, it’s a boom in Korea’s fabless to make NPU, and if this is to grow like Nvidia, software development of a function that operates it, which is a function of Nvidia library (in the case of Korea’s fabless, it is a function of the operation library of NPU (Neural Processing Unit) developed by Korea’s fabless), is necessary to operate Nvidia’s GPU like Nvidia. I have a plan for this, but I haven’t been informed about this yet, so there is no suggestion to jointly identify technical issues, but I hope you will contact me after seeing this blog…

 

Deep Network, a one-person startup specializing in consulting for super-large language models  

E-mail : sayhi7@daum.net    

Representative of a one-person startup /  SeokWeon Jang

나는 IT(정보통신) 분야 일을 한지 30 년 이다 ...   IT(정보통신) 분야 일을 하는 사람들도 공대에서  컴퓨터공학과나 전자공학과를 4 년 배웠어도 데기업 이든 중소기업 이든 입사하면 쌩 초보 역할밖에 할수 있는게 없다 ...   왜냐하면 공대에서 4 년을 컴퓨터 프로그래밍 이나 회로  설계 같은걸 배우긴 하는데 아무래도 회사에 입사해서 바로 써 먹을 실력은 안되기 대문이다 ...   이렇게 공대 4 년 배우고 회사를 들어가도 최소 10 년은 정보통신 분야 일을 경험을 해봐야 대학때는 안 가르쳐줬던 수십 수백가지 가지가지 수많은 여러 기법들을 회사에서 배우고 경험해야 비로서 한 분야 나름 이름값도 가능하다 ...     가수 분야 특히 예능 분야인 경우  중학교 고등학교 때부터  예술 고교가면 중고교 부터 가수가 터득해야 할 기법들을 배우는것 같고 대학까지 예능쪽으로 나오면 필요한것들은 배우는것 같은데  가수 분야도 본업으로 하려면 보컬 트레이너 같은분들한데 가수가 알아야 할 기법(창법)들을 따로 배우는게 필요한것 같다 ...  역시 가수 분야도  IT 분야와 마찬가지로 학교때 돈벌이에 필요한 실무까지는 가르쳐 주지는 않는것 같다 ...  요즘엔 방송사 트롯 열풍이 분 다음에  유튜브 사이트에  찔끔찔끔  트롯 가수 보컬 컨설팅 영상들이 심심치않게 많이 올라와 있다   이런 맛보기 정도의 보컬 컨설팅 유튜브 영상도  다 이게 그 분들의 돈벌이 분야라서 찔끔찔끔 정보 밖에 없는것 같다 ...   이거는 역시 IT 분야든  가수 분야든  세상살이는  똑 같기에  돈 되는 정보는 다 대외비로 공개는 안하더라구요   나는 연예계 특히 가수 활동 분야에 대해서는 전혀 그동안 모르고 지내왔다 ...   요즘 하도 트롯가수  경연대회를 방송사에서 많이 하다 보니 나도 트롯 분야에 많은 관심이 생겼다 ...    내 나이 60 이지만 나는 그동안 음치라고 막연히 생각했었다 ...   내가  IT 분야를 30 년 했듯이 가수 분야도 가수에게 필수인 창법 터득에 필요한 각종 (발성기법 등등)기법들을 최소 몇년 이상 공부하는게 필수라고 나는 느낀다 ...    그런데 내가 요즘 트롯 경연관련 짬짬이 유튜브 사이트의 보컬 컨설팅 영상을 보면서 한가지 큰것을 터득했다 ...   노래를 부를때 노래 부른다는 느낌이 아니라 말을 하는것에 음정을 붙인다는 느낌으로 소리를 내면 나같은 음치도 아주 음치는 아닐것 같고  여기에 전문적으로 보컬 트레이닝 선생님께 창법 터득에 필요한 각종 기법들을  한 1 년 이상 컨설팅을 받는다면 가수에 길도 도전은 가능할것 도 싶다 ...  

IT 분야에서 일한지 30 년이다 ...  요즘 엔비디아 시총이 2400조 라고 떠들석 하다 ...   엔비디아는 그동안 GPU 를 V100 / A100 / H100 을 대만 TSMC 에서 제조해왔다 ...   요즘 초거대 언어 모델 이슈가 한국이나 외국 언론을 도배하고 있다 ...   초거대 모델 GPT-3.5 같은걸 어떻게 개발하는가의 원천 기술을 확보하려고 글로벌 기업들이 혈안이 되있다 ...   이런 GPT-3.5 Model 같은 경우도 세부 모델 설계 구조 정보는 대외비이고  GPT-3 의 경우도 모델 설계 구조는 비공개로 알고 있다 ...   그래서  EleutherAI 이라는 GPT-3 의 오픈소스 버전인 GPT-J 모델을 학습하여 공개했다고 하고 이것을 기반으로 개발준비를 하는곳도 꽤 있는듯 하다 ...    왜냐하면 GPT-3 가 어떤 구조일때 어떻게 특성을 내는지 이 모델로 파악이 가능하기 때문이다.   GPT-J와 GPT-NeoX는  일루더에이아이 라는 곳에서 만든 GPT Opensource 이다. EleutherAI는 자발적인 연구자, 엔지니어, 개발자들이 만든 오픈소스 AI 단체이다. Large Language Model (LLM)을 오픈소스로 만드는 것으로 알려져 있다.    저도  GPT-3.5 내지  GPT-3 의 모델구조 파악과 지식증류를 하려면 필요한 GPT-3 모델의 세부 구조 정보 같은것도 상당히 파악되 있고 이것을 TensorFlow API 로 어떻게 적용해 구현하는지도 상당 부분 파악되 있다고 자신한다 ...   그런데 이렇게 초거대 모델을 한 3 년 공부하다 보니 도대체 클라우드 GPU 서버는 어덯게 동작시켜서 GPT-3 Model 을 클라우드 GPU 서버에서 텐서플로우 개발환경을 어떻게 A100 / H100 GPU 에서 어떻게 동작시키는지를 파악이 필요하다고 느겼다 ...   이것을 구현하려면 도커 설계 기술이 필요하다 ...  도커 기술로 엔비디아 GPU 를 동작시킬수 있다 ...    이렇게 도커 설계 기술로 엔비디아 GPU 를 동작시키려면 이를 구동하는 엔비디아 라이브러리 기능을 하는것의 SW 개발이 필요하다.   요즘 한창 한국의 팹리스에서 NPU 를 만드는게 붐 인데 이게 엔비디아 처럼 크려면 이런  엔비디아 처럼 엔비디아의 GPU 를 동작시키려면 이를 구동하는 엔비디아 라이브러리 기능(한국의 팹리스에서는 한국의 팹리스가 개발한 NPU(신경망처리장치) 의 동작 라이브러리 같은것의)을 하는것의 SW 개발이 필요하다.      이런것 구상은 되 있는데 이런것 관련해서 아직 제가 알려지지 않아서  공동으로 기술이슈 파악같은 제의가 아직은 없는데 추후 이런 제의도 이 블로그를 보고 연락을 주시길 기대한다 ...       

딥네트워크     장석원    010 3350  6509      sayhi7@daum.net

안녕하세요 ?  인공지능 초거대 모델 분석 전문 일인기업 딥네트워크 입니다 ...

딥네트워크는 그동안 3 년 이상 초거대 모델 등등 관련 딥러닝 분야 논문을 최소 몇백편을 세부 검토분석을 했고  구글의 딥러닝 개발환경인 텐서플로우 환경에 대해서도 세부 분석작업을 진행했읍니다 ...

딥네트워크는 현재 초거대 모델의 모든 이슈에 대해 해결방안이 있는것은 아니지만 일부 이슈에 대한 해결 방안은 확보하고 있읍니다 ...   초거대 모델의 가능성을 확실히 제시한 GPT-3 모델의 세부분석은 나름 자신있게 분석되 있읍니다 ...  요즘엔  LLM 의 개발 이슈가 sLLM 으로 옮겨 가고 있고 또 그래서 딥네트워크 또한 sLLM 세부 이슈에 대한 기술 이슈 연구를 진행해서 나름 의미있는 분석 결과물도 확보하고 있읍니다 ...   

제가 이렇게 말씀드리니까 그럼 논문 분석만 한것 아니냐고 하실수도 있는데  저의 경우  텐서플로우 개발환경에서 구글 트랜스포머 모델 설계를 텐서플로우 API 로 세부 구현하는 딥러닝 개발 노하우 또한 꽤 깊이있게 파악에 성공했읍니다 ...    구글 트랜스포머 모델 설계를 텐서플로우 환경에서 개발시 꼭 필요한 텐서플로우 API 의 인자들의 응용 방법도 나름 깊이있게 준비되 있읍니다  ....     

초거대 모델 경량화의 핵심인 Quantization 기법과 지식 증류 구현 노하우도 아주 구체적으로 구현 노하우를 확보하고 있읍니다 ...     Quantization 기법과 지식 증류 구현을 해외 논문에서는  어떤 설계 구조로 어떤 방식으로 구현했고  또 여기에 더해 텐서플로우 환경에서  API 를 어떻게 적용해 설계 하는가에 대한 노하우도 확보하고 있읍니다 ...

제가 운영하는 딥네트워크는 초거대 모델 내지 sLLM 구현 관련해서  국내외 글로벌 기업들의 LLM 과 sLLM 세부 이슈를 딥네트워크 또한 중요도가 있는것은 심도 있게 그동안 3 년 넘게 준비해서 확실하게 파악 성공했다고 말씀드릴수 있읍니다 ...   

저 같은 딥러닝 일인기업 도 대기업 연구소에 버금가는 LLM 과 sLLM 관련 세부 이슈 분석 및 텐서플로우 API 로 그 구현 능력까지 딥네트워크도 여기에 글을 적을만큼 확실하게 준비되 있다는것을 말씀드리고 싶읍니다 ...

저도 제 LLM 과 sLLM  관련 세부 이슈에 대한 해결 방안 준비가 확실하니 진짜 의미있는 기업들과 기술 이슈에 대해 서로 협의해 보고 싶읍니다 ...       

딥네트워크     장석원    010 3350 6509      sayhi7@daum.net

 

딥네트워크는 초거대 언어 모델인 ChatGPT의 세부 설계 구조 분석에 대한 깊은 이해를 바탕으로 다양한 분야에서 활용할 수 있는 정보를 제공하고 있습니다. 아래에서 ChatGPT의 기술적 세부 사항과 학습 원리, 데이터에 대한 분석 정보를 단계별로 설명드리겠습니다.

ChatGPT란?

ChatGPT는 OpenAI에서 개발한 생성형 인공지능 모델로, 주로 자연어 처리 작업(Natural Language Processing, NLP)을 위해 설계되었습니다. 이 모델은 Narrow AI에서 General AI로 향해 가는 변곡점을 나타내며, 다양한 작업에 적용될 수 있습니다. 그러나 여전히 진정한 의미의 General AI는 아닙니다.

ChatGPT의 기술적 세부 사항

ChatGPT는 GPT-3.5 모델을 기반으로 하며, 생성형 AI 분야에서 큰 주목을 받고 있습니다. 이 모델은 딥 러닝의 발전과 맞물려 등장한 생성형 AI로, 기존 패턴을 기반으로 오디오, 비디오, 이미지, 텍스트, 코드, 시뮬레이션 등의 새로운 콘텐츠를 생성하는데 사용됩니다.

ChatGPT의 학습 원리와 데이터

ChatGPT는 사전에 정의된 학습 데이터를 기반으로 학습됩니다. 이 데이터는 다양한 자연어 문장, 문서, 대화, 뉴스 기사, 웹 페이지 등을 포함하며, 이를 통해 모델은 언어 이해와 생성에 필요한 지식을 습득합니다. 학습 데이터의 다양성과 균형이 모델의 성능에 큰 영향을 미치며, 따라서 데이터 수집과 전처리 과정에서 주의가 필요합니다.

딥네트워크의 ChatGPT 설계 분석 노하우의 활용/응용 분야

ChatGPT는 다양한 분야에서 활용될 수 있습니다.  예를 들어 다음과 같은 분야의  AI 설계 구현 노하우를 파악하는데 성공했읍니다:

  1. IT 분야 SW 펌웨어 소스 개발의  세부 구현 노하우 파악 성공: ChatGPT를 활용하여 코드 생성, 버그 수정, 알고리즘 설계 등에 도움을 줄 수 있습니다.
  2. 의료분야 전문정보 및 지식 학습의  세부 구현 노하우 파악 성공 : 의료 관련 문서, 논문, 진료 기록 등을 학습하여 의료 전문가들에게 지식을 제공할 수 있습니다.
  3. 법률 분야 전문정보 및 지식 학습의  세부 구현 노하우 파악 성공 : 법률 문서, 판례, 법규 등을 학습하여 변호사나 법률 전문가들에게 도움을 줄 수 있습니다.

결론

ChatGPT는 인공지능 기술의 발전으로 인해 인간의 작업을 지원할 수 있는 영역 확장이 가속화되고 있으며, 현재까지 출시된 타 AI 모델들보다 큰 잠재력을 보여 준다는 점에서 의미 있습니다. 딥네트워크는 이러한 기술적 세부 사항을 깊이 있게 분석하고 있으며, ChatGPT를 활용한 다양한 분야의 구현에 필요한 정보를 제공하고 있습니다.

 

딥네트워크      장석원    010 3350 6509     sayhi7@daum.net 

일인기업 딥네트워크의 딥러닝 기반 광학문자 인식 솔루션 이슈 분석 내용 입니다 ...

안녕하세요. 저는 일인기업 딥네트워크의 대표이자 개발총괄인 장석원입니다. 저는 딥러닝 기반 광학문자 인식 솔루션을 제공하는 회사를 운영하고 있습니다. 광학문자 인식이란 사람이 쓰거나 인쇄한 문서, 촬영된 사진이나 스캔된 이미지 내의 문자를 인식하여 기계가 읽고 편집할 수 있는 디지털 텍스트로 변환하는 기술을 의미합니다. 저는 이러한 기술을 다양한 분야에 적용할 수 있는 솔루션을 개발하고 있습니다.

저는 최신의 딥러닝 기술인 ViT 모델을 광학문자 인식쪽 이슈를 분석하였습니다. ViT 모델은 이미지를 고정 크기의 패치로 나누고, 각 패치를 임베딩 벡터로 변환하여 Transformer의 입력으로 사용하는 모델입니다. Transformer는 병렬 처리, 긴 거리 의존성, 자기 주의 메커니즘 등의 장점을 가지고 있습니다. ViT 모델은 CNN 모델보다 더 높은 정확도와 더 적은 파라미터 수를 가질 수 있습니다.

저는 사전 학습된 ViT 모델을 기반으로 하여, 광학문자 인식에 특화된 데이터셋에서 미세 조정을 통해 성능을 향상시키는것의 모델 구조를 분석작업을 했습니다. 저는 자신의 목표 도메인에 맞는 광학문자 인식 데이터셋을 구축 준비를 하려 하며, 공개적으로 제공되는 데이터셋도 활용 준비를 하였습니다. 저는 ViT 모델의 학습 속도, 패치 크기, Transformer의 층 수와 헤드 수 등을 조정하면서 최적의 성능을 찾는것을 분석했습니다. 

ViT 모델로 광학문자 인식을 구현하는 논문 3 가지의 핵심적인 세부 이슈는 다음과 같습니다.

일인기업 딥네트워크가 ViT 모델로 광학문자 인식을 구현하기 위해서는 다음과 같은 준비가 필요합니다.

딥네트워크     장석원    010 3350 6509     sayhi7@daum.net

미국의 글로벌 빅테크 대기업들은 최근 sLLM (소형 언어 모델)과 LLM (대형 언어 모델)을 통한 인공지능 기술 개발에 큰 관심을 가지고 있습니다. 이 두 가지 유형의 언어 모델은 각각 다른 특징과 장점을 가지고 있습니다.

  1. LLM (대형 언어 모델) 이슈:
    • 대규모 파라미터: LLM은 매우 큰 파라미터 세트를 가지고 있으며, 이는 높은 성능을 제공하지만 훈련 및 운영 비용이 많이 듭니다.
    • 오픈소스 공개: LLM은 주로 대기업에서 개발되며, 오픈소스로 공개되지 않는 경우가 많습니다.
  2. sLLM (소형 언어 모델) 이슈:
    • 경량화: sLLM은 LLM에 비해 작은 파라미터를 가지고 있습니다. 이로 인해 훈련 및 운영 비용이 낮아집니다.
    • 오픈소스 공개 및 무료 사용: sLLM은 오픈소스로 공개되어 누구나 무료로 사용할 수 있습니다.
  3. 딥네트워크의 논문 이슈 분석 및 기초적인 사업화 준비:
    • 세부 기술 이슈 분석: 딥네트워크는 sLLM과 LLM의 최근 기술 개발 이슈를 분석하여 세부 기술적 문제를 파악해야 합니다.
    • 사업화 전략: 딥네트워크는 각 모델의 장단점을 고려하여 사업화 전략을 수립해야 합니다. 예를 들어, sLLM은 경제성과 빠른 개발이 가능하므로 특정 응용 분야에서 활용할 수 있을 것입니다.

딥네트워크는 초거대 모델의 경량화 세부원리와 설계 구조 분석을 전문으로 하며, 효율적이고 강력한 언어 모델을 구축하고 다양한 응용 태스크에 적용하는 방법을 연구하고 있습니다.

sLLM 과 LLM 의 요즘 최근 기술 개발 이슈

인공지능 논문분석 전문 일인기업 딥네트워크은 다음과같은 sLLM 의 논문의 세부이슈 분석이 가능할것 같읍니다 ...

  • 인공지능 논문분석 전문 일인기업 딥네트워크는 sLLM과 LLM의 요즘 최근 기술 개발 이슈에 대해 다음과 같이 사업화 준비내지 논문의 세부 기술이슈 분석을 다음과 같은 사업화 방안의 검토가 가능할것 같습니다.
    • 스테이블LM을 활용한 논문 생성 서비스: 스테이블LM은 텍스트와 이미지, 코드를 생성할 수 있는 언어 모델이므로, 이를 활용해 인공지능 관련 논문을 생성하는 서비스를 제공할 수 있습니다. 사용자는 논문의 주제, 키워드, 요약 등을 입력하면, 스테이블LM이 논문의 본문, 그림, 코드 등을 생성해줍니다. 이렇게 생성된 논문은 인공지능 분야의 연구자나 학생들에게 유용한 참고 자료가 될 수 있습니다.
    • 파이-1을 활용한 논문 요약 서비스: 파이-1은 파라미터 수가 적어도 높은 성능을 보이는 언어 모델이므로, 이를 활용해 인공지능 관련 논문을 요약하는 서비스를 제공할 수 있습니다. 사용자는 논문의 제목이나 URL을 입력하면, 파이-1이 논문의 핵심 내용을 간략하게 요약해줍니다. 이렇게 요약된 논문은 인공지능 분야의 최신 동향을 파악하거나 논문 리뷰를 할 때 편리하게 사용할 수 있습니다.
    • 엑사원 2.0을 활용한 논문 검증 서비스: 엑사원 2.0은 다양한 파라미터 수의 언어 모델을 제공하므로, 이를 활용해 인공지능 관련 논문의 검증을 도와주는 서비스를 제공할 수 있습니다. 사용자는 논문의 내용이나 코드를 입력하면, 엑사원 2.0이 논문의 가설이나 실험 결과를 재현하거나 평가해줍니다. 이렇게 검증된 논문은 인공지능 분야의 연구 질을 향상시키거나 논문 작성을 개선할 수 있습니다.

딥네트워크     장석원    010 3350 6509     sayhi7@daum.net

BLDC Motor 제어 전문 딥네트워크 사업화 내용 소개

딥네트워크는 PMSM Motor 를 3 상 인버터로 Motor 의 속도 및 토크 제어 펌웨어 개발이 가능 합니다 ...  귀사의 개발 사양에 따라 개발기간이나 비용이 조정될수 있고 확실히 결과 내드리는것이 가능 합니다 ...  TI  사  TMS320F28377  로 PMSM Motor 의 FOC 알고리즘을 적용한 펌웨어 개발이 확실히 가능 합니다 ...    TI 사 BMS 칩셋인  EMB1428Q 바테리 BMS 칩셋으로  SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는  바테리 충전 BMS 제어도 인증절차 기간을 제외하면 빠르게 귀사의 요구에 맞춰 펌웨어 개발이 가능 합니다 ...  저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은  BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ...  맡겨 주시면  확실하게 결과내드리는것이 가능 합니다 ...  참고로 저는 지역이 수원 입니다 ...

 

딥네트워크는 PMSM 모터를 제어하는 획기적인 솔루션을 제공하는 일인기업입니다. 딥네트워크는 TI의 모터제어 개발 보드를 사용하여 FOC 알고리즘과 TI의  FOC 소프트웨어 라이브러리를 기반으로 한 펌웨어 설계 세부 검토 분석을 수행하였습니다. 

PMSM Motor의 FOC 제어 세부 구현 노하우 제공

딥네트워크는 PMSM Motor의 FOC (Field-Oriented Control) 제어에 대한 깊은 이해와 세부 구현 노하우를 보유하고 있습니다. 저희는 다음과 같은 기술을 통해 고객님의 요구사항을 충족시킬 수 있습니다:

1. 최대 토크 구현
   - d 축 전류와 q 축 전류의 지령값 설정 노하우
   - Motor 제어 루프에서 최대 토크를 내기 위한 최적의 전류 지령값 설정
   - 전류 리플 안정화

2. Motor의 전기적 상수값의 영향을 고려한 전류 리플 정도의 안정화
   - 로봇 축 관절 제어에 적용 시 전류 리플을 최소화하는 기술
   - PI 루프 제어 튜닝

3. P 이득과 I 이득의 최적 튜닝을 통한 전류 리플 안정화
   - 최종적으로 안정적인 Motor 동작을 보장하는 세부 튜닝 작업
   - 알고리즘 계산 수식

4. 약 20개의 세부 알고리즘 계산 수식을 확보하여 정확한 구현 가능
   - 위의 작업을 확실하게 수행할 수 있는 기술적 기반 제공

5.  RDC : AD2S1210WDSTZRL7 와  
     레졸버 : TAMAGAWA 사  TS2620N21E11 로
     회전자 위치 검출 노하우도 보유함

연락처

자세한 기술 자료 제공 및 문의는 아래 연락처로 부탁드립니다:

- 담당자: 장석원
- 전화번호: 010-3350-6509
- 이메일: sayhi7@daum.net

딥네트워크는 귀사의 요구에 맞춘 최적의 솔루션을 제공하기 위해 항상 준비되어 있습니다. 많은 관심과 문의 부탁드립니다.

 

영구자석 동기 모터(PMSM)의 d 축과 q 축 전류를 PI 제어 루프로 제어하는 과정은 로봇 축 관절 제어에서 중요한 역할을 합니다. 이 과정에서 MTPA(Maximum Torque Per Ampere)와 PWM(Pulse Width Modulation)을 사용한 FOC(Field Oriented Control)을 활용하여 모터의 효율성을 극대화하고 성능을 최적화합니다. 다음은 이 과정을 자세히 설명하고, 토크와 위치 제어를 어떻게 처리하며 PI 제어 이득을 어떻게 튜닝해야 하는지 설명하겠습니다.

1. FOC(자장 지향 제어) 개요

FOC는 모터의 자속(Flux)과 토크를 독립적으로 제어하기 위해 사용됩니다. 이는 모터의 자속과 토크를 수평 및 수직 축으로 변환하여 제어할 수 있게 합니다. 일반적으로 d 축(직류 축)과 q 축(직교 축)으로 변환하여:

  • d 축: 자속 방향
  • q 축: 토크 방향

FOC를 사용하여 모터의 전류를 d 축과 q 축으로 분리하고, 이를 각각 제어함으로써 모터의 자속과 토크를 독립적으로 조절할 수 있습니다.

2. PI 제어 루프와 MTPA

PI(비례-적분) 제어는 d 축과 q 축 전류를 제어하는 데 사용됩니다. PI 제어는 각각의 축에서 전류를 원하는 값으로 유지하고자 하는 제어 방식입니다. MTPA는 주어진 전류에서 최대의 토크를 생성하기 위한 원리를 따릅니다.

  • d 축 전류(Id): 자속 제어에 영향을 미칩니다. 일반적으로 PMSM에서는 자속 제어를 위해 d 축 전류가 필요하며, Id는 주로 0에 가까운 값으로 유지되도록 설계됩니다.
  • q 축 전류(Iq): 토크 제어에 영향을 미칩니다. Iq는 실제로 모터의 토크를 생성하는 전류로, 토크를 원하는 값으로 제어하기 위해 조절됩니다.

3. 로봇 축 관절 제어

로봇의 축 관절 제어에서, 토크 제어와 위치 제어는 서로 다른 목적을 가지고 있습니다:

(1) 토크 제어

  • PI 제어 루프: q 축 전류(Iq)를 제어하여 모터의 토크를 제어합니다.
  • PI 제어 이득 튜닝:
    • 비례 이득(Kp): 반응 속도를 조절합니다. 너무 높으면 시스템이 불안정해질 수 있고, 너무 낮으면 응답 속도가 느려질 수 있습니다.
    • 적분 이득(Ki): 정밀도를 조절합니다. 적분 이득이 너무 높으면 시스템이 과도하게 응답하거나 진동할 수 있고, 너무 낮으면 정밀도가 떨어질 수 있습니다.
    • 튜닝 방법: 일반적으로 Ziegler-Nichols 방법이나 다른 자동 튜닝 방법을 사용하여 이득을 조절합니다. 실험을 통해 최적의 이득을 찾는 것도 중요합니다.

(2) 위치 제어

  • 위치 제어 루프: 위치를 제어하기 위해 속도 제어 루프와 토크 제어 루프를 결합합니다. 속도 제어는 보통 q 축 전류를 통해 이루어지며, 최종적으로 위치 제어를 위해 사용됩니다.
  • PI 제어 이득 튜닝:
    • 위치 제어의 비례 이득(Kp): 위치의 정확성을 조절합니다. 너무 높으면 진동이 발생할 수 있고, 너무 낮으면 응답이 느려질 수 있습니다.
    • 위치 제어의 적분 이득(Ki): 위치의 오차를 보상하는 데 사용됩니다. 적분 이득이 너무 높으면 시스템이 진동하거나 과도한 반응을 보일 수 있습니다.
    • 튜닝 방법: PID 튜닝 방법과 유사한 방식으로 조정합니다. 위치 제어의 경우, 시스템의 역동적인 특성과 모터의 특성에 따라 조정이 필요합니다.

4. PWM 제어

PWM(Pulse Width Modulation)은 전류를 제어하기 위한 방법으로, 모터의 전압을 조절하여 원하는 전류를 생성합니다. FOC와 함께 사용하여 d 축과 q 축의 전류를 정확하게 제어할 수 있습니다.

5. 요약

  • FOC를 통해 d 축과 q 축 전류를 독립적으로 제어하며, MTPA를 만족하여 최대 토크를 생성합니다.
  • PI 제어 루프를 사용하여 d 축 전류(Id)와 q 축 전류(Iq)를 각각 제어합니다.
  • 토크 제어와 위치 제어를 통해 로봇 축 관절의 성능을 최적화합니다.
  • PI 제어 이득은 Ziegler-Nichols 방법이나 실험적인 조정을 통해 튜닝합니다.

이러한 제어 방식과 튜닝 방법을 통해 로봇 축 관절의 성능을 극대화하고, 원하는 제어 목표를 달성할 수 있습니다.

 

토크 제어시 대표적인 제어 이득 값

  • 토크 제어에서의 일반적인 Kp값: 1~10 범위 (모터와 응용에 따라 다를 수 있음)
  • 토크 제어에서의 일반적인 Ki 값: 0.01~1 범위 (모터와 응용에 따라 다를 수 있음)

위치제어시 대표적인 제어이득

  • 위치 제어에서의 일반적인 Kp 값: 10~100 범위 (모터와 응용에 따라 다를 수 있음)
  • 위치 제어에서의 일반적인 Ki 값: 0.1~10 범위 (모터와 응용에 따라 다를 수 있음)

1. d/q 축 변환의 원리와 중요성

  • 설명: d/q 축 변환은 3상 교류 전류를 2상 직류 전류로 변환하여 모터의 전류를 효율적으로 제어하는 기법입니다. 클라크 변환과 파크 변환을 통해 이루어지며, 이를 통해 모터의 자속과 토크를 독립적으로 제어할 수 있습니다.
  • 중요성: 정확한 d/q 축 변환은 모터의 안정적이고 효율적인 동작을 위해 필수적입니다.

2. d/q 축 틀어짐의 원인

  • 센서 오류: 리졸버, 엔코더, 홀센서 등의 위치 센서가 오작동하거나 고장 나면 d/q 축 변환이 부정확해질 수 있습니다.
  • 전기적 노이즈: 노이즈는 센서 신호에 영향을 미쳐 변환 행렬의 정확성을 저하시킬 수 있습니다.
  • 제어기 설정 오류: PI 제어기의 Kp와 Ki 설정이 부적절하면 d/q 축 변환의 정확성이 떨어질 수 있습니다.

3. PI 제어기의 Kp와 Ki 설정

  • Kp 설정: Kp가 너무 크면 오버슈팅과 진동이 발생하고, 너무 작으면 응답이 느려집니다. 적절한 Kp 설정이 필요합니다.
  • Ki 설정: Ki가 너무 크면 오차가 누적되어 불안정해지고, 너무 작으면 잔류 오차가 충분히 보상되지 않습니다. 적절한 Ki 설정이 필요합니다.
  • 튜닝 방법: Ziegler-Nichols 방법이나 실험적 튜닝을 통해 Kp와 Ki를 적절히 설정합니다.

4. 리졸버를 통한 회전자 위치와 제어기 동기화

  • 리졸버의 역할: 리졸버는 모터의 회전 각도를 아날로그 신호로 변환하여 제공합니다. R/D 변환기를 통해 디지털 신호로 변환되어 제어기에 전달됩니다.
  • 실시간 위치 정보 업데이트: 고속 샘플링과 DSP를 사용하여 실시간으로 위치 정보를 업데이트합니다.
  • 지연 최소화: 고속 통신 인터페이스와 최적화된 알고리즘을 사용하여 지연을 최소화합니다.

5. 좌표계 불일치 최소화 및 검출 방법

  • 센서 정확성 향상: 고해상도 센서와 노이즈 필터링을 통해 변환 행렬의 정확성을 높입니다.
  • 고속 연산 장치 사용: DSP나 FPGA와 같은 고속 연산 장치를 사용하여 실시간 연산 지연을 최소화합니다.
  • 실시간 모니터링 및 피드백 제어: d/q 축 변환 후의 신호를 실시간으로 모니터링하고, 피드백 제어를 통해 불일치를 검출하고 수정합니다.

이와 같은 방법들을 통해 d/q 축 변환의 정확성을 높이고, 모터 제어의 안정성과 성능을 최적화할 수 있습니다.

의 경우 로봇 축 관절제어를 위한 BLDC Motor 의 토크/위치/속도 제어를 위한 모터 제어 펌웨어가 어떤 설계 구조로 구현하는지를 파악하는데 성공했읍니다 ...    전기차 모터제어도 모터 전기 상수인자들 로 전달함수를 설계하면  2 차 라플라스 방정식이 되고 이것으로 제어응답 특성 파악이 가능은 한데 여기에 PI 제어 루프 도 전달함수에 포함되면 3 차 라플라스 방정식이 되는데 이것의 제어응답 특성을 파악하려면 MATLAB SIMULINK TOOL 이 반드시 필요합니다
저는 현재 2 차 라플라스 방정식의 응답특성 분석은 가능한 상태 입니다          로봇 축 관절제어를 위한 모터제어 프로토타입 펌웨어 구현 정도의 노하우를 확보했구요 ...    저도 구글링 2000 번 넘는 시행착오(국내외 논문분석)를 거쳐 3 년여만에 제가 원하는 돈이 되는 세부 정보를 얻는데 성공했읍니다 ....      제가 확보한  BLDC 모터 정밀제어 노하우는  위치제어 / 속도제어 / 토크제어를 Closed Loop  PI  제어를 하는데 필요한 제어 알고리즘 수식을 확보해서 이해하는데 성공했읍니다 ...     BLDC Motor 로 위치제어 / 속도제어 / 토크제어를 Closed Loop  PI  제어를 하려면 BLDC Motor 는 어떤 규격의 것을 선택해야 하는지와 이는 또 어느 업체에서 이를 취급하는지 등등도 파악하고 있읍니다 ...   4 Pole - BLDC Motor 제어를 PWM 구동 방식으로  6 - STEP Sequence 로 제어하려면 세부적으로 어떻게 제어해야 하는지 등등도 파악에 성공했읍니다 ...    

 

제가 운영하는 딥네트워크가 그동안 검토분석한  CAN 통신 펌웨어 설계 기술로  CANopen 기술로  PDO (Process Data Object) 와 SDO (Service Data Object)를 사용하여 다양한 데이터를 전송합니다. PDO는 고속 데이터 전송을 위한 프로토콜으로, 일반적으로 하나의 CAN 프레임에 대한 하나의 데이터를 포함합니다. 반면에 SDO는 OD Entry에 대한 접근제어 방식으로, 추가적인 정보와 인자를 포함하여 더 구체적인 데이터를 전송할 수 있습니다.

정밀 CAN 통신 디버깅 툴로는 Vector사의 CANoe 와 PCAN Explorer 가 대표적입니다. 이 외에도 CANlink와 고급 오실로스코프 같은 고가의 도구가 반드시 필요합니다

 

CANopen 네트워크에서 PDO (Process Data Object)와 SDO (Service Data Object)는 데이터를 전송하는 두 가지 주요 메커니즘입니다. 각각의 프로토콜은 특정한 목적과 사용 사례에 맞게 설계되었습니다.

PDO (Process Data Object)

PDO는 실시간 데이터 전송에 최적화되어 있습니다. 이 프로토콜은 다음과 같은 특징을 가집니다:

  • 고속 전송: PDO는 주로 실시간 제어 작업에 사용되며, 낮은 지연 시간과 빠른 데이터 전송이 필요한 경우에 적합합니다.
  • 단일 프레임: 일반적으로 PDO는 하나의 CAN 프레임에 최대 8바이트의 데이터를 담아 전송합니다.
  • 브로드캐스트 가능: PDO는 네트워크 상의 여러 노드에게 동시에 데이터를 전송할 수 있어, 여러 장치가 동일한 데이터를 거의 동시에 받을 수 있습니다.
  • 사이클링 전송: PDO는 주기적으로 또는 특정 이벤트가 발생했을 때 자동으로 전송될 수 있습니다.

SDO (Service Data Object)

SDO는 더 복잡한 데이터 전송과 디바이스 구성에 사용됩니다. SDO의 특징은 다음과 같습니다

  • 상세한 데이터 전송: SDO는 오브젝트 딕셔너리 내의 특정 항목에 대한 접근을 제공하며, 복잡한 데이터 구조나 대량의 데이터를 전송할 때 사용됩니다.
  • 요청/응답 메커니즘: SDO 통신은 요청과 응답의 형태로 이루어집니다. 한 노드가 데이터를 요청하면, 다른 노드가 해당 데이터를 응답으로 보냅니다.
  • 블록 전송: SDO는 블록 전송 모드를 지원하여, 한 번에 많은 양의 데이터를 전송할 수 있습니다.
  • 비동기 통신: SDO는 주기적인 데이터 전송보다는 필요할 때마다 데이터를 전송하는 비동기 통신에 적합합니다.

예시

예를 들어, 모터 제어 시스템에서 토크 제어와 위치 제어를 위한 데이터를 전송해야 한다고 가정해 보겠습니다.

  • 토크 제어: 실시간으로 모터의 토크를 조절해야 하므로, PDO를 사용하여 모터 드라이버에게 토크 값을 빠르게 전송할 수 있습니다.
  • 위치 제어: 모터의 위치 설정 값이나 구성 파라미터와 같은 상세한 정보가 필요할 때는 SDO를 사용하여 필요한 데이터를 전송합니다.

이러한 방식으로, CANopen 네트워크는 다양한 제어 요구 사항과 데이터 전송 요구 사항을 효율적으로 처리할 수 있습니다.

 

 

CANopen에서의 NTM (Network Management) 동작원리와 설계 구조는 다음과 같습니다:

  1. NTM의 역할: CANopen에서 NTM은 장치들이 상태를 조절하고 관리하는 데 사용됩니다. 각 장치는 NTM 상태에서 자동으로 실행될 수 있으며, CANopen 장치 초기화와 같은 과정을 통해 NTM 상태를 변경할 수 있습니다.
  2. NTM 메시지 명령: NTM는 다음과 같은 메시지 명령을 사용하여 장치 상태를 관리합니다:
  3. SYNC 메시지: SYNC 메시지는 상위제어기에서 제공하여 연결된 노드에게 메시지를 전송합니다. 이는 시스템의 시간을 정확하게 관리하는 데 사용됩니다.
  4. OD Entry와 SDO: NTM는 OD Entry에 대한 접근제어 방식으로, 추가적인 정보와 인자를 포함하여 더 구체적인 데이터를 전송할 수 있습니다. SDO는 CANopen에서 사용되는 서버와 클라이언트 관계로 통신하며, 요청하는 명령의 ID와 예를 들어 Read/Write 등의 고유 ID가 있습니다.
  5. NTM의 구조: NTM의 구조는 다음과 같습니다:

 

TI 사 BMS 칩셋인  EMB1428Q는 SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 설계 원리에 대해 다음과 같이 설명할 수 있습니다:

  1. SPI 버스 인터페이스를 통한 명령 수신:
  2. 에너지 이동을 위한 플로팅 MOSFET 게이트 드라이버 제어:

TI 사 EMB1428Q BMS 칩셋은 배터리 셀 간의 전압을 균등하게 유지하기 위해 액티브 셀 밸런싱을 수행하는 스위치 매트릭스 게이트 드라이버입니다. 이 칩셋의 주요 작동 원리는 다음과 같습니다:

  1. 전압 모니터링: EMB1428Q는 연결된 배터리 셀들의 전압을 지속적으로 모니터링합니다. 이 데이터는 셀 간의 전압 차이를 파악하는 데 사용됩니다.
  2. 에너지 전송 제어: 전압 차이가 감지되면, EMB1428Q는 스위치 매트릭스를 통해 높은 전압의 셀에서 낮은 전압의 셀로 에너지를 전송하도록 MOSFET 게이트를 제어합니다.
  3. 스위치 매트릭스: 칩셋은 12개의 부유 MOSFET 게이트 드라이버를 제공하여 최대 7개의 직렬로 연결된 배터리 셀을 밸런싱할 수 있습니다. 이 드라이버들은 각 셀에 연결된 MOSFET을 제어하여 에너지 이동 경로를 설정합니다1.
  4. 밸런싱 실행: EMB1428Q는 EMB1499 DC/DC 컨트롤러 IC와 함께 작동하여, 필요한 시점에 적절한 셀 간 연결을 활성화시키고 에너지를 효율적으로 전송합니다.

리튬 배터리 열폭주의 동작 원리

리튬 배터리에서 열폭주가 발생하는 주된 이유는 자가증폭 루프입니다. 열폭주가 시작되면 배터리의 온도가 급격히 상승하며, 이 과정에서 발생한 에틸렌과 같은 가스는 추가적인 열폭주를 유발할 수 있습니다. 이를 이해하기 위해 다음 단계를 살펴보겠습니다.

1. 열폭주의 초기 단계

  1. 과충전 또는 단락: 리튬 배터리에 과충전, 단락, 또는 기타 전기적 스트레스가 가해지면 내부 온도가 상승합니다. 이러한 열은 내부의 전기화학적 반응을 유도합니다.
  2. 전해질 분해: 배터리의 온도가 특정 임계점을 초과하면 전해질이 분해되기 시작합니다. 전해질 분해 과정에서 에틸렌, 메탄, 그리고 기타 가스가 방출됩니다.
  3. 온도 상승: 전해질 분해와 전극의 반응은 추가적인 열을 발생시킵니다. 이 열은 배터리의 온도를 더욱 상승시킵니다.

2. 자가증폭 루프의 작동

  1. 가스 생성: 전해질 분해는 에틸렌과 같은 가스를 생성합니다. 이 가스는 배터리 내부의 압력을 증가시키며, 압력 상승은 배터리 케이싱의 파손을 초래할 수 있습니다.
  2. 산소 발생: 전해질의 분해와 전극 물질의 반응은 산소를 생성합니다. 이 산소는 가연성 가스와 혼합되어 화학적 연소 반응을 촉진합니다. 에틸렌과 같은 가스는 산소와 결합하여 열을 방출하며, 이로 인해 온도가 더욱 상승합니다.
  3. 열의 자가 증폭: 생성된 열은 추가적인 전해질 분해와 전극 반응을 유도하여 열 발생을 가속화합니다. 이 과정이 계속 반복되면서 열폭주가 더욱 심각해집니다.
  4. 최종 단계: 열폭주가 진행되면 배터리 내부 온도가 극단적으로 상승하여 화재나 폭발을 초래할 수 있습니다.

해결 방안 및 동작 원리

리튬 배터리의 열폭주를 예방하고 제어하기 위해서는 다음과 같은 해결 방안을 고려할 수 있습니다.

1. 전해질 개선

  • 안정적인 전해질 사용: 열적 안정성이 높은 전해질을 사용하여 전해질 분해를 방지합니다. 이로 인해 가스 발생을 줄이고, 열폭주를 예방할 수 있습니다.
  • 고온 안전 전해질: 고온에서도 안정적인 전해질을 사용하여 배터리의 안전성을 높입니다.

2. 열 관리 시스템

  • 냉각 시스템: 배터리의 온도를 효과적으로 제어하기 위해 냉각 시스템을 설계합니다. 팬, 히트 싱크, 액체 냉각 시스템 등을 활용하여 배터리의 열을 방출합니다.
  • 열 전도성 재료: 열을 효과적으로 분산시키기 위해 열 전도성 재료를 사용하여 배터리의 온도를 관리합니다.

3. 배터리 보호 회로

  • 과충전 보호 회로: 배터리가 과충전되지 않도록 보호하는 회로를 설계합니다. 과충전이 감지되면 전원을 차단하여 열폭주를 방지합니다.
  • 단락 보호 회로: 단락 상황에서 배터리를 보호하기 위한 회로를 설계하여 내부 단락을 방지합니다.

4. 기계적 설계 개선

  • 강화된 케이싱: 배터리의 외부 케이싱을 강화하여 압력 상승에 따른 파손을 방지합니다. 고온에도 견딜 수 있는 재료를 사용합니다.
  • 가스 배출 시스템: 내부 압력이 과도하게 상승할 경우, 가스를 안전하게 배출할 수 있는 시스템을 설계합니다.

5. 모니터링 및 제어 시스템

  • 온도 센서: 배터리의 온도를 지속적으로 모니터링하여 과도한 온도 상승을 조기에 감지합니다.
  • 자동 차단: 이상 상태가 감지되면 자동으로 배터리 전원을 차단하거나 냉각 시스템을 활성화하여 배터리의 안전성을 유지합니다.

리튬 배터리의 열폭주를 방지하고 해결하기 위한 핵심적인 해결 방안을 다음과 같이 제시할 수 있습니다. 각 해결 방안은 배터리 내부의 온도 상승, 전해질 분해, 그리고 열폭주 현상을 효과적으로 제어하는 데 초점을 맞추고 있습니다.

1. 안정적인 전해질 개발

문제: 전해질이 열에 의해 분해되면서 에틸렌, 메탄 등의 가스가 방출되고, 이는 열폭주를 유발합니다.

해결 방안:

  • 고온 안정성 전해질: 고온에서도 안정적인 전해질을 사용하여 전해질 분해를 지연시키거나 방지합니다. 예를 들어, 고온 내성 전해질 또는 세라믹 기반 전해질을 사용하여 높은 온도에서도 화학적 안정성을 유지하도록 설계합니다.
  • 세라믹 전해질: 세라믹 전해질은 높은 온도에서도 안정적인 성질을 가지고 있으며, 열폭주를 방지하는 데 효과적입니다. 리튬 이온 세라믹 전해질(LiPON 등)은 높은 온도 안정성을 제공하며, 전해질의 열 분해를 최소화합니다.
  • 첨가제 사용: 전해질에 특수 첨가제를 추가하여 열적 안정성을 높이고, 분해 시 발생하는 가스를 억제합니다.

구현 예:

사용할 전해질: LiPON (리튬 인산 산화물) 또는 고온 안정성 전해질 혼합물 전해질 첨가제: 열적 안정성을 높이기 위한 첨가제(예: 사이클로헥산)

2. 효과적인 열 관리 시스템

문제: 배터리의 온도가 상승하면 전해질 분해가 촉진되고, 가스 발생이 가속화됩니다.

해결 방안:

  • 액체 냉각 시스템: 액체 냉각 시스템을 사용하여 배터리의 온도를 효과적으로 제어합니다. 냉각 액체가 배터리의 열을 흡수하고, 이를 외부로 방출하여 온도를 낮춥니다.
  • 열 전도성 재료: 배터리의 열을 효율적으로 분산시키기 위해 열 전도성이 높은 재료를 사용합니다. 예를 들어, 열 전도성 패드를 배터리와 냉각 핀 사이에 삽입하여 열을 효과적으로 전달합니다.
  • 온도 센서 및 제어 시스템: 배터리 내부에 온도 센서를 배치하여 실시간으로 온도를 모니터링하고, 과열 시 자동으로 냉각 시스템을 활성화합니다.

구현 예:

액체 냉각 시스템: 냉각수 순환 시스템 열 전도성 재료: 알루미늄 또는 구리 열 전도성 패드 온도 센서: NTC 열 저항 센서 또는 다채널 온도 센서

3. 배터리 보호 회로와 안전 장치

문제: 배터리의 열폭주를 예방하기 위해서는 배터리 내부의 이상 상태를 조기에 감지하고 대응하는 것이 필요합니다.

해결 방안:

  • 과충전 및 과방전 보호: 배터리의 충전 상태를 모니터링하고, 과충전이나 과방전 상황이 발생할 경우 자동으로 충전 전원을 차단하거나 전류를 조절합니다.
  • 단락 및 과열 보호 회로: 배터리의 전류를 모니터링하여 단락 상태를 감지하고, 과열 감지 시 배터리를 자동으로 차단합니다.
  • 가스 배출 시스템: 배터리 내부에 가스 배출 시스템을 설계하여 내부 압력이 과도하게 상승할 경우 가스를 안전하게 배출합니다. 이를 통해 배터리의 폭발 위험을 줄입니다.

구현 예:

과충전 보호 회로: 충전 상태 모니터링 및 전원 차단 회로 단락 보호 회로: 전류 감지 및 차단 회로 가스 배출 시스템: 압력 해소 밸브 및 가스 배출 경로 설계

이러한 해결 방안을 통해 리튬 배터리의 열폭주를 효과적으로 방지하고, 배터리의 안전성을 크게 향상시킬 수 있습니다. 각 해결 방안은 배터리의 안정성을 높이는 데 중요한 역할을 하며, 이를 통해 안전하고 신뢰성 높은 배터리 시스템을 구축할 수 있습니다.

저의 전기차 바테리 BMS 개발 보드의 펌웨어 설계 커스토마이징 노하우 소개

이러한 과정을 통해 EMB1428Q는 배터리 팩의 전체 성능을 최적화하고, 각 셀의 수명을 균일하게 유지하며, 전체 시스템의 안정성과 효율성을 높이는 데 기여합니다.  저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은  BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ...  TI 의 EMB1428Q 칩셋이  SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 펌웨어 설계 원리를 파악에 성공했읍니다   저는 이를 위해 MOSFET 스위칭 제어를 위한  설계 방법 파악을 통해 에너지 이동을 위한 플로팅 MOSFET 게이트 드라이버 제어를 TI 사 EMB1428Q 칩셋을 적용해 펌웨어로  BMS 펌웨어 구현 노하우도 확보 성공했읍니다  ...    제가 파악한바로는 BMS HW 설계의 핵심은  셀 충방전 회로 설계시 스위치 캐패시티드 네트워크로 설게하는데 이때  MOSFET 스위칭 소자의 게이트 구동회로 설계시 MOSFET 회로가 플로팅됬을때  게이트 구동회로에 인가전압을 어떻게 인가하도록 설계하는냐가 핵심인데 이것도 파악에 성공했읍니다 ...

저희 회사는 전기차 바테리 충전 제어 전문 일인기업으로서,  TI  사  EMB1428Q 칩셋을  활용하여 삼성 21700 50E / 7S 20P 바테리 셀의 충전 성능을 극대화할 수 있는 펌웨어와 기법을 분석하였습니다. 저희 회사의 제품과 서비스에 관심이 있으시다면, 저희 기업 블로그 사이트를 방문하시거나 연락주시기 바랍니다. 감사합니다.

딥네트워크      장석원      010 3350 6509     sayhi7@daum.net

BLDC Motor 제어 전문 딥네트워크 사업화 내용 소개

딥네트워크는 PMSM Motor 를 3 상 인버터로 Motor 의 속도 및 토크 제어 펌웨어 개발이 가능 합니다 ...  귀사의 개발 사양에 따라 개발기간이나 비용이 조정될수 있고 확실히 결과 내드리는것이 가능 합니다 ...  TI  사  TMS320F28377  로 PMSM Motor 의 FOC 알고리즘을 적용한 펌웨어 개발이 확실히 가능 합니다 ...    TI 사 BMS 칩셋인  EMB1428Q 바테리 BMS 칩셋으로  SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는  바테리 충전 BMS 제어도 인증절차 기간을 제외하면 빠르게 귀사의 요구에 맞춰 펌웨어 개발이 가능 합니다 ...  저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은  BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ...  맡겨 주시면  확실하게 결과내드리는것이 가능 합니다 ...  참고로 저는 지역이 수원 입니다 ...

딥네트워크는 PMSM 모터를 제어하는 획기적인 솔루션을 제공하는 일인기업입니다. 딥네트워크는 TI의 모터제어 개발 보드를 사용하여 FOC 알고리즘과 TI의  FOC 소프트웨어 라이브러리를 기반으로 한 펌웨어 설계 세부 검토 분석을 수행하였습니다. 

PMSM Motor의 FOC 제어 세부 구현 노하우 제공

딥네트워크는 PMSM Motor의 FOC (Field-Oriented Control) 제어에 대한 깊은 이해와 세부 구현 노하우를 보유하고 있습니다. 저희는 다음과 같은 기술을 통해 고객님의 요구사항을 충족시킬 수 있습니다:

1. 최대 토크 구현
   - d 축 전류와 q 축 전류의 지령값 설정 노하우
   - Motor 제어 루프에서 최대 토크를 내기 위한 최적의 전류 지령값 설정
   - 전류 리플 안정화

2. Motor의 전기적 상수값의 영향을 고려한 전류 리플 정도의 안정화
   - 로봇 축 관절 제어에 적용 시 전류 리플을 최소화하는 기술
   - PI 루프 제어 튜닝

3. P 이득과 I 이득의 최적 튜닝을 통한 전류 리플 안정화
   - 최종적으로 안정적인 Motor 동작을 보장하는 세부 튜닝 작업
   - 알고리즘 계산 수식

4. 약 20개의 세부 알고리즘 계산 수식을 확보하여 정확한 구현 가능
   - 위의 작업을 확실하게 수행할 수 있는 기술적 기반 제공

5.  RDC : AD2S1210WDSTZRL7 와  
     레졸버 : TAMAGAWA 사  TS2620N21E11 로
     회전자 위치 검출 노하우도 보유함

연락처

자세한 기술 자료 제공 및 문의는 아래 연락처로 부탁드립니다:

- 담당자: 장석원
- 전화번호: 010-3350-6509
- 이메일: sayhi7@daum.net

딥네트워크는 귀사의 요구에 맞춘 최적의 솔루션을 제공하기 위해 항상 준비되어 있습니다. 많은 관심과 문의 부탁드립니다.

 

영구자석 동기 모터(PMSM)의 d 축과 q 축 전류를 PI 제어 루프로 제어하는 과정은 로봇 축 관절 제어에서 중요한 역할을 합니다. 이 과정에서 MTPA(Maximum Torque Per Ampere)와 PWM(Pulse Width Modulation)을 사용한 FOC(Field Oriented Control)을 활용하여 모터의 효율성을 극대화하고 성능을 최적화합니다. 다음은 이 과정을 자세히 설명하고, 토크와 위치 제어를 어떻게 처리하며 PI 제어 이득을 어떻게 튜닝해야 하는지 설명하겠습니다.

1. FOC(자장 지향 제어) 개요

FOC는 모터의 자속(Flux)과 토크를 독립적으로 제어하기 위해 사용됩니다. 이는 모터의 자속과 토크를 수평 및 수직 축으로 변환하여 제어할 수 있게 합니다. 일반적으로 d 축(직류 축)과 q 축(직교 축)으로 변환하여:

  • d 축: 자속 방향
  • q 축: 토크 방향

FOC를 사용하여 모터의 전류를 d 축과 q 축으로 분리하고, 이를 각각 제어함으로써 모터의 자속과 토크를 독립적으로 조절할 수 있습니다.

2. PI 제어 루프와 MTPA

PI(비례-적분) 제어는 d 축과 q 축 전류를 제어하는 데 사용됩니다. PI 제어는 각각의 축에서 전류를 원하는 값으로 유지하고자 하는 제어 방식입니다. MTPA는 주어진 전류에서 최대의 토크를 생성하기 위한 원리를 따릅니다.

  • d 축 전류(Id): 자속 제어에 영향을 미칩니다. 일반적으로 PMSM에서는 자속 제어를 위해 d 축 전류가 필요하며, Id는 주로 0에 가까운 값으로 유지되도록 설계됩니다.
  • q 축 전류(Iq): 토크 제어에 영향을 미칩니다. Iq는 실제로 모터의 토크를 생성하는 전류로, 토크를 원하는 값으로 제어하기 위해 조절됩니다.

3. 로봇 축 관절 제어

로봇의 축 관절 제어에서, 토크 제어와 위치 제어는 서로 다른 목적을 가지고 있습니다:

(1) 토크 제어

  • PI 제어 루프: q 축 전류(Iq)를 제어하여 모터의 토크를 제어합니다.
  • PI 제어 이득 튜닝:
    • 비례 이득(Kp): 반응 속도를 조절합니다. 너무 높으면 시스템이 불안정해질 수 있고, 너무 낮으면 응답 속도가 느려질 수 있습니다.
    • 적분 이득(Ki): 정밀도를 조절합니다. 적분 이득이 너무 높으면 시스템이 과도하게 응답하거나 진동할 수 있고, 너무 낮으면 정밀도가 떨어질 수 있습니다.
    • 튜닝 방법: 일반적으로 Ziegler-Nichols 방법이나 다른 자동 튜닝 방법을 사용하여 이득을 조절합니다. 실험을 통해 최적의 이득을 찾는 것도 중요합니다.

(2) 위치 제어

  • 위치 제어 루프: 위치를 제어하기 위해 속도 제어 루프와 토크 제어 루프를 결합합니다. 속도 제어는 보통 q 축 전류를 통해 이루어지며, 최종적으로 위치 제어를 위해 사용됩니다.
  • PI 제어 이득 튜닝:
    • 위치 제어의 비례 이득(Kp): 위치의 정확성을 조절합니다. 너무 높으면 진동이 발생할 수 있고, 너무 낮으면 응답이 느려질 수 있습니다.
    • 위치 제어의 적분 이득(Ki): 위치의 오차를 보상하는 데 사용됩니다. 적분 이득이 너무 높으면 시스템이 진동하거나 과도한 반응을 보일 수 있습니다.
    • 튜닝 방법: PID 튜닝 방법과 유사한 방식으로 조정합니다. 위치 제어의 경우, 시스템의 역동적인 특성과 모터의 특성에 따라 조정이 필요합니다.

4. PWM 제어

PWM(Pulse Width Modulation)은 전류를 제어하기 위한 방법으로, 모터의 전압을 조절하여 원하는 전류를 생성합니다. FOC와 함께 사용하여 d 축과 q 축의 전류를 정확하게 제어할 수 있습니다.

5. 요약

  • FOC를 통해 d 축과 q 축 전류를 독립적으로 제어하며, MTPA를 만족하여 최대 토크를 생성합니다.
  • PI 제어 루프를 사용하여 d 축 전류(Id)와 q 축 전류(Iq)를 각각 제어합니다.
  • 토크 제어와 위치 제어를 통해 로봇 축 관절의 성능을 최적화합니다.
  • PI 제어 이득은 Ziegler-Nichols 방법이나 실험적인 조정을 통해 튜닝합니다.

이러한 제어 방식과 튜닝 방법을 통해 로봇 축 관절의 성능을 극대화하고, 원하는 제어 목표를 달성할 수 있습니다.

 

토크 제어시 대표적인 제어 이득 값

  • 토크 제어에서의 일반적인 Kp값: 1~10 범위 (모터와 응용에 따라 다를 수 있음)
  • 토크 제어에서의 일반적인 Ki 값: 0.01~1 범위 (모터와 응용에 따라 다를 수 있음)

위치제어시 대표적인 제어이득 

  • 위치 제어에서의 일반적인 Kp 값: 10~100 범위 (모터와 응용에 따라 다를 수 있음)
  • 위치 제어에서의 일반적인 Ki 값: 0.1~10 범위 (모터와 응용에 따라 다를 수 있음)

1. d/q 축 변환의 원리와 중요성

  • 설명: d/q 축 변환은 3상 교류 전류를 2상 직류 전류로 변환하여 모터의 전류를 효율적으로 제어하는 기법입니다. 클라크 변환과 파크 변환을 통해 이루어지며, 이를 통해 모터의 자속과 토크를 독립적으로 제어할 수 있습니다.
  • 중요성: 정확한 d/q 축 변환은 모터의 안정적이고 효율적인 동작을 위해 필수적입니다.

2. d/q 축 틀어짐의 원인

  • 센서 오류: 리졸버, 엔코더, 홀센서 등의 위치 센서가 오작동하거나 고장 나면 d/q 축 변환이 부정확해질 수 있습니다.
  • 전기적 노이즈: 노이즈는 센서 신호에 영향을 미쳐 변환 행렬의 정확성을 저하시킬 수 있습니다.
  • 제어기 설정 오류: PI 제어기의 Kp와 Ki 설정이 부적절하면 d/q 축 변환의 정확성이 떨어질 수 있습니다.

3. PI 제어기의 Kp와 Ki 설정

  • Kp 설정: Kp가 너무 크면 오버슈팅과 진동이 발생하고, 너무 작으면 응답이 느려집니다. 적절한 Kp 설정이 필요합니다.
  • Ki 설정: Ki가 너무 크면 오차가 누적되어 불안정해지고, 너무 작으면 잔류 오차가 충분히 보상되지 않습니다. 적절한 Ki 설정이 필요합니다.
  • 튜닝 방법: Ziegler-Nichols 방법이나 실험적 튜닝을 통해 Kp와 Ki를 적절히 설정합니다.

4. 리졸버를 통한 회전자 위치와 제어기 동기화

  • 리졸버의 역할: 리졸버는 모터의 회전 각도를 아날로그 신호로 변환하여 제공합니다. R/D 변환기를 통해 디지털 신호로 변환되어 제어기에 전달됩니다.
  • 실시간 위치 정보 업데이트: 고속 샘플링과 DSP를 사용하여 실시간으로 위치 정보를 업데이트합니다.
  • 지연 최소화: 고속 통신 인터페이스와 최적화된 알고리즘을 사용하여 지연을 최소화합니다.

5. 좌표계 불일치 최소화 및 검출 방법

  • 센서 정확성 향상: 고해상도 센서와 노이즈 필터링을 통해 변환 행렬의 정확성을 높입니다.
  • 고속 연산 장치 사용: DSP나 FPGA와 같은 고속 연산 장치를 사용하여 실시간 연산 지연을 최소화합니다.
  • 실시간 모니터링 및 피드백 제어: d/q 축 변환 후의 신호를 실시간으로 모니터링하고, 피드백 제어를 통해 불일치를 검출하고 수정합니다.

이와 같은 방법들을 통해 d/q 축 변환의 정확성을 높이고, 모터 제어의 안정성과 성능을 최적화할 수 있습니다.

저의 경우 로봇 축 관절제어를 위한 BLDC Motor 의 토크/위치/속도 제어를 위한 모터 제어 펌웨어가 어떤 설계 구조로 구현하는지를 파악하는데 성공했읍니다 ...      전기차 모터제어도 모터 전기 상수인자들 로 전달함수를 설계하면  2 차 라플라스 방정식이 되고 이것으로 제어응답 특성 파악이 가능은 한데 여기에 PI 제어 루프 도 전달함수에 포함되면 3 차 라플라스 방정식이 되는데 이것의 제어응답 특성을 파악하려면 MATLAB SIMULINK TOOL 이 반드시 필요합니다
저는 현재 2 차 라플라스 방정식의 응답특성 분석은 가능한 상태 입니다        로봇 축 관절제어를 위한 모터제어 프로토타입 펌웨어 구현 정도의 노하우를 확보했구요 ...    저도 구글링 2000 번 넘는 시행착오(국내외 논문분석)를 거쳐 3 년여만에 제가 원하는 돈이 되는 세부 정보를 얻는데 성공했읍니다 ....      제가 확보한  BLDC 모터 정밀제어 노하우는  위치제어 / 속도제어 / 토크제어를 Closed Loop  PI  제어를 하는데 필요한 제어 알고리즘 수식을 확보해서 이해하는데 성공했읍니다 ...     BLDC Motor 로 위치제어 / 속도제어 / 토크제어를 Closed Loop  PI  제어를 하려면 BLDC Motor 는 어떤 규격의 것을 선택해야 하는지와 이는 또 어느 업체에서 이를 취급하는지 등등도 파악하고 있읍니다 ...   4 Pole - BLDC Motor 제어를 PWM 구동 방식으로  6 - STEP Sequence 로 제어하려면 세부적으로 어떻게 제어해야 하는지 등등도 파악에 성공했읍니다 ...    

 

제가 운영하는 딥네트워크가 그동안 검토분석한  CAN 통신 펌웨어 설계 기술로  CANopen 기술로  PDO (Process Data Object) 와 SDO (Service Data Object)를 사용하여 다양한 데이터를 전송합니다. PDO는 고속 데이터 전송을 위한 프로토콜으로, 일반적으로 하나의 CAN 프레임에 대한 하나의 데이터를 포함합니다. 반면에 SDO는 OD Entry에 대한 접근제어 방식으로, 추가적인 정보와 인자를 포함하여 더 구체적인 데이터를 전송할 수 있습니다.

정밀 CAN 통신 디버깅 툴로는 Vector사의 CANoe와 PCAN Explorer가 대표적입니다. 이 외에도 CANlink와 고급 오실로스코프 같은 고가의 도구가 반드시 필요합니다

 

CANopen 네트워크에서 PDO (Process Data Object)와 SDO (Service Data Object)는 데이터를 전송하는 두 가지 주요 메커니즘입니다. 각각의 프로토콜은 특정한 목적과 사용 사례에 맞게 설계되었습니다.

PDO (Process Data Object)

PDO는 실시간 데이터 전송에 최적화되어 있습니다. 이 프로토콜은 다음과 같은 특징을 가집니다:

  • 고속 전송: PDO는 주로 실시간 제어 작업에 사용되며, 낮은 지연 시간과 빠른 데이터 전송이 필요한 경우에 적합합니다.
  • 단일 프레임: 일반적으로 PDO는 하나의 CAN 프레임에 최대 8바이트의 데이터를 담아 전송합니다.
  • 브로드캐스트 가능: PDO는 네트워크 상의 여러 노드에게 동시에 데이터를 전송할 수 있어, 여러 장치가 동일한 데이터를 거의 동시에 받을 수 있습니다.
  • 사이클링 전송: PDO는 주기적으로 또는 특정 이벤트가 발생했을 때 자동으로 전송될 수 있습니다.

SDO (Service Data Object)

SDO는 더 복잡한 데이터 전송과 디바이스 구성에 사용됩니다. SDO의 특징은 다음과 같습니다

  • 상세한 데이터 전송: SDO는 오브젝트 딕셔너리 내의 특정 항목에 대한 접근을 제공하며, 복잡한 데이터 구조나 대량의 데이터를 전송할 때 사용됩니다.
  • 요청/응답 메커니즘: SDO 통신은 요청과 응답의 형태로 이루어집니다. 한 노드가 데이터를 요청하면, 다른 노드가 해당 데이터를 응답으로 보냅니다.
  • 블록 전송: SDO는 블록 전송 모드를 지원하여, 한 번에 많은 양의 데이터를 전송할 수 있습니다.
  • 비동기 통신: SDO는 주기적인 데이터 전송보다는 필요할 때마다 데이터를 전송하는 비동기 통신에 적합합니다.

예시

예를 들어, 모터 제어 시스템에서 토크 제어와 위치 제어를 위한 데이터를 전송해야 한다고 가정해 보겠습니다.

  • 토크 제어: 실시간으로 모터의 토크를 조절해야 하므로, PDO를 사용하여 모터 드라이버에게 토크 값을 빠르게 전송할 수 있습니다.
  • 위치 제어: 모터의 위치 설정 값이나 구성 파라미터와 같은 상세한 정보가 필요할 때는 SDO를 사용하여 필요한 데이터를 전송합니다.

이러한 방식으로, CANopen 네트워크는 다양한 제어 요구 사항과 데이터 전송 요구 사항을 효율적으로 처리할 수 있습니다.

 

 

CANopen에서의 NTM (Network Management) 동작원리와 설계 구조는 다음과 같습니다:

  1. NTM의 역할: CANopen에서 NTM은 장치들이 상태를 조절하고 관리하는 데 사용됩니다. 각 장치는 NTM 상태에서 자동으로 실행될 수 있으며, CANopen 장치 초기화와 같은 과정을 통해 NTM 상태를 변경할 수 있습니다.
  2. NTM 메시지 명령: NTM는 다음과 같은 메시지 명령을 사용하여 장치 상태를 관리합니다:
  3. SYNC 메시지: SYNC 메시지는 상위제어기에서 제공하여 연결된 노드에게 메시지를 전송합니다. 이는 시스템의 시간을 정확하게 관리하는 데 사용됩니다.
  4. OD Entry와 SDO: NTM는 OD Entry에 대한 접근제어 방식으로, 추가적인 정보와 인자를 포함하여 더 구체적인 데이터를 전송할 수 있습니다. SDO는 CANopen에서 사용되는 서버와 클라이언트 관계로 통신하며, 요청하는 명령의 ID와 예를 들어 Read/Write 등의 고유 ID가 있습니다.
  5. NTM의 구조: NTM의 구조는 다음과 같습니다:

 

TI 사 BMS 칩셋인  EMB1428Q는 SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 설계 원리에 대해 다음과 같이 설명할 수 있습니다:

  1. SPI 버스 인터페이스를 통한 명령 수신:
  2. 에너지 이동을 위한 플로팅 MOSFET 게이트 드라이버 제어:

TI 사 EMB1428Q BMS 칩셋은 배터리 셀 간의 전압을 균등하게 유지하기 위해 액티브 셀 밸런싱을 수행하는 스위치 매트릭스 게이트 드라이버입니다. 이 칩셋의 주요 작동 원리는 다음과 같습니다:

  1. 전압 모니터링: EMB1428Q는 연결된 배터리 셀들의 전압을 지속적으로 모니터링합니다. 이 데이터는 셀 간의 전압 차이를 파악하는 데 사용됩니다.
  2. 에너지 전송 제어: 전압 차이가 감지되면, EMB1428Q는 스위치 매트릭스를 통해 높은 전압의 셀에서 낮은 전압의 셀로 에너지를 전송하도록 MOSFET 게이트를 제어합니다.
  3. 스위치 매트릭스: 칩셋은 12개의 부유 MOSFET 게이트 드라이버를 제공하여 최대 7개의 직렬로 연결된 배터리 셀을 밸런싱할 수 있습니다. 이 드라이버들은 각 셀에 연결된 MOSFET을 제어하여 에너지 이동 경로를 설정합니다1.
  4. 밸런싱 실행: EMB1428Q는 EMB1499 DC/DC 컨트롤러 IC와 함께 작동하여, 필요한 시점에 적절한 셀 간 연결을 활성화시키고 에너지를 효율적으로 전송합니다.

리튬 배터리 열폭주의 동작 원리

리튬 배터리에서 열폭주가 발생하는 주된 이유는 자가증폭 루프입니다. 열폭주가 시작되면 배터리의 온도가 급격히 상승하며, 이 과정에서 발생한 에틸렌과 같은 가스는 추가적인 열폭주를 유발할 수 있습니다. 이를 이해하기 위해 다음 단계를 살펴보겠습니다.

1. 열폭주의 초기 단계

  1. 과충전 또는 단락: 리튬 배터리에 과충전, 단락, 또는 기타 전기적 스트레스가 가해지면 내부 온도가 상승합니다. 이러한 열은 내부의 전기화학적 반응을 유도합니다.
  2. 전해질 분해: 배터리의 온도가 특정 임계점을 초과하면 전해질이 분해되기 시작합니다. 전해질 분해 과정에서 에틸렌, 메탄, 그리고 기타 가스가 방출됩니다.
  3. 온도 상승: 전해질 분해와 전극의 반응은 추가적인 열을 발생시킵니다. 이 열은 배터리의 온도를 더욱 상승시킵니다.

2. 자가증폭 루프의 작동

  1. 가스 생성: 전해질 분해는 에틸렌과 같은 가스를 생성합니다. 이 가스는 배터리 내부의 압력을 증가시키며, 압력 상승은 배터리 케이싱의 파손을 초래할 수 있습니다.
  2. 산소 발생: 전해질의 분해와 전극 물질의 반응은 산소를 생성합니다. 이 산소는 가연성 가스와 혼합되어 화학적 연소 반응을 촉진합니다. 에틸렌과 같은 가스는 산소와 결합하여 열을 방출하며, 이로 인해 온도가 더욱 상승합니다.
  3. 열의 자가 증폭: 생성된 열은 추가적인 전해질 분해와 전극 반응을 유도하여 열 발생을 가속화합니다. 이 과정이 계속 반복되면서 열폭주가 더욱 심각해집니다.
  4. 최종 단계: 열폭주가 진행되면 배터리 내부 온도가 극단적으로 상승하여 화재나 폭발을 초래할 수 있습니다.

해결 방안 및 동작 원리

리튬 배터리의 열폭주를 예방하고 제어하기 위해서는 다음과 같은 해결 방안을 고려할 수 있습니다.

1. 전해질 개선

  • 안정적인 전해질 사용: 열적 안정성이 높은 전해질을 사용하여 전해질 분해를 방지합니다. 이로 인해 가스 발생을 줄이고, 열폭주를 예방할 수 있습니다.
  • 고온 안전 전해질: 고온에서도 안정적인 전해질을 사용하여 배터리의 안전성을 높입니다.

2. 열 관리 시스템

  • 냉각 시스템: 배터리의 온도를 효과적으로 제어하기 위해 냉각 시스템을 설계합니다. 팬, 히트 싱크, 액체 냉각 시스템 등을 활용하여 배터리의 열을 방출합니다.
  • 열 전도성 재료: 열을 효과적으로 분산시키기 위해 열 전도성 재료를 사용하여 배터리의 온도를 관리합니다.

3. 배터리 보호 회로

  • 과충전 보호 회로: 배터리가 과충전되지 않도록 보호하는 회로를 설계합니다. 과충전이 감지되면 전원을 차단하여 열폭주를 방지합니다.
  • 단락 보호 회로: 단락 상황에서 배터리를 보호하기 위한 회로를 설계하여 내부 단락을 방지합니다.

4. 기계적 설계 개선

  • 강화된 케이싱: 배터리의 외부 케이싱을 강화하여 압력 상승에 따른 파손을 방지합니다. 고온에도 견딜 수 있는 재료를 사용합니다.
  • 가스 배출 시스템: 내부 압력이 과도하게 상승할 경우, 가스를 안전하게 배출할 수 있는 시스템을 설계합니다.

5. 모니터링 및 제어 시스템

  • 온도 센서: 배터리의 온도를 지속적으로 모니터링하여 과도한 온도 상승을 조기에 감지합니다.
  • 자동 차단: 이상 상태가 감지되면 자동으로 배터리 전원을 차단하거나 냉각 시스템을 활성화하여 배터리의 안전성을 유지합니다.

리튬 배터리의 열폭주를 방지하고 해결하기 위한 핵심적인 해결 방안을 다음과 같이 제시할 수 있습니다. 각 해결 방안은 배터리 내부의 온도 상승, 전해질 분해, 그리고 열폭주 현상을 효과적으로 제어하는 데 초점을 맞추고 있습니다.

1. 안정적인 전해질 개발

문제: 전해질이 열에 의해 분해되면서 에틸렌, 메탄 등의 가스가 방출되고, 이는 열폭주를 유발합니다.

해결 방안:

  • 고온 안정성 전해질: 고온에서도 안정적인 전해질을 사용하여 전해질 분해를 지연시키거나 방지합니다. 예를 들어, 고온 내성 전해질 또는 세라믹 기반 전해질을 사용하여 높은 온도에서도 화학적 안정성을 유지하도록 설계합니다.
  • 세라믹 전해질: 세라믹 전해질은 높은 온도에서도 안정적인 성질을 가지고 있으며, 열폭주를 방지하는 데 효과적입니다. 리튬 이온 세라믹 전해질(LiPON 등)은 높은 온도 안정성을 제공하며, 전해질의 열 분해를 최소화합니다.
  • 첨가제 사용: 전해질에 특수 첨가제를 추가하여 열적 안정성을 높이고, 분해 시 발생하는 가스를 억제합니다.

구현 예:

사용할 전해질: LiPON (리튬 인산 산화물) 또는 고온 안정성 전해질 혼합물 전해질 첨가제: 열적 안정성을 높이기 위한 첨가제(예: 사이클로헥산)

2. 효과적인 열 관리 시스템

문제: 배터리의 온도가 상승하면 전해질 분해가 촉진되고, 가스 발생이 가속화됩니다.

해결 방안:

  • 액체 냉각 시스템: 액체 냉각 시스템을 사용하여 배터리의 온도를 효과적으로 제어합니다. 냉각 액체가 배터리의 열을 흡수하고, 이를 외부로 방출하여 온도를 낮춥니다.
  • 열 전도성 재료: 배터리의 열을 효율적으로 분산시키기 위해 열 전도성이 높은 재료를 사용합니다. 예를 들어, 열 전도성 패드를 배터리와 냉각 핀 사이에 삽입하여 열을 효과적으로 전달합니다.
  • 온도 센서 및 제어 시스템: 배터리 내부에 온도 센서를 배치하여 실시간으로 온도를 모니터링하고, 과열 시 자동으로 냉각 시스템을 활성화합니다.

구현 예:

액체 냉각 시스템: 냉각수 순환 시스템 열 전도성 재료: 알루미늄 또는 구리 열 전도성 패드 온도 센서: NTC 열 저항 센서 또는 다채널 온도 센서

3. 배터리 보호 회로와 안전 장치

문제: 배터리의 열폭주를 예방하기 위해서는 배터리 내부의 이상 상태를 조기에 감지하고 대응하는 것이 필요합니다.

해결 방안:

  • 과충전 및 과방전 보호: 배터리의 충전 상태를 모니터링하고, 과충전이나 과방전 상황이 발생할 경우 자동으로 충전 전원을 차단하거나 전류를 조절합니다.
  • 단락 및 과열 보호 회로: 배터리의 전류를 모니터링하여 단락 상태를 감지하고, 과열 감지 시 배터리를 자동으로 차단합니다.
  • 가스 배출 시스템: 배터리 내부에 가스 배출 시스템을 설계하여 내부 압력이 과도하게 상승할 경우 가스를 안전하게 배출합니다. 이를 통해 배터리의 폭발 위험을 줄입니다.

구현 예:

과충전 보호 회로: 충전 상태 모니터링 및 전원 차단 회로 단락 보호 회로: 전류 감지 및 차단 회로 가스 배출 시스템: 압력 해소 밸브 및 가스 배출 경로 설계

이러한 해결 방안을 통해 리튬 배터리의 열폭주를 효과적으로 방지하고, 배터리의 안전성을 크게 향상시킬 수 있습니다. 각 해결 방안은 배터리의 안정성을 높이는 데 중요한 역할을 하며, 이를 통해 안전하고 신뢰성 높은 배터리 시스템을 구축할 수 있습니다.

저의 전기차 바테리 BMS 개발 보드의 펌웨어 설계 커스토마이징 노하우 소개

이러한 과정을 통해 EMB1428Q는 배터리 팩의 전체 성능을 최적화하고, 각 셀의 수명을 균일하게 유지하며, 전체 시스템의 안정성과 효율성을 높이는 데 기여합니다.  저희 딥네트워크가 바테리 BMS 설계도 깊이있게 검토 분석을 하다 보니 깨닭은게 BMS 설계에 최적화된 바테리 HW 스택을 설계하는것을 빈틈없이 HW 설계를 하면 아무래도 BMS 펌웨어의 성능은  BMS HW 설계 범주내에서 펌웨어 성능이 나올수 있는것 같읍니다 ...  TI 의 EMB1428Q 칩셋이  SPI 버스 인터페이스를 통해 충전/방전 명령을 수신하는 동작 구조와 에너지 이동을 위한 12개의 플로팅 MOSFET 게이트 드라이버를 제어하는 펌웨어 설계 원리를 파악에 성공했읍니다   저는 이를 위해 MOSFET 스위칭 제어를 위한  설계 방법 파악을 통해 에너지 이동을 위한 플로팅 MOSFET 게이트 드라이버 제어를 TI 사 EMB1428Q 칩셋을 적용해 펌웨어로  BMS 펌웨어 구현 노하우도 확보 성공했읍니다  ...    제가 파악한바로는 BMS HW 설계의 핵심은  셀 충방전 회로 설계시 스위치 캐패시티드 네트워크로 설게하는데 이때  MOSFET 스위칭 소자의 게이트 구동회로 설계시 MOSFET 회로가 플로팅됬을때  게이트 구동회로에 인가전압을 어떻게 인가하도록 설계하는냐가 핵심인데 이것도 파악에 성공했읍니다 ...

저희 회사는 전기차 바테리 충전 제어 전문 일인기업으로서,  TI  사  EMB1428Q 칩셋을  활용하여 삼성 21700 50E / 7S 20P 바테리 셀의 충전 성능을 극대화할 수 있는 펌웨어와 기법을 분석하였습니다. 저희 회사의 제품과 서비스에 관심이 있으시다면, 저희 기업 블로그 사이트를 방문하시거나 연락주시기 바랍니다. 감사합니다.

딥네트워크      장석원      010 3350 6509     sayhi7@daum.net

제 나이 올해 60 입니다 ...    IT 분야 일 한지가 30 년 입니다 ...  최근에 미국이 국가안보 기술로 애기했던게 반도체 설계/제작 기술이고 또 하나가 인공지능 기술 입니다 ...  저는 최근 한 3 년 이상을  딥러닝 논문 이슈를 계속 공부해왔읍니다 ...  이렇게 한 3 년 딥러닝 논문 이슈를 공부하다 보니  딥러닝 비젼 설계쪽 기술도 살펴봤고 또 하나가 초거대 모델쪽 입니다 ...    최근 초거대 모델을 살피다 보니 비젼쪽 기술인 광학문자인식(OCR 기술) 노하우가 어떤식으로 가능하겠다가 눈에 보이더라구요 ...   광학문자인식쪽은 네이버도 오래전부터하는것 같더군요 ...   이제 본론으로 들어가자면  초거대 모델 기술의 기반기술이 구글 트랜스포머 딥러닝 모델 설계 기술이 그 근원 이거든요 ...  구글 트랜스포머 모델이 나온지 한 4 - 5 년 되는것 같구요 ...  초거대 모델의 근원이 되는 딥러닝 모델이 GPT-3 모델이고  이것의 기반이 트랜스포머 모델 이거든요 ...   얼마전 유튜브를 보다 보니 유튜브 사회자가 대기업 연구개발 중역한테  트랜스포머 모델 실력자가 한국에도 상당한데 그렇다면 초거대 모델 구현도 이런 사람들이 다 가능한것 아니냐 라고 질문을 하더군요 ...    제 생각은 이렇습니다 ...    초거대 모델이 됬건 뭐가 됬건 자기가 파악하고 있으면 별것아닌 쉬운게 되는거구  자기가 모르면 한없는 기술장벽을 느껴야 하는것 같읍니다 ...    제가 딥러닝 논문 이슈를 한 3 년 이상 꾸준히 분석했다고 했는데요 ...     제가 초거대 모델 분석이 가능한것도 이렇게 한 3 년 딥러닝 논문의 이슈를 여러가지를 세부분석한게 없었으면 아마도 초거대 모델 분석이 벽을 만나 아무것도 진행이 안됬을텐데  그래고 딥러닝 이슈 몇십가지를 그동안 파악에 성공하다 보니 이렇게 초거대 모델 분석도 진행이 가능한것 같읍니다 ...      구글 트랜스포머 모델 분석도 하다 보면 진짜 공부할께 계속 나오구요 ...  이런 부분들 그동안 3 년여 공부를 했던것 같읍니다 ...    처음엔 구글 트랜스포머 모델 공부를 뭘 어덯게 해야 하는지 감도 못 잡았는데  시행착오를 3 년간 수없이 겪다 보니 이제 앞이 보이는것 같읍니다 ...     그래도 3 년간 논문 이슈 분석을 위해 하루에 최소 3 시간 이상은 공부했던것 같읍니다 ...     저도 3 년을 시간투자해서 초거대 모델 설계 구조와 동작원리 분석이 되있으니 가능하다면 대기업쪽 초거대 모델 기술자문을 맡아보고 싶은데  어떻게 대기업쪽에서 판단하실지는 잘 모르겠읍니다 ....             

딥네트워크     장석원    010 3350 6509     sayhi7@daum.net

트랜스포머 모델은 문장 속 단어와 같은 순차 데이터 내의 관계를 추적해 맥락과 의미를 학습하는 신경망입니다. 트랜스포머는 어텐션 (attention) 또는 셀프어텐션 (self-attention)이라 불리는 수학적 기법을 응용해 서로 떨어져 있는 데이터 요소들의 의미가 관계에 따라 미묘하게 달라지는 부분까지 감지해내죠. 트랜스포머는 자연어 처리뿐만 아니라 이미지, 비디오, 음성 등 다양한 데이터를 처리하는 데에도 사용됩니다.

 

 

트랜스포머 모델이란 무엇인가? (1) | NVIDIA Blog

AI 분야의 혁신에 함께하고 싶다면 트랜스포머(transformer)에 주목하세요.

blogs.nvidia.co.kr

일인기업 딥네트워크는 트랜스포머 모델을 텐서플로우 개발환경으로 개발하고 있습니다. 텐서플로우는 구글이 만든 오픈소스 머신러닝 프레임워크로, 다양한 플랫폼에서 쉽고 빠르게 딥러닝 모델을 구축하고 배포할 수 있습니다. 텐서플로우는 트랜스포머 모델을 구현하기 위한 공식 튜토리얼과 API를 제공하고 있습니다.

일인기업 딥네트워크가 트랜스포머 모델을 개발하면서 주목해야 할 핵심 내용은 다음과 같습니다.

  • 분산헉습 처리는 어떤식으로 가능한지 핵심 3 가지
  • 트랜스포머 모델로 초거대 모델 학습시 가중치값등의 파라미터겂은 어떤식으로 처리하는지 핵심 3 가지
    • 트랜스포머 모델로 초거대 모델을 학습하려면, 다음과 같은 방법을 사용해야 합니다.
      • 대규모 데이터세트를 사용하여 트랜스포머 모델을 사전학습합니다. 사전학습은 트랜스포머 모델의 파라미터를 초기화하고, 일반적인 언어 지식을 습득하게 합니다. 사전학습에는 마스크드 언어 모델링 (Masked Language Modeling)과 넥스트 센텐스 프리딕션 (Next Sentence Prediction)과 같은 자기지도 학습 방법을 사용할 수 있습니다.
      • 분산 학습을 사용하여 트랜스포머 모델의 학습 속도와 효율을 높입니다. 분산 학습은 여러 개의 GPU나 TPU와 같은 가속기를 사용하여 트랜스포머 모델의 파라미터를 병렬로 업데이트합니다. 분산 학습에는 데이터 병렬화 (Data Parallelism)와 모델 병렬화 (Model Parallelism)와 같은 방법을 사용할 수 있습니다.
      • 파인튜닝을 사용하여 트랜스포머 모델을 특정 도메인이나 태스크에 적용합니다. 파인튜닝은 사전학습된 트랜스포머 모델의 파라미터를 소량의 라벨링된 데이터로 재학습하여, 성능을 향상시킵니다. 파인튜닝에는 슈퍼글루 (SuperGLUE)와 같은 벤치마크를 사용할 수 있습니다.
  • 트랜스포머 모델로 초거대 모델 구현시 핵심 이슈
    • 트랜스포머 모델로 초거대 모델을 구현하면서 마주칠 수 있는 핵심 이슈는 다음과 같습니다.
      • 메모리 부족 문제: 트랜스포머 모델은 많은 양의 데이터와 파라미터를 처리하기 때문에, 메모리 용량과 대역폭에 제한을 받을 수 있습니다. 메모리 부족 문제를 해결하기 위해, 트랜스포머 모델의 크기를 줄이거나, 메모리 효율을 높이는 방법을 사용할 수 있습니다. 예를 들어, 모델 압축 (Model Compression), 스파스 어텐션 (Sparse Attention), 리포머 (Reformer)와 같은 기법들이 있습니다.
      • 일반화 문제: 트랜스포머 모델은 사전학습된 언어 지식을 바탕으로 다양한 태스크에 적용될 수 있지만, 때로는 특정 도메인이나 상황에 과적합되거나, 비논리적이거나 부적절한 결과를 생성할 수 있습니다. 일반화 문제를 해결하기 위해, 트랜스포머 모델의 훈련 데이터와 목적 함수를 다양화하거나, 정규화 (Regularization)나 적대적 학습 (Adversarial Learning)과 같은 방법을 사용할 수 있습니다.

딥네트워크     장석원     010 3350 6509     sayhi7@daum.net

일인기업 딥네트워크: 경량화 초거대모델의 선두주자

딥네트워크는 초거대모델의 경량화 세부원리 및 그 설계구조 분석을 전문으로 하는 일인기업입니다. 저희는 대규모의 텍스트 데이터를 기반으로, 효율적이고 강력한 언어 모델을 구축하고, 다양한 응용 태스크에 적용하는 방법을 연구하고 있습니다. 저희는 메타의 LLaMA 논문과 같은 경량화 초거대모델을 설계하고 훈련하는 방법에 대해 1년 반 동안 연구하였으며, 70억 개, 130억 개, 700억 개의 파라미터를 갖는 세 가지 크기의 모델을 구축 준비에 관련한 세부 정보를 확보하는데 성공했습니다.

딥네트워크의 기술력

딥네트워크의 기술력은 다음과 같습니다:

  • 데이터셋의 구축: 저희는 공개적으로 이용할 수 있는 데이터셋을 수집하고 전처리하는 방법을 분석하고 있습니다. 저희는 다양한 언어와 도메인의 데이터를 활용하여, 품질이 높고 편향이 적은 데이터셋을 구축관련 정보를 확보할 수 있습니다.
  • 모델의 설계: 저희는 LLaMA와 같은 효율적인 Transformer 모델을 설계하고 최적화하는 방법을 알고 있습니다. 저희는 Linear Layer, Cross-Attention, Multi-head Attention, Adaptive Attention Span과 같은 모듈을 적용하여, 모델의 크기와 속도를 개선할 수 있는 세부 모델 설계 구조 분석이 되있습니다.
  • 모델의 훈련: 저희는 GPU나 TPU와 같은 고성능 장치를 사용하여, 병렬로 모델을 훈련하는 방법을 알고 있습니다. 저희는 클라우드 서비스나 오픈소스 플랫폼을 활용하여, 컴퓨팅 자원을 저렴하고 효율적으로 확보할 수 있습니다.

딥네트워크의 성과

딥네트워크의 성과는 다음과 같습니다:

  • 저희는 70억 개, 130억 개, 700억 개의 파라미터를 갖는 세 가지 크기의 경량화 초거대모델을 구축하는것의 세부준비를 위해 관련 부분들의 세부 연구를 진행 하였습니다. 저희는 이러한 모델을 다양한 응용 태스크에 적용하여, GPT-3와 같은 상용 모델과 경쟁할 수 있는 성능을 보였다는것을 파악했습니다.
  • 저희는 LLaMA와 같은 경량화 초거대모델을 설계하고 훈련하는 방법에 대해 1년 반 동안 연구하였습니다. 저희는 이러한 연구를 통해, 초거대모델의 경량화에 관한 다양한 기법과 원리를 발견하였습니다.
  • 저희는 초거대모델의 경량화에 관심이 있는 다른 연구자나 개발자들과 협력하고 소통하고 있습니다. 저희는 저희의 모델과 코드를 오픈소스로 공개하였으며, 피드백과 의견을 적극적으로 수용하고 있습니다.

딥네트워크의 비전

딥네트워크의 비전은 다음과 같습니다:

  • 저희는 초거대모델의 경량화를 통해, 언어 모델의 성능과 효율성을 동시에 높이고자 합니다. 저희는 언어 모델을 더 빠르고 저렴하게 이용할 수 있도록 하여, 다양한 분야와 사람들에게 혜택을 제공하고자 합니다.
  • 저희는 초거대모델의 경량화를 통해, 언어 모델의 품질과 편향성을 개선하고자 합니다. 저희는 언어 모델이 더 정확하고 공정하게 정보를 처리하고 생성할 수 있도록 하여, 사회적 가치와 윤리를 존중하고자 합니다.
  • 저희는 초거대모델의 경량화를 통해, 언어 모델의 창의성과 혁신성을 증진하고자 합니다. 저희는 언어 모델이 더 다양하고 흥미로운 콘텐츠를 생성하고 제안할 수 있도록 하여, 문화적 다양성과 예술성을 증대하고자 합니다.

저희는 딥네트워크를 통해, 초거대모델의 경량화를 선도하고, 언어 모델의 발전에 기여하고자 합니다. 저희는 저희의 기술력과 성과를 자랑스럽게 생각하며, 저희의 비전을 실현하기 위해 노력하고 있습니다. 저희는 저희의 사이트를 방문해주신 여러분께 감사드리며, 저희의 모델과 연구에 관심을 가져주시기를 바랍니다

 

딥네트워크     장석원     010-3350 6509     sayhi7@daum.net

회사 소개

일인기업 딥네트워크는 STMH743 CPU Evaluation Board 의 커스토마이징 전문 업체입니다. STMH743 CPU Evaluation Board 는 STMicroelectronics 에서 제공하는 Arm ® Cortex ® -M7 기반의 STM32H743XI 와 STM32H753XI 마이크로컨트롤러를 위한 고성능 개발 플랫폼입니다. 이 보드는 다양한 주변 장치들을 지원하며, CubeMX IDE 개발 툴을 통해 손쉽게 Configuration 설정을 할 수 있습니다.

일인기업 딥네트워크는 STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소 중에서 다음의 구성 요소들을 커스토마이징하여 고객의 요구에 맞게 제공할 수 있습니다.

  • MIPI-CSI Camera 부분
  • USB Host/Device 송수신 부분
  • SD Card 저장 부분
  • Ethernet / WIFI 네트웍 송수신 부분
  • LTDC TFT-LCD 부분
  • MIPI-DSI TFT-LCD 부분

일인기업 딥네트워크는 이러한 구성 요소들의 Configuration 설정을 CubeMX IDE 개발 툴을 적용하여 효율적으로 수행하며, 필요한 경우 추가적인 기능을 개발하여 완성도 높은 제품을 제공합니다.

일인기업 딥네트워크의 커스토마이징 기술력의 핵심 노하우는 다음과 같습니다.

  • STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소들을 깊이 있게 이해하고 분석하여, 각각의 구성 요소들이 어떻게 동작하고 어떻게 상호작용하는지 파악합니다.
  • 고객의 요구사항과 목적에 맞게, 각각의 구성 요소들의 Configuration 설정을 최적화하고, 필요한 경우 추가적인 기능을 개발합니다.
  • STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소들을 통합하여, 완성도 높은 제품을 제공합니다.
  • STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소들의 성능과 안정성을 검증하고, 문제가 발생할 경우 신속하고 정확하게 해결합니다.

회사 기술력 소개

일인기업 딥네트워크는 STMH743 CPU Evaluation Board 의 SDK 의 SDK 구성요소 중에서 다음의 구성 요소들을 커스토마이징하여 고객의 요구에 맞게 제공할 수 있습니다.

  • MIPI-CSI Camera 부분: STMH743 CPU Evaluation Board 는 MIPI-CSI 인터페이스를 통해 카메라 모듈을 연결할 수 있습니다. CubeMX IDE 에서는 카메라 모듈의 해상도, 프레임 레이트, 포맷 등을 설정할 수 있으며, DMA, DCMI, JPEG 등의 드라이버를 사용하여 카메라 데이터를 처리할 수 있습니다. 일인기업 딥네트워크는 카메라 모듈의 종류와 성능에 따라 최적화된 Configuration 설정을 제공하며, 카메라 데이터를 화면에 출력하거나 저장하거나 전송하는 기능을 구현할 수 있습니다.
  • USB Host/Device 송수신 부분: STMH743 CPU Evaluation Board 는 USB OTG_HS 와 OTG_FS 를 지원하며, CubeMX IDE 에서는 USB 모드, 클래스, 프로토콜 등을 설정할 수 있습니다. 일인기업 딥네트워크는 USB 장치의 종류와 용도에 따라 적절한 Configuration 설정을 제공하며, USB 장치와의 데이터 송수신 기능을 구현할 수 있습니다.
  • SD Card 저장 부분: STMH743 CPU Evaluation Board 는 SDIO3.0 인터페이스를 통해 microSD™ 카드를 연결할 수 있습니다. CubeMX IDE 에서는 SD 카드의 버전, 용량, 속도 등을 설정할 수 있으며, FATFS, SDMMC 등의 드라이버를 사용하여 SD 카드에 데이터를 읽고 쓸 수 있습니다. 일인기업 딥네트워크는 SD 카드의 성능과 호환성을 고려하여 최적화된 Configuration 설정을 제공하며, SD 카드에 데이터를 저장하거나 불러오는 기능을 구현할 수 있습니다.
  • Ethernet / WIFI 네트웍 송수신 부분: STMH743 CPU Evaluation Board 는 Ethernet RJ45 커넥터를 통해 유선 네트워크에 연결할 수 있으며, WIFI 모듈을 추가하여 무선 네트워크에 연결할 수 있습니다. CubeMX IDE 에서는 네트워크의 IP 주소, 게이트웨이, 서브넷 마스크 등을 설정할 수 있으며, LwIP, TCP/IP, UDP 등의 프로토콜을 사용하여 네트워크 통신을 할 수 있습니다. 일인기업 딥네트워크는 네트워크의 종류와 환경에 따라 적절한 Configuration 설정을 제공하며, 네트워크를 통해 데이터를 송수신하거나 원격 제어하는 기능을 구현할 수 있습니다.
  • LTDC TFT-LCD 부분: STMH743 CPU Evaluation Board 는 LTDC 인터페이스를 통해 5.7” 640×480 TFT 컬러 LCD 와 터치스크린을 연결할 수 있습니다. CubeMX IDE 에서는 LCD 의 해상도, 색상, 백라이트 등을 설정할 수 있으며, DMA2D, GFXMMU, FMC 등의 드라이버를 사용하여 LCD 에 그래픽을 출력할 수 있습니다. 일인기업 딥네트워크는 LCD 의 성능과 품질을 고려하여 최적화된 Configuration 설정을 제공하며, LCD 에 다양한 그래픽을 출력하거나 터치스크린을 이용한 사용자 인터페이스를 구현할 수 있습니다.
  • MIPI-DSI TFT-LCD 부분: STMH743 CPU Evaluation Board 는 MIPI-DSI 인터페이스를 통해 고해상도 TFT LCD 를 연결할 수 있습니다. CubeMX IDE 에서는 LCD 의 해상도, 색상, 백라이트 등을 설정할 수 있으며, DSI, LTDC, DMA2D 등의 드라이버를 사용하여 LCD 에 그래픽을 출력할 수 있습니다. 일인기업 딥네트워크는 LCD 의 성능과 품질을 고려하여 최적화된 Configuration 설정을 제공하며, LCD 에 다양한 그래픽을 출력하거나 터치스크린을 이용한 사용자 인터페이스를 구현할 수 있습니다.

딥네트워크     장석원    010 3350  6509     sayhi7@daum.net

딥네트워크의 광학문자 인식 OCR 딥러닝 개발 기술력 소개

딥네트워크는 광학문자 인식 OCR 딥러닝 논문 분석쪽에서 선도적인 일인기업입니다. 딥네트워크는 최근에 Vision Transformer라는 새로운 딥러닝 모델을 OCR에 적용한 논문들을 분석했읍니다.. Vision Transformer는 이미지를 작은 패치들로 나누고, 이들을 순차적인 토큰으로 취급하여 트랜스포머라는 자연어 처리 모델에 입력하는 방식입니다. 이를 통해 이미지의 전역적인 특징과 문맥을 잘 파악할 수 있습니다. 딥네트워크의 기술력은 다음과 같은 세 가지 핵심에 기반합니다.

1. Vision Transformer를 이용한 문자 검출 및 인식

딥네트워크는 Vision Transformer를 OCR에 적용하기 위해, 두 가지 방법을 제안하였습니다. 첫 번째 방법은 Vision Transformer를 문자 검출과 인식을 동시에 수행하는 엔드-투-엔드 모델로 사용하는 것입니다. 이 방법은 이미지를 패치들로 나누고, 각 패치에 대해 문자의 존재 여부와 클래스를 예측하는 방식입니다. 이 방법은 별도의 문자 분할 과정이 필요 없으며, 다양한 크기와 방향의 문자에도 적응할 수 있습니다. 두 번째 방법은 Vision Transformer를 문자 검출과 인식을 각각 수행하는 두 단계 모델로 사용하는 것입니다. 이 방법은 첫 번째 단계에서 Vision Transformer를 이용하여 문자 영역을 검출하고, 두 번째 단계에서 Vision Transformer를 이용하여 검출된 영역의 문자를 인식하는 방식입니다. 이 방법은 문자 영역의 정확도와 문자 인식의 정확도를 각각 향상시킬 수 있습니다.

2. 데이터 증강 및 사전 학습을 통한 성능 향상

딥네트워크는 OCR에 적합한 데이터 증강 및 사전 학습 기법의 논문들을 분석하였습니다. 데이터 증강은 이미지에 다양한 변형을 적용하여, 실제 환경에서 발생할 수 있는 다양한 상황을 모방하는 것입니다. 딥네트워크는 이미지의 크기, 회전, 왜곡, 노이즈, 색상, 밝기 등을 조절하는 방법을 사용하였습니다. 데이터 증강은 모델의 일반화 능력을 향상시키고, 과적합을 방지하는 효과가 있습니다. 사전 학습은 대량의 데이터에 대해 미리 학습을 수행하여, 모델의 가중치를 초기화하는 것입니다. 딥네트워크는 ImageNet이라는 대규모 이미지 데이터셋에 대해 Vision Transformer를 사전 학습하였습니다. 사전 학습은 모델의 학습 속도를 높이고, 성능을 향상시키는 효과가 있습니다.

3. 다양한 언어 및 폰트에 대한 적용

딥네트워크는 다양한 언어 및 폰트에 대한 OCR을 지원합니다. 딥네트워크는 영어, 한국어, 중국어, 일본어, 아랍어 등 다양한 언어의 데이터를 수집하고, 모델을 학습에 대한 논문을 분석 하였습니다. 또한, 서체, 굵기, 기울기, 장식 등 다양한 폰트의 데이터를 수집하고, 모델을 학습하였습니다. 딥네트워크는 이러한 다양한 언어 및 폰트에 대해 높은 인식률을 보여주었습니다.       

 

딥네트워크    장석원    010 3350 6509     sayhi7@daum.net

딥네트워크는 GPT-3.5 초거대 모델 관련 세부 설계 구조에 대한 전문적인 분석과 검토를 주로 진행해 왔습니다.  저희 회사는 직접적인 딥러닝 학습 구현 작업 경험은 없지만, 해당 논문의 핵심 설계 구조를 세부적으로 분석하고 검토하는 데 전문성을 가지고 있습니다. 이러한 전문성은 2년 이상의 연구와 경험을 바탕으로 하고 있습니다.

GPT-3.5 초거대 모델은 자연어 처리(NLP) 분야에서 가장 강력하고 복잡한 모델 중 하나입니다. 이 모델은 수백억 개의 파라미터를 가지고 있으며, 이를 통해 사람처럼 자연스럽게 대화하고, 복잡한 문제를 해결하며, 창의적인 내용을 생성할 수 있습니다.

GPT-3.5 초거대 모델관련 논문의 핵심 설계 구조는 다음과 같습니다:

  1. 트랜스포머 아키텍처: GPT-3.5 초거대 모델은 트랜스포머 아키텍처를 기반으로 합니다. 트랜스포머는 입력 데이터의 시퀀스를 처리하는 데 효과적인 아키텍처로, 각 입력 요소가 다른 모든 요소와 상호 작용할 수 있도록 합니다.
  2. 언어 모델링: GPT-3.5 초거대 모델은 언어 모델링에 초점을 맞추고 있습니다. 이 모델은 주어진 문맥에서 다음 단어를 예측하는 방식으로 학습됩니다. 이를 통해 모델은 문장, 문단, 심지어는 전체 문서를 생성할 수 있습니다.
  3. 자기 지도 학습: GPT-3.5 초거대 모델은 자기 지도 학습 방식을 사용합니다. 이 방식은 레이블이 지정된 학습 데이터가 필요 없으며, 대신 입력 데이터 자체를 사용하여 모델을 학습시킵니다.

GPT-3.5 초거대 모델의 경량화 구현 논문은 모델의 크기를 줄이고 계산 효율성을 향상시키는것을 주로 분석합니다. 이는 모델을 더 작은 장치에서 실행할 수 있게 하고, 학습 및 추론 시간을 줄일 수 있습니다.

GPT-3.5 초거대 모델의 경량화에 대한 핵심 설계 구조는 다음과 같습니다:

  1. 모델 프루닝: 모델 프루닝은 모델의 크기를 줄이는 데 사용되는 기술입니다. 이는 모델의 파라미터 중 일부를 제거하여 모델의 복잡성을 줄이고, 계산 효율성을 향상시킵니다.
  2. 양자화: 양자화는 모델의 파라미터를 더 작은 비트로 표현하여 모델의 크기를 줄이는 기술입니다. 이는 모델의 메모리 사용량을 줄이고, 추론 속도를 향상시킵니다.
  3. 지식 증류: 지식 증류는 큰 모델(선생님 모델)의 지식을 작은 모델(학생 모델)에 전달하는 과정입니다. 이는 학생 모델이 선생님 모델과 유사한 성능을 달성할 수 있게 합니다.

딥네트워크의 경우 이러한 핵심 설계 구조를 세부적으로 분석하고 검토하였습니다. 이를 통해  GPT-3.5 초거대 모델 관련 논문들의 작동 방식을 더 잘 이해하고, 이 모델의 성능을 최적화하는 데 도움이 될 수 있는 인사이트를 얻었습니다. 이러한 노력은 딥네트워크를 GPT-3.5 초거대 모델 관련 논문들의 세부 설계 구조 분석 분야에서의 선도적인 기업으로 만들었습니다.  딥네트워크의 전문성과 경험은 이 분야에서의 혁신과 발전에 크게 기여하였습니다.           

딥네트워크    장석원    010 3350 6509    sayhi7@daum.net

내 나이 올해 60 이 됬다 ...    IT 업계쪽 일을 한지가 30 년 이다 ....  나는 요근래 3 - 4 년은 딥러닝 비젼쪽 / 초거대 모델쪽 국내외 논문들을 살펴 보고 있다 ...  이런저런 애기는 다 빼고 요즘 가장 큰 이슈가 되고 있는 삼성 스마트폰에 온 디바이스 AI 가 탑재됬다는것은 이제 다 알것 같다 ...     삼성 스마트폰에서 온 디바이스 AI 가 가능하려면 스마트폰에 NPU 가 탑재되야 가능하다 ...    나는 초거대 모델 이든 뭐든 딥러닝 경량화 구현 논문을 최소 한 1 년은 살핀것 같다 ...  초거대 모델은 학습 및 추론시 인프라 비용이 만만치 않아서 이를 최소화해서 이윤을 발생시키기 위해 모델 경량화가 진행되고 있다 ...   나도 이쪽으로 논문을 살핀지 4 년이다 ...   물론 그동안 딥러닝만 한건 아니지만 꾸준히 손을 놓지않고 꾸준히 했다 ...    요즘은 5 년전  10 년전에 비해 인터넷에 공유되는 여러 정보들의 양이 수백배가 늘어났다 ...   예전 같으면 초거대 모델 분석 연구도 대기업 이나 할수 있다고 다들 여겼지만  지금은 인터넷에 정보 공유가 수백배가 늘어나서 관심을 갖고 이런 공유 정보들로 몇년을 꾸준히 검토 분석하면 초거대 모델도 이제는 대기업이 아니더라도 분석 및 연구가 가능한 시대이다 ...   그런데 모든일이 그렇듯 국내외 논문들에서 그렇게 친절하게 정보를 주는 논문은 많지 않다 ...  그러하니 몇년을 꾸준히 이런 논문들을 검토분석해야  까칠한 논문들의 고급 정보도 얻을수 있는 기회가 생긴다 ...    그래서 세상사 공짜가 없다고 다들 애기하지 않는가 ?     나도 그래서 오늘 애기하고 싶은 애기는  온 디바이스 AI 로 어떻게 경량화가 가능했는지 그 설계 아이디어 논문들을 파악하고 있다 ...     이런 설계 아이디어들을 어떤 방안으로 어떻게 구현 가능한지에 대한 세부 구현 정보 또한 나는 완벽치는 않아도 상당 부분 준비가 되 있다 ...    아직도 한국의 대기업이나 미국의 대기업 이나 이런 기술개발관련  경영 마인드가 경직되 있다고 나는 느끼고 있다 ...   대기업들은 돈이 몇십조 몇백조가 있으니 그 돈으로 상용화 기술을 아예 사겠다는  그런 경영 의도가 많은것 같다 ...   준비가 된 초기기업들과 함께 같이 성장하겠다는 마인드는 나로서는 경험을 못한것 같다 ...     내가 이런 글을 올리니 사람들은 제가 초거대 모델 경량화 구현 준비가 뭐가 얼만큼 됬는지  애기하기가 나로서도 애매하기 때문에 이 정도 언급만하는데 ...   이 정도 언급만 하면 제가 어느 정도 능력인지 사람들은 결과물 갖고 판단하는게  요즘 세상사 이기에  나로서도 뭐라 더 애기하기가 애매해진다 ...   그런데 확실한것은 요즘은 기술정보 등등해서 정보 공유가 몇백배가 늘어났기 때문에  꼭 결과물 갖고만 능력을 판단하는게 반드시 정답인지 나는 의문을 가진다 ...    챗GPT 가 출시된지 일년이 넘어 간다 ...   앞으로 일년이 더 지나가면 어떻게 세상이 변할수 있는지 지금 아무도 예측 불가인 세상이다 ...   물론 내 애기도 다 정답은 아니지만 그렇다고 다 틀리지도 않는다고 나는 생각한다 ...     챗GPT 가 앞으로 일년 어떻게 세상을 바꿀지 아무도 예측 불가인 세상이라  나도 이런 챗GPT 딥러닝 논문 분석 연구를 하는 사람으로써  세상은 변하기 싫어도 변할수 밖에 없을것 이다   

딥네트워크   장석원     010 3350 6509     sayhi7@daum.net

반도체 공정중 원자층 증착(Atomic Layer Deposition, ALD)의 핵심 원리를 이해하는데 성공했다 ...         나름 심도있게 파악 성공했읍니다 ...  믿거나 말거나 ...  

딥네트워크      장석원    010 3350 6509   sayhi7@daum.net  

OpenAI 가 발표한 Text To Video  의 SORA 모델의 세부설계 구조와 원리 파악에 성공해 기분 좋다 ...    그동안 디퓨젼 모델 도 분석을 했던게 큰 도움이 된것 같다    Sora는 트랜스포머 아키텍처를 기반으로 하며, 비디오와 이미지를 패치라는 작은 데이터 단위로 표현한다.  이를 통해 다양한 길이, 해상도, 종횡비를 가진 시각 데이터에 대해 효율적으로 학습할 수 있다.    Sora는 DALL-E의 리캡션기법을 사용하여 생성된 비디오에서 텍스트 프롬프트를 더 잘 따르도록 한다. 리캡션기법은 시각적 훈련 데이터에 대해 설명력이 높은 캡션을 생성하는 방법이다.   그리고 Text to Image Model 세부 구조 분석이 됬던 부분이  Sora Model 이해하는데 도움이 된것 같다 ...   Text to Image Model은 트랜스포머 아키텍처를 기반으로 하며, 이미지를 패치라는 작은 데이터 단위로 표현한다. 이를 통해 다양한 해상도, 종횡비를 가진 시각 데이터에 대해 효율적으로 학습할 수 있다.

이런 부분들 이야기해 볼수 있는 업체의 연락을 기다립니다 ....   

딥네트워크     장석원     010-3350 6509      이메일    sayhi7@daum.net

저는 그동안 4 년 가까이 초거대 모델 설계 구조를 제시한 논문들 세부 분석 작업을 했었읍니다 ...     나름 초거대 모델 구조 설계의 대표적인 해외 대기업의 논문의 핵심 아이디어가 무었인지 파악하려고 노력했던것 같읍니다 ...   딥러닝 공부도 기반 지식들을 어느 정도 준비가 된 상태라야 이런 논문의 핵심 아이디어도 눈에 보이는것 겉읍니다 ...    GPT-3.5 의 핵심 설계 아이디어가 무었인지 파악하는데 주력했고   나름 제 판단으로는 이 정도면 꽤 핵심에 접근했다라고 저는 판단되거든요 ...    GPT-3.5 도 그 주변 논문들이 굉장히 많구요 ...   GPT-3.5 발표 훨씬 그 이전에  초거대 모델의 각종 아이디어 논문들이 몇년간 발표되서 제시됬던 핵심 아이디어 기반으로 구성된다는것을 파악할수 있었다 ...      내가 그동안 4 년간 분석한것은 논문만이 아니고 초거대 모델을 분산학습 과 병렬학습을 시키려면  딥러닝 모델 구현을 어떤식으로 구현 가능한지 그 세부 방안이 어떤게 있는지 이런것들을 검토분석 했다 ...     공부하다 보니 논문분석 만큼 이나 구글 텐서플로우 개발 환경 관련 세부 정보 파악도 굉장히 중요하다는것을 깨달았다 ....  초거대 모델 구현중 나는 특히 통번역 서비스를 구글 트랜스포머 모델로 구현시 어떤 설계 구조로 경량화 구현을 해야 하는지 글로벌 기업의 논문에서 핵심 아이디어를 파악하는데도 성공했다 ...   초거대 모델 구현 및 경량화 구현 관련 모델 설계 핵심 아이디어도 나름 퀄리티 있는 정보를  파악 성공했고요 ...    경량화 구현도 마찬가지 입니다 ...         관련해서 서로 정보 교류 및 협력 방안을 협의할수 있는 기술정보 협의 채널이 형성되기를 기대합니다 ...     

딥네트워크    장석원    010-3350 6509     sayhi7@daum.net  

STM32H743 과  Nordic  nRF52840 펌웨어 개발전문 일인기업 딥네트워크 장석원 입니다 ...

STMH743 CPU 펌웨어의 경우  MIPI-CSI Camera 부분 /  USB Host/Device 송수신 부분 /  SD Card 저장 부분 /  Ethernet / WIFI 네트웍 송수신 부분 /  LTDC TFT-LCD 부분 /  MIPI-DSI TFT-LCD 부분 의 개발을 CubeMX IDE 개발 툴을 사용해서  각각의 부분의 Configuration 설정 노하우를 확보하고 있고 이를 바탕으로 고객사의 세부사양을 근거로 펌웨어 커스토마이징 개발이 가능   합니다 ....

Nordic nRF52840  펌웨어 의 경우  Nordic  nRF52840 SDK 소스에  블루투스 프로토콜 스텍의 세부 구현 소스가 공개되 있는데  이중  nRF52840 이 USB Dongle 로 동작하는 부분의  SDK 소스의 세부 설계 구조를 파악하고 있고  nRF52840 이 Blutooth Device 로 동작하는 부분의 SDK 소스의 세부 구조 또한 파악하고 있읍니다 ....    나름  nRF52840 SDK 소스가 동작시 블루투스 프로토콜 스택의 각 부분별로 어떤식으로 설계되서 동작되는지를 파악하고 있기에  고객사의 세부 사양의 커스토마이징 개발이 가능합니다 ...

우선  귀사의  개발 세부 사양을 아래의 이메일 주소로 송부해 주시면 감사하겠읍니다 ...

딥네트워크  장석원    핸드폰  010 3350 6509    이메일   sayhi7@daum.net  

 

 

내가 그동안 초거대 모델에 대해 여러 글을 썼었다 ....   오늘은 요즘 온 디바이스 AI 의 이슈인 초거대 모델 경량화 에 대해 조금 이야기 하려 한다 ...  초거대 모델 경량화가 되야  NPU 칩도 개발이 가능하기 때문이다 ....   뭐든지 알면 쉽고 모르면 어렵듯이 초거대 모델 경량화도 마찬가지인것 같다 ...   경량화 논문을 한 4 - 5 달 찾아보니 감이 오는것 같다 ...   글로벌 대기업들의 경량화 논문을 살피면서 이런것에서 나도 실마리를 찾는것 같다 ...  사실 또 글로벌 대기업의 경량화 논문도 사실 그 전에 이미 발표됬던 발표된 딥러닝 모델 논문들의 핵심 아이디어에서 온것이구요 ...    나도 이렇게 글로벌 대기업들이 그동안 논문으로 발표했던 핵심 이슈 쫓아가기 바쁘다 ...   내가 할수 있는것은 여기까지 이다 ...   어찌됬던 초거대 모델 경량화의 핵심 이슈를 그래도 세세히 이해했으니 나로서는 만족한다 ...   

딥네트워크    장석원    HP   010 3350 6509    이메일   sayhi7@daum.net

SAR 군사위성(합성개구 레이더) 동작 원리를 분석하고 있다 ...   최근 한 7 - 8 달을 합성개구레이더 (SAR : Synthetic Aperture Radar) 국내외 논문을 하루에 2 편 정도씩 세부 검토 분석을 매일 매일 꾸준히 하고 있다 ...        합성개구레이더 (SAR : Synthetic Aperture Radar)의 설계 구조 이론중 가장 대표적으로 인용되는 설계 구조 알고리즘이 Doppler Shifter 이론 이다 ...      합성개구 레이더에서 Doppler Shifter 이론이 어떤 설계 구조로 동작하는지 이해 하는데 8 달이 걸려 세부 노하우 파악에 성공했다 ...  이것의 확실한 이해 없이는 SAR 군사위성 설계 구조를 이해하는게 불가능하다 ...    이런 기술적 기반 기술들로 지상 또는 해상에서 움직이는 물체와 움직이지 않는 물체의 구별이 가능해 지고 이것이 군사 SAR 위성의 핵심 동작 원리라 나는 파악하고 있다 ...   그동안 8 달 동안  SAR 위성 논문만 한 200 편 살펴봐서 이것의 파악에 성공했다 ...     

딥네트워크    장석원    HP  010 3350 6509    이메일   sayhi7@daum.net

GPT-3 사전학습 모델 구현 이해가 초거대 모델 구현의 기본중 기본이다 ....   어떤 동작원리와 설계 구조로 몇천억개의 학습데이터를 분산학습 및 병렬학습을 도대체 어떻게 구현했을까가 가장 궁금했다 ...   구글 텐서플로우 개발환경에서 딥러닝 분산학습과 병렬학습의 구현에 필요한 기술요소들의 지원이 되고 있고 한동안 이것의 세부 설계 방안에 대해 심도있게 분석도 했었다 ...    이것만 파악하면 초거대 모델의 사전 학습이 처리가 되느냐 하면 그건 아니다 ...   예를들어 클라우드 환경인 AWS GPU 서버들이 어떤 네트웍 통신구조를 가져야  수천억개의 학습 데이터의 분산 병렬 학습에 필요한 네트웍 통신이 가능할지 이런것을 구글 텐서플로우 개발 전문가들은 어떤식으로 처리를 했을지 그런것들의 검토 분석이 세부적으로 필요하다 ...    나도 이런 검토사항들을 완벽히 파악은 못했고 그 핵심 몇가지를 파악하는데 성공했다 ...    이렇게 초거대 모델의 사전학습이 완료되면 이 사전 학습 모델을 적용해서 초거대 모델의 세부 응용분야가 굉장히 여러 분야지만 어떤 특정 분야에 특화해서 성능이 우수한 초거대 모델을 개발할수 있을것 이다 ...    나는 이렇게 초거대 모델을 어떤 특정 분야에 특화해서  세부 커스토마이징 처리가 어떻게 되야 이것이 가능한지 그 설계 구조를 이해 하고 있다 ....    나도 이런것들의 분석이 가능해진게 초거대 모델 세부분석 준비를 시작한게 거의 3 년전쯤 이다 ...  3 년 동안 이 자료 저 자료 검토분석하다 보니 이런 저런 시행착오들이 쌓이고 쌓여서 내가 이런것들의 파악이 가능하게 하는것 같다 ...      나는 이제 나이 60 인데 내 나이에 맞지 않는 분야지만 나이는 숫자에 불과하다를 얘기하고 싶다 ...             

딥네트워크    장석원    HP   010 3350 6509    이메일   sayhi7@daum.net    

OpenAI 가 핵심 사업 구조로 생각하는 GPT 이니셔티브 사업화에 내가 소기업 이지만 이런것을 목표로 분석작업을 해야할것 같읍니다 ...   다음에 설명하겠지만 커스토마이징 초거대 모델 개발을 위한 준비가 나의 공부 목표와도 일치하는것 같읍니다 ...   즉 초거대 모델의 분야 분야별 특성에 맞게 그 기능을 커스토마이징을 어떻게 구현 해야 가능한지 뭐 이런것들의 고민이 필요할것 같읍니다 ....  OpenAI 는 다음과 같이 GPT 이니셔티브 사업화 를 애기합니다   .....  사용자가 자신만의 ChatGPT 버전을 만들 수 있도록 지원하는 GPT 이니셔티브를 진행하고 있습니다. GPT 이니셔티브는 사용자의 개인 및 직업적 요구 사항을 더 잘 충족할 수 있도록 AI의 기능을 개선하는 것을 목표로 합니다.     

딥네트워크    장석원      HP  010 3350  6509     이메일   sayhi7@daum.net

나는 꿈이 몇개 있다 ...   나는 70 년대 국민학교를 다녔을때 그때 흑백 TV 로 방송했던 만화영화 마징가 Z 라는것을 보면서 어린 나이에 생각했던것이 나도 커서 로봇 과학자가 되야겠다라고 생각했었다 ...   나 중학교때인가 600 만불의 사나이라는 미국 드라마도 흑백 TV 로 방송했었다 ...  이런것 보면서 로봇 이라는것에 관심을 가지기 시작했다 ...  이런 내가 올해 나이 60 이 됬다 ...   나는 그동안 인생동안  IT 분야 30 년 경험이 있다 ...   내 세대를 지내온 엔지니어들이 공통적으로 느끼는게  인터넷 세상이 본격적으로 나와서  각종 정보가 홍수를 이루는 시대가 된지  5 - 10 년 밖에 안된다 ...  인터넷 시대 전에는 이런 그급 정보가 주로 유명대 교수님 연구실이나 대기업 연구소 아니면 국영기업 연구소나 되야 이런 고급정보를 접근이 가능햿던 시대였기에  나도 뭔가를 시도하려 했을때 가장 큰 문제가  이런 고급 기술 정보 확보(내지 접근 자체가 불가능했기에)가 너무 어려웠기에 나는  해봐야겠다 라는 생각을 접어야 했었다 ...   그래서 내가 지금 나이 60 이지만 본격적으로 뭔가를 해보겠다고 뛰어든것은 최근 6 - 7 년 사이의 일 이다 ...  이때 부터 인터넷 세상의 고급정보들이  꽤 도움이 되는게 상당히 많이 공개되기 시작했다 ...    내가 거의 50 년전 국민학교 시절 로봇 공부해 보겠다고 어린 시절 마음 먹었지만 실제로 공부를 해보겠다고 시작한것은 최근 3 - 4 년전쯤에 적극적으로 공부하기 시작했다 ...    이런 우여곡절 끝에 로봇 개발의 기본인 모터의 정밀 토크 및 위치제어 공부를 시작하게 된다 ...  모터 토크 제어 및 위치제어의 핵심 원리 이해가 가능한 정보를 얻는것을 무려 3 년 이상을 노력(시행착오)하고서야 이제 비로소 나는 거의 정답에 가까운 고급 정보 확보에 성공했다 ....    이제서야 비로소 모터의 토크제어 / 위치제어를  PI  제어루프로 정밀제어하는 고급 기술정보 확보에 성공했다 ...    내가 모터 정밀 제어 노하우를 확보한것으로 로봇 개발 준비를 여기서  멈추지는 않았다 ...   로봇제어도 미사일 제어 처럼 자세검출 및 정밀 자세제어가 기본이다 ...   정밀 자세검출 및 제어를 위해서는 9 축 센서 칩으로 자세 검출하는것을 정밀 구현하는것도 필요하고 여기에 50 년전에 개발된 이론인 칼만필터로 자세 정밀 제어 하는것 까지 공부를 또 해야 한다 ...  진짜 쉽게 되는게 없다 ...  칼만필터 동작 원리 분석도 시작한지 1 년도 넘어가지만 그 원리의 핵심을 아직 파악하지 못했다 ...   이것 파악도 앞으로 수많은 시행착오를 거치면 파악에 성공할것 이다 ...    보스톤 다이나믹스가  1 조원에 현대차에 인수됬는데  아무려면 1 조원짜리 기술이 쉽게 파악 가능하리라고는 생각치 않았지만 공부해 보니 진짜 산 너머 산이다 ...    칼만필터 아직 파악 성공은 못하고 있지만 그래도 로봇 설계의 기본인 모터 정밀 제어 노하우는 파악에 성공했다   차근 차근 앞으로 나아가려 한다 ...   

딥네트워크    장석원    HP  010 3350  6509    이메일  sayhi7@daum.net

올해 나이 60 이 됬다 ...   대기업 연구소도 대학원 졸업하고 한동안 다녀보고 그동안 30 년 할 얘기가 참 많다 ...    인생에는 정답이 없는것 같다 ...  그동안 30 년은 그럭저럭 밥벌이는 했는데 문제는 지금 부터다 ...   나이 60 이니 이제 회사에 조인해 일하는것은 너무 힘들어졌다 ...    그래서 한 5 년전부터 매일 매일  하루에 최소 3 시간 이상을 글로벌 대기업에서 이슈화가 많이 되는 기술분야를 공부를 적극적으로 시작했다 ...   지금 생각하면 이렇게 5 년전에 공부를 시작한게 진짜 잘한 일이 됬다 ...    요즘 가장 뜨겁게 이슈화가 되는 기술분야인 인공지능 초거대 모델 개발을 주로 대기업들이 진행하고 있다 ...   OpenAI 는 ChatGPT 개발 인프라 구축에 거의 1 조 를 썼다고 본것 같다 ...  요즘 살펴보니 OpenAI 는 능력있는 ChatGPT 전문가 영입에 100 억을 쓴다고 본것 같다 ...  주변 얘기가 이러하니 감히 저 같은 소기업은 이런 초거대 모델 뭘 하겠다는 얘기를 할수가 없는 상황이다 ...   그래도 5 년전부터 GPT 를 관심있게 살피기 시작했구요 ...    나 같은 소기업이 초거대 모델을 공부해 보려면 뭘 어디 부터 살펴봐야 하는지 가늠하기가 참 어려웠다 ...   맨 처음 공부 시작할때 든 생각은 구글 트랜스포머 모델을 잘 분석해 봐야 겠다라고 생각했구요 ...    공부하다 보니 구글 트랜스포머 모델로  GPT 모델을 학습시키려면 초기에 공부 시작할때 든 생각은  딥러닝 모델 세부 구조를 어떻게 구성해야 하나가 제일 중요한줄 알았다 ...  공부하다 보니  분산학습 시  구글 트랜스포머 모델을 어떤식으로 동작하도록 구현해야 하는지가 더 중요할수 있겠다고  깨닮음이 있었다 ...   이렇게 깨닮음을 얻기는 했는데 공부하다 보니  구글 트랜스포머 모델을 학습 시키는데 필요한  엔비디아 딥러닝 서버 DGX-1 의  HW 설계 및 SW 설계를 파악이 필요하다는것을 절실히 느꼈다 ...    산 너머 산 이다 ...   지금 하나 하나 파악해 가고 있다 ...    엔비디아 딥러닝 서버 SW 설계의 핵심 중 하나가 리눅스커널상에서  엔비디아 딥러닝 서버의 네트웍 통신 개발 환경을 어떤식으로 구현했는지  또 이것을 구글 텐서플로우 환경에 어떻게 적용시켰는지 뭐 이런것 파악이  분산학습 이나 병렬학습 공부시 필요해서 공부중이다 ...      요즘 엔비디아 A100 GPU 나 H100 GPU 가 초거대 모델 구현시 너무나 큰 비중을 차지하는것이 요즘 화두 이기에  이걸 견제하려고  전 세계 글로벌 기업들이 너도나도 할것 없이 나만의 NPU 개발을 위해 시도를 하고 있다 ...  내가 지금까지 애기한 이런것들을 공부를 하는것도 나한테 기회가 오면 나도 NPU 관련 이슈도 대응할 능력을 갖기 위해서다 ...    NPU 이슈 전체 대응 능력 보유는 쉽지 않으니 그 일부라도 확실히 준비하자는게 나의 생각 이다 ...     

딥네트워크   장석원   HP  010 3350 6509   이메일  sayhi7@daum.net    

인공지능 기술이 너무 빨리 발전하는통에 생각치도 못했던 일들이 가능해졌고  이로인해 세상이 급변 하는 시대에 살고있다 ...   내가 올해 나이 60 이다 ....   92 년 1 월에 대기업 연구소 입사했을때가 엇그제 같다 ...  대기업 연구소는 7 년만에 자의반 타의반으로 그만두었다 ...  90 년대말 /  2000 년초에는 초고속 인터넷이 보급되면서  웹 설계 기술인 프론트 엔드 설계 기술과 백 엔드 설계 기술로 웹 서비스나 회사 홈페이지 를 만들수 있으면 넉넉한 밥벌이가 됬던 시절이다 ...   이 시기에 네이버 와 다음도 대기업 경력자들이 창업했던 시기였다 ...   이때 나의 한계는 무었인가 하면 이 시기는 지금과는 달리 인터넷에 고급 기술정보가 거의 없어서  기술정보를 획득하기가 너무 힘들어서  나는 웹 서비스 설계를 하는 구현 노하우 공부하는것을 거의 포기했었기에 대기업을 그만두었을때  한동안 힘들었고  나도 IMF 시기에 대기업을 그만뒀는데도 불구하고  나는 이런 사업 관련 세부 준비가 너무나 부족해서 네이버 다음 창업자처럼 철저한 사업 여러가지 세부 준비가 안 됬기에 IMF 시기에 거대한 창업은 엄두도 못냈었다 ...   이때가 기회였는데 말이다  ...   김대중 정부 들어서고 벤쳐 창업 지원을 정부가 적극적으로 했던 시기라 이때 창업해서 크게 성공한 벤쳐 창업가가 이제는 대기업이 된곳이 꽤 있다 ....    그래서  요즘이나 그때나 사람은 기회가 올때 잡기 위해 항상 철저히 준비된 사람이 되야 한다고 귀에 못이 박히게 애기해도 이를 허술히 듣는 경우가 굉장히 많고  나도 그때는 여러가지로 준비가 전혀 안됬었다 ...     내 나이 60 이다   나도 15 년전쯤 사업하다 쫄딱 말아 먹었었고 그래서 한 15 년 세월이 쉽지 않았다 ...   이렇게 쫄딱 말아 먹고  그래도 근근히 생활비 벌이는 했다 ...   그러다가 한 6 년전쯤  이렇게 지내서는 나의 노후가 너무 막막할것 같았다 ...  그래서  이때 부터  대기업의 핵심 기술분야 국내외 논문과 해외 글로벌 대기업의 각종 기술자료를 매일 매일 하루에 3 시간 이상을 돈이 되는 기술정보 확보를 위해서 꾸준히 세부 검토 분석을 했다 ...  그래서 현재는 카메라 분야 그리고 로봇 분야와 방산 레이더 개발 분야의 모든 노하우를 확보 성공한것은 아니고  이와 관련해서 나는 인터넷의 기술정보 분석으로 파악 가능한 돈이 되는 정보인 핵심 노하우 정보를 수십 가지 파악에 성공한 상태다 ....   내가 파악한 노하우를 소개하자면  SAR 위성에서 지상의 지형지물의 영상 데이터을 얻는 노하우 중 핵심 구현 노하우 전부는 아니고 그중 돈이 되는 몇가지 기술정보를 파악 성공했고  인공지능 분야의 경우도 삼성이 스마트폰에 10 개 국어 통번역 기능의 온 디바이스 AI 기술을 상용화해 출시 했는데  이의 구현과 관련해 공부해야 할 이슈가 굉장히 여러가지 인데  초거대 모델인 GPT-3 모델의 파인튜닝을 대기업들은 어떻게 처리하는지 라든가  OpenAI 가 엔비디아 A100 GPU 를 수천개 이상을 클라우드 환경에서 어떻게 초거대 모델을 분산학습 처리를 어떻게 처리했는지 등등 이런 기술 이슈들을 그동안 6 년간 기술자료를 검토 분석했읍니다 ...   나름 성과도 있으니 이런 글도 쓰겠지요 ...   OpenAI 가 초거대 모델 개발을 위해 몇조원을 투입해 개발 성공했는데 나 같은 소기업이 가능하겠냐 라고 하시겠지만 요즘은 인터넷에 이런 고급 기술정보를 한 매일 매일 몇시간씩  몇년 검토분석하면 나름 의미있는 고급 정보를 확보하는게 가능하거든요 ...     

이쪽으로 관심있어서 연락 주실 분은 아래의 연락처로 연락 부탁드립니다  ....   

일인기업  딥네트워크    장석원   HP  010 3350  6509    이메일   sayhi7@daum.net   

+ Recent posts