그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

NeRF 논문은 Neural Radiance Fields라는 새로운 방식으로 3D 장면을 표현하고, 다양한 시점에서의 합성 이미지를 생성하는 방법을 제안했습니다. NeRF는 다음과 같은 알고리즘으로 구현됩니다.
NeRF 논문의 몇가지 핵심 알고리즘의 설계구조와 동작원리를 확실히 파악하는데 성공했읍니다 ...
Positional Encoding : 3차원 좌표 x와 View Direction d를 고차원 벡터로 변환하는 과정입니다. 이때, 고주파 성분을 보존하기 위해 삼각함수를 이용한 인코딩 방식을 사용합니다. 즉, x와 d에 각각 다른 주파수와 위상을 가진 사인과 코사인 함수를 적용하여 특징 벡터를 생성합니다. 이렇게 하면 x와 d의 작은 변화에도 민감하게 반응할 수 있습니다.
Multi-Layer Perceptron (MLP) : Positional Encoding된 특징 벡터를 입력으로 받아 해당 위치에서 바라 본 Color와 Density를 출력하는 네트워크입니다. MLP는 여러 개의 Fully Connected Layer로 구성되며, 각 레이어에서는 ReLU 활성화 함수와 Skip Connection을 사용합니다. MLP의 마지막 레이어에서는 Color는 RGB 값으로, Density는 스칼라 값으로 출력됩니다.
Classical Volume Rendering : MLP에서 출력된 Color와 Density를 이용하여 합성 이미지를 생성하는 과정입니다. 이때, 카메라에서부터 장면까지의 광선을 따라서 여러 개의 샘플 포인트를 추출하고, 각 포인트에서의 Color와 Density를 MLP에 입력하여 계산합니다. 그리고, 샘플 포인트들의 Color와 Density를 가중 평균하여 최종적인 픽셀 값을 결정합니다. 이때, 가중치는 광선의 방향과 거리에 따라 달라지며, Density가 높을수록 더 많은 빛을 흡수하고 반사한다고 가정합니다.

NeRF 논문은 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis라는 제목으로 2020년 ECCV에 발표된 논문입니다. 이 논문은 몇 개의 2D 이미지만으로도 이미지 내 물체를 3D로 렌더링하는 새로운 방법을 제안하였습니다.

NeRF 논문의 주요 설계 구조는 다음과 같습니다:

Positional Encoding: NeRF는 3D 공간의 좌표와 방향을 입력으로 받아서, 각 위치에서의 색상과 밀도를 출력하는 신경망입니다. 하지만 신경망은 고차원의 주기적인 함수를 잘 근사하지 못하기 때문에, 입력을 그대로 사용하면 고해상도의 장면을 표현하기 어렵습니다. 따라서 NeRF는 입력을 Positional Encoding이라는 방법으로 변환하여 사용합니다. Positional Encoding은 각 차원의 값을 사인과 코사인 함수에 넣어서 여러 개의 주파수를 가진 값들로 확장하는 과정입니다. 이렇게 하면 신경망이 공간적인 변화에 더 잘 반응할 수 있습니다.

Multi-Layer Perceptron (MLP): NeRF는 Positional Encoding된 좌표와 방향을 입력으로 받아서, Multi-Layer Perceptron (MLP)라고 부르는 완전 연결 신경망에 통과시킵니다. MLP는 여러 개의 은닉층과 활성화 함수로 구성되어 있으며, 각 층에서는 선형 변환과 비선형 변환을 수행합니다. MLP의 마지막 층에서는 각 위치에서의 색상과 밀도를 출력합니다. 색상은 RGB 값으로 표현되며, 밀도는 투명도와 반대되는 개념으로 표현됩니다.

Volume Rendering: NeRF는 MLP를 통해 얻은 색상과 밀도를 이용하여, 장면을 합성하는 과정을 Volume Rendering이라고 부릅니다. Volume Rendering은 카메라와 장면 사이에 가상의 광선을 생성하고, 광선 위의 여러 점들에서 MLP를 평가하여 색상과 밀도를 얻습니다. 그리고 이들을 합성하여 광선이 카메라에 도달할 때의 최종 색상을 계산합니다. Volume Rendering은 광선 위의 점들이 서로 영향을 주고 받는 것을 모델링할 수 있기 때문에, 복잡한 광학적 현상을 재현할 수 있습니다.

NeRF 논문의 학습 원리는 다음과 같습니다:

NeRF는 주어진 2D 이미지들로부터 3D 장면을 학습하는 것이 목적입니다. 따라서 학습 데이터는 2D 이미지와 해당 이미지가 찍힌 카메라의 위치와 방향으로 구성됩니다.
NeRF는 학습 데이터의 2D 이미지와 동일한 위치와 방향에서 광선을 생성하고, Volume Rendering을 통해 재현한 이미지를 생성합니다. 그리고 이 재현한 이미지와 학습 데이터의 2D 이미지와의 차이를 측정하여, 손실 함수를 정의합니다.
NeRF는 손실 함수를 최소화하는 방향으로 MLP의 가중치를 업데이트합니다. 이렇게 하면 MLP는 주어진 위치와 방향에서 실제 장면과 유사한 색상과 밀도를 출력하도록 학습됩니다.
NeRF는 학습 데이터에 없는 새로운 위치와 방향에서도 장면을 합성할 수 있습니다. 이는 MLP가 장면의 연속적인 표현을 학습하기 때문입니다.

위와 같은 알고리즘을 적용하면, NeRF는 적은 수의 2D 이미지만으로도 3D 장면을 재구성하고, 다양한 시점에서의 합성 이미지를 생성할 수 있습니다

 

저희 기업과 함께하시면 NeRF 모델을 활용하여 2D 이미지로부터 3D Scene 을 재구성하고, 다양한 응용 분야에 적용할 수 있습니다. 저희 기업의 NeRF 모델 핵심기술에 대해 더 알고 싶으시다면, 아래의 연락처로 자세히 문의해 주세요.

 

제가 운영하는  일인기업  딥 네트워크  기술총괄  장석원

기업블로그  :    https://videocodec.tistory.com/     

제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일   :   sayhi7@daum.net

HP : 010-3350 6509

그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

저는 NeRF 논문, StyleGAN V2 논문, 초거대 모델 ChatGPT 모델에 적용되 있는 핵심 학습 알고리즘 구현이 실제로 어떻게 구체적으로 설계되 있는지를 깊이 있게 이해하고 있습니다. 저는 팀 구성없이 나 혼자 힘으로 논문을 분석해서 처리할 수 있는 능력을 갖추었습니다. 저는 NeRF 논문, StyleGAN V2 논문, 초거대 모델 ChatGPT 모델 의 여러 핵심 알고리즘을 자문하는 방식으로 도움을 드릴 수 있습니다. 

StyleGAN V2 논문 모델 의 핵심 알고리즘 설계구조 및 원리를 확실히 파악 성공했읍니다 ...

StyleGAN V2 논문은 StyleGAN의 개선된 버전으로, Style Transfer 알고리즘을 이용하여 가상인간 아바타의 얼굴 Style Transfer를 구현 가능합니다. Style Transfer 알고리즘은 다음과 같은 과정으로 이루어집니다.

Mapping Network의 8개의 완전연결층(FC)이 z공간에서 잠재벡터들이 서로 가까이 있을수록 비슷한 스타일을 가지게 학습이 가능한 이유는 다음과 같습니다.
Mapping Network는 z와 w 사이의 비선형 매핑을 가능하게 하고, 스타일의 다양성과 연속성을 증가시킵니다. Mapping Network는 z를 입력받아서 여러 층을 거치면서 비선형 변환을 수행하고, w를 출력합니다. 이때, w공간에서는 각 차원이 서로 독립적이고 의미있는 스타일 요소를 표현하도록 학습됩니다.
Mapping Network는 Style Mixing Regularization이라는 기법을 사용하여 학습됩니다. 이 기법은 두 개의 잠재벡터(z1, z2)를 Mapping Network에 통과시켜서 두 개의 w벡터(w1, w2)를 얻고, 이 두 벡터를 Synthesis Network의 일부 층에서 섞어서 입력하는 방식입니다. 이렇게 하면 Synthesis Network가 다양한 스타일 조합에 적응하도록 하고, w공간에서의 스타일 요소들이 서로 연관되지 않도록 합니다.
Mapping Network는 Perceptual Path Length라는 지표로 측정할 수 있는 z공간과 W공간 사이의 관계를 학습합니다. 이 지표는 z공간에서 잠재벡터를 작게 변화시켰을 때, 생성된 이미지가 얼마나 많이 변화하는지를 VGG16 모델을 이용하여 계산합니다. 이 지표가 작을수록 z공간에서 잠재벡터들이 서로 가까이 있을수록 비슷한 스타일을 가지고, 멀리 있을수록 다른 스타일을 가지도록 학습된 것입니다.
즉, Mapping Network는 z공간에서 잠재벡터들이 서로 가까운 위치에 있으면 비슷한 스타일 요소를 가진 w벡터로 변환하고, 서로 먼 위치에 있으면 다른 스타일 요소를 가진 w벡터로 변환하도록 학습됩니다. 그리고 Synthesis Network는 w벡터에 따라서 생성된 이미지의 스타일을 결정합니다. 따라서 Mapping Network의 8개의 완전연결층(FC)은 z공간에서 잠재벡터들이 서로 가까이 있을수록 비슷한 스타일을 가지게 학습이 가능합니다.

AdaIN과 Weight Demodulation은 모두 StyleGAN에서 이미지의 스타일을 제어하기 위한 방법입니다. 그러나 두 방법은 다음과 같은 차이점을 가지고 있습니다.
AdaIN은 특징 맵의 평균과 분산을 정규화하는 방법입니다. AdaIN은 각 레이어에서 잠재 벡터 w로부터 계산된 스타일 파라미터를 이용하여 특징 맵의 평균과 분산을 정규화합니다. AdaIN은 스타일 전달(style transfer)에서 영감을 받았으며, 이미지의 스타일과 콘텐츠를 분리하는 데 도움이 됩니다.
Weight Demodulation은 합성곱 가중치의 크기를 정규화하는 방법입니다. Weight Demodulation은 AdaIN 대신 합성곱 가중치를 정규화하여 특징 맵의 크기에 영향을 주는 스타일 정보를 제거합니다. Weight Demodulation은 StyleGAN2에서 도입된 개선된 방법으로, AdaIN의 한계점인 물방울 모양의 아티팩트(artifacts)를 줄이기 위한 것입니다.
즉, AdaIN은 특징 맵 자체를 정규화하고, Weight Demodulation은 합성곱 가중치를 정규화한다는 점이 가장 큰 차이점입니다. 또한, AdaIN은 StyleGAN에서 사용되고, Weight Demodulation은 StyleGAN2에서 사용된다는 점도 차이점입니다.

Weight Demodulation의 합성곱 가중치 크기 정규화 관련 설계원리 및 구조는 다음과 같습니다.
Weight Demodulation은 합성곱 가중치에 Weight Modulation과 Demodulation 두 가지 과정을 적용합니다. Weight Modulation은 스타일 벡터를 합성곱 가중치에 곱하는 것이고, Demodulation은 합성곱 가중치의 크기를 정규화하는 것입니다.
Weight Demodulation은 StyleGAN에서 발생하는 artifact라는 결함을 해결하기 위해 도입되었습니다. Artifact란 합성된 이미지에 일부 영역이 주변과 불일치하는 현상을 말합니다. 이는 합성곱 가중치의 크기가 너무 커서 입력 데이터의 세부 정보를 잃어버리기 때문에 발생한다고 추정됩니다.
Weight Demodulation은 합성곱 가중치의 크기를 정규화함으로써, 입력 데이터의 세부 정보를 보존하고, artifact를 제거하며, 이미지 품질을 향상시킵니다. 또한, Weight Demodulation은 스타일 벡터와 합성곱 가중치 사이의 상호작용을 강화하고, 스타일 변화에 민감하게 반응하도록 합니다

Weight Modulation과 Demodulation의 목적과 이유에 대해 간단히 설명하겠습니다.
Weight Modulation의 목적은 스타일 벡터를 합성곱 가중치에 반영하여, 이미지의 스타일을 제어하는 것입니다. Weight Modulation의 이유는 스타일 벡터와 합성곱 가중치 사이의 상호작용을 강화하고, 스타일 변화에 민감하게 반응하도록 하기 위해서입니다 . Weight Modulation은 스타일 벡터를 합성곱 가중치에 곱하는 것으로, 합성곱 가중치를 스타일 벡터에 따라 동적으로 변화시킵니다.
Demodulation의 목적은 합성곱 가중치의 크기를 정규화하여, 이미지의 품질을 향상시키는 것입니다. Demodulation의 이유는 합성곱 가중치의 크기가 너무 커지거나 작아지면, 입력 데이터의 세부 정보를 잃어버리거나, 이미지에 결함을 유발할 수 있기 때문입니다 . Demodulation은 합성곱 가중치의 크기를 L2 norm으로 나누는 것으로, 합성곱 가중치의 크기를 1 에 가깝게 만듭니다.

 

제가 운영하는 딥 네트워크는 딥러닝 모델분석 전문가로서 기술컨설팅이 가능합니다. 저희는 고객의 요구와 목적에 맞게 최적의 딥 네트워크 설계와 구현을 도와드립니다. 저희는 고객의 데이터와 문제에 적합한 핵심 학습 알고리즘을 선택하고 적용합니다. 저희는 고객의 딥 네트워크의 성능과 안정성을 향상시키고 최적화합니다.
저희 회사와 함께라면 귀사의 딥러닝 모델의 핵심 알고리즘을 분석하는데 어떤 어려움도 없을 것입니다. 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

카메라 화질튜닝은 카메라가 촬영한 이미지를 보정하고 개선하는 과정입니다.  카메라 화질튜닝에는 여러 가지 요소가 있지만, 여기서는 감마 보정, 컬러 보정, 화이트밸런스 보정, 렌즈쉐이드 보정에 대해 알아보겠습니다.
감마 보정은 이미지의 명암 대비를 조절하는 과정입니다. 감마 값이 낮으면 이미지가 밝아지고, 높으면 어두워집니다. 감마 보정을 통해 이미지의 선명도와 색감을 향상시킬 수 있습니다.   컬러 보정은 이미지의 색상을 조절하는 과정입니다. 컬러 보정을 통해 이미지의 색온도, 채도, 색조 등을 변경할 수 있습니다. 컬러 보정은 이미지의 분위기와 표현력을 높일 수 있습니다.    화이트밸런스 보정은 이미지의 색상 균형을 조절하는 과정입니다. 화이트밸런스 보정을 통해 이미지의 색상이 자연스럽고 정확하게 나타날 수 있습니다. 화이트밸런스 보정은 이미지의 실제성과 명료성을 높일 수 있습니다.     렌즈쉐이드 보정은 이미지의 밝기 균형을 조절하는 과정입니다. 렌즈쉐이드 보정을 통해 이미지의 가장자리 부분이 어두워지는 현상을 줄일 수 있습니다. 렌즈쉐이드 보정은 이미지의 균일성과 왜곡을 줄일 수 있습니다.     카메라 화질튜닝시에는 위의 4가지 요소를 순서대로 진행하는 것이 좋습니다. 감마 보정부터 시작하여 컬러 보정, 화이트밸런스 보정, 렌즈쉐이드 보정 순으로 진행하면 이미지의 품질을 최적화할 수 있습니다.
카메라 화질튜닝의 최종 결과물을 얻으려면 앞에서 언급한 4가지를 어떻게 최적화하느냐에 따라 달라집니다. 최적화 방법은 카메라의 종류와 성능, 촬영 환경과 목적, 개인의 취향 등에 따라 다르므로 정답은 없습니다. 하지만 일반적으로 다음과 같은 원칙을 따르면 좋습니다.
딥 네트워크의 카메라 화질튜닝 솔루션  :  감마 값은 2.2 정도로 설정하면 대부분의 모니터에서 자연스럽게 보일 수 있습니다.  컬러 값은 RGB 채널별로 균형있게 조절하고, 색온도는 5000K~6500K 사이로 설정하면 중립적인 색감을 얻을 수 있습니다.  화이트밸런스 값은 촬영된 장면의 주광원에 맞추어 조절하면 자연스러운 색상 균형을 얻을 수 있습니다.   렌즈쉐이드 값은 이미지의 가장자리 부분의 밝기가 중앙 부분과 비슷하게 조절하면 균일한 밝기 균형을 얻을 수 있습니다.

카메라 화질 튜닝이란  카메라로 촬영한 영상의 화질을 개선하는 과정입니다. 카메라 화질 튜닝에는 다양한 알고리즘들이 사용됩니다. 예를 들어, 
광원의 색온도 측정은 영상의 색상을 균일하고 자연스럽게 만들기 위해 광원의 색온도를 측정하고 보정하는 알고리즘입니다. 광원의 색온도는 영상의 화이트 밸런스에 영향을 줍니다.
감마 보정은 영상의 명암 대비를 조절하기 위해 감마 곡선을 적용하는 알고리즘입니다. 감마 보정은 영상의 밝기와 선명도에 영향을 줍니다.
컬러 보정은 영상의 색상을 조절하기 위해 컬러 매트릭스나 컬러 룩업 테이블을 사용하는 알고리즘입니다. 컬러 보정은 영상의 색감과 분위기에 영향을 줍니다.
화이트밸런싱 보정은 영상의 색온도를 조절하기 위해 화이트 밸런스 게인을 사용하는 알고리즘입니다. 화이트밸런싱 보정은 영상의 색온도와 색조에 영향을 줍니다.
노출시간 제어는 영상의 밝기를 조절하기 위해 노출시간을 제어하는 알고리즘입니다. 노출시간 제어는 영상의 밝기와 잡음에 영향을 줍니다.
렌즈 쉐이딩 보정은 렌즈로 인해 발생하는 영상의 밝기와 색상의 변화를 보정하는 알고리즘입니다. 렌즈 쉐이딩 보정은 영상의 균일성과 왜곡에 영향을 줍니다.

 

제가 운영하는 딥 네트워크는 카메라 화질튜닝 전문 기업으로서, 저희는 다음과 같은 기술들의  대표적인 화질튜닝 설계 알고리즘을 보유하고 있습니다.

제가 운영하는 딥 네트워크는 카메라 화질튜닝 전문 기업으로서, 저희는 다음과 같은 기술들의  대표적인 화질튜닝 설계 알고리즘을 보유하고 있습니다.

화이트밸런스 제어 기술 

촬영 장면의 색온도에 따라 색상을 균형있게 조절합니다. 자연스러운 색감을 재현하고, 색상의 변화에 민감하게 반응합니다. 이 기술의 핵심은 색온도 센서를 통해 장면의 색온도를 측정하고, 적절한 화이트밸런스 알고리즘을 적용하여 영상의 RGB 값을 보정하는 것입니다. 

해외특허나 논문에서 제시한 화이트밸런스  설계  제어 알고리즘 수식을 확보하고 있읍니다. 

렌즈 쉐이드 보정 기술 

렌즈의 왜곡이나 결함으로 인한 영상의 불균형을 보정합니다. 깔끔하고 고르게 조명된 영상을 얻고, 영상의 품질을 향상시킵니다. 이 기술의 핵심은 렌즈의 광학적 특성을 분석하고, 영상의 각 픽셀에 대해 렌즈 쉐이드 보정 테이블을 참조하여 영상의 밝기와 색상을 보정하는 것입니다.   

해외특허나 논문에서 제시한 렌즈 쉐이드 보정 기술  설계 알고리즘 제어 수식을 확보하고 있읍니다. 

감마 보정 기술

영상의 명암비를 인간의 눈에 맞게 조절합니다. 세부적인 표현력과 대비감을 높이고, 영상의 밝기와 명도를 최적화합니다. 이 기술의 핵심은 영상의 감마 값을 설정하고, 감마 보정 테이블을 생성하여 영상의 각 픽셀에 대해 감마 보정 값을 적용하는 것입니다. 

해외특허나 논문에서 제시한 감마 보정 기술  설계 알고리즘 제어 수식을 확보하고 있읍니다

노출시간 제어 기술

영상의 밝기를 조절합니다. 너무 밝거나 어두운 장면을 적절하게 촬영하고, 영상의 선명도와 잡음을 줄입니다. 이 기술의 핵심은 영상의 평균 밝기를 측정하고, 노출시간 제어 알고리즘을 적용하여 카메라 센서가 받는 빛의 양을 조절하는 것입니다. 

노출시간 제어 기술  설계 알고리즘 파악에 성공해서  구현 가능 합니다.   

줌  렌즈 제어 기술

당신의 카메라는 단순히 확대와 축소만 하는 줌 렌즈가 아닙니다. 우리의 카메라 줌 제어 기술은 영상의 공간적 축소방법을 이용하여 콘트라스트 향상을 위한 누적 분포함수의 계산량을 감소시키고 하드웨어의 복잡성을 줄입니다. 또한 각 픽셀의 콘트라스트를 비교하여 가장 큰 값을 선택하고 이에 맞춰 줌 렌즈를 제어하여 선명한 화면을 얻습니다. 우리의 카메라 줌 제어 기업은 영상의 콘트라스트 향상과 선명도 향상을 동시에 실현하는 차별화된 알고리즘을 보유하고 있습니다. 멀리서도 선명하게 당신의 순간을 담아보세요 

줌 렌즈  제어 기술   알고리즘 구현 노하우를 보유하고 있읍니다 ...   

 

저희는 이러한 기술들을 통합하여 최고의 카메라 화질튜닝 솔루션을 제공하고 있습니다. 저희와 함께라면 더욱 선명하고 생동감 있는 카메라 화질을 경험하실 수 있습니다.  

제가 운영하는 딥 네트워크 의  Camera 3A 튜닝 관련 화질 보정 알고리즘 몇가지를 그동안 3 년에 걸쳐 분석 성공한 내용을 공개합니다 ...  카메라 3A 튜닝 기술중 우선 2 가지, Exposure 제어와 White balance 제어 관련해서 소개해 보겠읍니다 ...   카메라 영상 컬러 보정 알고리즘의 제어를 통해서는  카메라 영상 영역의 히스토그램 평활화을 통해서 카메라 이미지의 광원에 따른 영상의 선명도 보정 작업이 가능합니다.  여기에  화질 튜닝을 하려면 White balance 제어가 필요합니다 ....  White Balance 제어는 카메라에 비춰지는 광원의 색온도를 측정을 통해 광원의 White balance 특성을 파악하게 되구요 ...   즉 광원의 특성에 따라 카메라 이미지의 White balance 제어 처리가 된 영상으로 보정되야 한다는것 입니다 ...     

제가 운영하는 딥 네트워크는 Lens Shade Correction 기법 또한 노하우가 있읍니다 ...  카메라 이미지의 센터부는 밝기값 Y 값이 크고 카메라 이미지의 Edge 부분은 상대적으로 밝기값인 Y 값이 작읍니다 ...  따라서 이 Y 값을  카메라 이미지의 센터부와 카메라 이미지의 Edge 부의 중간 정도 값으로 카메라 이미지의 밝기값을 조정해 주는 작업이  Lens Shade Correction 기법이라고 파악하고 있읍니다 ...

딥 네트워크는 Gamma Correction 노하우 또한 있읍니다 ...   픽셀값을 밝게 하려면 Intensity 값을 크게 해주면 되구요  반대로 어둡게 하려면 Intensity 값을 작게 해줘야 합니다.  Gamma Correction 은 모든 픽셀값에 대해서 동일한 값만큼 Intensity 값을 증가 시키지는 않읍니다.  밝게하거나 어둡게 할때 어두운 부분의 Intensity 값을 더 많이 변화시키게 됩니다 ... 

Focus 제어의 경우

Contrast 값이 높게 나오는 부분이 Focus 가 잘 맞추어진 상태를 의미 하거든요  Focus 를 맞출 영역을 정의한후 그 영역이 Contrast 값이 높게 나오도록 포커싱 제어부를 제어를 해주면 된다고 판단하고 있읍니다 ...    CZ(Continuous Zoom) 기능 구현을 위해  lookup 테이블에 따라 카메라모듈의 스테핑 모터가 동작하도록 구현하는 부분이 필요합니다 ...  

Zoom 제어의 경우

시리얼 통신으로 카메라의 Zoom 을 제어하는 통신 프로토콜인 Pelco-D/P Protocol 를  사용해서 카메라의 Zoom 을 제어하는 부분의 구현이 필요하구요  ...    

관련해서 카메라 보드 펌웨어 개발 및 Camera 3A 튜닝 개발문의 및 기술자문 문의 부탁드립니다 .... 

이미지센서(카메라 보드) 펌웨어의 프로토타입 개발기간 이후 양산대응을 위한 안정화 개발기간이 필요합니다 ...  

이미지센서(카메라 보드)  펌웨어의 프로토타입 개발에 필요한 상세 개발규격을 메일로 전달 부탁드립니다 ...

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

 

 

 

 

 

 

 

 

그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

StyleGAN 논문의 딥러닝 모델은 고해상도의 사실적인 가상인간 이미지를 생성할 수 있는 강력한 기술입니다. 이 모델은 스타일 Transfer 메커니즘을 통해 다양한 스타일 요소를 조절하고 결합할 수 있습니다. 스타일 Transfer 메커니즘의 세부 동작원리는 다음과 같습니다.

StyleGAN V2 논문의 핵심 알고리즘 5 가지는 다음과 같습니다.

Normalization artifacts 제거 :  StyleGAN V2는 기존의 GAN 모델들이 가지고 있던 물방울 모양의 아티팩트를 제거하였습니다. 이를 위해 스타일을 적용하는 방식을 혁신적으로 개선하고, 새로운 정규화 방법을 도입하였습니다. 이 알고리즘은 가상인간을 구현할 때, 피부나 머리카락 등의 세부적인 텍스처를 더욱 자연스럽고 선명하게 만들어줍니다.
Path length regularization 도입 :  StyleGAN V2는 latent space의 작은 변화가 생성된 이미지에 큰 영향을 미치지 않도록 하였습니다. 이를 위해 path length regularization이라는 새로운 방법을 사용하여 이미지 품질과 generator의 smoothness를 동시에 향상시켰습니다. 이 알고리즘은 가상인간을 구현할 때, 다양한 표정이나 감정을 부드럽게 표현할 수 있도록 도와줍니다.
Progressive growing 개선 :  StyleGAN V2는 progressive growing이라는 점진적으로 해상도를 높여가는 학습 방법을 대체하였습니다. 이 방법은 해상도별로 다른 특징이 나타나는 phase artifact라는 문제점을 가지고 있었습니다. StyleGAN V2는 skip connection과 residual connection을 결합하여 각 해상도의 feature map을 효율적으로 활용하고, capacity 문제를 해결하기 위해 상위 레이어의 feature map의 수를 증가시켰습니다. 이 알고리즘은 가상인간을 구현할 때, 고해상도의 이미지를 빠르고 안정적으로 생성할 수 있도록 도와줍니다.
Style mixing 기법 도입 :  StyleGAN V2는 latent space에서 뽑은 여러 개의 스타일 벡터를 각 레이어에 적용하여 다양한 스타일이 섞인 이미지를 생성할 수 있는 기법입니다. 이 기법은 style correlation이 발생하지 않도록 하며, regularization 효과도 줍니다. 이 알고리즘은 가상인간을 구현할 때, 원하는 스타일과 특징을 조합하여 맞춤형 이미지를 생성할 수 있도록 도와줍니다.
Latent space로의 projection 기능 추가 :  StyleGAN V2는 이미지를 latent space로 역투영하는 projection 기능을 추가하였습니다. 이 기능은 주어진 이미지와 가장 비슷한 latent vector를 찾아내어, 이미지를 수정하거나 변형하는데 사용할 수 있습니다. 이 알고리즘은 가상인간을 구현할 때, 실제 인간의 이미지를 latent space로 가져와서 원하는 방식으로 변경하거나 합성할 수 있도록 도와줍니다.
이상으로 StyleGAN V2 논문의 핵심 알고리즘 5 가지와 그것이 가상인간 구현에 어떻게 응용되는지에 대해 설명하였습니다. StyleGAN V2는 GAN 분야의 최첨단 기술로서, 가상인간을 구현하는데 매우 유용하고 강력한 모델입니다.

StyleGAN 논문 딥러닝 모델 설계구조 기술컨설팅은 StyleGAN의 아키텍처와 알고리즘을 이해하고, 적용하고, 개선하고자 하는 분들을 위한 서비스입니다. 

 

[일인기업 딥 네트워크][딥러닝 기술자문 전문] StyleGAN V2 논문 모델 의 여러 핵심 알고리즘 설계구조 및 원리를 자문하는 방식으로 도움을 드릴 수 있습니다. (tistory.com)       제 기업블로그 사이트도 StyleGAN 관련 내용이니 자세히 살펴봐 주십시요 ...

 

[일인기업 딥 네트워크][딥러닝 기술자문 전문] StyleGAN V2 논문 모델 의 여러 핵심 알고리즘 설계

저는 NeRF 논문, StyleGAN V2 논문, 초거대 모델 ChatGPT 모델에 적용되 있는 핵심 학습 알고리즘 구현이 실제로 어떻게 구체적으로 설계되 있는지를 깊이 있게 이해하고 있습니다. 저는 팀 구성없이 나

videocodec.tistory.com

저희 기업은 StyleGAN 논문의 딥러닝 모델의 세부 분석 기술력을 바탕으로 사업화가 가능한 가상인간 구현 분야와 관련해서 기술자문 사업을 제공합니다. 저희 기업과 함께하시면 StyleGAN 모델을 활용하여 원하는 가상인간 이미지를 쉽고 빠르게 생성하고, 다양한 응용 분야에 적용할 수 있습니다. 저희 기업의 StyleGAN 모델 세부 분석 기술력에 대해 더 알고 싶으시다면, 아래의 연락처로 문의를 자세히 해 주세요.

 

제가 운영하는  일인기업  딥 네트워크  기술총괄  장석원

기업블로그  :    https://videocodec.tistory.com/     

제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일   :   sayhi7@daum.net

HP : 010-3350 6509

 

안녕하세요. 저는 딥 네트워크라는 일인기업입니다. 저는 GPT-3 모델, ChatGPT 모델, LLaMA 모델과 같은 딥러닝 초거대 모델의 핵심이 되는 학습 알고리즘을 연구하고 있습니다. 저는 이러한 모델들이 어떤 구조로 학습모델의 발전이 이루어졌는지를 깊이있게 분석하고 비교하였습니다. 저는 지난 2년간 다양한 논문들을 리뷰하고 요약하였으며, 최신의 연구동향과 트렌드를 파악하였습니다. 저는 이러한 분석 기술력을 바탕으로 딥러닝 초거대 모델의 학습 알고리즘의 원리와 동작 방식을 잘 이해하고 있습니다. 

딥 네트워크는 ChatGPT 초거대 언어모델 기술컨설팅의 전문가입니다. 딥 네트워크는 딥러닝 모델 학습 구조 분석 기술력의 핵심을 다음과 같이 정리할 수 있습니다.

딥러닝 모델 학습 구조 분석 기술력은 딥러닝 모델의 원리와 구조를 이해하고, 모델의 성능과 한계를 평가하고, 모델의 튜닝과 수정을 통해 최적화하는 능력입니다.   딥 네트워크는 GPT-3 모델 학습 구조 분석에 성공한 후, ChatGPT 초거대 언어모델 기술컨설팅에도 큰 진전을 보여준 기업입니다. 딥 네트워크는 GPT-3 모델과 ChatGPT 모델의 학습 구조를 깊이 있게 분석하고, 고객에게 최적의 분석 결과를 제공합니다.  딥 네트워크는 딥러닝 모델 학습 구조 분석 기술력을 바탕으로, ChatGPT 초거대 언어모델의 강화학습 방식에 대한 이론적인 지식을 갖고 있습니다.  하지만, 딥 네트워크는 아직 ChatGPT 초거대 언어모델을 활용한 챗봇 개발 및 배포에 대한 경험은 없습니다.   딥 네트워크는 ChatGPT 초거대 언어모델 기술컨설팅의 전문가로서, 고객의 요구에 맞는 최고의 분석 서비스를 제공합니다.

딥 네트워크와 함께라면, ChatGPT 초거대 언어모델의 비밀을 풀 수 있습니다.   딥 네트워크에 문의하세요.

제가 운영하는  일인기업  딥 네트워크  기술총괄  장석원

기업블로그  :    https://videocodec.tistory.com/     

제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일   :   sayhi7@daum.net

HP : 010-3350 6509

그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

카메라 화질튜닝은 카메라가 촬영한 이미지를 보정하고 개선하는 과정입니다. 카메라 화질튜닝에는 여러 가지 요소가 있지만, 여기서는 감마 보정, 컬러 보정, 화이트밸런스 보정, 렌즈쉐이드 보정에 대해 알아보겠습니다.

감마 보정은 이미지의 명암 대비를 조절하는 과정입니다. 감마 값이 낮으면 이미지가 밝아지고, 높으면 어두워집니다. 감마 보정을 통해 이미지의 선명도와 색감을 향상시킬 수 있습니다.   컬러 보정은 이미지의 색상을 조절하는 과정입니다. 컬러 보정을 통해 이미지의 색온도, 채도, 색조 등을 변경할 수 있습니다. 컬러 보정은 이미지의 분위기와 표현력을 높일 수 있습니다.    화이트밸런스 보정은 이미지의 색상 균형을 조절하는 과정입니다. 화이트밸런스 보정을 통해 이미지의 색상이 자연스럽고 정확하게 나타날 수 있습니다. 화이트밸런스 보정은 이미지의 실제성과 명료성을 높일 수 있습니다.     렌즈쉐이드 보정은 이미지의 밝기 균형을 조절하는 과정입니다. 렌즈쉐이드 보정을 통해 이미지의 가장자리 부분이 어두워지는 현상을 줄일 수 있습니다. 렌즈쉐이드 보정은 이미지의 균일성과 왜곡을 줄일 수 있습니다.     카메라 화질튜닝시에는 위의 4가지 요소를 순서대로 진행하는 것이 좋습니다. 감마 보정부터 시작하여 컬러 보정, 화이트밸런스 보정, 렌즈쉐이드 보정 순으로 진행하면 이미지의 품질을 최적화할 수 있습니다.

카메라 화질튜닝의 최종 결과물을 얻으려면 앞에서 언급한 4가지를 어떻게 최적화하느냐에 따라 달라집니다. 최적화 방법은 카메라의 종류와 성능, 촬영 환경과 목적, 개인의 취향 등에 따라 다르므로 정답은 없습니다. 하지만 일반적으로 다음과 같은 원칙을 따르면 좋습니다.

딥 네트워크의 카메라 화질튜닝 솔루션  :  감마 값은 2.2 정도로 설정하면 대부분의 모니터에서 자연스럽게 보일 수 있습니다.  컬러 값은 RGB 채널별로 균형있게 조절하고, 색온도는 5000K~6500K 사이로 설정하면 중립적인 색감을 얻을 수 있습니다.  화이트밸런스 값은 촬영된 장면의 주광원에 맞추어 조절하면 자연스러운 색상 균형을 얻을 수 있습니다.   렌즈쉐이드 값은 이미지의 가장자리 부분의 밝기가 중앙 부분과 비슷하게 조절하면 균일한 밝기 균형을 얻을 수 있습니다.

카메라 화질 튜닝이란  카메라로 촬영한 영상의 화질을 개선하는 과정입니다. 카메라 화질 튜닝에는 다양한 알고리즘들이 사용됩니다. 예를 들어, 
광원의 색온도 측정은 영상의 색상을 균일하고 자연스럽게 만들기 위해 광원의 색온도를 측정하고 보정하는 알고리즘입니다. 광원의 색온도는 영상의 화이트 밸런스에 영향을 줍니다.
감마 보정은 영상의 명암 대비를 조절하기 위해 감마 곡선을 적용하는 알고리즘입니다. 감마 보정은 영상의 밝기와 선명도에 영향을 줍니다.
컬러 보정은 영상의 색상을 조절하기 위해 컬러 매트릭스나 컬러 룩업 테이블을 사용하는 알고리즘입니다. 컬러 보정은 영상의 색감과 분위기에 영향을 줍니다.
화이트밸런싱 보정은 영상의 색온도를 조절하기 위해 화이트 밸런스 게인을 사용하는 알고리즘입니다. 화이트밸런싱 보정은 영상의 색온도와 색조에 영향을 줍니다.
노출시간 제어는 영상의 밝기를 조절하기 위해 노출시간을 제어하는 알고리즘입니다. 노출시간 제어는 영상의 밝기와 잡음에 영향을 줍니다.
렌즈 쉐이딩 보정은 렌즈로 인해 발생하는 영상의 밝기와 색상의 변화를 보정하는 알고리즘입니다. 렌즈 쉐이딩 보정은 영상의 균일성과 왜곡에 영향을 줍니다.

제가 운영하는 딥 네트워크는 카메라 화질튜닝 전문 기업으로서, 저희는 다음과 같은 기술들의  대표적인 화질튜닝 설계 알고리즘을 보유하고 있습니다.

화이트밸런스 제어 기술 

촬영 장면의 색온도에 따라 색상을 균형있게 조절합니다. 자연스러운 색감을 재현하고, 색상의 변화에 민감하게 반응합니다. 이 기술의 핵심은 색온도 센서를 통해 장면의 색온도를 측정하고, 적절한 화이트밸런스 알고리즘을 적용하여 영상의 RGB 값을 보정하는 것입니다. 

해외특허나 논문에서 제시한 화이트밸런스  설계  제어 알고리즘 수식을 확보하고 있읍니다. 

렌즈 쉐이드 보정 기술 

렌즈의 왜곡이나 결함으로 인한 영상의 불균형을 보정합니다. 깔끔하고 고르게 조명된 영상을 얻고, 영상의 품질을 향상시킵니다. 이 기술의 핵심은 렌즈의 광학적 특성을 분석하고, 영상의 각 픽셀에 대해 렌즈 쉐이드 보정 테이블을 참조하여 영상의 밝기와 색상을 보정하는 것입니다.   

해외특허나 논문에서 제시한 렌즈 쉐이드 보정 기술  설계 알고리즘 제어 수식을 확보하고 있읍니다. 

감마 보정 기술

영상의 명암비를 인간의 눈에 맞게 조절합니다. 세부적인 표현력과 대비감을 높이고, 영상의 밝기와 명도를 최적화합니다. 이 기술의 핵심은 영상의 감마 값을 설정하고, 감마 보정 테이블을 생성하여 영상의 각 픽셀에 대해 감마 보정 값을 적용하는 것입니다. 

해외특허나 논문에서 제시한 감마 보정 기술  설계 알고리즘 제어 수식을 확보하고 있읍니다

노출시간 제어 기술

영상의 밝기를 조절합니다. 너무 밝거나 어두운 장면을 적절하게 촬영하고, 영상의 선명도와 잡음을 줄입니다. 이 기술의 핵심은 영상의 평균 밝기를 측정하고, 노출시간 제어 알고리즘을 적용하여 카메라 센서가 받는 빛의 양을 조절하는 것입니다. 

노출시간 제어 기술  설계 알고리즘 파악에 성공해서  구현 가능 합니다.   

줌  렌즈 제어 기술

당신의 카메라는 단순히 확대와 축소만 하는 줌 렌즈가 아닙니다. 우리의 카메라 줌 제어 기술은 영상의 공간적 축소방법을 이용하여 콘트라스트 향상을 위한 누적 분포함수의 계산량을 감소시키고 하드웨어의 복잡성을 줄입니다. 또한 각 픽셀의 콘트라스트를 비교하여 가장 큰 값을 선택하고 이에 맞춰 줌 렌즈를 제어하여 선명한 화면을 얻습니다. 우리의 카메라 줌 제어 기업은 영상의 콘트라스트 향상과 선명도 향상을 동시에 실현하는 차별화된 알고리즘을 보유하고 있습니다. 멀리서도 선명하게 당신의 순간을 담아보세요 

줌 렌즈  제어 기술   알고리즘 구현 노하우를 보유하고 있읍니다 ...   

이미지센서(카메라 보드) 펌웨어의 프로토타입 개발기간 이후 양산대응을 위한 안정화 개발기간이 필요합니다 ...  

이미지센서(카메라 보드)  펌웨어의 프로토타입 개발에 필요한 상세 개발규격을 메일로 전달 부탁드립니다 ...

저희는 이러한 기술들을 통합하여 최고의 카메라 화질튜닝 솔루션을 제공하고 있습니다. 저희와 함께라면 더욱 선명하고 생동감 있는 카메라 화질을 경험하실 수 있습니다.  

 

 

제가 운영하는  일인기업  딥 네트워크  기술총괄  장석원

기업블로그  :    https://videocodec.tistory.com/     

제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일   :   sayhi7@daum.net

HP : 010-3350 6509

 

 

 

자동차 라이다 시스템의 전체 설계 구조를 이해하는데 성공했읍니다 ... VICSEL 레이져 빔 부는 어떻게 구현하는지 ... 광학렌즈부는 또 어떻게 설계하는지 ... SPAD 이미지 센서부는 또 어떻게 설계해야 자율주행차에서 라이다로 3 차원으로 물체 인식이 가능한지를 이해하는데 성공했읍니다 ... 하 아 ~~~ 이거 실마리 푸는데 한 2 년 걸린것 같읍니다 ... 속 이다 시원하네요 ... 왼벽한 설계 안은 아니어도 85 % 이상 설계 안의 돈이 되는 근거자료 정보를 확실하게 파악했읍니다 ...

최근에 제가 시간투자를 한 1 년 이상해서 돈이 되는 기술정보를 파악한 분야가 자동차 라이다 설계 분야 입니다 ...

자동차 라이다 설계 분야는 그 기술이 크게 Vicsel 송신부 설계분야, SPAD Image Sensor 수신부 설계분야, 광학렌즈 설계분야  이렇게 크게 세가지 분야의 기술을 확보해야 그 상용화가 가능 합니다 ...

그동안 라이다 설계 분석을 위해 한 7 - 8 달 동안 국내외 특허분석을 진행했읍니다 ...

한 1 년 특허 분석을 하다 보니 위에서 말씀드린 크게 세가지 분야의 기술을 약 85 % 정도 확보하는데 성공했읍니다 ...

더 자세한 분석 내용을 소개드리고 싶지만 해외 기업들의 특허를 어떻게 피해 나가 구현을 할지 까지는 아니어도  한 7 - 8 달 해외 기업들의 특허 분석을 통해 해외 기업의 라이다 설계 기법을 파악하는데는 성공했읍니다 ...

 

1. 자동차 라이다 설계 상용화 개발도 Vicsel 을 설계해서 제조하는 반도체 기업과도 협력이 필요하고

2. SPAD 이미지센서부도 설계해서 제조하는 반도체 기업과도 협력이 필요 합니다 ...

3. 또한 광학렌즈부도 설계 및 제작하는 전문기업과의 협력이 필요 합니다 ...

 

저는  자율주행차 라이다 장치 HW 설계 부터 SW 설계까지 그 세부 설계안을 어떻게 구현해야 하는지를 국내외 라이다 특허분석을 통해 터득 했읍니다 ...   당신은 프로토타입도 없는데 당신 기술은 무었으로 입증 가능하냐라고 질문하신다면 국내외 특허 수십개의 세부 분석을 통해서 라이다의 세부 설계 구현 안을 속속들이 파악할수 있었읍니다 ...    라이다 설계 및 구현 기술을 확실하게 파악 성공했는데  제가 자금력도 부족하고 또 이런류의 사업화는 서로 협력하면서 진행해야 가능할것 같읍니다 ...  라이다 설계 노하우중 가장 중요한 부분이 자동차 라이다 장치가 HW 설계가 어떤 구조로 설계가 되야 동작 가능한지와 HW 설계 방안이 확립됬다면 어떻게 SW 를 설계할것인가 입니다 ...   저는 HW 설계 방안도 확실히 파악하고 있고  이 HW 설계 방안 파악이슈의 해결이 안되면 아무것도 진행이 불가능 합니다 .....   라이다 개발이 기술력만 있다고 다 되는것이 아니라는것을 알기에 제가 운영하는 딥 네트워크와 뜻을 같이해서 공동으로 개발하실 기업 관계자분의 연락을 기다리겠읍니다 ....

최근에 제가 시간투자를 한 1 년 이상해서 돈이 되는 기술정보를 파악한 분야가 자동차 라이다 설계 분야 입니다 ...

자동차 라이다 설계 분야는 그 기술이 크게 Vicsel 송신부 설계분야, SPAD Image Sensor 수신부 설계분야, 광학렌즈 설계분야

이렇게 크게 세가지 분야의 기술을 확보해야 그 상용화가 가능 합니다 ...

그동안 라이다 설계 분석을 위해 한 7 - 8 달 동안 국내외 특허분석을 진행했읍니다 ...

한 1 년 특허 분석을 하다 보니 위에서 말씀드린 크게 세가지 분야의 기술을 약 85 % 정도 확보하는데 성공했읍니다 ...

더 자세한 분석 내용을 소개드리고 싶지만 해외 기업들의 특허를 어떻게 피해 나가 구현을 할지 까지는 아니어도

한 7 - 8 달  해외 기업들의 특허 분석을 통해 해외 기업의 라이다 설계 기법을 파악하는데는 성공했읍니다 ...

라이다 개발관련 국내에서는 현대차 사내벤쳐 혹은 해외에도 알려진 국내 스타트업 등등이 자동차 라이다 개발을 하고 있읍니다 ...

 

대기업 전략투자팀은 대기업 경력이 있는 포트폴리오를 가진 인력을 선호하시는것을 잘 알고 있지만 ...

저 또한 국내외 라이다 기업의 설계관련 특허 분석 즉 제가 구현 가능할 만큼의 돈이 되는 정보 파악에 성공했기에

이렇게 대기업 전략투자팀에 메일을 송부드리는것 입니다 ...

 

 

제가 운영하는 일인기업
일인기업 딥 네트워크 장석원
기업블로그 : https://videocodec.tistory.com/ 제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....
이메일 : sayhi7@daum.net
HP : 010-3350 6509

 

그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

Kaldi 음성인식 자동 얼라인 도구가 죤스 홉킨스 대학에서 발표한지 꽤 오랜시간이 지났구요 ...  Kaldi 음성인식 자동 얼라인 도구가 HMM-GMM 딥러닝 모델로 만든 음성인식 자동 얼라인 도구 이구요 ...   Kaldi 음성인식 자동 얼라인 도구는 음성인식 자동 얼라인 출력을 얻기 위해서는 파라미터 셋팅도 간단치는 않은것 같고,   그리고 이 KALDI 도구는 음성인식 에러율이 약 12 % 정도더 군요 ... Kaldi 음성인식 자동 얼라인 도구의 HMM-GMM 딥러닝 모델의 경우 혼합 가우시안 구조라서 음성데이터로 HMM-GMM 딥러닝 모델을 학습을 시킬때 정규분포를 하나를 적용해서 학습시키는 구조가 아니고 정규분포가 굉장히 여러개의 분포를 혼합해서 HMM-GMM 딥러닝 모델을 학습시키는 구조인것 같읍니다 ... 그래서 에러율 12 % 를 얻기 위해 HMM-GMM 딥러닝 모델 학습은 시간이 걸려야 원하는 결과 도출이 가능한것 같읍니다 ...  음성 자동 얼라인 HMM-GMM 딥러닝 모델이 나온 이후 나온 딥러닝 모델인 CTC 모델에 저는 관심이 더 갔구요 이 CTC 모델의 경우 디코딩 언어모델 처리구조중 하나인 빔 서치 알고리즘 최적화 설계를 처리했을 경우 에러율이 약 8 % 정도 나오는것 같더라구요 ...     딥러닝 모델인 CTC 모델로 디코딩 언어모델 처리구조까지 적용했을때가 에러율이 약 8 % 정도인데 ...  이를 개선하기 위한 방법으로 JOINT CTC-ATTENTION 모델을 적용하면 에러율이 약 5 % 내외로 나오는것으로 파악됩니다 ...  구글이 발표한 딥러닝 언어모델인 Transformer 모델의 경우도 에러율이 약 5 % 내외로 나오는것으로 파악됩니다 ...

저는 여기까지 말씀드린 음성인식 모델의 세부 설계구조를 파악하는데 성공했구요  요근래 나온 딥러닝 음성인식 모델인 Representation 학습모델의 경우도 에러율이 약 5 % 내외로 나오는것으로 파악됩니다 ...

저의 경우 위에서 설명드린 딥러닝 음성인식 해외 글로벌 대기업의 논문의 세부 동작 구조도 이해하고 있고 Transfomer 모델의 딥러닝 소스도 한줄한줄 동작 처리 방법도 이해하고 있읍니다 ...  저는 89년에 전자공학 석사학위를 받았고, 그 후 대기업 연구소도 7 년 재직 경험이 있고, 지금까지 IT 분야로 30 년의 경험이 있읍니다 ... 그동안 30 년의 IT 분야 경험을 하면서 2007 년 부터 약 2 년간 H.264 Video Decoder SW IP 개발로 사업을 했었는데 ...  결과물의 정밀도가 2 % 부족해서 30 평대 아파트 한채 날린것도 이때 입니다 ...   그 이후 SW 개발용역 일을 약 10 년간 진행을 했었는데 ...  이 기간동안 업체로부터 기술이슈 문의를 약 200 건 정도를 정밀하게 검토할수 있는 기회가 있었구요 .....   대학원에서 문제해결 방법을 배웠구요 ...  그 후 제가 딥러닝 음성인식 구현관련 실무적으로 경험은 없지만, 위에서 말씀드린바와 같이 딥러닝 음성인식 구현을 어떤 설계 구조와 방법으로 결과를 내는것이 가능하다는 것은 그동안 10 여년 기간 동안의 수백번의 시행착오를 겪으면서 터득한 독자적인 문제해결 능력이 있기에 딥러닝 음성인식으로 직접 실무적 경험이 없어도 자신있게 딥러닝 음성인식 노하우를 확보하고 있다고 말씀드리는것이 가능한 이유 입니다 ...   저의 경우 딥러닝 모델인 CTC 모델로 디코딩 언어모델 처리구조까지 적용했을때가 에러율이 약 8 % 정도 구현 가능한 노하우를 보유하고 있읍니다 ...   여기에다 자세하게 모든것을 다 적지 못하는것 이해해 주시구요 ...   에러율이 약 8 % 정도 노하우를 얻기 위해 논문분석을 2 년을 빡시게 해서 얻은 값진 노력의 결과물이라고 말씀드릴수 있읍니다 ...  저도 가능하다고 제시한 음성인식 정확도(에러율)는 특정 음성 데이터셋에서 가능한 성능(에러율) 입니다 ...   제 딥러닝 고군분투기를 위에 적었구요   제가 100 % 완벽하지는 못 하지만 딥러닝 음성인식 에러율 8 % 의 구현 기술력을 세부적으로 터득하고 있읍니다 ...

저는 딥러닝 음성인식 독자적인 사업화에 관심이 많은데 ... 저에게 인큐베이팅 투자가 가능하신 투자사 혹은 대기업 관계자분께서 연락주시면 감사하겠읍니다 ...

 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

엔비디아 NeRF 논문의 세부 설계 구조를 살핀지 한 1 년되 갑니다 ...  MLP 로 얻은 RGB와 density 데이터들을 2D 이미지에 축적하여 새로운 관점에서 객체를 바라봤을 때 scene 설계 노하우를 파악하는데 한 1 년 걸린것 같읍니다 ...   Hierarchical volume sampling 부분의 설계 노하우를 이해하는것이 정말 힘들었읍니다 ...   NeRF 논문의 저자는 원래 camera ray 에서 N 개의 포인트를 임의로 뽑은 후 렌더링에 사용하려고 했는데 이렇게 하니 비효율적이라는 것을 알았구요 ...   왜냐하면 camera ray가 통과하는 공간은 객체뿐만 아니라 아무것도 없는 공간도 포함되어 있기 때문이었죠.  별 도움이 안되는 것들도 렌더링에 사용하니 좋은 결과가 나오기 힘들었던 것입니다.  그래서 생각해낸게 마지막 렌더링에서 예측되는 효과에 비례해 포인트를 sampling하는 방식인 Hierarchical volume sampling 이었습니다. 이렇게 하면 효율적으로 렌더링에 사용할 좌표를 뽑을 수 있다고 합니다 ...   이것의 세부 설계 노하우 파악이 NeRF 논문의 실제 구현시 거의 핵심적인것을 처리한다고 저는 파악 합니다 ...    렌더링에서 예측되는 효과에 비례하는 포인트를 sampling 설계 방법의 파악이 NeRF 논문의 핵심이라고 저는 판단합니다 ...     Classical Volume Rendering Techniques 을 이용해 MLP 로 얻은 RGB와 Density 데이터들을 2D 이미지에 축적하여 새로운 관점에서 객체를 바라봤을 때 scene을 어떻게 가장 효과적인 설계 방안을 찾는가가 NeRF 논문의 핵심 입니다 ...    저는 Hierarchical volume sampling 세부 설계 구조를 파악하는데 성공했읍니다 ...   NeRF 논문을 잘 적용하면 가상인간을 구현시에도 적절히 응용이 가능하므로 다양하게 응용분야가 있을것 같읍니다 ...

NeRF  논문의 구현 기술 파악에 성공했읍니다 ...   아시겠지만 NeRF 구현기술이 간단하지는 않읍니다 ...  저도 이것 파악하는데 7 - 8 달 걸린것 같읍니다 ...  2 D 이미지들로부터 어떻게 3D Scene 을 얻을수 있는지 그 설계 노하우 파악이 쉽지 않았지만 파악에 성공했읍니다 ....

 

관련해서 이 건 관련 협력을 원하시는 업체와 상세 기술협의(기술컨설팅) 진행도 가능 합니다 ...

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

안녕하세요 ?  딥러닝 사업화를 준비중인 일인기업 DMBTEC 장석원 입니다 ...

아래는 구글 Transformer Model  논문을 설명하는 블럭도 입니다. 

구글 Transformer Model 논문의 핵심인  Attention 처리기법 의 설계 구조 파악에 성공했읍니다 ... 

 

예를들어 GPT-3 같은 언어모델에서 구글 Transformer Model  의  Attention 처리기법을 어떤 방식으로 적용하는지를 파악 성공했읍니다   

구글 Transformer Model  의  인코딩 부와 디코딩 부의 상호동작이 어떻게 처리되서  번역 모델 처리시 Attention 처리기법으로  어떤 식으로 언어 번역 처리가 되는가의 동작 메커니즘 즉 그 설계 구조  파악에 성공 했읍니다 ....   

구글 Transformer Model  기술의  근원이 되는 핵심 원리를 파악하기 쉽지 않은데 이런것을 도와드릴수 있을것 같읍니다 .... 

구글 Transformer Model 로 한영 번역을 구현한다고 했을때 학습데이터가 몇만개 몇십만개 수준이 아니고 수천억개 아니 그 이상의 학습데이터로 딥러닝 모델을 학습시켜야 하는데 대기업에서는 이런 초거대 언어모델을 상용화시 어떤 문제에 직면하고 있는지를 파악하는게 가장 핵심 입니다 ...  저는 이런것을 파악하기 위해 하루에  한 2 시간 정도씩 구글링을 무려 2 년 가까이 해서 그 핵심을 터득했읍니다 ...   이런 초거대 모델을 상용화하려면 슈퍼컴퓨터가 필요하다고 애기를 하지요 ...  이 말의 의미는 비용이 많이든다는 점 입니다 ...    구글 Transformer Model 로 초거대 모델을 학습하는것이 저같이 논문분석만 한 사람은 개발시 어떤 문제가 발생하고 그 문제의 해결방안이 뭔지 파악이 불가능하다라는 분들이 많읍니다 ...    개발시 어떤 문제가 발생하고 그 문제의 해결방안이 뭔지 파악이 가능하려면  구글 Transformer Model 의 설계 구조가 어떤지 그 세부 하나하나를 속속들이 살펴서 이해하는 작업이 반드시 필수 입니다 ...  제가 이런 작업이 어느 정도 성공했으니 이런 글도 쓰는것 이구요 ...    구글 Transformer Model 로 초거대 모델을 학습시키는것이  비용(최소 100 억 정도)이 상당한 그런 일 이거든요 ...   엔비디아 A100 GPU 를 탑재한 딥러닝 서버가 최소 몇십대 이상 준비가 필요하구요 ...    딥러닝 초거대 모델을 학습시킨다는 의미는 딥러닝 모델이 가지고 있는 뉴런들의 가중치(weight)을 조정한다는 의미이고, 우리는 모델 구성과 가중치만 저장만 해놓으면, 필요할 때 저장한 모델 구성과 가중치를 불러와서 사용하면 됩니다.  학습된 초거대 모델을 저장한다는 말은 딥러닝 모델 아키텍처와 모델 가중치를 저장한다는 말입니다. 

수천억개 아니 그 이상의 학습데이터로 딥러닝 모델 학습 처리를 어떻게 경량화 시킬것인가 뭐 이런게 요즘 논문들의 이슈이고 이쪽 논문도 꽤 발표되고 있읍니다 ...

저는 구현 경험은 없고 논문분석을 통해 그 세부 설계 원리를 이해했고  이것을 관심있어 하시는 업체와 협의해 보고 싶읍니다 ...

 

 

 

관심 있으신 기업에서는 문의해 주시면 감사하겠읍니다 ...

저는 주로 세부 기술 컨설팅을 처리할수 있을것 같읍니다 ...

저는 83 학번이고  89년에 일반대학원 전자공학을 졸업했읍니다 ...  이것으로 관련한 사업화 추진을 하고 계신 업체와 협의해 보고 싶읍니다 ... 

 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

 

안녕하세요 ?  딥러닝 사업화를 준비중인 일인기업 딥네트워크 장석원 입니다 ...

아래는  StyleGAN 논문을 설명하는 블럭도 입니다. 

StyleGAN 논문의 핵심인  Style Transfer 의 설계 구조 파악에 성공했읍니다 ... 

Style Transfer 의 핵심인 AdaIN 메커니즘의 블럭도를 아래에 표시했고 이것의 세부 동작원리 파악에 성공했읍니다   

어떻게 Style Transfer 메커니즘이  동작해서 Style 을 전달 가능한지  그 설계 원리 파악에 성공했읍니다 ... 

예를들어 전지현 얼굴에 미스코리아의 눈 코 입으로 사람이 느끼기에 불편하지 않게 Style Transfer 을 처리하려면  Style Transfer 의 핵심인 AdaIN 메커니즘의 그 설계 세부구조를 담당하는 알고리즘의 동작원리를 이해해야 합니다 ...   이게 쉽게 구현 가능할것 같아도 그렇치 않읍니다 ...   

저의 경우, 위의 Style Transfer 를 적용한 딥러닝 모델인 StyleGAN 기법으로 가상인간 로지 같은것을 전지현 얼굴에 미스코리아의 눈 코 입으로 사람이 느끼기에 불편하지 않게 변환하는 사업화 안을 구체화 중 입니다 ...   

Nvidia  StyleGAN  기술의  근원이 되는 핵심 원리를 파악하기 쉽지 않은데 이런것을 도와드릴수 있을것 같읍니다 ....  

저는 구현 경험은 없고 논문분석을 통해 그 세부 설계 원리를 이해했고  이것을 관심있어 하시는 업체와 협의해 보고 싶읍니다 ...

 

 

관심 있으신 기업에서는 문의해 주시면 감사하겠읍니다 ... 

저는 주로 세부 기술 컨설팅을 처리할수 있을것 같읍니다 ...

저는 83 학번이고  89년에 일반대학원 전자공학을 졸업했읍니다 ...  이것으로 관련한 사업화 추진을 하고 계신 업체와 협의해 보고 싶읍니다 ... 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

 

TransUNet: Transformers Make Strong Encoders for Medical Image Segmentation

 

Transformers 를 medical image segmentation task 에 적용한 논문이고 ...  Transformer 구조의 이점을 최대한 살리기 위해 global context 에 대한 정보만 추출한 것이 아니라 low-level CNN faeture 도 잘 활용해서 성능을 개선한 논문 입니다 ...

본 해외논문관련 딥러닝 모델 구현 노하우 확보에 성공했구요 ...

 

본 논문과 같은 의료영상분야 딥러닝 모델 사업화에 관심있으신 분들의 연락 기다립니다 ...

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

 

 

 

 

 

그동안 2 년 가까이 BLDC/PMSM 모터제어로 전류를 정밀하게 제어하는 방법을 찾으려고 관련 논문을 수백편 뒤져서 최근에 모터의 정밀 전류제어 구현 기법을 99 % 터득에 성공했다 ...

저는 그동안 모터제어만 판것은 아니고 카메라 이미지센서의 화질 보정 알고리즘을 터득하려고 논문과 특허를 수도 없이 뒤져서 결국 터득에 성공했다 ...

밥벌이를 하려고 이것만 한것은 아니다 ...

딥러닝 NeRF 논문과 StyleGAN 논문의 핵심 딥러닝 모델 설계 구조를 파악하느라 고생 좀 했다 ...

또한 구글 Transformer Model 기반으로 음성인식 구현을 위한 딥러닝 모델 세부 설계구조 분석도 결코 쉽지 않았다 ...

이것으로 밥벌이를 하려 99% 준비해 놨는데 경기가 죽어서 일꺼리 얻기가 하늘에 별따기라 너무 힘들다 ...

이렇게 힘들어도 나는 자신있다 왜냐하면 위에서 언급한 99 점 짜리 기술이 몇가지가 있으니 언젠가 반드시 기회가 오리라 나는 확신하기 때문이다 ...

StyleGAN 기술의 ADaIN 설계기법을 이해하는것은 쉽지않다 ...   얼굴에서 눈 코 귀 입 피부 헤어 등의 스타일을 변경하는 기술이기 때문이다 ...    Style Transfer의 경우, 내가 원하는 Contents를 담고 있는 이미지의 feature 에서, 이미지의 특정 스타일을 빼주고, 내가 입히고 싶은 특정 Style을 더해주는 방식으로 수행된다.   이 기법은 딥러닝의 여러분야에서 반드시 필요한 기술이다 ...  

바로  위에 소개된 해외논문의 결과물이 딥러닝 모델의 메커니즘 동작 과정을 설명한다 ...   위의 논문의 결과물이 어떤 알고리즘 구조로 설계되었길래 위와 같은 결과를 얻을수 있는지를 세부분석에 성공했다 ...    관련해서 문의주시면 기술컨설팅 가능 합니다 ....

 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

[ 네트워크 통신 분야 LoRA Device 단 / LoRa Gateway 단 펌웨어 개발 및 컨설팅 전문 ] 임베디드 펌웨어 개발 30 년차 입니다 ... - https://videocodec.tistory.com/m/2514

 

[ 네트워크 통신 분야 LoRA Device 단 / LoRa Gateway 단 펌웨어 개발 및 컨설팅 전문 ] 임베디드 펌웨어

임베디드 펌웨어 개발 30 년차 입니다 ... 개발 및 자문 문의주시면 세부 개발사양 검토후 검토의견 드리겠읍니다 ... LoRa Gateway Chipset 으로 LoRa Gateway 라이브러리 소스를 SemTech 사가 공개하는데 이

videocodec.tistory.com

 

 

[ STM32 F4/H7 시리즈 CPU 펌웨어 및 네트워크 통신 분야 펌웨어 개발 및 컨설팅 전문 ] 임베디드 펌웨어 개발 30 년차 입니다 ... - https://videocodec.tistory.com/m/2518

 

[ STM32 F4/H7 시리즈 CPU 펌웨어 및 네트워크 통신 분야 펌웨어 개발 및 컨설팅 전문 ] 임베디드 펌웨

임베디드 펌웨어 개발 30 년차 입니다 ... 개발 및 자문 문의주시면 세부 개발사양 검토후 검토의견 드리겠읍니다 ... STM32 CPU 카메라 펌웨어 개발 - CubeMX 개발 툴로 DCMI 제어 개발 가능 합니다 ...

videocodec.tistory.com

 

[ 네트워크 통신 분야 펌웨어 및 딥러닝 분야 개발 및 컨설팅 전문 ] 음성인식 ( 음향모델 / 언어모델 ) 알고리즘 분석관련 돈이 되는 근거 기술자료를 갖고 있읍니다 ... - https://videocodec.tistory.com/m/2541

 

[ 네트워크 통신 분야 펌웨어 및 딥러닝 분야 개발 및 컨설팅 전문 ] 음성인식 ( 음향모델 / 언어

제 나이 올해 59 세 입니다 .... 요즘 경기가 최악 이라 중소기업 이건 대기업 이건 검증된 결과물이 있느냐 이것이 사람을 평가하는 기준이 되고 있읍니다 ... 요즘엔 30 대도 재취업을 1 년내에 하

videocodec.tistory.com

 

[ 네트워크 통신 분야 펌웨어 및 딥러닝 분야 개발 및 컨설팅 전문 ] 자율주행차 라이다 장치 설계 관련 돈이 되는 구현 및 설계 근거자료를 확보하고 있읍니다 ... - https://videocodec.tistory.com/m/2546

 

[ 네트워크 통신 분야 펌웨어 및 딥러닝 분야 개발 및 컨설팅 전문 ] 자율주행차 라이다 장치 설

그동안 한 일년 동안 특허분석을 통해 자동차 라이다 시스템의 전체 설계 구조를 이해하는데 성공했읍니다 ... 라이다 설계 노하우중 가장 중요한 부분이 자동차 라이다 장치가 HW 설계가 어떤

videocodec.tistory.com

 

[ 네트워크 통신 분야 펌웨어 및 BLDC Motor 제어분야 펌웨어 개발 및 컨설팅 전문 ] BLDC Motor 전류제어 / PI 제어 / 속도제어 개발 및 자문 가능 합니다 ... 임베디드 펌웨어 개발 30 년차 입니다.. - https://videocodec.tistory.com/m/2284

 

[ 네트워크 통신 분야 펌웨어 및 BLDC Motor 제어분야 펌웨어 개발 및 컨설팅 전문 ] BLDC Motor 전류제

요즈음은 기술이 두세배 빠르게 발전하다 보니 예전 한 7 - 8 년전에 개발했었던 개발방법은 이제는 구식이 되었읍니다 ... 제가 최근에 한 1 년여 기간동안 전기차 모터제어 개발을 위한 국내외

videocodec.tistory.com

 

[ 네트워크 통신 분야 펌웨어 및 딥러닝 분야 개발 및 컨설팅 전문 ] 아래의 제 경력사항(포트폴리오)을 살펴 보시고 관련한 일꺼리 및 일자리 주실 업체 제 핸폰으로 연락 부탁드립니다 ... - https://videocodec.tistory.com/m/2568

 

[ 네트워크 통신 분야 펌웨어 및 딥러닝 분야 개발 및 컨설팅 전문 ] 아래의 제 경력사항(포트폴

Work Experience (O년 O개월) (최근 순) SKILL INVENTORY 프로젝트명 ( 업 무 명 ) 참여기간 (YYYY.MM- YYYY.MM) 근무회사 역 할 기 종 O . S 언 어 통 신 기 타 선박용 디지털 감시제어 시스템 원격단말장치 개발 91.1

videocodec.tistory.com

 

네트워크 장비인 L3 스위치 장비의 설계 원리를 현재 정확히 이해하고 있다 ...  이 정도 파악하는 수준이면 네트워크 SW 설계도 거의 전문가급이라고 나는 판단한다 ...   네트워크 장비인 L3 스위치 장비 개발을 직접 경험해 보지 않았어도 L3 스위치 장비의 구현 원리를 파악할수 있었다 ...  나는 네트워크 장비인 L3 스위치 장비의 네트웍 프로토콜 스택 설계 전문가가 아니라  L3 스위치 장비를 응용해서 네트웍 SW 를 설계하는 전문가라함이 정확할것 같다 ...

방탄소년단 공연 실황을 해외에 방송 서비스로 중계방송을 한다고 하면  네트워크 장비인 L3 스위치 장비의 세부 설계 구조를 이해하지 못하면 대규모 방송 서비스를 설계하는것이 사실상 어렵기 때문 입니다 ... 

 

WebRTC 미디어 서버 소스로 공개된것중에  유럽의 이탈리아 개발자들의 Meetecho 사에서 공개한 오픈소스 소스인  Janus Gateway Github 소스를 다운로드 받아 살펴 보기 시작했읍니다 ...    Meetecho 사에서 공개한 오픈소스 소스인  Janus Gateway Github 소스는 여러개의 오픈소스 라이브러리를 적용해서 어플리케이션 서버와 웹 서버간의 각종 Configuration 데이타 수백개의 설정 및 셋팅 부분을 오픈소스 라이브러리로 구현한것이 소스의 대부분이다 ...  Janus Gateway 의 송수신 데이터의 보안처리 또한  OpenSSL 같은 오픈소스 라이브러리로 구현한것이다 ...  어플리케이션 서버와 웹 서버간의 각종 Configuration 데이타 수백개의 설정 및 셋팅 부분도 오픈소스 라이브러리를 적용해서  웹 전송 포멧인 JSON 형태 데이터 Configuration 전달 구현을 처리하고 있다 ...  Janus Gateway Github 소스에서 미디어 데이터 송수신은  임베디드  웹 서버를 적용해서 REST API 로 HTTP 1.1 규격으로 전송하기 위한 부분도  오픈소스 라이브러리로 구현 참조소스를 제공한다 ...  이런 부분들의 분석이 어느정도되 있고 이것의 커스토마이징은 또 다른 문제일것 같다 ...  Janus Gateway Github 소스는 대용량 미디어 서비스를 설계하기 위한 참조소스도 제공한다.  RabbitMQ 클라우드의 API 를 적용해서  화상회의 참여자가 수백명 정도 일때 정도의 규모로 미디어 서비스하는것의 참조소스를 제공하는데  다 친절하게 제공하지는 않고 공부가 필요하다 ...    화상회의 참여자가 수백명 정도 일때,  Janus Gateway 에서는 웹으로 방송을 송출시 수신을 원하는 사람에제만 방송을 송출하기 위해 Publish / Subscribe 구조로 처리하고 있고,  수백명 혹은 수만명 혹은 수십만명에게 미디어 방송 서비스를 구현시  Publish / Subscribe 구조로 설계하는것이 일반적이고,  저는  수만명 혹은 수십만명에게 미디어 방송 서비스를 구현시  Publish / Subscribe 구조로 설계하는것의 노하우를 이해하고 있읍니다 ...    수만명 혹은 수십만명에게 미디어 방송 서비스를 구현하려면 네트웍 부하 분산 처리가 필수 인데 ...   L4 스위치 장비를 어떻게 어떤 방식으로 적용해서 부하 분산 처리를 구현하는가를 이해하고 있읍니다 ...      네트워크 장비인 L3 스위치 장비 설계 노하우를 파악하고 있으면  L4 스위치 장비 설계 노하우도 파악이 수월해진다고 말씀드릴수 있읍니다 ...

WebRTC 기반 대용량(대규모) 미디어 데이터 송수신 구현기술 노하우를 파악하려고 유럽 Meetecho 사의 Janus Gateway 미디어 서버 소스 분석을 한 6 개월했었구요 ...  소스 분석이 어느정도 되니 미디어 방송 서비스 구현시 수십만의 가입자가 방송 수신을 원할때 어떻게 송수신을 설계해야  가장 좋을지 이런 구현 방안 파악에 성공했구요 ... 미디어 방송 서비스를 구현시 Publish / Subscribe 구조로 설계하는 구현 방안을 파악에 성공했읍니다 ...   구현 방안을 파악했는데 Publish / Subscribe 구조로 수십만명의  송수신 데이터를 처리하려면 네트웍 부하 분산 처리  방안의 파악이 필수 이구요  이런것들 파악하는데 5 - 6 달이 추가로 시간이 걸렸읍니다

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

최근 기사들을 보면  S Band 와 X Band 대역 전력증폭기 상용화에 성공했다는 기사는 본것 같읍니다 ... 

S Band 와 X Band 대역 전력증폭기는 KF-21 전투기의 AESA 레이더의 송수신 모듈에 사용되는것 같읍니다 ...  

S Band 와 X Band 대역 RF Data 의 기본 송수신을 구현하려면 초고정밀도 AD 변환기 상용화 또한 필요할것 같은데 아직 국내에서 이것을 상용화했다는 기사를 아직 못 본것 같읍니다 ...    해외 기업에서는 이미  초고정밀도 AD 변환기 상용화가 진행되서 제품이 출시되 있읍니다 ...    이런  초고정밀도 AD 변환기는 국가 전략 방산물자라서 아마도 저같은 소기업에게는 자료를 해외기업으로부터 자료를 받는게 어려울것 같구요 ...    전투기나 레이더 개발시 S Band 와 X Band 대역 RF Data 의 기본 송수신 원리를 파악했다는게 저로서는 뿌듯 하구요 ...

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

그냥 제 그동안의 IT 분야 겪어온 인생 이야기를 해 보겠읍니다 ...  제 첫 직장이 대기업 연구소 였구요  ...  92년초에 입사해서 7 년 근무를 했구요 ...  98 년 IMF 때 대기업 연구소를 구조조정으로 그만뒀읍니다 ...  이때 부터가 인생 시작이라고 하면 벌써 25 년이 됬읍니다 ...  그동안 IT 분야 기술도 계속 발전됬구요 ...  대기업 그만두고 25 년간 기술이 바뀐것만 족히 5 차레 정도 크게 기술의 변혁이 있었읍니다 ...  그걸 다 겪어내야 했구요 ...   대기업 연구소에서는 IT 분야 하드웨어 설계 일을 했었구요 ...  IMF 때 회사를 나오니 세상이 온통 SW 개발이 핫 이슈였읍니다 ...  이때 밴쳐 붐이 일어서 SW 개발쪽 인력 수요가 대부분이었구요 ...  HW 설계를 한 7 년 하다가  SW 로 전업하려니 시행착오가 컸읍니다 ...  시행착오를 한 5 년 한것 같읍니다 ...  이때 한창 DMB 개발 붐이 일었었구 ...  저도 DMB 개발쪽에 거의 막차를 타서 비디오 코덱 개발 사업을 해보겠다고 시도를 했었구요 ...  이때 WinCE 드러이버 / 어플 개발쪽 파악에 한 2 년 걸렸읍니다 ...  DMB 개발쪽에 거의 막차를 타다보니 어느새 세상은 안드로이드가 세상을 움직이고 있었고 ...  그래서 이때부터 리눅스커널 드라이버 / 어플 개발쪽에도 한 3 년 투입을 했었읍니다 ...  안드로이드 BSP 가 워낙 방대해서 저는 그중에서 카메라쪽을 팠었구요 ...   그래서 이미지센서 구동 리눅스커널 드라이버 및 어플 설계 노하우도  약간은 부족해도 꽤 깊이있게 파악에 성공했읍니다 ...  안드로이드가 힘든게 리눅스커널 드라이버도 알아야 하고 안드로이드 HAL 레이어도 분석 능력이 있어야 하고 거기에 안드로이드 앱까지 설계 능력이 필요하거든요 ...  안드로이드는 너무 공부할께 많고 이걸  실전 능력까지 배양하는건 너무 힘들었읍니다 ...   그래서 고민이 많아졌읍니다 ...   이걸 계속 해야 하나 이거를 고민했죠 ...  그리고 손댔던쪽이 블루투스 펌웨어 설계쪽 이었읍니다 ...  노르딕사 블루투스 칩셋으로 펌웨어를 고객의 요구사항에 맞춰서 커스토마이징 개발하는것도 생각보다 굉장히 까다로웠읍니다 ... 왜냐하면 제가  노르딕사 블루투스 칩셋의 블루투스 프로토콜 스택의 세부 설계 구조 파악이 핵심인데 이것 파악이 그렇게 만만치 않았읍니다 ...   노드딕 블루투스 칩셋으로 펌웨어 개발도 잠깐했었는데  블루투스 프로토콜 스택의 세부 설계 구조 파악이라는  장벽을 제가 넘어야 했었는데 유럽 대기업이 개발한  블루투스 프로토콜 스택의 세부 설계 구조 파악이 너무 어려웠읍니다 ...   나머지 딥러닝 논문 분석 이야기는 저의  블로그 사이트 글에서 많이 언급됬으니 참고 하시구요 ...    그리고 요근래 한 3 년간 음성인식 음향모델과 언어모델의 세부 알고리즘의 분석 /  네트웍 통신 송수신 설계를 대규모 네트웍 상황에서 네트웍 부하분산과 송수신 처리를 세부적으로 어떻게 구현하느지를 분석했고 /  자율주행차 전기차 모터 제어는 어떻게 설계하는지 그리고 자동차 러이다의 SW 와 HW 설계는 어떻게 설계되는지 뭐 이런것들을 냉정히 평가해서 한 85 점 이상 수준으로 파악에 성공했읍니다 ...  요즘에는 사업화라는것이 저같이 일인기업이 감당 가능한 그런 기술들이 아니었구요 ...  딥러닝만 하더라도 저도 음성인식 음향모델과 언어모델의 세부 알고리즘의 분석이 85 점 정도는 됬는데 ...  요즘 인터넷엔 수천억개의 정보가 있고 이중에서 몇천만원 정도로 돈이 되는 정보를 판별해서 그 근거자료를 보유하고 있는게 기술력 이라고 저는 판단하거든요 ...   요즘엔 업체에서 100 점 능력자하고 일하길 원하더라구요 ...  저는 몇가지 분야에서 85 점 능력은 되는데 업체에서는 15 점 모자른 부분에 더 집중하시더라구요 ...  경기가 어려워서 일꺼리 구하기가 힘들어서  한번 제 인생 이야기를 해 보았읍니다 ... 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

안녕하세요 ?  일인기업 딥 네트워크를 운영하는 59 세 장석원 입니다 ...

저의 경우  심 몇년전에  사업을 진행하다가 결과물이 2 % 부족해서 큰 손실을 입었구요

이렇게 큰 손실을 입다 보니 재기할수 있는 기회를 얻는것이 사실상 불가능 했읍니다 

그래서 최근에 한 3 년간 몇가지 기술분야를 세부 분석을 진행했읍니다 ...    제가 기술분석에 성과가 있다고 하니까  기술분석은 대학생이나 대학원생(젊은 사람들)이 더 잘한다는 분도 계시더라구요 ...   여러가지로 저같이 나이 50 대 후반의 입장에서 그동안의 경험을 바탕으로 기술을 분석할때에는  대학생이나 대학원생(젊은 사람들)이 해당 기술에 접근하는 방법과는 역간 다르다고 말씀드립니다 ...  아무래도 인생 경륜이 있다보니  기술을 파악하는 절차나 파악 방법이  대학생이나 대학원생(젊은 사람들)이 보는 관점 보다는 폭 넓고 깊게 살필수 있다는 점 말씀드립니다 ...

 

제가 그동안 3 년여 기간동안 기술분석을 했던 분야를 말씀드려 보겠읍니다 ...

1. 딥러닝 음성인식 ( 음향모델 / 언어모델 / 초거대 모델 ) 분야 논문 등등을 통해서 기반기술을 분석했읍니다 ...

2. 대규모 미디어 데이터 송수신을 네트웍 부하를 분산시키면서 방송 서비스 개발에 필요한 기반기술을 분석했읍니다 ...

3. 임베디드 카메라 보드 개발과 이미지 센서 3A 튜닝을 처리할수 있는 카메라 SW 설계 기반 기술을 준비했읍니다 ...

4. 전기차 모터 제어 / 토크 및 전류제어 / 속도 제어 / PI 제어 관련된 기반기술을 준비했읍니다 ...

 

제가 위의 4 가지 기술분석이 완벽히 됬다는것은 아닙니다 ...  제 판단엔 위의 4 가지 기술분석이 85 점은 된다고 판단되서 이렇게 글도 올리는것 입니다 ...   어떤 분들은 제가 분석이 85 점으로 됬다고 말씀드리면 구현을 안해봤는데 과연 85 점이라는것이 의미가 있냐 라고 하시는 분들도 있읍니다 ...  서비스 개발시 구현작업도 설계 분석이 정확히 안된 설계 구현작업이  과연 의미가 있을까요 ?   해당 분야 기술의 세부 설계 분석하는 능력도 사람 마다 천차만별 이라고 판단 됩니다 ...  사람마다 살아온 인생 경험이 다르기 때문 입니다 ...   제가 기술분석한 내용이  인생 60 을 바라보는 사람이 봤을때 충분히 가치가 있다라고 판단되기에 이런 글도 쓰는것 이구요 ...

 

이런 내 노하우 입증을 어떻게 할것 인가에 대한 대기업 상무님의 답변을 첨부드립니다 ...


대기업 상무 하셨던 지인의 답변 입니다
어필 잘 할 방법을 고민 해두세요
내 기술을 다 까면 안되고 안까면 안 믿어주고 하니 우짜면 적당히 까서 실력을 인정 받을지 그게 지금 가장 중요합니다

 

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

스마트팜 상용화 관련해서  농진청 연구소 농장에서 정부지원 사업으로 IT 벤쳐와 협력해서 AI 로 작물재배 연구결과가 나온 작물이 딸기와 방울도마토 라고 합니다 ...  농진청 연구소 박사님과 통화시 얻은 정보인데 작물을 흙에서 재배하는것 보다 수경 재배하는것이 병충해의 위협에서 훨씬 안전하다는것 같읍니다 ...   농장물의 영양소는 비료인데 ...  수경재배시 여러가지 비료가 다 수용성인지는 몰라도 비료가 물에 녹을수 있게 만든후 수경재배를 통해 작물에 영양소를 공급하면 될것 같읍니다 ...  흙에서 재배하게 되면 비료를 주면 토양이 산성화가 되는데 수경재배는 그런 문제는 없을것 같읍니다 ...  흙에서 재배할때 토양의 상태를 검출하는 센서부와 수경재배를 할때 물에 녹은 비료의 농도를 검출하는 센서는 다를것 같읍니다 ...  스마트팜에서 제일 중요한게  흙에서 재배할때 토양의 상태를 검출하는 센서부와 수경재배를 할때 물에 녹은 비료의 농도를 검출하는 센서부 인데  이것만 확실하게 구현 가능하면 스마트팜의 재배 실패율이 확 줄어들것 같읍니다 ...   또 중요한것 하나는 작물의 성장 상태를 검출하는것을 AI 로 구현해야 하는데 이것의 경우도 농진청 연구소의 그동안의 축적된 연구결과가 필요 합니다 ...    작물의 성장 상태를 검출시  농진청 연구소의 그동안의 축적된 연구결과를 바탕으로  시계열 학습데이터(작물의 성장상태 Annotation 학습데이터)를 확보하는것이 필요 합니다 ...   이  작물의 성장상태 Annotation 학습데이터를 바탕으로 딥러닝으로 시계열 데이터를 학습을 처리하면  작물의 성장 상태를 검출이 가능 합니다 ...   농작물의 성장상태 검출에는 병해충 발생유무를 검출하는 부분의 개발도 필요할것 같고 이것 또한  Annotation 학습데이터의 확보가 필요할것 같읍니다.  또한 농작물을 재배하려면 병해충 때문에 농약 살포도 필요할것 같은데 흙 보다는 수경재배가 병해충에는 더 강할것 같고 농약 살포하는 장치의 개발 또한 필요할것 같읍니다. 흙에서 재배할때 토양의 상태를 검출하는 센서부와 수경재배를 할때 물에 녹은 비료의 농도를 검출하는 센서부 이런 센싱부 의 정확한 구현을 농진청 연구소에서는  IT 벤쳐와 협력해서 개발했다는것 같구요 ...  이쪽 노하우는 해당  IT 벤쳐가 자기네 노하우가 포함됬기에 정보공유를 허락하기 힘들기에 스마트팜을 사업화하려면 이쪽부분을 독자개발하는것이 필요 합니다 ...    작물의 성장상태 Annotation 학습데이터를 바탕으로 딥러닝으로 시계열 데이터를 학습을 처리하면  작물의 성장 상태를 검출도 농진청 연구소에서 정보공유가 쉽지 않아서 이 부분도 독자개발이 필요할것 같읍니다 ...    농진청 연구소 농장에서 정부지원 사업으로 IT 벤쳐와 협력해서 AI 로 작물재배 연구결과가 나온 작물이 딸기와 방울도마토 라고 해도 스마트팜을 처음 시도하는 벤쳐는 위와같이 독자개발의 노력이 수반되야 상용화가 가능 합니다 ...  IT 벤쳐와 협력해서 AI 로 작물재배 연구결과가 나온 작물이 딸기와 방울도마토 라고 하고 이는  농진청 연구소 전용 농장에서 재배가 가능했기에 스마트팜 구현 상용화 테스트가 가능했던것 입니다 ... 따라서 스마트팜 상용화를 시도하려면 농진청 연구소같이 전용 농장이 준비가 되있어야 농작물의 재배 테스트가 가능해 집니다 ...  

저도 스마트팜 사업화 관련해서 심도있는 분석 작업을 진행했었구요 ...  위의 내용에는 적지 못했지만 저 나름 심도있는 기술 노하우도 파악 성공했기에 이런 글도 올리는것 입니다 ...   스마트팜의 구현관련  세부 기술컨설팅이 가능 합니다 ...  인공지능 딥러닝 설계 세부 노하우도 그동안 딥러닝 논문을 수백편 검토분석을 했기에 자신있게 이것도 기술컨설팅이 가능 하다는것 이구요 ...   스마트팜도 협력업체와 서로 공동으로 사업화를 진행하는것이 맞다는게 저의 결론 이구요 ...  농진청 연구소 박사님과 논의를 여러차레헤서 최종적으로 얻은 결론으로 위와 같은 사업화 구현 안을 소개드리는것 입니다 ...

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

초거대 모델 구현의 경우, Supervized Fine Tuning 모델 확보한것을 적용해서 강화학습을 사용해 Reward Model 에 대해 policy 를 최적화한 InstructGPT 설계 기법이 이슈 입니다 ...   저의 경우,  초거대 모델 학습관련 어떤게 핵심이슈이다 라는것을 파악 성공했읍니다 ...  초거대 모델을 학습시키려면 여러가지의 학습 메커니즘이 사용되는데  OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지를 파악하는게 성과가 있었읍니다 ...  요즘엔 세상 좋아져서 국내외 여러 기술 블로그에 관련된 내용의 언급이 있는것을 살펴서 파악한것 입니다 ...    OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지 파악하는데 성공했다 ...   물론 학습데이터도 Fine Tuning 시 어떻게 설계해서 성능을 냈는지도 완벽하진 않아도 파악에 성공했다 ...    그리고 PyTorch 에서 Pre-Trained Model 을 어떻게 Fine Tuning 하는지 그 설계 기법도 파악하고 있다 ...    LLAMA-13B 는 단독 GPU 에서도 문제없이 동작했다고 하구요 ...  이렇게 경량화는 또 어떻게 설계하고 있는지도 분석하고 있다 ...    고성능 인터커넥트 네트워킹 솔루션 기업 멜라녹스(Mellanox Technologies)를 인수해서 엔비디아 네트워킹 사업부가 됬구요 .... 멜라녹스는 20여 년간 인피니밴드 솔루션과 그리고 이더넷 솔루션은 약 6년간 글로벌 고객들에게 제공해 온 기업입니다.  인피니밴드 기술은 초당 200Gbps의 데이터를 처리할 수 있는 네트워크를 지원하는 규격인데 초거대 모델 학습데이터의 대역폭이 크기 때문에 멜라녹스 인피니밴드 솔루션에 대해서 검토 분석이 필요할수밖에 없읍니다 ...      GPT-3 사전학습 을 통해 습득한 지식은 내용에 대한 이해가 아니라 전후의 문맥으로부터 단어를 맞추기 위한 조건부 확률 이구요 ...  이런 것들이 GPT-3 의 노하우가 될수 있는 정보라고 생각합니다 ...  GPT-3 가 합성한 문장은 보통 언어적으로 적법하며 내용도 제법 타당하게 보인다고 하구요 ... 

저도 초거대 모델 학습의 노하우를 속시원히 공개하지는 못해도 그 실마리 정도는 위에서 언급드렸읍니다 ...      GPT-3 모델의 학습 노하우는 저도 어느정도 파악 성공했구요 ...  기대 이상으로 깊이있게 파악했다는것을 공개 합니다 ...    요즘엔 구글링에 시간을 상당히 투자하면 못 얻을 정보도 없는것 같읍니다 ...  

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

그동안 한 일년 동안 특허분석을 통해 자동차 라이다 시스템의 전체 설계 구조를 이해하는데 성공했읍니다 ...

라이다 설계 노하우중 가장 중요한 부분이 자동차 라이다 장치가 HW 설계가 어떤 구조로 설계가 되야 동작 가능한지와 HW 설계 방안이 확립됬다면 어떻게 SW 를 설계할것인가 입니다 ...   저는 HW 설계 방안도 확실히 파악하고 있고 이 HW 설계 방안 파악이슈의 해결이 안되면 아무것도 진행이 불가능 합니다 ..

 

아래의 내용이 마음에 드시면 화상회의 링크 하나 보내주시면 줌 화상회의를 통해 자동차 라이다 개발 관련 서로의 기술적 의견 이야기해 볼수 있을것 같읍니다 ....   귀사는 이미 라이다 관련 현대차와도 협력을 하시는것을 알고 있는데 ....     혹시 저같이 기술 세부분석으로 사업화를 준비하다 소규모 라도 귀사의 라이다 개발 일을 제가 일정부분  맡아서 할수 있는 여지가 있을까 싶어서 이렇게 메일을 송부드립니다 ....

이미 귀사는 라이다 관련 100 % 기술확보를 하신건가요 ?  그래서 저같은 라이다 설계관련 특허분석에 성과가 있는 사람한테는  관심을 갖을 필요가 없으신 입장 이신가요 ?

 

작게라도 귀사의 일을 조그만것이라도 맡겨주시면 열심히 해볼 생각을 갖고 연락드리는것 입니다 ...

 

연락 기다리겠읍니다 ....

 

ToF 의 동작원리는 파장을 송출하면 송출한 파장이 멀리 떨어진 오브젝트에 부딪쳐서 반사되서 오는 파장이 도착하기까지 걸린 시간을 측정해서 오브젝트와의 거리를 측정하는것으로 저는 파악합니다 ... 그런데 동작원리는 이해를 했는데요 ... 3D Depth Image Senor 를 구현하려면 오브젝트까지 거리측정을 픽셀의 해상도의 정밀도로 거리를 측정해야 하는데 ... 이를 고 정밀도로 오브젝트와의 거리를 측정하기 위해서는 고 정밀도의 A/D Converter 가 수백개 이상이 필요하게 되는데 ... 이 역할을 담당하는 부분이 3D SPAD Image Sensor 부분입니다 ... 해상도가 높으면 고 정밀도의 A/D Converter 가 수천개 이상이 필요한데 동작원리 이해상으로는 이렇게 3D Depth Image Sensor 를 설계하면 동작은 가능한데 너무 고 비용으로 구현이 가능하기에 상용화 기술로는 부족하다고 생각이 되거든요 ... 송출한 파장이 멀리 떨어진 오브젝트에 부딪쳐서 반사되서 오는 파장이 도착하기까지 걸린 시간을 측정을 위해서는 고 정밀도의 A/D Converter 가 수천개 이상이 필요하기에 이것을 효율적으로 설계하려면 어떤 설계 방안이 있을지가 궁금해 집니다 ....

 

D-ToF 방식은 펄스 레이저를 사물에 조사해 반사된 펄스 신호들이 이미지센서에 도착하는 시간을 측정함으로써 물체까지의 거리를 탐지하는 방식이다. 수십 혹은 수백 미터 이상 떨어진 물체와의 거리도 측정할 수 있다는 매우 큰 장점을 가지고 있으나, 이를 위해서는 초고효율 특성을 제공하는 소자인 단광자눈사태다이오드(Single-Photon Avalanche Diode, SPAD)가 필수적으로 요구된다.

 

저의 라이다 설계시 가장 큰 고민은 VICSEL 송신부 어레이에서 어떤방식으로 어레이 형태의 빔을 타겟의 거리에 맞춰서 빔을 정확히 쏠수 있는지와 이렇게 VICSEL 레이져 빔을 쏜것이 광학렌즈부를 거쳐 라이다 수신부인 SPAD 이미지센서 (3D SPAD Image Sensor) 수신부 안으로 3 차원 오브젝트의 VICSEL 레이져 의 빔 데이터가 3D SPAD Image Sensor 에 정확히 상 이 맺히도록 수신 하려면 어떻게 광학렌즈부를 설계해야 하는지 이것 해결하는 방안을 찾기가 너무 어렵습니다 ...

3D SPAD Image Sensor 에 정확히 상 이 맺히도록 수신 하려면 어떻게 광학렌즈부를 설계해야 하는지를 최근에 파악 성공했읍니다 ... 아직 라이다 성능 구현에 필요한 100 % 기술력 확보는 아니고 85 - 90 % 기술력확보에 성공했읍니다 ....

자동차 라이다 시스템의 전체 설계 구조를 이해하는데 성공했읍니다 ... VICSEL 레이져 빔 부는 어떻게 구현하는지 ... 광학렌즈부는 또 어떻게 설계하는지 ... SPAD 이미지 센서부는 또 어떻게 설계해야 자율주행차에서 라이다로 3 차원으로 물체 인식이 가능한지를 이해하는데 성공했읍니다 ... 하 아 ~~~ 이거 실마리 푸는데 한 2 년 걸린것 같읍니다 ... 속 이다 시원하네요 ... 왼벽한 설계 안은 아니어도 85 % 정도의 설계 안의 설마리를 확실하게 풀었읍니다 ...

최근에 제가 시간투자를 한 1 년 이상해서 돈이 되는 기술정보를 파악한 분야가 자동차 라이다 설계 분야 입니다 ...

자동차 라이다 설계 분야는 그 기술이 크게 Vicsel 송신부 설계분야, SPAD Image Sensor 수신부 설계분야, 광학렌즈 설계분야  이렇게 크게 세가지 분야의 기술을 확보해야 그 상용화가 가능 합니다 ...

그동안 라이다 설계 분석을 위해 한 7 - 8 달 동안 국내외 특허분석을 진행했읍니다 ...

한 1 년 특허 분석을 하다 보니 위에서 말씀드린 크게 세가지 분야의 기술을 약 90 % 정도 확보하는데 성공했읍니다 ...

더 자세한 분석 내용을 소개드리고 싶지만 해외 기업들의 특허를 어떻게 피해 나가 구현을 할지 까지는 아니어도  한 7 - 8 달 해외 기업들의 특허 분석을 통해 해외 기업의 라이다 설계 기법을 파악하는데는 성공했읍니다 ...

 

1. 자동차 라이다 설계 상용화 개발도 Vicsel 을 설계해서 제조하는 반도체 기업과도 협력이 필요하고

2. SPAD 이미지센서부도 설계해서 제조하는 반도체 기업과도 협력이 필요 합니다 ...

3. 또한 광학렌즈부도 설계 및 제작하는 전문기업과의 협력이 필요 합니다 ...

 

저는  자율주행차 라이다 장치 HW 설계 부터 SW 설계까지 그 세부 설계안을 어떻게 구현해야 하는지를 국내외 라이다 특허분석을 통해 터득 했읍니다 ...   당신은 프로토타입도 없는데 당신 기술은 무었으로 입증 가능하냐라고 질문하신다면 국내외 특허 수십개의 세부 분석을 통해서 라이다의 세부 설계 구현 안을 속속들이 파악할수 있었읍니다 ...    라이다 설계 및 구현 기술을 확실하게 파악 성공했는데  제가 자금력도 부족하고 또 이런류의 사업화는 서로 협력하면서 진행해야 가능할것 같읍니다 ...  라이다 설계 노하우중 가장 중요한 부분이 자동차 라이다 장치가 HW 설계가 어떤 구조로 설계가 되야 동작 가능한지와 HW 설계 방안이 확립됬다면 어떻게 SW 를 설계할것인가 입니다 ...   저는 HW 설계 방안도 확실히 파악하고 있고  이 HW 설계 방안 파악이슈의 해결이 안되면 아무것도 진행이 불가능 합니다 .....   라이다 개발이 기술력만 있다고 다 되는것이 아니라는것을 알기에 제가 운영하는 딥 네트워크와 뜻을 같이해서 공동으로 개발하실 기업 관계자분의 연락을 기다리겠읍니다 ....

 

제가 운영하는 일인기업   딥 네트워크 장석원

제가 어떤것들을 그동안 검토분석을 했는지를 소개하는 저의 일인기업 기업블로그 사이트 입니다 ...
제가 사업화를 준비했던 기술들 몇가지에 대해 사업화 준비 내용을 소개하는 기업블로그 입니다 ...

기업블로그 :   https://videocodec.tistory.com/    제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

구글링 등등 으로 5000 만원짜리 정보를 획득 가능하게 정보공유가 활발한것을 요즘엔 아시는 분들은 다 아시듯이  대기업 전략투자팀분들이나 대기업 연구소 관계자분들도 다 이해하실것 같은데 ...  대기업 전략투자팀분들이나 대기업 연구소 관계자분들도 20년전 연구조직이 움직이는 방식  즉 회사운영(연구소 경영 등등)을 보수적으로 경영진이 하신다면 대기업 전략투자팀분들이나 대기업 연구소 관계자분들을 아무리 설득한다 해도 유야무야 된다고 판단됩니다  예전 20 년전에는 대기업 연구소나 SKY 대 교수님 정도한테만 정보가 있었는데 ... 이제는 시대가 바뀌어서 구글링으로도 수천만원짜리 정보를 얻는것도 가능한데 ...  저같은 소기업이 이렇게 수천만원짜리 정보를 몇개 확보할수 있다는것을 이해를 못 하시는건지 아니면 회사 운영이 보수적인지는 몰라도 제가 메일을 수십통 송부드렸어도 저의 메일을 그냥 무시하시더군요     저같은 소기업이 이렇게 수천만원짜리 정보를 몇개 확보하는것도 구글링 한다고 다 정보를 찾을수는 없고 시행착오를 반복하면서 공부를 하고 또 하고를 반복해야 가능한데 ...  구글링 정보가 대부분은 몇천원짜리 정보 인데 그중에서 몇천만원짜리 정보를 찾아 내려면 그만큼 공부도 필요하고 세부분석 검토를 심도있게 할수있는 그런 능력이 없으면 불가능한데 ...  대기업 전략투자팀분들이나 대기업 연구소 관계자분는 저같은 소기업이 가진 이런 능력을 그냥 무시하시는것 같읍니다 ...  현업에서는 실제 구현해 보고 문제점을 보완하는데 분석만 해서야 어떻게 가능하냐 라고 하시면 분석할 타겟 기술을 정확히 핵심이 뭐다를 시행착오를 거쳐 파악할수 있구요  분석도 어느정도 깊이로 분석을 하는지에 따라서 이런 모든 애기가 마무리될것 같읍니다 ...  대기업 전략투자팀이나 대기업 연구소도 사람이 움직이는 조직이고 그 구성원이 결과를 내고 하는것인데 ...  저는 제 능력이 대기업 전략투자팀분들이나 대기업 연구소 관계자분들 보다 못 하다라고 생각하지 않읍니다 ...  어차피 아무리 큰 조직도 핵심인력 몇명이 그 조직의 핵심을 담당한다는것을 저는 알고 있읍니다 ...  함부로 상대방의 능력을 무시하면 안된다라고 저는 판단 합니다 ...  사업을 왜 꼭 저 혼자 모든것을 다 한다고 생각하시나요 ? 투자유치 성공시 인력 구성해서 하면 되죠 ?  저도 그동안 한 3 년간 빡시게 분석해서 확보해 놓은 돈이 되는 정보가 꽤 되거든요 ...   돈이 되는 정보 확보도 없이 무조건  기술력이 있다고는 안 합니다 ...분석과 실제는 다르다는것 잘 알고 있읍니다 .. 저도 10 몇년전 코덱 SW IP 개발 사업화시 검증과정에서 결과물의 성능이 2 % 부족해서 개발에 실패했었기에 너무나도 잘 알고 있읍니다 ...  한국에서는 한번 실패한 사업가에게는 기회를 주지 않읍니다 ....   그래서 한 10 년 어려웠고 이제 10 년을 피나는 노력을 하니 이제 사업(저의 기술 개발 준비내용의 질적 수준이 만족스러워서)이 앞이 보이기 시작하는데 투자 받으려면 결과물 검증내지 특허출원으로 투자가 가능한것은 알고 있는데 이게 다 돈이 들어야 가능하거든요 ...  이해하시죠 ?   왜냐하면 예전같이 정보공유가 안되는 시절이면 대기업이 다 우수하다라고 하겠지만 이제는 정보공유가 활발한 세상이라  대기업과 소기업간의 정보격차가 그렇게 크지 않기 때문 입니다 ...  대기업 전략투자팀분들이나 대기업 연구소 관계자분들이  운영을 보수적으로 하시니 이런것을 간과하시는것으로 저는 대기업 전략투자팀분들이나 대기업 연구소 관계자분들은 발상의 전환을 별로 고려하지 않는(고정관념을 깨지 못하는) 조직이구나를 느꼈었읍니다  ... 

물론 저도 투자유치를 하려면 프로토타입 결과물 제시를 하거나 특허출원을 통해 특허가치 심사과정을 통해 특허의 가치를 평가 받아서 평가받은 금액 만큼 투자유치가 가능하다는것 또한 잘 알고 있읍니다 ...

이 글을 읽으시는 관계자분들은 저를 잘 모르시기에 메일로 의견을 보내주시면 저도 제 기업블로그에서 말씀드리는 몇가지 기술분야 관련 제가 그동안 터득한 기술 노하우(자산)에 대해 서로 심도있는 논의가 될수 있었으면 합니다 ...    

 

제가 운영하는   일인기업   

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/   제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

제 나이 올해 59 세 입니다 ....   요즘 경기가 최악 이라 중소기업 이건 대기업 이건 검증된 결과물이 있느냐 이것이 사람을 평가하는 기준이 되고 있읍니다 ...   요즘엔 30 대도 재취업을 1 년내에 하는게 쉽지 않다고 합니다 ...   요즘엔 본인이 가진 기술이 100 점에 가까우냐가 평가 기준 인것 같읍니다 ...  본인이 가진 기술이 100 점 정도면 당신의 능력을 믿을수 있다고 평가할수 있다 이것이 요즘 중소기업 이건 대기업 이건 공통적인 상대방의 능력을 평가하는 기준 인것 같읍니다 ...   저도 그동안 제가 사업수완이 부족해서 푼돈벌이 밖에 안되는 펌웨어 개발용역 일을 했었는데 최근부터는 이것을 탈피해서 한  2 - 3 년동안 준비해서 이제는 제 사업을 해야 하겠다 라는 생각을 했읍니다 ...   접속자수가 수십만명되는 미디어 데이터 송수신 서비스 구현을 위한 기술을 파악하려고 목표를 정했었고  이게 Publish / Subscribe 구조의 메시지 통신 설계 구현의 세부 노하우를 파악하는것도 산너머 산 이었구요 ...  이것도 우여곡절 끝에 노하우 확보에 성공했읍니다 ...  그런데 이게 끝이 아니더라구요 ...    접속자수가 수십만명되는 미디어 데이터 송수신 서비스 구현을 하려면 네트웍 장비 L4 스위치 장비로 어떻게 네트웍 부하를 분산시키는 설계가 가능한지 그 세부 방식의 파악에 어려움을 겪다가 파악에 성공했읍니다 ....    또 이어서 제가 준비했던 기술을 소개드리면  딥러닝  사업화를 위해 한 2 년 가까이 해외논문을 한 400 편 이상 살펴봤구요 ...  논문을 400 편 살펴봤다고 글을 쓰니까 어떤 분들은 논문 읽고 분석하는것은 대학원 석사과정도 다 한다 라고 이야기를 하시더라구요 ...   다 남들도 대학원 딥러닝 석벅사과정을 거치면서 논문을 수백편 분석하면서 논문의 개선 방안을 제시해서 석박사를 받듯이  저도 그런 과정을 한 2 년 겪었다고 보시면 됩니다 ...    논문을 수백편 분석하면서 논문의 개선 방안을 제시하는것 가지는 아니어도 해당 논문에서 핵심이슈가 무었이고 여기에서 내가 파악할것은 무었인가를 고민하는 시간을 한 2 년 겪었읍니다 ...  저는 오디오쪽 비디오쪽 딥러닝 기술 이슈 수십 수백 가지 논문의 이슈 분석에 시간을 투자했었구요 ...   요즘 ChatGPT 가 세상을 뒤집고 있는데 내가 2 년전 딥러닝 논문 분석을 준비 안해서 딥러닝 노하우를 지금 파악하고 있지 못하다고 생각하면 끔찍할것 같읍니다 ...   저는 딥러닝 비젼쪽 논문도 분석을 했었고,  최근에는 GPT-3.5 ChatGPT 의 핵심 이슈가 무었인지와 OpenAI 에서는 이 사람들은  GPT-3.5 ChatGPT 를 어떻게 설계했는지 그런것을 세부적으로 분석하고 있고  OpenAI 의  GPT-3.5 ChatGPT 의 학습 및 추론은 어떻게 설계되었는가를 어느정도 파악에 성공했읍니다 ...    요즘은 대기업 AI 연구소도 약간 젊으신 미국 일류대 AI 박사님들이 연구소장을 하시더라구요 ...    OpenAI 의  GPT-3 을 한번 학습시키는데 미화 1200 만불이 든다고 합니다 ...    OpenAI 의  GPT-3 을 한번 학습시키려면 엔비디아 딥러닝 서버를 최소 수십대 이상 클러스터링 구축 설계를 해야하고 클러스터링 설계시 네트웍 통신도 채널당 수십 - 수백 Gbps 급의 네트웍 통신도 같이 설게시 고려되야 하더라구요 ...  요즘은 이런 엔비디아의 딥러닝 서버를 적용한 클러스터링 설계가 구현된 솔루션을 엔비디아가 제공하더군요  ....   저는 Vision 쪽으로는 StyleGAN 분야를 세부 검토를 했었고  엔비디아 NeRF 논문도 세부 검토를 했었읍니다 ...  그래도 나름 이슈 파악을 했으니 이렇게 소개드리는것 이구요 ...    OpenAI 의  GPT-3 학습 구현도 토큰나이져 설계와 모델 설계 이런것들의 세부 검토가 필요 합니다 ...   저 보러 너는 그럼 OpenAI 의  GPT-3 학습 파악한게 100 점에 가까우냐 라고 물으시면 한 85 점 정도 라고 답변을 드릴수 있을것 같읍니다 ...   그래도 나름 돈이 되는 노하우도 파악하고 있읍니다 ...    저는 딥러닝을 예를 들면  OpenAI 의  GPT-3 학습 파악한게 100 점에 가까우냐 라고 물으시면 한 85 점 정도 파악했구요 ...   위에서 말씀드린  접속자수가 수십만명되는 미디어 데이터 송수신 서비스 구현을 위한 기술도  파악한게 100 점에 가까우냐 라고 물으시면 한 85 점 정도라고 말씀드릴수 있읍니다 ...   

여러가지로 제가 운영하는 딥 네트워크와 협력해서 위의 두가지 사업분야 의 일을 추진하는것 검토가 필요하시면 아래의 메일주소로 귀사의 기술이슈를 보내주시면 한번 같이 고민해 볼수 있을것 같읍니다  ....

 

 

제가 운영하는   일인기업   

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/   제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

 

 

 

 

 

 

 

  

ToF 의 동작원리는 파장을 송출하면 송출한 파장이 멀리 떨어진 오브젝트에 부딪쳐서 반사되서 오는 파장이 도착하기까지 걸린 시간을 측정해서 오브젝트와의 거리를 측정하는것으로 저는 파악합니다 ... 그런데 동작원리는 이해를 했는데요 ... 3D Depth Image Senor 를 구현하려면 오브젝트까지 거리측정을 픽셀의 해상도의 정밀도로 거리를 측정해야 하는데 ... 이를 고 정밀도로 오브젝트와의 거리를 측정하기 위해서는 고 정밀도의 A/D Converter 가 수백개 이상이 필요하게 되는데 ...   이 역할을 담당하는 부분이 3D SPAD Image Sensor 부분입니다 ...  해상도가 높으면 고 정밀도의 A/D Converter 가 수천개 이상이 필요한데 동작원리 이해상으로는 이렇게 3D Depth Image Sensor 를 설계하면 동작은 가능한데 너무 고 비용으로 구현이 가능하기에 상용화 기술로는 부족하다고 생각이 되거든요 ... 송출한 파장이 멀리 떨어진 오브젝트에 부딪쳐서 반사되서 오는 파장이 도착하기까지 걸린 시간을 측정을 위해서는 고 정밀도의 A/D Converter 가 수천개 이상이 필요하기에 이것을 효율적으로 설계하려면 어떤 설계 방안이 있을지가 궁금해 집니다 ....

 

3D 이미지센서가 3D 이미지를 얻는 방식은 크게 양안 시각(Stereo Vision) 방식, 구조 광(Structured Light) 방식, 비행시간(Time of Flight) , 이하 ToF 방식으로 분류된다. 이중 ToF 방식은 거리 측정 방식에 따라 위상 차이를 이용하는 ‘간접 ToF(Indirect ToF, 이하 I-ToF)’와 시간 차이를 직접 측정하는 방식인 ‘직접 ToF(Direct ToF, 이하 D-ToF)’로 구분된다.

 

D-ToF 방식은 펄스 레이저를 사물에 조사해 반사된 펄스 신호들이 이미지센서에 도착하는 시간을 측정함으로써 물체까지의 거리를 탐지하는 방식이다. 수십 혹은 수백 미터 이상 떨어진 물체와의 거리도 측정할 수 있다는 매우 큰 장점을 가지고 있으나, 이를 위해서는 초고효율 특성을 제공하는 소자인 단광자눈사태다이오드(Single-Photon Avalanche Diode, SPAD)가 필수적으로 요구된다.

 

저의 라이다 설계시 가장 큰 고민은 VICSEL 송신부 어레이에서 어떤방식으로 어레이 형태의 빔을 타겟의 거리에 맞춰서 빔을 정확히 쏠수 있는지와 이렇게 VICSEL 레이져 빔을 쏜것이 광학렌즈부를 거쳐 라이다 수신부인 SPAD 이미지센서 (3D SPAD Image Sensor) 수신부 안으로 3 차원 오브젝트의 VICSEL 레이져 의 빔 데이터가 3D SPAD Image Sensor 에 정확히 상 이 맺히도록 수신 하려면 어떻게 광학렌즈부를 설계해야 하는지 이것 해결하는 방안을 찾기가 너무 어렵습니다 ...   

3D SPAD Image Sensor 에 정확히 상 이 맺히도록 수신 하려면 어떻게 광학렌즈부를 설계해야 하는지를 최근에 파악 성공했읍니다 ...  아직 라이다 성능 구현에 필요한 100 % 기술력 확보는 아니고 85 - 90 % 기술력확보에 성공했읍니다 ....

 

자동차 라이다 시스템의 전체 설계 구조를 이해하는데 성공했읍니다 ...  VICSEL 레이져 빔 부는 어떻게 구현하는지 ...  광학렌즈부는 또 어떻게 설계하는지 ...  SPAD 이미지 센서부는 또 어떻게 설계해야 자율주행차에서 라이다로 3 차원으로 물체 인식이 가능한지를 이해하는데 성공했읍니다 ...    하 아 ~~~   이거 실마리 푸는데 한 2 년 걸린것 같읍니다 ... 속 이다 시원하네요 ...  왼벽한 설계 안은 아니어도 85 % 정도의 설계 안의 설마리를 확실하게 풀었읍니다 ...   

 

아직 정식으로 사업화를 추진된것은 없구요 ...

사업화를 준비하는 스타트업 입니다 ....

 

제가 운영하는   일인기업   

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/   제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

GPT-3 Pretrained Model 을 적용해서 업스트림 타스크를 학습을 시켰는지 아니면 커스토마이징 과정을 별도로 해서  업스트림 타스크를 학습을 시켰는지는 확실히는 모르지만 ChatGPT 모델처럼 트랜스포머 모델 커스토마이징되서 검증된 소스가  있다면 반도체 IP 만드는것도 가능하다고 보거든요 

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

그간 쌓여있는 WebRTC 미디어 서비스 분야 개발 및 사업화 도전의 이야기를 해 보려 합니다 ... 

 WebRTC 쪽을 본격적으로 살피기 시작한 시기가 지금부터 약 3 년전쯤 입니다 ...  WebRTC 미디어 서버 소스로 공개된것중에  유럽의 이탈리아 개발자들의 Meetecho 사에서 공개한 오픈소스 소스인  Janus Gateway Github 소스를 다운로드 받아 살펴 보기 시작했읍니다 ...    Meetecho 사에서 공개한 오픈소스 소스인  Janus Gateway Github 소스는 여러개의 오픈소스 라이브러리를 적용해서 어플리케이션 서버와 웹 서버간의 각종 Configuration 데이타 수백개의 설정 및 셋팅 부분을 오픈소스 라이브러리로 구현한것이 소스의 대부분이다 ...  Janus Gateway 의 송수신 데이터의 보안처리 또한  OpenSSL 같은 오픈소스 라이브러리로 구현한것이다 ...  어플리케이션 서버와 웹 서버간의 각종 Configuration 데이타 수백개의 설정 및 셋팅 부분도 오픈소스 라이브러리를 적용해서  웹 전송 포멧인 JSON 형태 데이터 Configuration 전달 구현을 처리하고 있다 ...  Janus Gateway Github 소스에서 미디어 데이터 송수신은  임베디드  웹 서버를 적용해서 REST API 로 HTTP 1.1 규격으로 전송하기 위한 부분도  오픈소스 라이브러리로 구현 참조소스를 제공한다 ...  이런 부분들의 분석이 어느정도되 있고 이것의 커스토마이징은 또 다른 문제일것 같다 ...  Janus Gateway Github 소스는 대용량 미디어 서비스를 설계하기 위한 참조소스도 제공한다.  RabbitMQ 클라우드의 API 를 적용해서  화상회의 참여자가 수백명 정도 일때 정도의 규모로 미디어 서비스하는것의 참조소스를 제공하는데  다 친절하게 제공하지는 않고 공부가 필요하다 ...    화상회의 참여자가 수백명 정도 일때,  Janus Gateway 에서는 웹으로 방송을 송출시 수신을 원하는 사람에제만 방송을 송출하기 위해 Publish / Subscribe 구조로 처리하고 있고,  수백명 혹은 수만명 혹은 수십만명에게 미디어 방송 서비스를 구현시  Publish / Subscribe 구조로 설계하는것이 일반적이고,  저는  수만명 혹은 수십만명에게 미디어 방송 서비스를 구현시  Publish / Subscribe 구조로 설계하는것의 노하우를 이해하고 있읍니다 ...    수만명 혹은 수십만명에게 미디어 방송 서비스를 구현하려면 네트웍 부하 분산 처리가 필수 인데 ...   L4 스위치 장비를 어떻게 어떤 방식으로 적용해서 부하 분산 처리를 구현하는가를 이해하고 있읍니다 ...   그렇다고 제가 미국 네트웍 장비 대기업인 시스코사의  L4 스위치 장비의 응용 기술을 파악하고 있지는 못 합니다 ...       

 

WebRTC 기반 대용량 미디어 데이터 송수신 구현기술 노하우를 파악하려고 유럽 Meetecho 사의 Janus Gateway 미디어 서버 소스 분석을 한 6 개월했었구요 ...  소스 분석이 어느정도 되니 미디어 방송 서비스 구현시 수십만의 가입자가 방송 수신을 원할때 어떻게 송수신을 설계해야  가장 좋을지 이런 구현 방안 파악에 성공했구요 ...   미디어 방송 서비스를 구현시  Publish / Subscribe 구조로 설계하는 구현 방안을 파악에 성공했읍니다 ...   구현 방안을 파악했는데  Publish / Subscribe 구조로 수십만명의  송수신 데이터를 처리하려면  네트웍 부하 분산 처리  방안의 파악이 필수 이구요  이런것들 파악하는데 5 - 6 달이 추가로 시간이 걸렸읍니다 

네트워크 장비인 L3 스위치 장비의 설계 원리를 현재 정확히 이해하고 있다 ...  이 정도 파악하는 수준이면 네트워크 SW 설계도 거의 전문가급이라고 나는 판단한다 ...   네트워크 장비인 L3 스위치 장비 개발을 직접 경험해 보지 않았어도 L3 스위치 장비의 구현 원리를 파악할수 있었다 ...  나는 네트워크 장비인 L3 스위치 장비의 네트웍 프로토콜 스택 설계 전문가가 아니라  L3 스위치 장비를 응용해서 네트웍 SW 를 설계하는 전문가라함이 정확할것 같다 ..

물론 저도 투자유치를 하려면 프로토타입 결과물 제시를 하거나 특허출원을 통해 특허가치 심사과정을 통해 특허의 가치를 평가 받아서 평가받은 금액 만큼 투자유치가 가능하다는것 또한 잘 알고 있읍니다 ...

이 글을 읽으시는 관계자분들은 저를 잘 모르시기에 메일로 의견을 보내주시면 저도 제 기업블로그에서 말씀드리는 몇가지 기술분야 관련 제가 그동안 터득한 기술 노하우(자산)에 대해 서로 심도있는 논의가 될수 있었으면 합니다 ...    

 

 

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

요즘  미디어 데이터를 수만명 수십만명한테 방송 서비스를 하려면 수신을 원한다고 체크한 가입자만 방송 서비스를 수신 가능하게 미디어 송수신 설계를 해야 합니다 이런 대용량방송 서비스 구현시에는 필수적으로 로드밸런싱 제어가 필수적인데 이런 노하우도 파악하고 있읍니다...    대용량 미디어 데이터 실시간 송수신 서비스  구현 개발을 클라우드 서비스인 RabbitMQ 를 적용해서 설계시 메시지큐 통신이 어떤 구조로 처리가 되는지 RabbitMQ 를 어떻게 적용해서 구현되는지를 이해하고 있고, 즉 RabbitMQ 로 통신 부하 분산처리 설계를 구현시 L4 스위칭 장비를 적용해서 어떻게 로드밸런싱 제어 기법을 적용하는지도 파악하고 있읍니다    클라우드 서비스 RabbitMQ 로 대용량 미디어 데이터 송수신 구현을 메시지 큐 통신 방식으로 어떻게 구현하고 있는지의 세부 설계 구현 노하우를 파악 성공했고 또 대용량 미디어 데이터를 송수신처리 예를들어 RabbitMQ 로 방송서비스를 구현하고자 했을때 네트웍의 부하분산 처리를 L4 네트웍 스위칭 장비로 어떤 방식으로 구현하는지에 대한 설계 노하우도 파악 성공했읍니다  ...  

네트워크 부하 분산 설계는 SW 적으로도 가능하다고는 하는데 제 판단엔 L4 스위치 장비와 함께 SW 구현을 통해 네트웍 부하 분선 설계를 하는것이 효율적인 동작이 가능 하다고 봅니다 ...   네트웍 부하 분산 설계를 이해하려면  L4 스위치 장비의 내부 동작 구조의 이해가 필수라고 판단합니다 ...  저도 이통사나 네이버 카카오 같은데는 네트웍 부하 분산 설계를 어떻게 하는지 한 4 - 5 년부터 궁금했었는데 ...  그동안  한 2 - 3 년 검토 분석을 스텝 바이 스텝으로 한단계 한단계 공부하다 보니  L4 스위치 장비의 내부 동작 구조도  파악에 성공했읍니다 ...   미국 네트웍 장비 대기업 Cisco 사의  L4 스위치 장비를 구체적으로 어떻게 셋팅하는가 뭐 이런 정도까지는 아직 공부하진 않았고  L4 스위치 장비의 구현 원리 같은것을 깊이있게 이해하고 있읍니다 ...           

 

WebRTC 기반 대용량 미디어 데이터 송수신 구현기술 노하우를 파악하려고 유럽 Meetecho 사의 Janus Gateway 미디어 서버 소스 분석을 한 6 개월했었구요 ...  소스 분석이 어느정도 되니 미디어 방송 서비스 구현시 수십만의 가입자가 방송 수신을 원할때 어떻게 송수신을 설계해야  가장 좋을지 이런 구현 방안 파악에 성공했구요 ... 미디어 방송 서비스를 구현시 Publish / Subscribe 구조로 설계하는 구현 방안을 파악에 성공했읍니다 ...   구현 방안을 파악했는데 Publish / Subscribe 구조로 수십만명의  송수신 데이터를 처리하려면 네트웍 부하 분산 처리  방안의 파악이 필수 이구요  이런것들 파악하는데 5 - 6 달이 추가로 시간이 걸렸읍니다 

네트워크 장비인 L3 스위치 장비의 설계 원리를 현재 정확히 이해하고 있다 ...  이 정도 파악하는 수준이면 네트워크 SW 설계도 거의 전문가급이라고 나는 판단한다 ...   네트워크 장비인 L3 스위치 장비 개발을 직접 경험해 보지 않았어도 L3 스위치 장비의 구현 원리를 파악할수 있었다 ...  나는 네트워크 장비인 L3 스위치 장비의 네트웍 프로토콜 스택 설계 전문가가 아니라  L3 스위치 장비를 응용해서 네트웍 SW 를 설계하는 전문가라함이 정확할것 같다 ..

물론 저도 투자유치를 하려면 프로토타입 결과물 제시를 하거나 특허출원을 통해 특허가치 심사과정을 통해 특허의 가치를 평가 받아서 평가받은 금액 만큼 투자유치가 가능하다는것 또한 잘 알고 있읍니다 ...

이 글을 읽으시는 관계자분들은 저를 잘 모르시기에 메일로 의견을 보내주시면 저도 제 기업블로그에서 말씀드리는 몇가지 기술분야 관련 제가 그동안 터득한 기술 노하우(자산)에 대해 서로 심도있는 논의가 될수 있었으면 합니다 ... 

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

 

 

저도 이제 나이가 59 입니다 ...  2007 년경 H.264 Codec IP 를 만들어 보겠다고 호기롭게 도전했었는데  결과물의 성능(정확도)이 몇 프로 미달해서 나와서 결국 사업은 실패로 끝났고,  이때 참 코덱 국제규격문서와 코덱 개발 참조소스를 사용해서 독자적인 코덱 SW IP 를 만들려고 했었구요 .... 그 이후 힘들었던 이유가 비디오 코덱을 해보겠다고 2000 년대초에 한동안 여기에 올인했었기 때문에 제가 사업을 실패하고 2010 년경부터는 구글에서 스마트폰 OS 인 안드로이드가 2009년에 출시됬었구요 ...  그때 한국도 업체들 여기 저기서 안드로이드쪽에 발을 담그는 업체들이 생겨났었고 ...  이때가 마이크로스프트 WinCE 로 모바일 기기를 개발하던것이 주류였었는데 안드로이드가 나오면서  저도 약간 발을 담갔었던 마이크로스프트 WinCE쪽 일하던 사람들이 힘들어했던 시기였읍니다 ...  WinCE쪽 일하던 사람 이직도 많았죠 ...   저도 2005 년도쯤 WinCE 플랫폼으로 WinCE  지상파 DMB 인 T-DMB 드라이버와 어플을 만들수 있는 기술을 확보했었는데 갑자기 안드로이드가 2009 년에 나오면서 저도 안드로이드를 공부 안할수 없었구요 ...  이렇게 안드로이드를 공부했었구요 ...  안드로이드 BSP 및 HAL 개발은 대기업두 최소 20 명 인원을 투입해서 개발이 가능한 그런 분야이기에 저같은 일인기업은 당장 먹고 사는것 해결이 되야 해서  안드로이드 BSP 및 HAL 개발에 시간투자를 올인할수가 없다는게 저의 힘든 점 이었구요 ...  딥러닝 분야도 마찬가지 입니다 ...  제가 자금여력이 있어서 개발진행을 여유있게 할수 있으면 모를까  당장 생활비 벌이는 벌이대로 하면서 딥러닝 공부를 한다는게 한계가 생길수 밖에 없더군요 ...   딥러닝 공부를 한 2 년반 하니 깨달은게 딥러닝도 서비스 개발도 사업화 검토를 사람들이 하지만 요 최근에 딥러닝은 ChatGPT 가 세상을 바꾸면서 GPT-3 모델을 반도체 IP 로 만드는것 이런것이 요즘 대기업에서 관심을 갖더군요 ...    GPT-3 모델을 AI 반도체 IP 로 만드는것의 핵심은 구글 트랜스포머 모델을 커스토마이징 개발 성공한 GPT-3 모델 의 세부 알고리즘이 딥러닝 소스로는 어떻게 설계되는지 파악이 되야  AI 반도체 IP 로 만드는것이 가능 합니다 ...   저는 이런것들을 기초부터 세부분석 작업을 했었읍니다 ...   트랜스포머 모델을 커스토마이징 하기 위해서 껍데기를 하나 하나 벗기면서  AI 반도체 IP  설계 기반기술을 확보하려 노력중 입니다 ...   하나 하나 껍데기를 벗기다 보면  AI 반도체 IP  설계 기반기술 확보가 당장은 아니더라도 추후 가능하다고 보거든요 ...    이런 그동안 2 년반  저의 딥러닝 준비과정의 평가를 알아봐 주셨으면 합니다 ...

 

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

ChatGPT 가 큰 변혁을 가져왔는데 ...    초거대모델 LLM 개발관련 저는 어떻게 해야 하는지 ...   이런 이야기를 해보려 합니다 ...    초거대모델 LLM 개발 관련해서는 구글 트랜스포머 모델 기반이기에 구글 트랜스포머 모델을 어떻게 커스토마이징 할것인가 이게 이슈 인데요 ...   Auto Regressive 언어모델인 GPT-3 기반으로 작업되는데 ...    GPT-3도 2021년 12월에 파인튜닝 기능이 새로 생겼습니다.  정확한 알고리즘은 공개되지 않았습니다.   업 스트림 타스크로 대표적인 학습 방법이 NSP 나 MLM 이 적용되고 있구요 ...  다운 스트림 타스크로 학습하는 문장 분류 / 자연어 추론 / 질의 응답 / 문장생성  학습데이터셋이 적용되고 있고 ....      파인 튜닝 / 프롬프트 러닝 /  In-Context Learning 학습 방법이 있읍니다 ...     강화학습을 통해 Reward Model 의 policy (학습모델) 최적화 하는것이 가장 핵심으로 저는 파악 합니다 ...   초거대 모델의 크기가 상당히 크기에  파인튜닝 방식으로 초거대모델 전체를 업데이트하려면 엄청난 비용이 듭니다 ...    그래서 프롬프트 러닝, 인컨텍스트 러닝으로 학습한 모델이 경쟁력 있는 태스크의 성능을 보여준다고 저는 판단 합니다 ...    In-context Learning 은 사전학습된 모델 파라미터 1B 이상의 초거대모델을 PreTrained 된것을 적용해서 In-context Learning 을 작은 양의 데이터로 Few-Shot Learning 을 시킬 수 있다를 파악할수 있었구요...     프롬프트 러닝, 인컨텍스트 러닝 발표 논문을 좀 더 세밀히 살펴보려 합니다 ...  

초거대 모델 구현의 경우, Supervized Fine Tuning 모델 확보한것을 적용해서 강화학습을 사용해 Reward Model 에 대해 policy 를 최적화한 InstructGPT 설계 기법이 이슈 입니다 ...   저의 경우,  초거대 모델 학습관련 어떤게 핵심이슈이다 라는것을 파악 성공했읍니다 ...  초거대 모델을 학습시키려면 여러가지의 학습 메커니즘이 사용되는데  OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지를 파악하는게 성과가 있었읍니다 ...  요즘엔 세상 좋아져서 국내외 여러 기술 블로그에 관련된 내용의 언급이 있는것을 살펴서 파악한것 입니다 ...    OpenAI 가 어떤 학습 알고리즘 설계 구조로 GPT-3.5 를 설계했는지 파악하는데 성공했다 ...   물론 학습데이터도 Fine Tuning 시 어떻게 설계해서 성능을 냈는지도 완벽하진 않아도 파악에 성공했다 ...    그리고 PyTorch 에서 Pre-Trained Model 을 어떻게 Fine Tuning 하는지 그 설계 기법도 파악하고 있다 ...    LLAMA-13B 는 단독 GPU 에서도 문제없이 동작했다고 하구요 ...  이렇게 경량화는 또 어떻게 설계하고 있는지도 분석하고 있다 ...    고성능 인터커넥트 네트워킹 솔루션 기업 멜라녹스(Mellanox Technologies)를 인수해서 엔비디아 네트워킹 사업부가 됬구요 .... 멜라녹스는 20여 년간 인피니밴드 솔루션과 그리고 이더넷 솔루션은 약 6년간 글로벌 고객들에게 제공해 온 기업입니다.  인피니밴드 기술은 초당 200Gbps의 데이터를 처리할 수 있는 네트워크를 지원하는 규격인데 초거대 모델 학습데이터의 대역폭이 크기 때문에 멜라녹스 인피니밴드 솔루션에 대해서 검토 분석이 필요할수밖에 없읍니다 ...      GPT-3 사전학습 을 통해 습득한 지식은 내용에 대한 이해가 아니라 전후의 문맥으로부터 단어를 맞추기 위한 조건부 확률 이구요 ...  이런 것들이 GPT-3 의 노하우가 될수 있는 정보라고 생각합니다 ...  GPT-3 가 합성한 문장은 보통 언어적으로 적법하며 내용도 제법 타당하게 보인다고 하구요 ... 

저도 초거대 모델 학습의 노하우를 속시원히 공개하지는 못해도 그 실마리 정도는 위에서 언급드렸읍니다 ...      GPT-3 모델의 학습 노하우는 저도 어느정도 파악 성공했구요 ...  기대 이상으로 깊이있게 파악했다는것을 공개 합니다 ...    요즘엔 구글링에 시간을 상당히 투자하면 못 얻을 정보도 없는것 같읍니다 ...  

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

+ Recent posts