장거리 저전력 무선통신 프로토콜인 LoRa 통신 개발용역 및 기술자문
 - Class A 통신 처리 노하우 확보
 - Class A 통신시 보안인증 처리 노하우 확보
    현재 LoRa 통신 Class A 통신 처리 및 Class A 통신시 보안인증 처리 프로토타입 개발용역 및 기술자문 가능
    장거리 저전력 무선통신 프로토콜인 LoRa 통신 양산 대응용 안정화 개발시 추가적인 기간과 비용 필요

   스마트 팜 사업화에 대해 그동안 준비한것들을 이야기해 보겠읍니다 ... 스마트 팜을 구현하려면 농장내에서 농작물 
   제어장치들이 거의 500 - 1000 미터 혹은 그 이상의 거리에서의 통신되는것이 필요한데 그중에 가장 적절하다고 판단되는 
   통신방식이 장거리 저전력 통신 프로토콜인 로라통신 이라서 제가 그동안 각고의 노력 끝에 터득한 내용을 소개드려 봅니다
   로라통신 관련 이슈에 대해 업체로부터 문의를 받은것이 약 3 년전쯤 입니다 ...
   로라통신은 로라통신 디바이스단 설계 기술 + 로라통신 게이트웨이단 설계 기술 + 로라통신 네트웍 서버 설계 기술 이렇게 
  이루어져 있읍니다 ...
  로라통신은 클래스 A 통신 처리 방법과 절차가 로라 귝제 규겨문서에 규정되 있고 SEMTECH 사에서 이 국제 규격을 기준으로 해서  SOC 반도체 설계 상용화를 했읍니다 ...  로라 국제 규격문서에는 CLASS A 통신 규격만 규정되 있는게 아니고 
   보안인증처리를 CLASS A 통신 처리를 하면서 어떻게 설계할것인가가 규격문서에 규정되 있읍니다 ... 처음에 분석을 
   시작할때에는 CLASS A 통신 절차와 방법 이해하는것도 쉽지 않았읍니다 ...
  로라통신을 약 3 년간 틈틈이 시간을 내서 하루에 한 시간씩이라도 공부했던것이 로라통신 규격이 통신 규격과 연동되는
   보안인증 처리 방법도 규정되 있는데 특히 통신과 연동된 보안인증 처리 노하우를 이해하는게 쉽지 않았읍니다 ... 
  현재 저는 로라통신 CLASS A 통신 처리 방법의 세부 이해가 약 90 % 정도 이고 로라통신 CLASS A 통신 처리와 연동되는
  보안인증 처리 방법에 대해서도 약 90 % 이해를 하고 있읍니다 ...
  로라통신 CLASS A 통신 처리 방법의 세부 이해와 보안인증 처리 방법에 대해 약 90 % 를 이해하고 있는것은?SEMTECH 
  로라 펌웨어 소스의 세부 내용의 이해와 로라통신 국제 규격의 세부분석을 통한 이해가 더 해져서 약 90 % 를 이해하고 
   있읍니다 ...
  보안 메커니즘에서,  MAC( Message Authentication Code )은 메시지의 위변조를 확인하기 위해 쓰이는 보안 기술 입니다.
  CMAC은 알고리즘과 모드 에 따라 AES CBC-MAC 메커니즘이 있구요 ...  CMAC 도 마찬가지로 주된 기능은 사용자 인증(authentication)과  데이터 무결성(data integerity) 처리를 위한것 입니다 ...  MAC 은  MAC 을 만들때  Block 함수를 사용하면 CMAC( Cipher-based Message Authentication Code )가 됩니다 ...  로라통신에서 사용되는 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘의 세부 동작구조를 이해해야 하는데 이것이 쉽지 않구요 ...
  저는 SemTech 사의 로라통신 펌웨어 소스에서 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘을?로라통신의 
  디바이스단(센서단)에서 구현해 놓은것을 분석 성공한것이 저의 로라통신의 보안인증 방식의 기술력 입니다 ...


카메라 이미지센서 3A 튜닝 개발용역 및 기술자문

 - 이미지센서 안정화된 화면출력 동작 구현시 개발 및 자문 관련 의뢰 제품의 세부 양산계획 확정이 필수임.
 - 이미지센서가 보통 AP(Application Processor)의 내장 Camera ISP 의 구동 및 튜닝시?
    의뢰 제품의 세부 양산계획 확정 및 AP(Application Processor) 의 글로벌 칩셋사 에 MOQ 구매 오더가 필수임
 - Camera 3A 튜닝 개발중 DMBTEC 의 확보 기술력으로 Exposure 제어와 White Balance 제어 최적화 가능
    Exposure 제어와 White Balance 제어를 구현시 이에 필요한 기술자료를 
    AP(Application Processor) 의 글로벌 칩셋사의 기술지원 협력이 필요할수 있음

   DMBTEC 의? Camera 3A 튜닝 관련 그동안 3 년 이상 분석 검토한 내용을 공개합니다 ...  3A 튜닝 기술중 우선 2 가지, 
   Exposure 제어와 White balance 제어 관련해서 소개해 보겠읍니다 ...? 카메라 화질튜닝의 핵심은 카메라 이미지의 선명도를 개선하는것이 중요한데? Exposure 제어의 경우, 카메라 영상중 카메라 영상의 밝기에 해당하는 성분인 Y 값, 이것은 영상의 밝기에 해당하는 인자인데 노출제어에 의해 카메라 영상중 내가 선택한 카메라 영상의 특정 영역의 Y 값을 128 (+/-) 10 정도의 값을 가지도록 카메라의 노출제어를 한다는 의미이구요 ...  Exposure 제어를 통해? 내가 선택한 카메라 영상의 특정 
   영역의 Y 값을? 제어함을 통해서 카메라 이미지의 선명도를 개선이 가능하고 또한 카메라의 펌웨어의 카메라 화질보정을 
   통해 인공적으로 내가 지정한 특정영역 말고 다른 부분의 Y 값도 미세조정을 통해 카메라 영상의 선명도를 개선시키는것이 가능하다라고 그동안 분석이 되었읍니다 ...  여기까지가 카메라 노출제어 관련 이었구요 ...? ?여기에 한단계를 더 뛰어넘어서 화질 튜닝을 하려면 White balance 제어가 필요합니다 ....  White Balance 제어는 카메라에 비춰지는 광원의 색온도를 측정을 통해 광원의 White balance 특성을 파악하게 되구요 ...   Exposure 제어로 특정영역의 Y 값을 제어해서 카메라 이미지의 선명도를 개선을 처리한다고 말씀드렸는데 여기에  광원의 White balance 특성 파악을 통해 카메라 이미지의 White balance 제어 또한 가능합니다 ...  즉 광원의 특성에 따라 카메라 이미지의 White balance 제어 처리가 된 영상으로 보정되야 한다는것 입니다 ...  광원의 특성 즉 맑은 날인지 흐린  인지 조명은 어떤 조명인지 이런 광원의 조건에 따른 카메라 이미지의 White balance 제어 처리도 반드시 필요하다는것 입니다 ...  그리고 카메라 이미지의?White balance 제어는 광원의 색온도 측정값에 따라 결정되구요 ...  여기에서 광원의 색온도 측정 알고리즘은 약 20 여년전 해외에서 발표된 논문에 
   근거해서 그 알고리즘이 제어 됩니다 ...  광원의 색온도 측정이 난이도가 큰것 같읍니다 ...  스마트폰의 카메라 화질튜닝 
   셋팅 메뉴를 보면 광원의 특성 즉 맑은 날인지 흐린 날인지 수십가지의 조명 조건은 어떤 조명인지를 스마트폰에서 
   사용자가 선택하면 그 특성을 반영해서 스마트폰의 White balance 제어가 되는 구조로 스마트폰의 카메라 튜닝을 위한 
   셋팅메뉴가 설계되 있는것을 볼수 있읍니다 ...  
   DMBTEC 은 카메라 3A 튜닝기술을 위와 같이 보유하고 있읍니다 ...  카메라 이미지센서의 3A 튜닝을 하려면 이미지 센서 
   업체로부터 세부 기술정보를 받아야 하는데 이것을 받으려면 카메라 이미지센서의  MOQ 수량의 구매오더 없이는 
   기술자료를 받는것이 불가능 합니다 ...  요즘에는 스마트폰의 경우 AP(Application Processor)의 경우 AP 내부에 
    Camera ISP 가 내장되 있는데 AP(Application Processor) 제조사로부터 이 AP 내부에 Camera ISP 세부 기술정보를 받으려면 
   라이센싱 비용의 지출이 필요할수 있기에 카메라 SW 개발은 일정 규모가 안된 제조사는 이런 사업을 진행하기가 어렵습니다 ...


대규모 화상회의 및 공연실황 방송 시스템 구현?개발용역 및 기술자문
  - 오픈소스 미디어서버 Janus Gateway 을 구현시 필요한 여러 설계 기법 확보
    Janus 서버는 기본적으로 HTTP 1.1 로 미디어데이터 통신 구현이 되 있음
    이를 대용량?대규모 화상회의 및 공연실황 방송 시스템 구현을 위해서는 클라우드 서비스로 개발이 필요함
    클라우드 서비스 RabbitMQ 로 대용량?대규모 화상회의 및 공연실황 방송 시스템 구현관련 여러 설계 기법 확보
    클라우드 서비스 RabbitMQ 로?대용량?대규모 화상회의 및 공연실황 방송 시스템 구현시 추가적인 개발자금 필요

   WebRTC JANUS 미디어 서버의 경우 대용량 미디어 서비스를 위해 클라우드 서비스 RabbitMQ 로 기본 동작 구현까지 
   참조소스를 제공하고 있읍니다 저는 RabbitMQ 클라우드 서비스를 쿠버네이트로 대용량 네트웍 서비스 구현 설계 안을 
   분석하고 있읍니다
   Pod 간 통신 그리고 Pod 와 서비스와 통신 구현 방안도 하나씩 파악하고 있읍니다 Kubernate 툴로 이런것들 제어 하나씩 
   세부 검토하고 있읍니다
   제가 Janus 미디어 서버를 기반으로 대용량 화상회의 구현을 위한 미디어 데이터의 실시간 송수신 처리 이슈를 고민한지 
   거의 2 년이 다 되갑니다 ...  저의 경우 오픈소스 Janus 서버를 설계한 이탈리아 개발자들의 설계 구조를 일단은 그대로 
   유지하면서 대용량 화상회의 구현을 처리하려고 합니다 ...  저의 사업화 세부 구상의 핵심을 말씀드려 보겠읍니다 ...
   대용량 화상회의 구현을 위한 미디어 데이터의 실시간 송수신 처리가 Janus 서버의 소스에서는 기본적으로 HTTP 1.1 
   통신으로 구현되 있읍니다 ...  이 설계구조를? 대용량 화상회의 구현을 위해서 Janus 서버에서는 RabbitMQ 라는 
   클라우드 서비스를 사용해서 메시지 큐 통신 방식으로 구현해서 최소 1000 명 이상의 화상회의 가입자가 화상회의를 
   처리할수 있도록 기본 개념 설계를 Janus 서버에 구현해 놓았읍니다 ...  RabbitMQ 라는 클라우드 서비스를 사용한 
   화상회의 개념 설계는 Janus 서버에서 5 명 정도가 회의할수 있는 그 정도의 구현을 Janus 서버에 도입해서 구현되 있읍니다 ... 
   그래서 이 RabbitMQ 라는 클라우드 서비스를 사용한 화상회의 설계를 대용량(수천명의 미디어 데이터 송수신 실시간 처리)으로 확장해서 설계하려면 RabbitMQ 라는 클라우드 서비스의 메시지 큐 통신 방식의 세부 동작 구조를 이해하는것이 
   필수 입니다 ...
   저는 RabbitMQ 라는 클라우드 서비스의 메시지 큐 통신 방식의 세부 동작 구조를 이해하는데 성공했고, 이 RabbitMQ 라는 클라우드 서비스의 메시지 큐 통신 방식이 커스토마이징 개발시에는 대용량 화상회의 구현때 RabbitMQ 소스의 세부 설계가 어떤 방식으로 처리되는지 이해하는데 성공했읍니다 ...
    정리해서 말씀드리자면, 메시지 큐 통신 방식의 RabbitMQ 라는 클라우드 서비스를 사용한 화상회의 설계를 대용량으로 
    확장해서 설계 작업을 커스토마이징 하는것의 화상회의 개발팀의 개발 리더로 역할 혹은 컨설팅 전문가로서의 역할을 
    맡는것이 가능 합니다 ...


인공지능 딥러닝 세부 설계 노하우 기술자문 및 사업화준비

 - 딥러닝 CTC-Transforemer 음성인식 모델 세부 설계 노하우 확보 성공
    기본적으로 Python 및 PyTorch 딥러닝 소스 분석 능력은 보유했음
    기본적으로 지도학습 으로 설계 노하우 확보했음, 자기지도 학습의 경우도 노하우 확보했음
    Kaldi Tool 로 음성인식 모델 구현을 많이 적용하고 있어서 DMBTEC 도 이 방식을 적용하려 함

 저의 경우, 한 2 년전부터 딥러닝 음성인식 논문분석을 진행했읍니다 ... 지도학습부터 자기지도 학습까지 살펴봤읍니다 ... 
 지도학습이나 자기지도 학습이나 학습데이터셋의 데이터 갯수가 일정 이상으로 충분치 않으면 상용 수준으로 만족스런 
 성능이 가능하다는 논문은 제가 찾지 못한것 같읍니다 ... 대기업들의 음성인식도 예전 논문의 기법의 파악없이는 성능내기가 어려운 구조더군요 ... Kaldi 라는 툴의 도움으로 음성인식 딥러닝 모델을 학습시키거든요 ,,, 이게 보통의 딥러닝 모델의 구조이구요 ... Kaldi 툴도 HMM-GMM 딥러닝 모델로 구현된것인데 ... 죤스홉킨스 대학에서 오래전에 발표한 기술인데 
아직도 이것의 도움이 필요 하거든요 ... Kaldi 라는 툴의 경우 Fundamental Frequency F0 의 값도 출력해 주구요 ... 
이 F0 값은 음성인식 논문에서 유용하게 설계에 적용됩니다 ... 저는 그래서 최근까지 음성인식의 롤 모델인 구조가 
CTC-Transformer Model 이었구요 ... 이것은 디코더부에 빔 써치 알고리즘등을 적용해서 특정 데이터셋으로 학습 테스트시 에러율이 약 8 % 까지 성능이 나온다고 논문에 있는것 같읍니다 ... 음성인식도 CTC-Transformer Model 로 구현관련 세부 메커니즘을 이했구요 ... 상용 수준으로 성능을 내려면 음향모델과 언어모델 둘 다 구현이 필요할것 같읍니다 ...
언어모델의 경우 GPT-3 가 SOTA 성능을 냈다 하니 이게 기본 동작 구조가 Transformer Model 이 기본 동작 구조이고 
언어가 어떤 메커니즘으로 번역 처리가 동작한다는것을 이해했읍니다 ... 음향모델 같은 경우도 CTC-Transformer Model 로 음성과 음소의 얼라인 처리를 어떤 방식으로 처리하는지도 이해했읍니다 ....


 - 딥러닝 이미지의 3D 모델링 구현 모델 분석 및? 세부 설계 노하우 확보 성공
    StyleGAN 구현 기법중 부족한 부분의 개선을 위한 딥러닝 모델 설계 안 을 투자사에 제안해 놨음
    NVidia 의 3D Graphic Engine 의 설계 노하우가 딥러닝 이미지의 3D 모델링 구현에 많이 채텍되고 있음
   이것의 관련 모델을 학습시키려면 최소한 NVidia 의 DGX-1 딥러닝 서버 구축비용이 필수 임
   관련해서 DMBTEC 도 관련해서 투자유치 노력을 하고 있음

 

제가 왜 이런 글을 올렸냐하면 해외논문중 대표적으로 엔비디아에서 발표된 StyleGAN 논문의 경우 딥러닝 학습 
개발환경이 기본적으로 미국 엔비디아의 딥러닝 서버 DGX-1 이 기본 개발환경 이라고 논문에 명기되 있읍니다 
DGX-1 이 구매비용이 미화 15 만불 입니다 그렇다고 사설 딥러닝 서버로도 불가능한것은 아닌데 사설 딥러닝 
서버의 파워부도 인텔 제온 서버 파워를 그대로 사용할수가 없거든요 왜냐하면 엔비디아 A100 GPU 카드를 4 장 
실장하면 이를 구동시키기 위해서는 큰 전력을 공급해줘야 하고 딥러닝 서버가 열이 많이 나니까 쿨링 시스템 
까지도 고려해야 하고 딥러닝 서버 파이썬 개발환경을 멀티 GPU 개발환경에서 동작 가능하도록 개발환경 구축도 
만만치 않거든요? 딥러닝 사업화를 내 아이디어로 모델 구축 도 다 자금확보가 기본 이거든요? 저는 지금확보를 
위해 투자사에 어떻게 해야 신뢰를 얻어볼까를 심각히 고민중 입니다

저는 최근에 논문을 거의 300 편 가까이 검토분석하면서 3D 모델링 관련해서 3D 캐릭터를 생성해서 이 3D 캐릭터로 
애니메이션을 만들려면  그동안 10 년 이상의 세월동안 국내 대기업 게임회사들은 어떤 방식으로 사업화를 접근했을까 
부터 궁금해졌읍니다 ...   저는 맨처음에는 딥러닝으로 3D Reconstructing 쪽 논문에 관심을 갖고 살펴봤구요 ... 
이쪽을 세부적으로 분석하다 보니 엔비디아의 3D Graphic 엔진 설계 구조 같은것의 분석 필요를 느꼈읍니다 ... 
삼성전자 무선사업부 연구소에서는 이미 10 여년전 엔비디아의  3D Graphic 엔진을 적용해서 3D 어플리케이션을 설계하는 
작업들이 이미 진행되고 있었는데 그동안 저는 관심을 안 가져서 몰랐었구요 ... 
요즘 뜨는 메타버스 이슈가 3D 캐릭터를 어떤식으로 설계해서 이것으로 애니메이션을 어떻게 만들지가 가장 핵심 
이슈인것 같읍니다 ...   이미 대기업 게임 회사에서는 이런 작업을 Unity 엔진 혹은 언리얼 엔진을 적용해서 상용화 작업을 
이미 한 10 년전쯤부터 이미 해오신것 같읍니다 ...  그렇다면 이쪽으로 사업화시 필수적인 검토 이슈는 무었일까 부터 생각했구요 ... 제가 분석한 바로는 Unity 엔진 혹은 언리얼 엔진 같은 경우 그 유명한 3D 툴인 Maya 나 3DSMAX 같은 
3D CAD Modeling TOOL 을 사용해서 3D 캐릭터를 만드는 과정이 필요합니다 ...  이것의 결과파일을 임포트해서 Unity 엔진 혹은 언리얼 엔진을 적용해서 3D 캐릭터 애니메이션 작업의 처리가 되는것으로 파악했읍니다 ...  여기에서 놓치지 말아야 할 이슈는 Unity 엔진 혹은 언리얼 엔진을 적용해서 3D 캐릭터 애니메이션 작업의 처리가 된 
3D 캐릭터 애니메이션을 저장하는 3D 파일은 어떤 구조로 저장되는지 까지도 분석할 필요가 있읍니다 ... 3D 캐릭터 
애니메이션을 저장하는 3D 파일은 어떤 구조로 저장되는지가 파악이 되면 Unity 엔진 혹은 언리얼 엔진 같은 개발환경을 
설계하는 작업의 기본처리가 되는것 이라서 저는 이쪽으로 검토를 했었읍니다 ... 
말씀을 장황하게 드렸는데 여기서 핵심은 이 모든것이 엔비디아의 3D 그래픽 엔진에 모든것이 다 포함되 있다는것 입니다 ... 
 그래서 엔비디아가 대단한것 이구요 ... 이런것들 관련해서 대기업 투자사에 제안서도 넣어봤었는데 그쪽에서는 이미 투자한 스타트업과 약정 때문에 저와는 사업화 진행이 어렵겠다는 답변을 들었구요 ... 이렇게 이런 글을 올리는 이유는 혹시 저의 이런 세부 구상에 관심을 갖고 협력해 주실 업체가 있을지가 궁금해서 이런 글을 올렸읍니다 ... 업계 관계자분들과 이런저런 
이야기도 나눠보고 싶읍니다 ...

    대기업 투자사에 투자를 단계별로 받으려면 투자제안서에 딥러닝 이슈 설계 안을 작성시 어떤어떤 논문을 근거로  
    사업화 이슈의  설계 안을 구상했는지 명확히 할 필요가 있을것 같구요 설계 안을 제시할때 근거자료도 같이 제시하면 
    투자유치가 통과가 될것  같읍니다  1 차 투자금으로는 약 1 년 개발 진행 비용 정도이므로 이 기간내 확실하게 
    프로토타입 결과물 제시가 가능할수 있는 실현  가능성이 확실한 딥러닝 설계 안의 제시가 되야 투자도 가능할것 
    같읍니다  그동안 약 8 개월간 딥러닝 투자제안서 작업을 했었는데 제가 제출 했었던 제안서가 위에서 말씀드린
    사항을 완벽히 준비치 못해서  그동안 투자제안서가 통과되지 못했다는 것을 최근에 깨달았읍니다


관련해서 기술자문 및 개발용역 문의를 아래의 메일주소로 부탁드립니다 ...

DMBTEC  장석원
HP :  010-3350-6509
이메일  :  sayhi7@daum.net 
Home  :   https://dmbtec.blogspot.com/



저의 경우
제 소개를 드리자면 1989 년에 일반대학원 전자공학과를 졸업했구요
그후 91 년부터 7 년간 대기업 중앙 연구소 시스템제어실에서 연구직으로 근무 경험이 있읍니다 ...
코스닥 상장사가 된 기업의 기반기술팀에서 계약직으로 약 1 년 근무도 했었구요
최근에 중소기업에 기술고문으로 약 1 년반 근무를 했었읍니다 ...

저는 IT 분야 SW / Firmware 개발용역 관련 일을 거의 30 년 하다보니 여러 분야의 개발용역이 어떤 방식으로 처리되는지 이해하고 있읍니다 ...

Camera / WIFI / LTE / USB Host / USB Client / 블루투스 / TFT-LCD / Touchscreen / FAT32 / SD Card / Flash Memory
SDRAM?
등의 분야의 일을 처리해왔읍니다 ...
위의 분야의 개발용역 일을 처리하기 위해서는 위의 분야의 메이져 칩셋사에 최소 1K - 2K 사이의 칩셋 구매 오더를
해당 분야 칩셋 종류별로 구매오더를 최소 1K - 2K 사이로 처리해 줘야만이 해당 부문의 개발용역 진행이 가능해 집니다.
해당 메이져사 칩셋들 별로 기술자료를 제공 받는 방법이 구매오더를?최소 1K - 2K 사이로 집어넣고 처리하는 방법이 있고
라이센싱비 명목으로 수만불의 NRE Charge 를 결제를 해야만 기술정보를 제공하는 칩셋들도 있다는것 입니다 ...

무슨 이야기냐 하면 제품개발을 의뢰시 구체적인 양산계획까지 검토가 되 있어야 한다는 의미 입니다  제품 개발을 진행시 단계를  두 단계를 거치게 되는데 그 첫번째 단계가 프로토타입 개발 단계 이구요 그 두번째가 양산 대응한 제품의 안정화 개발 단계 입니다  프로토타입 개발시 그 제품에서 소요되는 칩셋들의 MOQ 수량의 구매오더를 넣어야만이 칩셋사에서 세부 기술정보를 제공해 주는것을  적극적으로 검토하기 때문 입니다 ...  제품 개발의뢰시 정확한 양산물량 계획이 없으면 칩셋을 공급해주는 칩셋사에서 기술지원 대응에  거의 관심을 갖지 않읍니다 ...  

어떤 분들은 그런것들은 알아서 처리가 가능하지 않냐고 애기하시는 분도 있지만 IT 개발용역 일이 수백 수천가지다 보니
그 각각의 분여별로 개발용역 세부 스펙도 다 다르거든요 ...  그래서 개발용역 처리시 일감 맡은 업체가 모든 일꺼리를
다 미리 파악해 놓고 처리하는 경우는 거의 없읍니다 ...

제가 위에서 말씀드린 내용을 이해해 주시는 개발용역 의뢰 업체의 세부문의 부탁드립니다 ....
세상에 공짜로 되는것은 없읍니다 ...  다 돈이 들어야만 제대로 처리가 되는게 요즘 시대 이런 일의 처리구조 이거든요

DMBTEC? 장석원
010-3350-6509
sayhi7@daum.net
문의주실때 귀사의 개발이슈가 어떤것 때문에 문의 주시는지를 설명 부탁드리구요
가능하면 세부 개발스펙을 위의 메일주소로 송부 부탁드립니다 ....



저의 경우, 한 2 년전부터 딥러닝 음성인식 논문분석을 진행했읍니다 ... 지도학습부터 자기지도 학습까지 살펴봤읍니다 ... 
지도학습이나 자기지도 학습이나 학습데이터셋의 데이터 갯수가 일정 이상으로 충분치 않으면 상용 수준으로 만족스런 성능이 가능하다는 논문은 제가 찾지 못한것 같읍니다 ... 대기업들의 음성인식도 예전 논문의 기법의 파악없이는 성능내기가 어려운 구조더군요 ... Kaldi 라는 툴의 도움으로 음성인식 딥러닝 모델을 학습시키거든요 ,,, 이게 보통의 딥러닝 모델의 구조이구요 ... Kaldi 툴도 HMM-GMM 딥러닝 모델로 구현된것인데 ...  죤스홉킨스 대학에서 오래전에 발표한 기술인데 아직도 이것의 도움이 필요 하거든요 ... 저는 그래서 최근까지 음성인식의 롤 모델인 구조가  CTC-Transformer Model 입니다 ... 이것이 에러율이 약 8 % 까지 성능이 나온다고 논문에 있는것 같읍니다 ... 음성인식도 CTC-Transformer Model 로 구현관련 세부 메커니즘을 이했구요 ... 상용 수준으로 성능을 내려면 음향모델과 언어모델 둘 다 구현이 필요할것 같읍니다 ...언어모델의 경우 GPT-3 가 SOTA 성능을 냈다 하니 이게 기본 동작 구조가 Transformer Model 이 기본 동작 구조이고 언어가 어떤 메커니즘으로 번역 처리가  동작한다는것을 이해했읍니다 ... 음향모델 같은 경우도 CTC-Transformer Model 로 음성과 음소의 얼라인 처리를 어떤 방식으로 처리하는지도 이해했읍니다 ....
자율주행차의 3D 오브젝트 인식 이라던가 메타버스 플랫폼 설계시 3D 아바타 설계가 어떤식으로 딥러닝 모델이 설계되야 하는지를 파악했읍니다 ... 

2D 이미지를 3D 모델로 Reconstruct 해서 3D Shape 를 만드는 딥러닝 모델의 설계 구조를 분석했구요 ... 간략히 설명드리자면 엔비디아의 3D Graphic Engine 의 알고리즘 설계 수식의 이해를 통해 3D Graphic Engine 수식으로 오규멘테이션 처리한 3D Shape 의 예측 데이터를 얻을수 있고,  이 예측데이터의 손실값을 최소화하는 딥러닝 가중치값을 학습 루프를 실행시켜서 얻을수 있다고 판단 합니다 ...

더 자세한것은 제 사업 노하우이기 때문에 이 정도만 이야기 하겠읍니다 ....  이런 기술들은 자율주행차 혹은 메타버스 플랫폼 구현시 반드시 필요한 기반기술 입니다 ...  저의 경우 세부 구현 설계 안까지 준비하고 있는데 이런 저의 설계 안에 직접적으로 관심을 표명하는 기업은 만나기가 너누 어렵습니다 ...  혹시나 해서 저의 이런 딥러닝 세부 설계 안에 관심이 있으셔서 저는 비록 소기업이지만 공동으로 사업을 펼쳐보실 기업이 있으신지 궁금 합니다 ...

저의 경우 세부 구현 설계 안까지 준비하고 있는데 이런 저의 설계 안에 직접적으로 관심을 표명하는 기업은 만나기가 너무 어렵습니다 ...    혹시나 해서 저의 이런 딥러닝 세부 설계 안에 관심이 있으셔서 저는 비록 소기업이지만 공동으로 사업을 펼쳐보실 기업이 있으신지 궁금 합니다 ...  투자사는 기본적으로 동작하는 결과물 확인이 기본인것은 저두 알구요 단지 딥러닝 논문을 한 300편 살피다보니 딥러닝 논문의 세부 노하우 파악에 성공했고 이것으로 협력할 기업 좀 더 솔찍이는 투자를 받고  싶은것 입니다 딥러닝 소스 분석능력도 어느정도 터득했고 딥러닝 논문도 300편 보다보니 통찰력이 자연스레 생겼기에 이런 말씀도  드리는것 입니다  


DMBTEC 장석원
010-3350-6509
관련해서 문의 연락 주시면 감사하겠읍니다 ....

+ Recent posts