팹리스들이 ChatGPT 를 보면서 Transformer Model 을 반도체 IP 로 만들려는것 관련 내가 지금 가능한 일을  소개드리려 합니다 ...   저는 거의 20 년전쯤 비디오 코덱 반도체 IP 만드는 일로 사업화를 진행해본 경험이 있읍니다 ...    비디오 코덱 반도체 IP 를 만들려면 동작하는 비디오 코덱 개발 소스 검증된것이 반드시 필요합니다 ...    요즘 ChatGPT 가 핫 이슈로 떠오르면서 한국의 팹리스 내지 대기업에서 GPT 모델의 반도체 IP 화를 하기 위해서  최적화 튜닝이 완료되서 검증이 된 GPT Model 즉 트랜스포모 모델의 커스토마이징 개발이 완료된 딥러닝 개발 소스를 사용해서  GPT Model 의 반도체 IP 화 즉 더 정확하게는 커스토마이징 처리된 구글 트랜스포머 모델을 반도체 IP 화하는 작업들이 진행되는것을 볼수 있다.   국내 모 팹리스는 구글 트랜스포머 모델을 딥러닝 라이브러리 형태로 개발한 해외 딥러닝 개발사와 반도체 IP 만드는것의 협력을 맺었다고 하는 보도기사도 있다 ....    

구글 트랜스포머 모델이 수학적으로 통계학적으로 어떤 세부 구조로 알고리즘이 설계되었는지를 정확히 파악하는것이  GPT Model 의 반도체 IP 화의 핵심 이다 ...   저도 이와관련 어느정도 파악은 되 있지만 이를 반도체 IP 로 만들려면 검증된 구글 트랜스포머 딥러닝 소스가 필요 합니다 ...    이런것 처리가 다 몇백억 이상의 돈이 드는 일 이거든요 ...    저도 구글 트랜스포머 모델이 어떤 세부 구조로 알고리즘이 설계된것인지를 정확히 분석하려면 더 세밀한 자료(해외 논문 등등) 확보가 필요 합니다 ...    저도 파악은 어느정도 되 있지만 IP 설계 수준은 아니니 조금 더 관심을 갖고 조금씩 자료를 확보 하는중 입니다 ...

 

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

클라우드 서비스 RabbitMQ 를 적용한 대용량 미디어 방송 서비스 구현시 필요한 L4 스위치 장비의 네트웍 부하 분산 설계 기법을 파악 성공했읍니다 ...    클라우드 서비스 RabbitMQ 를 적용한 대용량 미디어 방송 서비스 구현시  RabbitMQ API 함수를 적용해서 어떤 구조로 설계가 되야 몇십만명의 수신을 원하는 사람을 선정해서 미디어 방송을 방송서비스의 수신자가 수신이 가능할수 있는지 이런것은 어떤 방식으로 구현하는가를 파악하는데도 시간이 꽤 걸렸구요 

클라우드 서비스 RabbitMQ 를 적용한 대용량 미디어 방송 서비스 구현시 필요한 L4 스위치 장비의 네트웍 부하 분산 설계는  L4 스위치 장비에서는 어떤 방식으로 설계되서 동작하는지 뭐 이런것들 파악하는데 시간을 보냈읍니다 ...   네트웍 세션 제어를 어떤 방식으로 처리를 해서  네트웍 부하 분산 설계가 가능한지 등등을 분석 성공했읍니다 ...

네트웍 부하 분산 설계는  L4 스위치 장비에서는 어떤 방식으로 설계되서 동작하는지 이것의 이해가 필수더군요 ...     관련해서 개발용역 내지 기술자문 처리가 가능 합니다 ...

네트워크 장비인 L3 스위치 장비의 설계 원리를 현재 정확히 이해하고 있다 ...  이 정도 파악하는 수준이면 네트워크 SW 설계도 거의 전문가급이라고 나는 판단한다 ...   네트워크 장비인 L3 스위치 장비 개발을 직접 경험해 보지 않았어도 L3 스위치 장비의 구현 원리를 파악할수 있었다 ...  나는 네트워크 장비인 L3 스위치 장비의 네트웍 프로토콜 스택 설계 전문가가 아니라  L3 스위치 장비를 응용해서 네트웍 SW 를 설계하는 전문가라함이 정확할것 같다 ..

아래의 연락처(메일주소)로 귀사의 기술이슈를 송부해 주시면 검토후 세부 답신을 드리겠읍니다 ...

 

일인기업 딥 네트워크 장석원

기업블로그 : https://videocodec.tistory.com/     제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net

HP : 010-3350 6509

저도 올해  나이 59 입니다 ...  개인사업자로 개발용역도 한 10 년해 봤구요 ...  그동안 산전수전 공중전까지 다 겪어봤읍니다 ...  개발용역을 한 7 - 8 년하다 보니 결국 한달 생활비 하고 나니 용역 일 해봐야 남는게 없더라구요 ...  그래서 결심했읍니다 ...  이제 4 차 산업혁명 시대에 본격 들어 섰으니 4 차 산업 혁명에 맞는 새로운 기술을 확보하는게 필요하겠다 라는 생각을 했읍니다 ...  그래서 준비를 한 2 년 넘게 한 기술이 크게 두가지 인데요 ...  그 한가지가 딥러닝 설계 구현 노하우 확보였구 또 하나가 네트웍 통신 대용량 통신 구현 노하우 확보였읍니다 ...   딥러닝 구현 노하우 같은 경우는 해외 논문을 수백편 세부 검토를 했었구요 ...  검토를 한 일년반 하다 보니 느낀게 딥러닝 핵심 설계 메커니즘 한 100 개 정도를 파악 내지 이해를 못하면 제가 파악하려는 딥러닝의 구현 노하우가 뭐가 똥인지 된장인지 구별하는게 불가능해서 역시 딥러닝은 기본이 중요하구나를 느꼈읍니다 ...    네트웍 통신 기술도 동시접속자가 수십만 수백만 될때 네트웍 부하의 분산처리를 어떤 방법으로 처리가 가능한지를 파악하는게 하나 였구요 ...  또 하나는 미디어 데이터 등등해서 데이터의 수신을 원하는 수십만의 사람에게만 데이터를 송신하려면 어떻게  구현해야 하는가를 파악하는 일 이었읍니다 ...  중소가업 대표나 대기업 책임자들은 저에게 묻읍니다 ...  그런 당신은 지금까지 공부한것으로 상용화 설계를 원하는 기간에 할수 있는 능력이 되냐라고 묻는 경우가 대부분 입니다 ...   저는 저 혼자 모든것을 다 하려고 이 모든것을 공부한게 아니고 사람(전문가)를 구인해서 경력자들과 협력을 통해 사업화를 하고자 했지 저혼자 하겠다는게 아닌데 지금까지 공부한것으로 상용화 설계를 원하는 기간에 할수 있는 능력이 되면 제가 제 솔루션으로 제 사업을 하지 왜 남의 회사 좋은 일을 시켜주겠읍니까 ?  사업화든 개인적으로든 능력을 갖추려면 비용과 시간이 필요 합니다 ...  개인적으로 제가 말씀드린것들 제대로 늘력되시는 경력자분의 수가 그렇게 많지 않읍니다 ...  대기업도 그래서 포트폴리오를 검토해서 능력이 되면 원하는 인건비를 다 줄테니 우리 회사와 같이 일하자 거든요 ...   저도 그동안  이제 4 차 산업혁명 시대에 본격 들어 섰으니 4 차 산업 혁명에 맞는 새로운 기술을 확보하는게 필요하겠다 해서 기술력을 확보했다고 말씀드린것이 당장 대기업이 원하는 상용화 설계 포트폴리오까지는 제가 준비하지 못했지만 상용화 설계시 필요한 핵심 설계 기법들을 확실히 파악하고 있다는것이고 ...  기업의 입장에서는 당장 돈 되는 제품설계가 가능하냐 이게 핵심인데 ...  저는 Research 쪽으로 세부 검토가 가능하다고 하면,  기업 책임자 입장에서는  Develop 이 가능하냐 라고 물어보는게 보는 관점이 다르구요 ... 중소기업은 대표들이 대부분  Research 는 뭔 필요가 있냐 하면서  Develop 이 가능하냐 이게 중요하다는게 입장 이더라구요 ...    또 이 Research 쪽의 경우도 대기업은 해외에서 논문 발표 실적이 있냐 이게 기준 이더라구요 ...   

저도 남들한데 부끄럽지 않게 확실하게  4 차 산업혁명 시대에 본격 들어 섰으니 4 차 산업 혁명에 맞는 새로운 기술을 확보에 성공했는데 문제는 당장 직접적으로 상용화에 당장 적용하기는 2 % 가 부족한데 이 2 % 부족한것은 시드머니가 확보되면 다 해결 가능 합니다 ...  기본 설계 노하우를 확실하게 파악해 뒀으니 응용 설계 노하우 파악도 자금이 투입되면 기본 설계 노하우가 있으니 큰 문제는 없을것 같읍니다 ...   요즘엔 구글링을 한 7 - 8 달 빡시게 하면 해결 안되는 기술이슈가 없다고 저는 판단 합니다 ...  예전과는 다르게 정보공유가 활발하니 예전 10 년전과는 많이 다르다고 생각 합니다 ...   

 

혹시 저와 같이 협력해 보실 의향 있으시면 아래의 연락처로 연락 부탁드립니다 ...

 

 

일인기업 딥 네트워크 장석원

기업블로그 :   https://videocodec.tistory.com/      제 기업블로그 사이트도 자세히 살펴봐 주시구요 ....

이메일 : sayhi7@daum.net 

HP : 010-3350 6509

저도  이제 내년이면 나이 60 입니다 ...  제 나이 대 사람들은 인공지능 딥러닝을 공부한다고 하면 그거 지금 공부해서 어디다 쓸데가 있기나 하냐 라고 저한테 쓸데없는 짓 하지 말라고 충고하는 이가 대부분 입니다 ...  그 뿐만 이 아닙니다 ...  요즘 요즘 젊은 AI 경력자(딥러닝 석박사 / 대기업 AI 개발자)분들도 제가 딥러닝 공부했다고 하면 1 초도 안되서 돌아오는 말이 있읍니다 ...  당신이 딥러닝으로 결과물을 만들어 본 경험이 있는지 아니면 딥러닝으로 학술지에 발표한 실적이 있는지를 저한테 물어보곤 합니다 ...    젊은 AI 경력자(딥러닝 석박사 / 대기업 AI 개발자)분들도 더 잘 아시겠지만 딥러닝 분야도 발을 들여 놓으려면 딥러닝 구현에 필요한 핵심 메커니즘을 거의 한 100 가지 정도 세부 분석 및 파악이 필요 합니다 ...    딥러닝 구현에 필요한 핵심 메커니즘 거의 100 가지의 파악이 안 되있으면 딥러닝 분야 공부시 뭐가 똥 이고 뭐가 된장인지 구별하는것이 어렵습니다 ...   저도 나이 먹어서 딥러닝 공부를 할때 논문을 살펴봐도 뭐가 똥 인지 된장인지를 아예 구별을 못해서 공부하면서도 항상 부족하다라는 느낌을 항상 가질수 밖에 없었읍니다 ...  그렇게 공부한지 이제 2 년이 넘어 갑니다 ...  이제 똥 된장은 구별이 가능 합니다 ...  딥러닝으로 사업화 준비를 한다고 한 2 년 동안 블로그에 글을 적었었지만 사업화 라는게 진짜 딥러닝 세부 분석 기술력 준비가 얼마나 확실하냐가 사업을 준비하는 과정에서 제일 중요하거든요 ...  이제  진짜 딥러닝 세부 분석 기술력 준비가 자신있게 됬기에 올해 2 월 정부과제 지원공고가 뜨면 사업계획서를 넣으려고 준비하고 있읍니다 ...   딥러닝 사업화 같은 경우 개발자금이나 비용 그리고 개발기간이 만만치 않게 소요되기에 제가 준비할수 있는 자금력의 규모가 그렇게 충분치 않기에 딥러닝 사업 설계 안이 있다고 해도 제 자금력의 한계 때문에 전체 로드맵을 제시하면서 단계별로 이러한 계획으로 개발 계획이 있다라고 제시하는것이 이것을 검토하는 측에서 제가 딥러닝 사업을 시작하는 초기 단계(딥러닝 사업 준비(딥러닝 세부 설계 안 준비)는 어느 정도 확실하다고 저는 자신하거든요 ...  검토하는 측이 긍정적이도록 제가 설득을 확실히 하는 일이 남았구요)라서 검토하는 측에서 저의 딥러닝 사업화 개발 계획(로드맵)을 탐탁치 않게 판단하실수도 있어서 이런것들이 저에게는 제한사항이 됩니다 ...    그래서 제가 이번 2 월달 정부과제 지원공고가 떳을때 사업화를 준비했던 분야가 한가지가 더 있읍니다 ...   한국의 대형 연애(공연)기획사에서 한류스타 예를들어 방탄소년단 같은 분들이 공연을 하는 실황을 인터넷으로 공연실황을 중계 방송 서비스를 하는 사업 안을 준비했었구요 ...      인터넷으로 공연실황을 중계 방송 서비스를 하는 사업 안의 경우 공연실황 중계 방송의 수신을 인터넷 상으로 허락한 관객을 대상으로 공연 중계 방송 서비스를 처리하는 사업 안을 준비했었읍니다 ...   저의  공연 중계 방송 서비스를 처리하는 사업 안의 경우 공연 방송을 송출하면 수신하는 사람이 수십만명 수백만명이 되도 실시간으로 공연실황 중계 방송의 수신을 처리할수 있는 네트워크 로드 밸런싱 설계까지 감안해서 설계 안을 준비가 마무리 단계 이구요 ...  이를 클라우드 서비스 RabbitMQ 의 API 함수를 적용해서 수십만 이상의 사람에게 방송 서비스를 처리하려 합니다 ...      수백만명이 되도 실시간으로 공연실황 중계 방송의 수신을 처리할수 있는 네트워크 로드 밸런싱 설계까지 감안해서 설계 안의 경우 네트워크 장비인 L4 스위칭 장비 혹은 L7 스위칭 장비를 적용해서 구현 하는 안도 계획 중이고 ....  네트워크 장비인 L4 스위칭 장비 혹은 L7 스위칭 장비를 사용치 않고 소프트웨어 적으로 로드밸런싱을 처리하는 방안 두가지를 모두 다 고민중에 있읍니다 ....   

 

저의 올해 사업화 준비 계획을 말씀드렸구요 ...  이와 관련해서 협력을 원하시는 업체와 세부 협의도 해보고 싶읍니다 ...

 

일인기업  딥 네트워크  장석원 드림

이메일 :   sayhi7@daum.net

HP  :  010-3350 6509

 

 

제 나이 올해 59 세 입니다 ...  2009 년에 개인사업자를 내고 몇일전 페업신고를 했읍니다 ...  2009 년에 낸 개인사업자로 정부 과제를 신청하려 했으나 사업자 낸지 7 년이 지나면 정부과제 지원자격이 아예 안 되서 그동안 몇년간 기술고문등을 하면서 버텼는데 올해들어 경기가 얼어 붙어서 일꺼리 구하는게 거의 불가능이라 올해도 어떻게든 버텨야 하는데 사업 조금 자리잡은 분들의 이야기가 정부 과제 지원서류를 내는것이 가장 우선 순위 라고 이야기를 하셨구요 ...  그동안 한 2 년 넘게 투자사에 지원 서류도 넣어봤는데 투자사의 벽을 통과하는게 마치 계란으로 바위깨기 같이 거의 불가능에 가깝더군요 ...   이것도 시도해 보고 저것도 시도해 보고를 한 2 년 넘게 하다가  벽을 통과하는게 마치 계란으로 바위깨기 같이 거의 불가능에 가깝다라는게 현실이 되다보니 투자사에 서류를 넣는것이 정부과제 지원보다 심사과정에서 몇배 더 까다롭다는것을 몸소 느끼게 됬읍니다 ...   창업진흥원 이나 중기청 정부과제의 경우 예비창업자 혹은 창업 3 년 이내라는 제한사항이 있어서 2009 년에 사업자 낸지 거의 14 년만에 페업신고를 하기 싫었지만 정부과제 지원 요건에 맟추려면 하는수없이 페업 절차를 진행할수밖에 없었읍니다 ...   2009 년에 사업자를 냈을때 H.264 Video Decoder 상용화를 목표로 창업했는데 시기도 너무 늦었고  결과물이 2 % 부족한 성능을 내면서 결국 엄청 금전적으로 손해를 봐야 했고 이렇게 큰 손해를 보니 그 다음 사업 준비도 쉽게 이어지는것이 사실상 불가능에 가까웠구요 ...   그래서 그동안 10 년간 푼돈벌이로 개발용역 일을 했는데 제가 사업적 경험 미숙으로 일감을 딸때에도 일감수주 조건 관련 밀당을 잘해야 돈도 제대로 받으면서 일을 할수 있는데 밀당이 부족하다 보니 저가수주 비슷하게 그동안 일을 하다 보니 그 달 벌어 그 달 쓰고 나면 남는게 하나도 없더라구요 ....   그래서 한 2 년전부터 딥러닝 해외논문을 수백편 세부분석 작업을 해서 대기업 연구소의 분석 성과에 버금가는 기술력 내지 노하우를 확보하는데 성공했구요 ...  또한 오픈소스 미디어 서버인 Janus 서버의 세부 소스 분석도 원하는 만큼 분석이 되서 대용량 미디어 데이터 송수신 기술을 확보하는것도 가능해졌읍니다 ...   제가 이렇게 그동안 2 년간 딥러닝 기술력도 깊이있게  파악 성공했고 미디어 데이터를 수만명이 송수신하는 기술도 파악 성공했기에 이제는 나도 큰 기술 두가지를 확실하게 파악에 성공을 했기에 14 년만에 사업자를 페업하고 예비창업자 혹은 창업 3 년내 지원 가능한 정부과제 지원 준비를 요즘 하는것 같읍니다 ...   올해 2 월달과 3 월달에 정부과제 공고가 뜬다고 해서 사업계획서 준비 작업을 요즘 준비하고 있읍니다 ...    결국은 정부과제를 통해 사업 포트폴리오를 준비한후 이 포트폴리오로 투자사에 제안하는 길 말고는 지금 저에게 보이는 길이 없어서 이 길로 가려고 준비하고 있읍니다 ...

 

예비창업자  장석원

HP  :   010-3350 6509

이메일  :   sayhi7@daum.net 

 

 

딥러닝 사업화 준비를 위해 지난 2 년간 딥러닝 논문을 수백편 살펴봤고 국내외 딥러닝 기술블로그를 수천곳  수만곳 이상 살펴봤읍니다 ....   딥러닝 큰기업(대기업)에서는 하는 말이 경쟁력있는 돈이 되는 결과물 (기술력 증명 포트폴리오) 제시가 가능한지를 저한테 질문을 던지더라구요 ...    저도 그동안 2 년간 딥러닝 사업화에 필요한 여러 노하우를 논문과 블로그들을 통해 살펴봤는데요 ...  저는 한동안은 최신 해외논문의 아이디어가 핵심의 모든것으로 이해를 했었는데 ...  이것보다도 더 중요한것은 딥러닝 상용화 과정에서 발생되는 이슈들이 어떤게 있고 이의 해결책은 어떤것이 있을까 ?  뭐 이런것들의 파악이 더 중요한 요소라는것을 깨달을수 있었읍니다 ...    딥러닝 상용화 과정에서 발생되는 이슈들이 어떤게 있고 이의 해결책은 어떤것이 있을까 ?  를 고민하면서 최신 해외논문의 아이디어가 왜 논문에서 이야기하는지를 살펴보는게 중요할것 같읍니다 ...   대기업이나 딥러닝 전문기업에서 원하는 기술력 증명 포트폴리오 제시 요구는 저도 2 년을 시간투자해서 얻은 저의 노하우 즉 딥러닝에서 어떤 부분들이 돈으로 연결될수 있다라는것을 다 공개하면 저는 딥러닝으로 사업화 내지 돈벌이가 어려워질수 있다는 점이 가장 어려운 점 입니다 ...   저도 올해 나이 59 세이고  대학원 졸업하고 대기업 연구소부터 시작한 사회생활 30 년하면서 온갖 갑질도 다 당해봤고 시행착오도 수천번 겪어봐서 딥러닝 사업화 준비를 할때 내가 무었을 파악해야 돈벌이 될수 있는지 부터 고민했다는 점을 미리 말씀드립니다 ...   나이먹어서 딥러닝 준비를 시작했기에 처음에는 딥러닝 논문의 아이디어가 핵심이다 싶어서 이것을 한 1 년반 이상 살폈구요 ...  최신 해외논문의 아이디어가 왜 논문에서 이야기하는지를 살펴보는게 중요하다는것을 최근들어 알아채리기 시작했구요 ...   

저는 음성인식 분야를 살피다 보니 음성인식 이라는게 음향모델만으로는 안되는구나를 알게되고 언어모델을 그래서 살피다 보니 초거대모델 학습의 이슈가 무었이고 어떤 해결방안이 있는가를 고민하면서 딥러닝은 공부를 해도 해도 끝이 없다라는것을 느끼게 되었구요 ...  언어모델은 GPT-3 의 이슈가 무었이고 이 이슈의 해결방안은 무었인가를 살피면서 어느정도 노하우 파악도 성공했구요 ...  음향모델도 트랜스포머 모델로 구현시 어떤 이슈가 있는지 또 이에 대해 어떤 해결방안이 있는지를 파악하는데 성공했읍니다 ...  그리고 살펴봤던 분야가 StyleGAN / StarGAN / CycleGAN 분야를 살펴봤구요 ...  이 분야 또한 핵심 이슈가 무었인지 논문에서는 이 이슈의 해결방안을 어떤식으로 제시하는지를 살펴봤읍니다 ...  요즘 가상인간 이슈가 뜨고 있어서 이와 관련해서 엔비디아 논문인 NeRF 논문도 세세히 살펴봤읍니다 ...  

 

나이가 많건 적건 저와 딥러닝을 이슈(기술이슈 / 사업이슈)로  통할수 있는 인력(전문 개발자 / 경영자 모두 와)을 보유한 기업과 협력 방안을 찾아보고 싶읍니다 ...

 

일인기업 DMBTEC 장석원

Home :   https://videocodec.tistory.com/

HP  :  010-3350 6509

이메일  :   sayhi7@daum.net 

 

 

 

 

전장 카메라 모듈관련 협의했던 업체한테 보낸 메일 입니다 ...   전장 카메라 모듈(송수신부 포함) 개발 건 관련 업체와 협의했던 내용을 여기 블로그에 공개 합니다 ...  타 업체에서도 전장 카메라 모듈(송수신부 포함)관련 개발 건 협의 요청 주시면 아래와 같이 대응이 가능하오니 참조하시어 연락주셨으면 합니다 ...

조건을 정리해서 메일로 보내주시면 유럽 고객사 하고 협의해 보겠습니다 라고 문자를 주셔서 

저희쪽(제가 운영하는 DMBTEC 과 일본법인 XXXX)의  1 차 검토의견 송부드려 보겠읍니다 ...

 

후방 카메라모듈 카메라 isp 튜닝 엔지니어링 서비스가 기술용역으로도 가능한지 문의주신것에 대한 저희쪽 검토의견 입니다 ...

MAX9271 16-Bit GMSL Serializer with Coax or STP Cable Drive  의 칩셋을 적용해서 전장 카메라 모듈의 영상을  MAX9271 16-Bit GMSL Serializer 로 카메라 영상을 송출하고 이를 GMSL DeSerializer 칩셋으로 수신하는 그런 부분의 개발이 필요하신지요 ?

GMSL Serializer 칩셋에 이미지센서(옵니비젼 이미지센서)가 접속되는 구조인것을 아래의 블럭도에서 표시하고 있읍니다 ...

글로벌 자동차기업에서 전장 카메라모듈과 자동차 AVN 과의 통신을 GMSL Serializer / GMSL DeSerializer 로 처리하거든요 ...

 본 건 관련 글로벌 칩셋사의 카메라 전장모듈의 ISP 포팅관련 기술지원 라이센싱비는 카메라 이미지센서 칩셋과  Camera ISP 칩셋 포팅관련 칩셋들의 구매오더가 각각 최소 5 K 이상이 되야 기술지원 라이센싱도 부드럽게 진행이 가능합니다  글로벌 칩셋사의 카메라 전장모듈의 ISP 포팅관련 기술지원 라이센싱비는 글로벌 기업에 따라 10 만불 이상을 요구하는곳도  있읍니다 ...    카메라 전장모듈의 ISP 포팅관련 기술지원 라이센싱비는  카메라 이미지센서 칩셋과 Camera ISP 칩셋 포팅관련 칩셋들의 구매오더가 각각 최소 5 K 이상 충분한 구매오더가 있으면 글로벌 업체와 기술지원 라이센싱 비용관련 네고가 가능 합니다 ...

저도 카메라 이미지센서 및 ISP 튜닝 관련 세부 노하우는 확보하고 있는데 ...  이것이 글로벌 (이미지센서 및 Camera ISP) 칩셋사와 밀접한 기술협력 채널을 확보하는것이 무었보다 중요 합니다 ... 카메라센서 튜닝 및 포팅 기술이 글로벌 칩셋사에 종속되는 구조다 보니 더 더욱 더 그렇읍니다 ...

 

제가 운영하는 딥 네트워크는 Lens Shade Correction 기법 또한 파악하고 있읍니다 ...  카메라 이미지의 센터부는 밝기값 Y 값이 크고 카메라 이미지의 Edge 부분은 상대적으로 밝기값인 Y 값이 작읍니다 ...  따라서 이 Y 값을  카메라 이미지의 센터부와 카메라 이미지의 Edge 부의 중간 정도 값으로 카메라 이미지의 밝기값을 조정해 주는 작업이  Lens Shade Correction 기법이라고 파악하고 있읍니다 ...    비네팅(Vignetting)이란 중심부에 비해 주변부의 광량이 저하되어 어두워지는 현상입니다. 주변부로 향할수록 광량이 저하되는 이유는 코사인 4차 법칙 (Cosine 4th rule) 때문입니다.  이러한 비네팅은 휴대폰 내 ISP(Image Signal Processor)에서 LSC(Lens Shading Correction)라는 과정을 통해 보정됩니다.

제가 운영하는 딥 네트워크는 Gamma Correction  기법 또한 파악하고 있읍니다 ...  픽셀값을 밝게 하려면 Intensity 값을 크게 해주면 되구요  반대로 어둡게 하려면 Intensity 값을 작게 해줘야 합니다.  Gamma Correction 은 모든 픽셀값에 대해서 동일한 값만큼 Intensity 값을 증가 시키지는 않읍니다.  밝게하거나 어둡게 할때 어두운 부분의 Intensity 값을 더 많이 변화시키게 됩니다 ... 

 

Focus 제어의 경우

Contrast 값이 높게 나오는 부분이 Focus 가 잘 맞추어진 상태를 의미 하거든요  Focus 를 맞출 영역을 정의한후 그 영역이 Contrast 값이 높게 나오도록 포커싱 제어부를 제어를 해주면 된다고 판단하고 있읍니다 ...    CZ(Continuous Zoom) 기능 구현을 위해  lookup 테이블에 따라 카메라모듈의 스테핑 모터가 동작하도록 구현하는 부분이 필요한데 ...   lookup 테이블에 따른 카메라모듈의 스테핑 모터가 한번에 최적화 상태로 동작 가능하기는 어려울것 같고 시행착오를 겪어야 최적화된 lookup 테이블을 얻을수 있을것 같은데 ...   최적화된 lookup 테이블을 얻을수 있도록 XXXX 연구소에서 약간의 지원을 해주시면  저도 시행착오 시간을 줄일수 있을것 같읍니다 ...   XXXX  에서 지원이 어려우시면 아무래도 상당한 

시행착오 시간이 필요할것 같읍니다 ....

 

 

Zoom 제어의 경우

시리얼 통신으로 카메라의 Zoom 을 제어하는 통신 프로토콜인 Pelco-D/P Protocol 를 사용해서 카메라의 Zoom 을 제어하는 부분의 구현이 필요하구요  현재 통신 프로토콜인 Pelco-D/P Protocol 로 카메라의 Zoom 을 제어하는 부분의  동작 시나리오는 다 작성이 되있는 상태인가요 ?  동작 시나리오가 확정이 안되 있으면 시나리오가 바뀔때 마다 펌웨어를 반복해서 수정해야 하거든요    그 만큼 시행착오 시간이 늘어 난다고 말씀 드립니다 ...

 

 

XXX 의 Camera ISP 튜닝 작업은 XXX 사와 기술지원 라이센싱 비용지불 처리가 다 되 있다고

하셔서 XXXX 를 통해서 XXX 사의 Camera ISP 튜닝 정보를 받아서 제가 작업하면 될것 같읍니다 ...

XXX 사의 Camera ISP 에서 MIPI CSI-2 카메라 데이터 제어관련 기술지원 세부정보를 XXX 사로 부터  XXXX 에서 받으셔서 제가 작업하면 될것 같읍니다 ...

 

위의 사이트 카메라 튜닝관련 일본법인 대표님과 본 건과 관련해서 협력해서 진행하기로 이야기를 했읍니다 ...

저는 이메일로는 영어로 의사소통이 가능 합니다 ...   

 

DMBTEC 장석원

기업블로그 사이트 :  https://videocodec.tistory.com/

HP :  010-3350-6509

이메일 :     sayhi7@daum.net 

전장 카메라 모듈(송수신부 포함)관련 개발 건 세부 스펙을 위의 이메일 주소로 전달해 주시면 검토의견을 드리겠읍니다 ...

 

저는 기업블로그 사이트는 요즘 아래 두가지 분야 ....  

  1. 인공지능 딥러닝 음성인식 분야와 3D 이미지 관련 분야를 연구중 입니다 ....  성과도 있읍니다 ...

  2. 클러우드 서비스로 대용량 방송 서비스 구현 분야도 세부 노하우 확보에 성공했구요 ...

이 두 분야를 요즘 사업화하려고 준비중 입니다 ....

 

카메라 센서 포팅 기술은 제가 보유하고있는 기술 이구요 ...

딥러닝 3D 분야 논문 분석이 어렵던것의 실마리가 풀리니 당장 돈벌이 걱정은 되지만 자신감이 뿜뿜 입니다

제 딥러닝 능력을 인정받으려면 제 기술력이 이 정도다 라는것을 논문이든 특허든 여러 방법으로 남 한테 공개해야 하는데 글로벌 기업도 자기 논문의 진짜 핵심은 비공개라는 점 입니다 남한테 인정받으려고 저의 일년이상 노력해서 얻은 돈 되는 정보를 공개할 필요를 못 느끼거든요

 

제 딥러닝 능력을 보이려고 노하우 공개를 해야 하는가가 현재 고민사항 입니다

 

일인기업  DMBTEC   장석원

010-3350 6509

 

 

 

중장년 기술창업을 바라보는 한국의 분위기를 이야기해 보려 합니다 ....  제가 열흘만 있으면 59 살 입니다 ...   59 살까지 인생을 살다보니 내가 사업하면 분명 성공할것 같아서 약간 준비가 부족한 상태에서 사업을 하다가 결과물이 2 % 부족해서 큰 손해를 봤읍니다 ...  40 대 중반에 신중치 못한 준비상태로 사업을 했다가 큰 손해를 입으니 지금까지도 그때의 큰 손실을 복구를 못하고 있읍니다 ...  저의 경우 요즘 한 3 년간 딥러닝 음성인식 분야 / 가상인간 구현분야 / 초거대 언어모델 분야 / 방송이나 화상회의 등을 염두에 둔 대용량 미디어 서비스 구현 등등 세부 설계 구현 노하우 파악에 구글링을 하루에 서 너 시간씩 했었구요 ...  처음에 준비할때에는 깊이있게 파악한 상태가 아니니 구글링을 해도 몇 만원자리 기술정보만 눈에 들어왔구요 ....  진짜 돈이 되는 정보가 눈에 보이게 된때는 구글링을 한 2 년 이상 빡시게 분석하다 보니 이게 돈이 되는 정보라는것을 수백 수천번의 시행착오를 통해 파악할수 있었읍니다 ...  제가 이렇게 이제 돈이 되는 기술정보도 파악해 놨는데 이것을 다른분들은 과연 그 파악한 정보가 진짜 퀄리티가 있기나 하냐 라고 의문을 표 하시더라구요 ...  시행착오를 수십번 겪어서 얻느 정보는  퀄리티를 못 믿지만 시행착오를 수천번 겪어서 제가 얻은 정보는 그동안 세심한 검토를 거쳐 확인한 결과 퀄리티는 자신있다 라고 말씀드릴수 있을것 같읍니다 ...   

저도 요근래 59 세 나이에  딥러닝 음성인식 분야 / 가상인간 구현분야 / 초거대 언어모델 분야 / 방송이나 화상회의 등의 사업 분야로 투자제안서를 작성해서 제출해 봤는데 한가지 딜레마가 있읍니다 ...  투자를 받아 진행하는 스타트업 창업 이라는 것이 그 근본이 기술 창업 입니다 ...  저는 그동안 기술창업 준비하면서 기술적인 부분 즉 해외논문 세부 검토분석에 중점을 뒀었는데요 ...  검토분석으로는 택 도 없다 라는 분도 있읍니다 ...  저는 사업화 아이템의 구현 설계 원리 파악이 가장 중요하다고 판단하고 구현 원리 파악이 되 있으면 PoC 검증 만큼이나 가치가 있다고 저는 판단하는데 그렇치 않은 분들도 많더군요 ...   그리고 투자제안시 중요한게 이윤확보 방안이 확실하냐 입니다 ...  사실 저는 저 혼자 하다보니 이윤확보 방안까지 검토할 시간적 여력이 부족한데요 ... 또 어떤분들은 이윤확보 방안이 투자제안의 가장 중요한 요소라고 하시더라구요 ...   사실 저 같이 손실을 크게 봐서 여력도 없는 상태인데 기술력 확보에 이윤 확보까지 두 마리 토끼를 잡으라고 투자제안서 심사역분들이 요구 하셔서 제가 딜레마에 빠져 있읍니다 ...    중장년 기술 창업이 이래서 힘든데요 ...   한국에서는 매년초 정부에서도 청년 창업 이야기는 많이해도 중장년을 지원하는 기술 창업을 지원하는 이야기는 거의 없읍니다 ...  당장 내년에는 경기가 IMF 보다 더 안 좋다고 하는데 중장년 나이에 기술창업을 혼자 힘으로 준비하다 보니 기술력은 어느 정도 확보 했는데  이윤 확보 방안 마련 내지 PoC 검증 결과물 준비를 하려면 이것도 자금이 필요한데 이런것들은 어디다 문의해 볼만한데가 없는게 한국의 현실 입니다 ...    PoC 검증 결과물 준비를 왜 못 하냐 라는 분들도 계신데 중장년은 당장 밥벌이도 해야 해서  PoC 검증 결과물 준비를 누구와 막상 협력해서 하자고 하기에도 부담이 가서 쉽지 않은데 이런것을 잘 이해를 못 하시더라구요 ...

중장년으로 저의 기술창업 준비 고민을 적어봤는데요 ...  이 글의 댓글로 여러분의 의견도 부탁드려 봅니다  ....

 

DMBTEC  장석원 드림

HP  :   010-3350-6509

WebRTC 오픈소스 미디어 서버 Janus Gateway 의 설계를 유럽 이탈리아 Meetecho 에서 설계했읍니다 ...

Meetecho 의 Janus 서버 소스가 어떤 구조로 동작하고 어떤 설계구조로 설계했는지 파악하는데 약 10 달이 걸렸읍니다 ...  Meetecho 의 Janus 서버 소스가 리눅스 개발환경에서 동작하는 오픈소스 구조의 소스 이기에 이 오픈소스를 설계한 사람들은 어떤식으로 소스의 설계를 했는지 파악하는것에 시간이 걸렸읍니다 ...

Meetecho 의 Janus 서버 소스는 약 6 명이 화상회의 구현에 필요한 기본기능의 소스를 설계해서 제공하고 있구요

이 소스를 기업이 상용 서비스를 가능하도록 커스토마이징하려면 구체적으로 이 소스의 각 설계부분들이 어떤 구조로 설계되 있는지 Meetecho 소스의 확실한 이해가 필요합니다 ...

저는 Meetecho 소스의 설계구조나 소스 설계 방식등을 커스토마이징이 가능할 정도로 이해하는데 성공했읍니다 ... Meetecho 의 Janus Gateway 소스의 경우, 웹 서버 동작 부분과 어플리케이션 서버 동작 부분으로 나뉘어 있는데 이것이 세부적으로 어떤 동작 구조로 설계되 있는지 분석에 성공했읍니다 .... 

Meetcho Janus 서버의 소스의 설계구조 이해가 되었구요 ...  이제 필요한것은 대용량 서비스로 확장 가능하게 Janus 서버의 소스를 커스토마이징을 해야하는데 ....  Janus 서버는 대용량 서비스로 확장 가능하게 RabbitMQ 서비스를 이용하는것의 기본적인 소스는 제공하구요 ...  여기서 대용량 서비스 구현을 위해 해야 할 일은 RabbitMQ 서비스를 클러스터링 기술을 적용해서  RabbitMQ 서비스를 커스토마이징 개발하는 일이 필요합니다 ... 

또한 대용량 미디어 데이터 송수신 서비스를 실시간으로 구현하기 위해 필요한 클라우드 서비스   RabbitMQ  설계 능력도 있읍니다    저의 경우 RabbitMQ 클라우드 서비스를 적용해서 송신자가 메시지 큐 방식의 미디어 데이터를 송출(Publishing)하면 수신동의를 한 수천명의 수신자가 미디어 데이터를 수신(Subscribe)할수 있는 노하우가 확보되 있읍니다.  RabbitMQ  클라우드 서비스의 API 를 어떻게 적용해서 세부적으로 일 대 다(수천명)의 메시지 큐 방식의 미디어 데이터 송수신 소스 설계가 어떤 방식으로 구현되는지를 파악 성공했읍니다 ...

요즘  미디어 데이터를 수만명 수십만명한테 방송 서비스를 하려면 수신을 원한다고 체크한 가입자만 방송 서비스를 수신 가능하게 미디어 송수신 설계를 해야 합니다 이런 대용량방송 서비스 구현시에는 필수적으로 로드밸런싱 제어가 필수적인데 이런 노하우도 파악하고 있읍니다...    대용량 미디어 데이터 실시간 송수신 서비스  구현 개발을 클라우드 서비스인 RabbitMQ 를 적용해서 설계시 메시지큐 통신이 어떤 구조로 처리가 되는지 RabbitMQ 를 어떻게 적용해서 구현되는지를 이해하고 있고, 즉 RabbitMQ 로 통신 부하 분산처리 설계를 구현시 L4 스위칭 장비를 적용해서 어떻게 로드밸런싱 제어 기법을 적용하는것도 파악하고 있읍니다    클라우드 서비스 RabbitMQ 로 대용량 미디어 데이터 송수신 구현을 메시지 큐 통신 방식으로 어떻게 구현하고 있는지의 세부 설계 구현 노하우를 파악 성공했고 또 대용량 미디어 데이터를 송수신처리 예를들어 RabbitMQ 로 방송서비스를 구현하고자 했을때 네트웍의 부하분산 처리를 L4 네트웍 스위칭 장비로 어떤 방식으로 구현하는지에 대한 설계 노하우도 파악 성공했읍니다  ... 

 

네트워크 장비인 L3 스위치 장비의 설계 원리를 현재 정확히 이해하고 있다 ...  이 정도 파악하는 수준이면 네트워크 SW 설계도 거의 전문가급이라고 나는 판단한다 ...   네트워크 장비인 L3 스위치 장비 개발을 직접 경험해 보지 않았어도 L3 스위치 장비의 구현 원리를 파악할수 있었다 ...  나는 네트워크 장비인 L3 스위치 장비의 네트웍 프로토콜 스택 설계 전문가가 아니라  L3 스위치 장비를 응용해서 네트웍 SW 를 설계하는 전문가라함이 정확할것 같다 ..

 

관심 있으신 업체의 개발 문의 및 자문 문의 아래의 메일주소로 귀사의 세부 이슈를 연락 부탁드립니다 ...

 

 

 

DMBTEC 

Home :   https://dmbtec.blogspot.com/

HP : 010-3350-6509

이메일 :   sayhi7@daum.net   

 

제 이메일로 관련해서  귀사에서 겪고 있는 기술이슈 보내주시면 검토의견 송부드리겠읍니다 ...

 

 

 

 

 

딥러닝 국내외 논문분석을 본격적으로 한지가 거의 2 년 입니다 ...  처음에 딥러닝 기술이슈 분야로 정한 분야가 음성인식 분야여서 음성인식 으로 논문을 분석하다 보니 Kaldi 라는 Tool 이 중요한 역할을 담당했다는것을 알았고 큰기업에서도 Kaldi Tool 로 음성인식 성능개선 작업에 많은 진전이 있었읍니다.  해외논문들을 음성인식으로 살펴봐도 속시원하게 자기 논문의 기술적인 설계 구조를 설명한 논문은 찾는게 쉽지 않더군요 ...  글로벌 대기업의 음성인식 논문이건 유명 대학 논문이건 자기 논문의 딥러닝 설계 구조를 친절하게 설명하는 논문은 찾기가 어려웠읍니다 ...  Kaldi 라는 Tool 로 음성인식 학습시 Alignment 하는 작업을 처리하는것에 도움이 됬다는것을 이해(파악)한것만으로는 만족스럽지 않더군요 ...   Kaldi 라는 툴의 딥러닝 모델의 알고리즘을 파악하려고 노력했고, 딥러닝 논문분석 이라는게 한가지 분야만 공부한다고 되는게 아니더라구요 ...  저도 그동안 딥러닝의 기술 이슈 한 스무가지 이상을 공부한것 같읍니다 ...  딥러닝으로 저같이 50 대 후반의 나이에 밥벌이가 힘든게 석박사 과정 5 년을 공부하기에는 시간도 부담이 되고 또 학비도 부담이 되 더군요 ...   당장 가족의 생계를 책임져야 하는데 한가롭게 대학원 과정을 공부하기에는 많이 부담스럽구요 ...   저는 제 나이에 딥러닝으로 밥벌이가 쉽지 않아서 제가 또 그동안 한 일년반 정도 시간을 투자했던 분야인 대용량 방송 서비스를 위한 수십만의 사람이 구독 신청을 하면 구독 신청을 한 사람에게 방송을 송출하는 미디어 데이터의 송수신 기술을 파악에 성공했기에 이것으로 밥벌이를 하려고 하거든요 ...   참 한국은 밥벌이하려면 치열하게 준비해야 하는 나라인것 같읍니다 ...   그리고 딥러닝 분야는 결과물을 작은것이라도 준비하라는 분들도 많은데 ...  딥러닝 결과물 작은것은 보통 젊은 사람들이 AI 분야로 취업준비시 많이 준비를 하는것으로 알고 있읍니다 ...  딥러닝 사업 준비하다가 느낀것인데 딥러닝 사업화를 하려면 작은 결과물 정도로는 택도 없고 딥러닝 개발시 발생하는 이슈에 대해 어떤 문제가 발생하고 있고 또 어떤 방법으로 해결이 가능한지 뭐 이런것에 대한 준비가 필요한데 ...  보통 이런것들을 파악하는게 대부분의 딥러닝 종사자들은 경험이 없으면 파악이 불가능하다고 강조 하시는데 ...  이렇게 파악하기 힘든 이슈에 대한 해결책 파악도 시행착오를 수천번 겪으면서 해당 이슈에대해서 구글링을 한 일년반 이상하다 보니 파악이 불가능할줄 알았는데 파악하는데 성공했읍니다 ...  대용량 방송 서비스를 위한 수십만의 사람이 구독 신청을 하면 구독 신청을 한 사람에게 방송을 송출하는 미디어 데이터의 송수신 기술도 클라우드 서비스 RabbitMQ 의 API 함수들을 적용해서 어떻게 구현하는지를 파악을 했기에 분명 다른 해당 업체분들도 충분히 설득 되라라 생각합니다 ...      제 나이가 올해 59 세 인데 한 2 년전부터 해외 딥러닝 논문을 수백편 살펴봤었읍니다 ...   음성인식쪽을 타겟으로 잡고 딥러닝 논문을 살펴보다가 Kaldi 라는 툴이 중요한 역할을 한다는것을 알았구요     음성인식이 그동안과 최근까지 새로운 모델들의 논문들이 발표됬는데요       한 2 년 살피다 깨달은것은 Kaldi 라는 툴의 설계 구조인 HMM 모델의 세부 알고리즘 동작구조 파악이 중요하다라는것을  알게 됬구요 ...  어차피 딥러닝이 학습되려면 학습의 성능 지표가 손실함수이고 이 손실함수의 가장 기본이 되는것이  HMM 모델의 세부 알고리즘 동작구조(손실함수 포함)에 있다는것을 파악하게 됬읍니다 ...   HMM 모델의 세부 알고리즘이 거의 30 년된 이론이지만 이것을 무시할수는 없는게 딥러닝 학습 구조인것 같읍니다 ....   음성인식이 음향모델과 언어모델로 구성되 있지만 그 근간은 HMM 모델의 세부 알고리즘 이라는것이죠    제 아무리 구글 트랜스포머 모델도 HMM 모델의 세부 알고리즘의 근간의 이해 없이는 설득력이 작아지는것 같읍니다 ...  대기업 연구소 나 투자사 심사역분들은 결과물이 있냐 혹은 발표 논문이 있냐를 중요시하시는것 같읍니다 ...   딥러닝 이론의 근간이 파악되다 보니 자연스레 결과물 구현시 필요한 딥러닝 소스 세부 구현 노하우도 자연스레 파악이  되는것 같은데 ...   대기업 연구소나 투자사 심사역분들은 여전히 제 의견에 동의하지 못 하시겠죠 ?   이런 딥러닝의 근간이라는것은 단지 음성인식 분야만 국한되는것이 아니라는 점 입니다 ...   딥러닝 다른 분야 구현시에도 이 딥러닝의 근간은 똑 같이 적용된다는것을 최근에 파악했거든요 ...    그래서 딥러닝 전문가들이 기본이 되 있어야 한다 라고 하는것 같읍니다 ...

 

제가 운영하는 DMBTEC 의 장석원 개발총괄 입니다 ...

010-3350-6509

sayhi7@daum.net   으로 문의 메일 송부해 주시면 성실히 답변 드리겠읍니다 ...

 

 

 

   

RabbitMQ 클라우드 서비스를 적용한 수만명 정도의 대상으로 실시간으로 대규모 미디어 데이터 송수신 기술개발 및 기술자문 가능 합니다 ...   RabbitMQ 클라우드 서비스의 API 함수를 적용해서 어떻게  1 : N (수만명)의 송수신이 실시간에 가깝게 가능하게 구현 설계가 가능한지 파악에 성공했읍니다 ...  이것을 분석하는것을 일년반전에 시작한 동기가 이탈리아 개발 회사 Meetecho 가 설계한 오픈소스인 Janus Gateway 오픈소스를 거의 일년 이상 소스를 세부적으로 검토분석하다가  Janus Gateway 오픈소스가 RabbitMQ 서비스로 미디어데이터를 송수신하는 기능을 이 오픈소스에 포함된것을 파악하면서 본격적으로  1 : N (수만명)의 미디어 데이터의 네트웍 통신 송수신이 실시간에 가깝게 가능하게 구현 설계를 한 일년 빡시게 분석해서 파악 성공했읍니다 ...    이를 적용해서 상용화를 위해서는 저 또한 추가의 검토분석은 필요합니다 ...   저의 경우 1 : N (수만명)의 미디어 데이터의 네트웍 통신 송수신의 프로토타입 구현 설계가 가능한 기술력을 현재 보유하고 있어서 이렇게 글을 올리게 됬읍니다 ... 

 

일인기업  DMBTEC  개발총괄  장석원   

HP :  010-3350-6509   

이메일 :  sayhi7@daum.net 

   

귀사가 고민하시는 기술이슈에 대해 문의 주시면 성실히 검토답변드리겠읍니다  ...

 

 

 

제가  올해  59 세 입니다 ...  저도 30 여년전 대학원 전자공학과도 졸업도 했고, 24 년전 IMF 때 구조조정됬던 대기업 연구소 7 년 재직 경험도 있읍니다 ...   오늘 하고픈 이야기는 기술지향적인 스타트업의 기술적 능력 및 사업적 능력은 과연 어떤 기준으로 평가해야 하는가를 이야기해 보고자 합니다 ...  요즘 스타트업의 능력 평가의 지표는 관련 석박사 내지 대기업 경력자들로 구성된 젊은 인력으로 구성된 팀이 일순위 인것 같읍니다 ...    젊은 인력으로 구성된 팀이 능력이 있다고 해도 저같이 60 이 코 앞인 시니어들도 능력이 되는 사람도 꽤 있거든요 ...   젊은 사람들은 순발력도 있고 머리도 빠릿빠릿 하게 돈다는것 저도 인정 합니다 ...  하지만 시니어는 젊은 사람들은 부족한 경륜 이라는것이 있거든요 ...   10 년전과 지금의 IT 업계의 상황은 많이 변했읍니다 ...  한 10 년전쯤부터 대기업에서 서류검토시 본인의 장점(강점/기술력)을 블로그 사이트에 구직자가 공개한것을 본격적으로 검토하기 시작했던것 같읍니다 ...   투자사에서 스타트업을 심사할때에도  가장 기본으로 검토하는게 결과물 낸것이 있는가 혹은 논문 실적이 있는가 인것 같읍니다 ...   이렇게 실적을 검토하는 투자사에게도 약점이 있읍니다 ...  요즘엔 한국어 기술 블로그 글과 해외 사이트 기술 블로그 글이 셀수없이 너무 많습니다 ... 국내외 논문들도 인터넷상에 공개된것도 상당히 많구요 ...  투자사 관계자분들은 그러시더군요 ...  당신이 딥러닝 특정분야로 결과물 낸적이 없는데 그 분야 결과물을 내기 위해 어떤 시행착오를 겪어서 어떤 방법으로 그 시행착오를 해결했는지 당신은 알수가 없다 라고 이야기하시는 분들이 많습니다 ...   제가 예를들어 설명을 드리면 구글 트랜스포머 모델로 특정분야 딥러닝 모델을 구현시 어떤 문제가 발생되는지를 파악하지 못할것으로 이야기를 하십니다 ...  제가 딥러닝 논문 내지 기술 블로그를 한 2 년 빡시게 시행착오를 수백 수천번 거치면서 파악에 성공한것은 항상 딥러닝 결과물구현도 예를들자면 트랜스포머 모델의 뿌리가 되는 근본 알고리즘 구성들 하나하나를 다 심층적으로 왜 이렇게 설계됬고 이런 트랜스포머 모델의 설계 안은 어떤식으로 개선이 가능할까를 수백번 시행착오를 거치면서 분석을 해서 그 근본 알고리즘의 설계 원리를 파악하게 되면  해당분야 결과물을 낸적이 없어도  이 결과물을 낼때 겪게되는 시행착오가 뭔지 또 어떻게 해결하는지를 파악할수 있다는것 입니다 ...   구글링으로 한 2 년 시행착오를 수백 수천번 하면  근본 알고리즘의 설계 원리 즉 딥러닝의 근본 뿌리 개념들의 파악이 된다는것을 제가 체득했읍니다 ...   아마도 10 년전이면 제가 이렇게 파악하는것이 불가능했을겁니다 ...   투자사분들도 젊은분들이 많고 해당분야를 시간을 투자해서 구글링을 2 년 해본 경험이 있는 분은 거의 없기에 경영학과 경제학과 출신들이 많아서 저의 이런 경험을 잘 이해하지 못하시는것 같읍니다 ...    제 이 글은 대기업 관계자분들이나 투자사 관계자분들이 많이 보셨으면 합니다 ...   항상 정답은 한가지가 아니라는것 말씀드리고 싶었읍니다 ...   이 일은 반드시 이런식으로 해야되 하는 고정관념을 깨지 못하시는 분들이 많은것 같아서 이글도 쓰게 됬읍니다 ...   

 

DMBTEC 개발총괄 장석원 드림

오늘은 의류를 카메라로 촬영한 사람 영상위에 가상피팅을 구현하는 사업 안의 세부 설계 기술에 대해 이야기 해보려 합니다 ...   이를 구현하기 위해 제가 생각하는 딥러닝 설계 안에 대해 이야기해 보겠읍니다 ...  이를 구현하려면 Bounding Box 처리를 카메라로 찍은 영상에 입력해서 어노테이션 작업 즉 어떤 옷을 입은 것인지에 대한 정보를 학습데이터에 입력해주는 작업이 필요하구요  이런 이유로 대규모의 학습데이터의 준비 즉 어노테이션 작업이 대규모로 필요할것 같읍니다 ...  서양인 동양인이 옷을 입은 영상을  즉 학습데이터의 준비가 대규모로 필요할것 같읍니다 ...  옷의 종류도 굉장히 여러가지 이고 옷을 입은 영상도 여러 각도로 촬영한 영상이 대규모로 있어야 어노테이션 정보로 학습한 정확도가 올라가니까요 ...  이렇게 어노테이션 작업 처리된 학습 데이터가 있으면 Object Classification 작업이 가능 합니다 ...  그리고 이  Object Classification 작업 처리된 영역 정보를 사용해서 이 Heatmap 영역이 어느 Object 에 속하는지 세그멘테이션 처리작업이 가능해 집니다 ...  이 Heatmap 영역이 어느 Object 에 속하는지 세그멘테이션 처리가 가능해지고  이 Heatmap 영역 검출이 매우 중요 합니다 ...   이 Heatmap 영역위에 우리가 가상으로 옷을 입혀야 하는데 가상으로 옷을 입히기 위해서  기하학적 변환(geometric transform) 즉 와핑(warping) 변환 작업을 통해 이를 구현하고자 하는 사업 설계 안 입니다 ...    기하학적 변환(geometric transform) 즉 와핑(warping) 변환 작업을 할때 Style Transfer 작업의 설계 기법을 적용하려 합니다 ...  굉장히 여러가지 옷의 종류에 따라 Heatmap 영역에 우리가 입힐 옷의 Style Transfer 처리시  기하학적 변환(geometric transform) 즉 와핑(warping) 변환을 통해 Heatmap 영역에 처리한 결과의 손실함수가 최소화 되도록 구현하려는 사업 설계 안 입니다 ...     관심있는 업체와 본 사업 안에 대해 세부 논의해보고 싶읍니다 ...    

 

DMBTEC 개발총괄 장석원 

HP :  010-3350 6509

sayhi7@daum.net 

 

 

저의 경우 올해 59 세 입니다 ...  저도 30 여년전 대학원 전자공학과를 졸업하고 대기업 연구소에서 7 년 근무하다가 IMF 때문에 구조조정으로 회사를 나오게됬읍니다 ...  결론부터 말씀드리고 이야기를 해 보도록 하겠읍니다 ...  기술 스타트업 창업시 기술을 확보하고 이윤확보를 하려면 피튀기게 빡시게 준비를 해야 합니다 ...   아무리 피튀기게 빡시게 준비를 한다 해도 내가 세운 스타트업이 성공으로 가는것을 단번에 성공시키는것은 쉽지 않읍니다 ...  기술 스타트업을 설립하는 대표라면 대표 자신이 채용해서 뽑을 개발 경력자보다 제품개발시 겪는 문제가 어떤게 있을지 또 이런 문제는 어떻게 해결해야 좋을지 이런것들의 확실한 준비가 필요한데 ...  제품개발시 문제가 어떤게 있을지 또 이런 문제는 어떻게 해결해야 좋을지 이런것들의 해결책을 대표가 가지고 있으려면  제품개발에 필요한 설계 및 구현 세부 노하우를 개발자보다 더 많이 파악하고 있어야 이런 앞을 내다보는 회사 운영이 가능해 집니다 ...  그만큼 대표는 밑에 사람을 믿는것은 좋지만 밑에 사람이 기술이슈를 보고를 올렸을때 문제점 및 해결방안을 확실하게 집을수 있어야 밑에 사람을 제대로 관리가 가능 합니다 ...  한마디로 대표가 초기에 스타트업으로 운영시에는 일당백이 되어야 합니다 ...  스타트업 시작시 투자도 단계적으로 받아서 성공적으로 투자절차 진행을 계속 진행하려면 확실한 실적이 나와야 하는데 투자도 여러차레 이어서 받아서 계속해서 실적을 안정적으로 내기 위해서는 처음에 스타트업시작시 기술확보는 단계별로 어떻게 계획을 세워서 운영할지도 초기에 대표가 사업계획서 작성시 이런 기술확보에 대한 단계별로 로드맵도 확실하게 세워야 할것 같읍니다 ...  스타트업 창업시 가장 어려운 부분이 나와 회사의 운명을 같이 할 핵심멤버를 어떻게 구할것 인가 입니다 ...  핵심멤버와는 회사설립시 회사의 연구개발 진행의 단계적 시나리오가 진행될때 각 핵심멤버의 책임과 역할을 계약서를 작성해서 확실히 해두는것도 필요하다고 생각 합니다 ...  사람은 시간이 지나면 했던 약속 지키는것도 파기하는 경우가 꽤 많이 있으니까요   투자를 받을때 투자제안서를 투자사가 평가해서 그 스타트업의 기업가치를 평가하는데 기업가치를 높게 평가 받으려면  대표가 제품개발에 필요한 설계 및 구현 세부 노하우를 개발자보다 더 많이 파악하고 있어야 이런 앞을 내다보는  능력과  기술확보는 단계별로 어떻게 계획을 세울지에 대한 확실한 방안제시가 있어야 기업가치를 높게 평가 받을수 있읍니다 ...   초기투자 시작시 부터 기업가치를 적게 인정 받으면  대표가 회사지분을 투자사에 많은 부분을 내 주어야 해서 결국 회사운영이 나중에 대표가 운영하는게 아니라 투자사가 회사를 좌지우지할수 있기 때문 입니다 ...   투자를 단계적으로 받을때 중요한게 투자단계 마다 기업가치를 높게 평가 받을수 있도록 대표나 구성원들이 준비가 확실해야 한다는 점 입니다 .   또 언급하지만 스타트업이 궤도에 오르기 전까지는 대표가 사소한것 하나하나를 꼼꼼히 체크하지 않으면 결국 배가 산으로 가게 됩니다 ...  스타트업이 궤도에 오르기 전까지는 대표가 Management 를 꼼꼼히 다 살펴야 합니다 .....   아무리 대기업에서 경력이 10 년 이상으로 나온 사람들이 뭉쳐서 스타트업을 설립한다 해도 대기업이라는 조직의 보호를 받을때와 창업해서 정글에서 활동할때에는 상황이 틀리거든요 ...  정글에서 스타트업이 자리잡는게 말처럼 쉽지 않은것 같읍니다 ...  저도 59 년 인생 수많은 굴곡을 겪으면서 터득한 경험담 입니다 ...  사업도 기술 발전주기가 있으니 그 발전주기마다  창업시에도 새로운 기술에 대한 심도있는 분석작업과 준비가 필요 합니다 ...  대기업에서 경험했던 기술만으로는 창업시 많이 부족할수 있거든요 ...   제가 59 년을 살다보니 창업시 계속해서 변화하는 우리나라의 핵심전략 기술 분야를 폭넓게 또 깊게 공부해서 확실히 준비하는 작업 또한 반드시 필요 합니다 ...   저의 경우 대학원 졸업후 이렇게 저렇게 사회생활을 겪다보니  사업이라는것도 실패와 시행착오도 수없이 겪어야 성공으로 가는 길이 보이는것 같읍니다 ...   저도 사업으로 성공하지는 못했고, 아직 사업을 준비하는 59 세의 그동안의 인생 경험담을 적어봤읍니다 ...

 

일인기업 DMBTEC 장석원 

010-3350-6509

 

 

 

저의 경우

제 소개를 드리자면 1989 년에 일반대학원 전자공학과를 졸업했구요

그후 91 년부터 7 년간 대기업 중앙 연구소 시스템제어실에서 연구직으로 근무 경험이 있읍니다 ...

코스닥 상장사가 된 기업의 기반기술팀에서 계약직으로 약 1 년 근무도 했었구요

최근에 중소기업에 기술고문으로 약 1 년반 근무를 했었읍니다 ...

 

저는 IT 분야 SW / Firmware  개발용역 관련 일을 거의 30 년 하다보니 여러 분야의 개발용역이 어떤 방식으로 처리되는지 이해하고 있읍니다 ...

 

Camera / WIFI / LTE / USB Host / USB Client / 블루투스 / TFT-LCD / Touchscreen / FAT32 / SD Card / Flash Memory

SDRAM 

등의 분야의 일을 처리해왔읍니다 ...

위의 분야의 개발용역 일을 처리하기 위해서는 위의 분야의 메이져 칩셋사에 최소 1K - 2K 사이의 칩셋 구매 오더를

해당 분야 칩셋 종류별로 구매오더를 최소 1K - 2K 사이로 처리해 줘야만이 해당 부문의 개발용역 진행이 가능해 집니다.

해당 메이져사 칩셋들 별로 기술자료를 제공 받는 방법이 구매오더를 최소 1K - 2K 사이로 집어넣고 처리하는 방법이 있고

라이센싱비 명목으로 수만불의 NRE Charge 를 결제를 해야만 기술정보를 제공하는 칩셋들도 있다는것 입니다 ...

 

무슨 이야기냐 하면 제품개발을 의뢰시 구체적인 양산계획까지 검토가 되 있어야 한다는 의미 입니다 
제품 개발을 진행시 단계를 두 단계를 거치게 되는데 그 첫번째 단계가 프로토타입 개발 단계 이구요
그 두번째가 양산 대응한 제품의 안정화 개발 단계 입니다
프로토타입 개발시 그 제품에서 소요되는 칩셋들의 MOQ 수량의 구매오더를 넣어야만이 칩셋사에서
세부 기술정보를 제공해 주는것을 적극적으로 검토하기 때문 입니다 ...  
제품 개발의뢰시 정확한 양산물량 계획이 없으면 칩셋을 공급해주는 칩셋사에서 기술지원 대응에 거의 관심을 갖지 않읍니다 ...
 

 

어떤 분들은 그런것들은 알아서 처리가 가능하지 않냐고 애기하시는 분도 있지만 IT 개발용역 일이 수백 수천가지다 보니

그 각각의 분여별로 개발용역 세부 스펙도 다 다르거든요 ...  그래서 개발용역 처리시 일감 맡은 업체가 모든 일꺼리를

다 미리 파악해 놓고 처리하는 경우는 거의 없읍니다 ...

 

제가 위에서 말씀드린 내용을 이해해 주시는 개발용역 의뢰 업체의 세부문의 부탁드립니다 ....

세상에 공짜로 되는것은 없읍니다 ...  다 돈이 들어야만 제대로 처리가 되는게 요즘 시대 이런 일의 처리구조 이거든요

 

DMBTEC  장석원

010-3350-6509

sayhi7@daum.net 

문의주실때 귀사의 개발이슈가 어떤것 때문에 문의 주시는지를 설명 부탁드리구요

가능하면 세부 개발스펙을 위의 메일주소로 송부 부탁드립니다 ....

 

 

 

자동차 라이다 시스템 세부설계 분석한지 거의 1 년 다 되 갑니다 ....

라이다 설계 구조를 간략히 설명드리면 ...

라이다 설계시 전후방의 자동차 오브젝트를 3 차원 이미지 데이터를 얻기 위해서 ...

전후방에 자동차를 향해 VICSEL 레이져로 빔을 쏠때 자동차를 3 차원이미지 데이터를 얻을수 있도록

광학렌즈부를 설계해야 하는데 ...  이렇게 빔을 쏠때 검토할것은 전후방에 어느 위치에 자동차가 있을지를 모르기에 광학렌즈부 설계라는것이 정확히 얼마의 거리로 타겟으로 빔을 쏘는것으로 설계를 해야 하는지를 결정하기가 어려운것으로 저는 이해 하거든요

왜냐하면 정확히 얼마 거리를 타겟으로 빔을 쏠지가 정해지지 않으면 자동차 라이다 수신부인 SPAD 이미지센서부에서 광전자 에니지를 픽셀 단위로 라이다 수신부에서 수신시 정확한 3 차원 이미지로 수신부에서 3 차원 이미지 빔의 렌즈부의 상 을 정확히 맺게 하는것이 어렵거든요 ...

전후방에 빔을 어레이 배열 형태로 가로축 300 개의 빔 세로축 100 개 배열 이런식으로 빔을 쏴야 수신부에서 어레이 형태로 수신되는 빔이 3 차원 이미지 형태로 수신될수 있거든요

저의 라이다 설계시 가장 큰 고민은  VICSEL 송신부 어레이에서 어떤방식으로 어레이 형태의 빔을 타겟의 거리에 맞춰서 빔을 정확히 쏠수 있는지와  이렇게 빔을 쏜것이 광학렌즈부를 거쳐 라이다 수신부인 SPAD 미미지센서가 수신부인데 수신부의 크기가  사방 10 밀리미터의 크기를 넘지 않는 사이즈안으로 3 차원 타겟 이미지 빔 데이터가 정확히 상 이 맺히도록  수신 하려면 어떻게 광학렌즈부를 설계해야 하는지 이것 해결하는 방안을 찾기가 너무 어렵습니다 ...

 

솔리드뷰는 150미터 이상의 감지거리를 얻을 수 있는 고감도 SPAD 소자와 신호처리 IC로 구성된 센서코어를 개발하며, 에스오에스랩은 발광부및 라이다 플랫폼을 제작하고 이를 이용하여 센서 SoC의 평가를 수행할 계획이다.

솔리드뷰, 33억원 규모 LiDAR 센서 개발과제 수주 - 전자부품 전문 미디어 디일렉 (thelec.kr)

 

솔리드뷰, 33억원 규모 LiDAR 센서 개발과제 수주 - 전자부품 전문 미디어 디일렉

솔리드뷰는 산업통상자원부 ‘차세대 반도체 기술개발사업’ 프로젝트를 통해 ‘고정형 라이다를 위한 CMOS LiDAR(라이다) 센서 및 인공지능 SoC 개발’을 진행한다고 18일 밝혔다. 올해부터 2024년

www.thelec.kr

 

저도 라이다 사업화 준비를 위해 고민을 많이해 봐도 위 글의 광학렌즈부 설계관련 해결방안을 찾기가 쉽지 않아서  이렇게 글을 올려서 혹시 사업화 준비 고민을 같이 하실 업체가 있으신지 해서 글을 올립니다 ...

 

 

제 소개를 하겠읍니다 ...

 

DMBTEC       HP : 010-3350-6509      이메일 :  sayhi7@daum.net 

일인기업 (개인사업자 기업) DMBTEC 기술자문 장석원 입니다 ...

 

연락주셔도 좋읍니다 ....


HOME  :  https://dmbtec.blogspot.com/

 

DMBTEC 기술자문 분야 - WebRTC Janus 미디어서버 분야 :: 인공지능 딥러닝 분야 :: 카메라센서 3A 튜닝

메일로 문의사항을 보내 주시면, 최대한 빠른 시간안에 검토해서 연락드리도록 하겠읍니다 ....

dmbtec.blogspot.com

 

 

 

 

 

 

로라통신 관련 이슈에 대해 업체로부터 문의를 받은것이 약 3 년전쯤 입니다 ...

로라통신은 로라통신 디바이스단 설계 기술 + 로라통신 게이트웨이단 설계 기술 + 로라통신 네트웍 서버 설계 기술 이렇게 이루어져 있읍니다 ...   로라통신은 클래스 A 통신 처리 방법과 절차가 로라 귝제 규겨문서에 규정되 있고 SEMTECH 사에서 이 국제 규격을 기준으로 해서 SOC 반도체 설계 상용화를 했읍니다 ...  로라 국제 규격문서에는 CLASS A 통신 규격만 규정되 있는게 아니고 보안인증처리를 CLASS A 통신 처리를 하면서 어떻게 설계할것인가가 규격문서에 규정되 있읍니다 ...  처음에 분석을 시작할때에는 CLASS A 통신 절차와 방법 이해하는것도 쉽지 않았읍니다 ...

로라통신을 약 3 년간 틈틈이 시간을 내서 하루에 한 시간씩이라도 공부했던것이 로라통신 규격이 통신 규격과 연동되는 보안인증 처리 방법도 규정되 있는데 특히 통신과 연동된 보안인증 처리 노하우를 이해하는게 쉽지 않았읍니다 ...

현재 저는 로라통신 CLASS A 통신 처리 방법의 세부 이해가 약 90 % 정도 이고 로라통신 CLASS A 통신 처리와 연동되는 보안인증 처리 방법에 대해서도 약 90 % 이해를 하고 있읍니다 ...

로라통신 CLASS A 통신 처리 방법의 세부 이해와 보안인증 처리 방법에 대해 약 90 % 를 이해하고 있는것은 SEMTECH 로라 펌웨어 소스의 세부 내용의 이해와 로라통신 국제 규격의 세부분석을 통한 이해가 더 해져서 약 90 % 를 이해하고 있읍니다 ...

 

로라통신의 보안 메커니즘에서,  MAC( Message Authentication Code )은 메시지의 위변조를 확인하기 위해 쓰이는 보안 기술 입니다. CMAC은 알고리즘과 모드 에 따라 AES CBC-MAC 메커니즘이 있구요 ...  CMAC 도 마찬가지로 주된 기능은 사용자 인증(authentication)과 데이터 무결성(data integerity) 처리를 위한것 입니다 ...  MAC 은  MAC 을 만들때  Block 함수를 사용하면 CMAC( Cipher-based Message Authentication Code )가 됩니다 ...  로라 통신에서 사용되는 보안인증 규격인 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘의 세부 알고리즘 동작구조를 파악하는데 성공했읍니다 ...  저는 SemTech 사의 로라통신 펌웨어 소스에서 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘을 로라통신의 디바이스단(센서단)에서 구현해 놓은것을 분석 성공한것이 저의 로라통신의 보안인증 방식의 기술력 입니다 ....    로라통신의 보안체계인 HMAC(Hash based Message Authentication Code) 기능 즉 원본 메시지가 변하면 그 해시값도 변하는 Hashing 의 특징을 활용하여 메시지의 변조 여부를 확인하는 보안 메커니즘이 로라통신의 통신국제 규격에 포함되 있고, 이의 동작을 약 90 % 까지 파악하는데 성공했읍니다 ...

로라 통신은 송수신 제어 메커니즘의 이해와 보안인증 처리방식의 이해가 필수 입니다 ...  DMBTEC 은 Class A 통신 처리 세부 방법을 이해하고 있으며,  Class A 통신 처리시 보안인증 처리를 AES128-CMAC 메커니즘에 의해 제어되는 구조를 이해하고 있읍니다 ...

 

관심있으신 투자사 혹은 기업에서 연락주시면 세부 개발 검토 협의가 가능 합니다 ...

 

관심있으신 분들 아래 연락처로 연락 부탁드립니다 ...

 

제 기업블로그 사이트

HP   010-3350-6509

E-mail  :  sayhi7@daum.net

HOME  :  https://dmbtec.blogspot.com/

 

DMBTEC 기술자문 분야 - WebRTC Janus 미디어서버 분야 :: 인공지능 딥러닝 분야 :: 카메라센서 3A 튜닝

메일로 문의사항을 보내 주시면, 최대한 빠른 시간안에 검토해서 연락드리도록 하겠읍니다 ....

dmbtec.blogspot.com

 

 

 

 

DB하이텍, 이미지센서 사업 확대…글로벌셔터∙SPAD 공정 개발 

 

- 전자부품 전문 미디어 디일렉

www.thelec.kr/news/articleView.html?idxno=11953

 

DB하이텍, 이미지센서 사업 확대…글로벌셔터∙SPAD 공정 개발  - 전자부품 전문 미디어 디일렉

DB하이텍이 이미지센서 사업 확대에 나선다. DB하이텍은 110나노미터 플랫폼을 기반으로 한 글로벌셔터와 SPAD(single-photon avalanche diode) 공정을 개발 완료했다고 16일 밝혔다. 신규 이미지센서 사업

www.thelec.kr

자동차 라이다 의 광파장 수신부 설계의 핵심인 SPAD 공정기술을 개발했다는 기사 입니다

제가 라이다에서 제일 관심이 컸던 분야가 광학렌즈부 설계쪽과 광파장 수신부인 SPAD 공정설계 였거든요

이것은 라이다 광파장 수신부 설계 내용이구
라이다 수신부와 연동되는 라이다 광파장 VCSEL 송신부 설계 기본설계 자료를 지금 확보했읍니다 ....   

하 ...  이것 파악에 시간이 꽤 걸렸읍니다 ...

이것을
광파장 수신부와 연동하면 전방의 물체를 3D 이미지로 인식하는것도 가능할것 같읍니다

 

 

인공지능과 레벨 4 자율주행을 한번에... 엔비디아, 8세대 하이페리온 플랫폼 공개 < 플랫폼 < AI Tech < 기사본문 - 인공지능신문 -

 

www.aitimes.kr/news/articleView.html?idxno=20859&fbclid=IwAR3onqPTsi3pz2ddOaZVkw2DpnjlK4kYA_sRu-po828E_MSNRln7gWKamR0

 

인공지능과 레벨 4 자율주행을 한번에... 엔비디아, 8세대 하이페리온 플랫폼 공개 - 인공지능신

엔비디아가 새로운 8세대 드라이브 하이페리온(Drive Hyperion) 플랫폼을 통해 자율주행차 발전에 기여한다. 이 플랫폼은 2021년 안에 엔비디아 드라이브 에코시스템에 제공될 예정이다.하이페리온

www.aitimes.kr

자동차 라이다를 위와 같이 개발시 구현시 사용되는 플랫폼이 엔비디아, 8세대 드라이브 하이페리온(Drive Hyperion)
플랫폼을 사용해서
라이다 3 차원 오브젝트 탐지 및 검출의 SW 설계를 해야 하는 구조인것으로 분석된다 ...

 

글로벌 대기업이 이렇게 솔루션을 제시하면 여타 대기업이 여기에 따라가는 구조라

저같은 소기업은 상황파악 정도하는 정도가 가능합니다 ....

 

자율주행 자동차 개발을 목적으로 하는 자동차 라이다 응용 SW 를 위와 같이 개발시 구현시 사용되는 플랫폼이 아래 링크사이트에 소개되 있는 엔비디아 DRIVE AGX 개발키트 / 엔비디아 DRIVE Hyperion 개발키트가 있다 ...

 

NVIDIA DRIVE AGX Developer Kit | NVIDIA Developer

 

NVIDIA DRIVE AGX Developer Kit

HOME SOLUTIONS DRIVE AGX DRIVE Hyperion DRIVE Software DRIVE OS DriveWorks DRIVE AV DRIVE Perception DRIVE Mapping DRIVE Planning DRIVE IX Simulation DRIVE Sim DRIVE Constellation NVIDIA DGX DOWNLOADS DOCUMENTATION TRAINING COMMUNITY The NVIDIA DRIVE™ AG

developer.nvidia.com

 

developer.nvidia.com/drive/drive-hyperion

 

NVIDIA DRIVE Hyperion Developer Kit

HOME SOLUTIONS DRIVE AGX DRIVE Hyperion DRIVE Software DRIVE OS DriveWorks DRIVE AV DRIVE Perception DRIVE Mapping DRIVE Planning DRIVE IX Simulation DRIVE Sim DRIVE Constellation NVIDIA DGX DOWNLOADS DOCUMENTATION TRAINING COMMUNITY NVIDIA DRIVE Hyperion

developer.nvidia.com

 

 

아래의 국책연구과제 선정작업중인 자동차용 라이다 솔루션 개발 만도 컨소시엄 선정 협의과정이 저로서는 부럽기만 합니다 ...

 

 

만도 컨소시엄 '차량용 라이다 수행사업' 따냈다 - 전자신문 (etnews.com)

 

만도 컨소시엄 '차량용 라이다 수행사업' 따냈다

만도가 산업부가 발주한 차량용 라이다 개발사업 수행사업자로 선정됐다. 만도 컨소시엄은 5년 안에 수백 채널급 3차원(D) 고정형 라이다를 개발하고, 레벨4 완전자율주행 구현을 위한 제품을 완

www.etnews.com

 

 

 

관련 업계분들 많은 관심 가져주셨으면 합니다 ...

 

제 소개를 하겠읍니다 ...

 

DMBTEC       HP : 010-3350-6509      이메일 :  sayhi7@daum.net 

일인기업 (개인사업자 기업) DMBTEC 기술자문 장석원 입니다 ...

 

연락주셔도 좋읍니다 ....


HOME  :  https://dmbtec.blogspot.com/

 

DMBTEC 기술자문 분야 - 미디어서버 분야 :: 전기차 모터제어 분야 :: 로라통신 - 모드버스통신 분야

메일로 문의사항을 보내 주시면, 최대한 빠른 시간안에 검토해서 연락드리도록 하겠읍니다 ....

dmbtec.blogspot.com

 

저의 경우, 한 2 년전부터 딥러닝 음성인식 논문분석을 진행했읍니다 ... 지도학습부터 자기지도 학습까지 살펴봤읍니다 ... 지도학습이나 자기지도 학습이나 학습데이터셋의 데이터 갯수가 일정 이상으로 충분치 않으면 상용 수준으로 만족스런 성능이 가능하다는 논문은 제가 찾지 못한것 같읍니다 ... 대기업들의 음성인식도 예전 논문의 기법의 파악없이는 성능내기가 어려운 구조더군요 ... Kaldi 라는 툴의 도움으로 음성인식 딥러닝 모델을 학습시키거든요 ,,, 이게 보통의 딥러닝 모델의 구조이구요 ... Kaldi 툴도 HMM-GMM 딥러닝 모델로 구현된것인데 ... 죤스홉킨스 대학에서 오래전에 발표한 기술인데 아직도 이것의 도움이 필요 하거든요 ... 저는 그래서 최근까지 음성인식의 롤 모델인 구조가 CTC-Transformer Model 입니다 ... 이것이 에러율이 약 8 % 까지 성능이 나온다고 논문에 있는것 같읍니다 ... 음성인식도 CTC-Transformer Model 로 구현관련 세부 메커니즘을 이했구요 ... 상용 수준으로 성능을 내려면 음향모델과 언어모델 둘 다 구현이 필요할것 같읍니다 ...언어모델의 경우 GPT-3 가 SOTA 성능을 냈다 하니 이게 기본 동작 구조가 Transformer Model 이 기본 동작 구조이고 언어가 어떤 메커니즘으로 번역 처리가 동작한다는것을 이해했읍니다 ... 음향모델 같은 경우도 CTC-Transformer Model 로 음성과 음소의 얼라인 처리를 어떤 방식으로 처리하는지도 이해했읍니다 ....

그동안 저는 StyleGAN 기술 분야도 세세히 살펴 봤읍니다 ... 엔비디아에서 개발한 StyleGAN 세부 기술 분석을 했었읍니다 ... 요즘 제가 관심을 가지는 분야중 하나가 2D 이미지를 3D 모델 로 맵핑시키는 이런 딥러닝 모델에 관심이 많읍니다 ... 2D 이미지를 3D 모델 로 맵핑시키는 이런 딥러닝 모델을 세심히 국내외 논문을 살펴봤는데 ... Shape Embedding 기술로 3D Shapes 표현을 어떻게 Reconstruction 할지 ... 3D Texture 의 질감을 살려서 딥러닝 모델을 구현하려면 딥러닝 모델의 설계 구조가 어떻게 설계되고 있는가 ... 뭐 이런것들을 관심을 가지고 분석중 입니다 ... 이렇게 2D 이미지를 3D 모델 로 맵핑시키는 이런 딥러닝 모델을 분석하다가 깨닭은게 있는데 ... StyleGAN 기술에서 얼굴의 스타일을 변형해서 생성하기 위해 사용되는 Affine Transform 같은 Graphic Engine 기술이 필요한데 엔비디아는 이런 Graphic Engine의 원천기술이 있었기에 StyleGAN 기술을 발표할수 있었다고 봅니다 ... 다시 2D 이미지를 3D 모델 로 맵핑시키는 이런 딥러닝 모델에서 설계시 필요한게 3D Graphic Engine 기술이 역시나 여기에서도 필요합니다 ... 엔비디아는 Kaolin 이라는 2D 이미지를 3D 모델 로 맵핑 가능한 라이브러리 노하우를 이미 발표했읍니다 ...

자율주행차의 3D 오브젝트 인식 이라던가 메타버스 플랫폼 설계시 3D 아바타 설계가 어떤식으로 딥러닝 모델이 설계되야 하는지를 파악했읍니다 ... 2D 이미지를 3D 모델로 Reconstruct 해서 3D Shape 를 만드는 딥러닝 모델의 설계 구조를 분석했구요 ... 간략히 설명드리자면 엔비디아의 3D Graphic Engine 의 알고리즘 설계 수식의 이해를 통해 3D Graphic Engine 수식으로 오규멘테이션 처리한 3D Shape 의 예측 데이터를 얻을수 있고, 이 예측데이터의 손실값을 최소화하는 딥러닝 가중치값을 학습 루프를 실행시켜서 얻을수 있다고 판단 합니다 ...

더 자세한것은 제 사업 노하우이기 때문에 이 정도만 이야기 하겠읍니다 ....

이런 기술들은 자율주행차 혹은 메타버스 플랫폼 구현시 반드시 필요한 기반기술 입니다 ...  저의 경우 세부 구현 설계 안까지 준비하고 있는데 이런 저의 설계 안에 직접적으로 관심을 표명하는 기업은 만나기가 너누 어렵습니다 ...   혹시나 해서 저의 이런 딥러닝 세부 설계 안에 관심이 있으셔서 저는 비록 소기업이지만 공동으로 사업을 펼쳐보실 기업이 있으신지 궁금 합니다 ...

투자사는 기본적으로 동작하는 결과물 확인이 기본인것은 저두 알구요

단지 딥러닝 논문을 한 300편 살피다보니 딥러닝 논문의 세부 노하우 파악에 성공했고 이것으로 협력할 기업 좀 더 솔찍이는 투자를 받고 싶은것 입니다 딥러닝 소스 분석능력도 어느정도 터득했고 딥러닝 논문도 300편 보다보니 통찰력이 자연스레 생겼기에 이런 말씀도 드리는것 입니다

DMBTEC 장석원

010-3350-6509

관련해서 문의 연락 주시면 감사하겠읍니다 ....

 

스마트 팜 사업화에 대해 그동안 준비한것들을 이야기해 보겠읍니다 ...  스마트 팜을 구현하려면 농장내에서 농작물 제어장치들이 거의 500 - 1000 미터 혹은 그 이상의 거리에서의 통신되는것이 필요한데 그중에 가장 적절하다고 판단되는 통신방식이 장거리 저전력 통신 프로토콜인 로라통신 이라서 제가 그동안 각고의 노력 끝에 터득한 내용을 소개드려 봅니다  ... 
로라통신 관련 이슈에 대해 업체로부터 문의를 받은것이 약 3 년전쯤 입니다 ...
로라통신은 로라통신 디바이스단 설계 기술 + 로라통신 게이트웨이단 설계 기술 + 로라통신 네트웍 서버 설계 기술 이렇게 이루어져 있읍니다 ...   
로라통신은 클래스 A 통신 처리 방법과 절차가 로라 귝제 규겨문서에 규정되 있고 SEMTECH 사에서 이 국제 규격을 기준으로 해서 SOC 반도체 설계 상용화를 했읍니다 ...  로라 국제 규격문서에는 CLASS A 통신 규격만 규정되 있는게 아니고 보안인증처리를 CLASS A 통신 처리를 하면서 어떻게 설계할것인가가 규격문서에 규정되 있읍니다 ...  처음에 분석을 시작할때에는  CLASS A 통신 절차와 방법 이해하는것도 쉽지 않았읍니다 ...
로라통신을 약 3 년간 틈틈이 시간을 내서 하루에 한 시간씩이라도 공부했던것이 로라통신 규격이 통신 규격과 연동되는 보안인증 처리 방법도 규정되 있는데 특히 통신과 연동된 보안인증 처리 노하우를 이해하는게 쉽지 않았읍니다 ... 현재 저는 로라통신 CLASS A 통신 처리 방법의 세부 이해가 약 90 % 정도 이고 로라통신 CLASS A 통신 처리와 연동되는 보안인증 처리 방법에 대해서도 약 90 % 이해를 하고 있읍니다 ...
로라통신 CLASS A 통신 처리 방법의 세부 이해와 보안인증 처리 방법에 대해 약 90 % 를 이해하고 있는것은 SEMTECH 로라 펌웨어 소스의 세부 내용의 이해와 로라통신 국제 규격의 세부분석을 통한 이해가 더 해져서 약 90 % 를 이해하고 있읍니다 ... 
로라통신의 보안 메커니즘에서,  MAC( Message Authentication Code )은 메시지의 위변조를 확인하기 위해 쓰이는 보안 기술 입니다.  CMAC은 알고리즘과 모드 에 따라 AES CBC-MAC 메커니즘이 있구요 ...  CMAC 도 마찬가지로 주된 기능은 사용자 인증(authentication)과  데이터 무결성(data integerity) 처리를 위한것 입니다 ...  MAC 은  MAC 을 만들때  Block 함수를 사용하면 CMAC( Cipher-based Message Authentication Code )가 됩니다 ...  로라통신에서 사용되는 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘의 세부 동작구조를 이해해야 하는데 이것이 쉽지 않구요 ...  
저는 SemTech 사의 로라통신 펌웨어 소스에서 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘을 로라통신의 디바이스단(센서단)에서 구현해 놓은것을 분석 성공한것이 저의 로라통신의 보안인증 방식의 기술력 입니다 ... 이것도 구현하려면 최소 1 억 5000 만원 이상의 개발비용과 개발기간도 최소 1 년반 이상의 기간이 필요 합니다 ....  
관심있으신 투자사 혹은 기업에서 연락주시면 세부 개발 검토 협의가 가능 합니다 ...  관심있으신 분들 아래 연락처로 연락 부탁드립니다 ...
 
제 기업블로그 사이트
HP   010-3350-6509
E-mail  :  sayhi7@daum.net

장거리 저전력 무선통신 프로토콜인 LoRa 통신 개발용역 및 기술자문
 - Class A 통신 처리 노하우 확보
 - Class A 통신시 보안인증 처리 노하우 확보
    현재 LoRa 통신 Class A 통신 처리 및 Class A 통신시 보안인증 처리 프로토타입 개발용역 및 기술자문 가능
    장거리 저전력 무선통신 프로토콜인 LoRa 통신 양산 대응용 안정화 개발시 추가적인 기간과 비용 필요

   스마트 팜 사업화에 대해 그동안 준비한것들을 이야기해 보겠읍니다 ... 스마트 팜을 구현하려면 농장내에서 농작물 
   제어장치들이 거의 500 - 1000 미터 혹은 그 이상의 거리에서의 통신되는것이 필요한데 그중에 가장 적절하다고 판단되는 
   통신방식이 장거리 저전력 통신 프로토콜인 로라통신 이라서 제가 그동안 각고의 노력 끝에 터득한 내용을 소개드려 봅니다
   로라통신 관련 이슈에 대해 업체로부터 문의를 받은것이 약 3 년전쯤 입니다 ...
   로라통신은 로라통신 디바이스단 설계 기술 + 로라통신 게이트웨이단 설계 기술 + 로라통신 네트웍 서버 설계 기술 이렇게 
  이루어져 있읍니다 ...
  로라통신은 클래스 A 통신 처리 방법과 절차가 로라 귝제 규겨문서에 규정되 있고 SEMTECH 사에서 이 국제 규격을 기준으로 해서  SOC 반도체 설계 상용화를 했읍니다 ...  로라 국제 규격문서에는 CLASS A 통신 규격만 규정되 있는게 아니고 
   보안인증처리를 CLASS A 통신 처리를 하면서 어떻게 설계할것인가가 규격문서에 규정되 있읍니다 ... 처음에 분석을 
   시작할때에는 CLASS A 통신 절차와 방법 이해하는것도 쉽지 않았읍니다 ...
  로라통신을 약 3 년간 틈틈이 시간을 내서 하루에 한 시간씩이라도 공부했던것이 로라통신 규격이 통신 규격과 연동되는
   보안인증 처리 방법도 규정되 있는데 특히 통신과 연동된 보안인증 처리 노하우를 이해하는게 쉽지 않았읍니다 ... 
  현재 저는 로라통신 CLASS A 통신 처리 방법의 세부 이해가 약 90 % 정도 이고 로라통신 CLASS A 통신 처리와 연동되는
  보안인증 처리 방법에 대해서도 약 90 % 이해를 하고 있읍니다 ...
  로라통신 CLASS A 통신 처리 방법의 세부 이해와 보안인증 처리 방법에 대해 약 90 % 를 이해하고 있는것은?SEMTECH 
  로라 펌웨어 소스의 세부 내용의 이해와 로라통신 국제 규격의 세부분석을 통한 이해가 더 해져서 약 90 % 를 이해하고 
   있읍니다 ...
  보안 메커니즘에서,  MAC( Message Authentication Code )은 메시지의 위변조를 확인하기 위해 쓰이는 보안 기술 입니다.
  CMAC은 알고리즘과 모드 에 따라 AES CBC-MAC 메커니즘이 있구요 ...  CMAC 도 마찬가지로 주된 기능은 사용자 인증(authentication)과  데이터 무결성(data integerity) 처리를 위한것 입니다 ...  MAC 은  MAC 을 만들때  Block 함수를 사용하면 CMAC( Cipher-based Message Authentication Code )가 됩니다 ...  로라통신에서 사용되는 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘의 세부 동작구조를 이해해야 하는데 이것이 쉽지 않구요 ...
  저는 SemTech 사의 로라통신 펌웨어 소스에서 AES128-CMAC 메커니즘과 AES CBC-MAC 메커니즘을?로라통신의 
  디바이스단(센서단)에서 구현해 놓은것을 분석 성공한것이 저의 로라통신의 보안인증 방식의 기술력 입니다 ...


카메라 이미지센서 3A 튜닝 개발용역 및 기술자문

 - 이미지센서 안정화된 화면출력 동작 구현시 개발 및 자문 관련 의뢰 제품의 세부 양산계획 확정이 필수임.
 - 이미지센서가 보통 AP(Application Processor)의 내장 Camera ISP 의 구동 및 튜닝시?
    의뢰 제품의 세부 양산계획 확정 및 AP(Application Processor) 의 글로벌 칩셋사 에 MOQ 구매 오더가 필수임
 - Camera 3A 튜닝 개발중 DMBTEC 의 확보 기술력으로 Exposure 제어와 White Balance 제어 최적화 가능
    Exposure 제어와 White Balance 제어를 구현시 이에 필요한 기술자료를 
    AP(Application Processor) 의 글로벌 칩셋사의 기술지원 협력이 필요할수 있음

   DMBTEC 의? Camera 3A 튜닝 관련 그동안 3 년 이상 분석 검토한 내용을 공개합니다 ...  3A 튜닝 기술중 우선 2 가지, 
   Exposure 제어와 White balance 제어 관련해서 소개해 보겠읍니다 ...? 카메라 화질튜닝의 핵심은 카메라 이미지의 선명도를 개선하는것이 중요한데? Exposure 제어의 경우, 카메라 영상중 카메라 영상의 밝기에 해당하는 성분인 Y 값, 이것은 영상의 밝기에 해당하는 인자인데 노출제어에 의해 카메라 영상중 내가 선택한 카메라 영상의 특정 영역의 Y 값을 128 (+/-) 10 정도의 값을 가지도록 카메라의 노출제어를 한다는 의미이구요 ...  Exposure 제어를 통해? 내가 선택한 카메라 영상의 특정 
   영역의 Y 값을? 제어함을 통해서 카메라 이미지의 선명도를 개선이 가능하고 또한 카메라의 펌웨어의 카메라 화질보정을 
   통해 인공적으로 내가 지정한 특정영역 말고 다른 부분의 Y 값도 미세조정을 통해 카메라 영상의 선명도를 개선시키는것이 가능하다라고 그동안 분석이 되었읍니다 ...  여기까지가 카메라 노출제어 관련 이었구요 ...? ?여기에 한단계를 더 뛰어넘어서 화질 튜닝을 하려면 White balance 제어가 필요합니다 ....  White Balance 제어는 카메라에 비춰지는 광원의 색온도를 측정을 통해 광원의 White balance 특성을 파악하게 되구요 ...   Exposure 제어로 특정영역의 Y 값을 제어해서 카메라 이미지의 선명도를 개선을 처리한다고 말씀드렸는데 여기에  광원의 White balance 특성 파악을 통해 카메라 이미지의 White balance 제어 또한 가능합니다 ...  즉 광원의 특성에 따라 카메라 이미지의 White balance 제어 처리가 된 영상으로 보정되야 한다는것 입니다 ...  광원의 특성 즉 맑은 날인지 흐린  인지 조명은 어떤 조명인지 이런 광원의 조건에 따른 카메라 이미지의 White balance 제어 처리도 반드시 필요하다는것 입니다 ...  그리고 카메라 이미지의?White balance 제어는 광원의 색온도 측정값에 따라 결정되구요 ...  여기에서 광원의 색온도 측정 알고리즘은 약 20 여년전 해외에서 발표된 논문에 
   근거해서 그 알고리즘이 제어 됩니다 ...  광원의 색온도 측정이 난이도가 큰것 같읍니다 ...  스마트폰의 카메라 화질튜닝 
   셋팅 메뉴를 보면 광원의 특성 즉 맑은 날인지 흐린 날인지 수십가지의 조명 조건은 어떤 조명인지를 스마트폰에서 
   사용자가 선택하면 그 특성을 반영해서 스마트폰의 White balance 제어가 되는 구조로 스마트폰의 카메라 튜닝을 위한 
   셋팅메뉴가 설계되 있는것을 볼수 있읍니다 ...  
   DMBTEC 은 카메라 3A 튜닝기술을 위와 같이 보유하고 있읍니다 ...  카메라 이미지센서의 3A 튜닝을 하려면 이미지 센서 
   업체로부터 세부 기술정보를 받아야 하는데 이것을 받으려면 카메라 이미지센서의  MOQ 수량의 구매오더 없이는 
   기술자료를 받는것이 불가능 합니다 ...  요즘에는 스마트폰의 경우 AP(Application Processor)의 경우 AP 내부에 
    Camera ISP 가 내장되 있는데 AP(Application Processor) 제조사로부터 이 AP 내부에 Camera ISP 세부 기술정보를 받으려면 
   라이센싱 비용의 지출이 필요할수 있기에 카메라 SW 개발은 일정 규모가 안된 제조사는 이런 사업을 진행하기가 어렵습니다 ...


대규모 화상회의 및 공연실황 방송 시스템 구현?개발용역 및 기술자문
  - 오픈소스 미디어서버 Janus Gateway 을 구현시 필요한 여러 설계 기법 확보
    Janus 서버는 기본적으로 HTTP 1.1 로 미디어데이터 통신 구현이 되 있음
    이를 대용량?대규모 화상회의 및 공연실황 방송 시스템 구현을 위해서는 클라우드 서비스로 개발이 필요함
    클라우드 서비스 RabbitMQ 로 대용량?대규모 화상회의 및 공연실황 방송 시스템 구현관련 여러 설계 기법 확보
    클라우드 서비스 RabbitMQ 로?대용량?대규모 화상회의 및 공연실황 방송 시스템 구현시 추가적인 개발자금 필요

   WebRTC JANUS 미디어 서버의 경우 대용량 미디어 서비스를 위해 클라우드 서비스 RabbitMQ 로 기본 동작 구현까지 
   참조소스를 제공하고 있읍니다 저는 RabbitMQ 클라우드 서비스를 쿠버네이트로 대용량 네트웍 서비스 구현 설계 안을 
   분석하고 있읍니다
   Pod 간 통신 그리고 Pod 와 서비스와 통신 구현 방안도 하나씩 파악하고 있읍니다 Kubernate 툴로 이런것들 제어 하나씩 
   세부 검토하고 있읍니다
   제가 Janus 미디어 서버를 기반으로 대용량 화상회의 구현을 위한 미디어 데이터의 실시간 송수신 처리 이슈를 고민한지 
   거의 2 년이 다 되갑니다 ...  저의 경우 오픈소스 Janus 서버를 설계한 이탈리아 개발자들의 설계 구조를 일단은 그대로 
   유지하면서 대용량 화상회의 구현을 처리하려고 합니다 ...  저의 사업화 세부 구상의 핵심을 말씀드려 보겠읍니다 ...
   대용량 화상회의 구현을 위한 미디어 데이터의 실시간 송수신 처리가 Janus 서버의 소스에서는 기본적으로 HTTP 1.1 
   통신으로 구현되 있읍니다 ...  이 설계구조를? 대용량 화상회의 구현을 위해서 Janus 서버에서는 RabbitMQ 라는 
   클라우드 서비스를 사용해서 메시지 큐 통신 방식으로 구현해서 최소 1000 명 이상의 화상회의 가입자가 화상회의를 
   처리할수 있도록 기본 개념 설계를 Janus 서버에 구현해 놓았읍니다 ...  RabbitMQ 라는 클라우드 서비스를 사용한 
   화상회의 개념 설계는 Janus 서버에서 5 명 정도가 회의할수 있는 그 정도의 구현을 Janus 서버에 도입해서 구현되 있읍니다 ... 
   그래서 이 RabbitMQ 라는 클라우드 서비스를 사용한 화상회의 설계를 대용량(수천명의 미디어 데이터 송수신 실시간 처리)으로 확장해서 설계하려면 RabbitMQ 라는 클라우드 서비스의 메시지 큐 통신 방식의 세부 동작 구조를 이해하는것이 
   필수 입니다 ...
   저는 RabbitMQ 라는 클라우드 서비스의 메시지 큐 통신 방식의 세부 동작 구조를 이해하는데 성공했고, 이 RabbitMQ 라는 클라우드 서비스의 메시지 큐 통신 방식이 커스토마이징 개발시에는 대용량 화상회의 구현때 RabbitMQ 소스의 세부 설계가 어떤 방식으로 처리되는지 이해하는데 성공했읍니다 ...
    정리해서 말씀드리자면, 메시지 큐 통신 방식의 RabbitMQ 라는 클라우드 서비스를 사용한 화상회의 설계를 대용량으로 
    확장해서 설계 작업을 커스토마이징 하는것의 화상회의 개발팀의 개발 리더로 역할 혹은 컨설팅 전문가로서의 역할을 
    맡는것이 가능 합니다 ...


인공지능 딥러닝 세부 설계 노하우 기술자문 및 사업화준비

 - 딥러닝 CTC-Transforemer 음성인식 모델 세부 설계 노하우 확보 성공
    기본적으로 Python 및 PyTorch 딥러닝 소스 분석 능력은 보유했음
    기본적으로 지도학습 으로 설계 노하우 확보했음, 자기지도 학습의 경우도 노하우 확보했음
    Kaldi Tool 로 음성인식 모델 구현을 많이 적용하고 있어서 DMBTEC 도 이 방식을 적용하려 함

 저의 경우, 한 2 년전부터 딥러닝 음성인식 논문분석을 진행했읍니다 ... 지도학습부터 자기지도 학습까지 살펴봤읍니다 ... 
 지도학습이나 자기지도 학습이나 학습데이터셋의 데이터 갯수가 일정 이상으로 충분치 않으면 상용 수준으로 만족스런 
 성능이 가능하다는 논문은 제가 찾지 못한것 같읍니다 ... 대기업들의 음성인식도 예전 논문의 기법의 파악없이는 성능내기가 어려운 구조더군요 ... Kaldi 라는 툴의 도움으로 음성인식 딥러닝 모델을 학습시키거든요 ,,, 이게 보통의 딥러닝 모델의 구조이구요 ... Kaldi 툴도 HMM-GMM 딥러닝 모델로 구현된것인데 ... 죤스홉킨스 대학에서 오래전에 발표한 기술인데 
아직도 이것의 도움이 필요 하거든요 ... Kaldi 라는 툴의 경우 Fundamental Frequency F0 의 값도 출력해 주구요 ... 
이 F0 값은 음성인식 논문에서 유용하게 설계에 적용됩니다 ... 저는 그래서 최근까지 음성인식의 롤 모델인 구조가 
CTC-Transformer Model 이었구요 ... 이것은 디코더부에 빔 써치 알고리즘등을 적용해서 특정 데이터셋으로 학습 테스트시 에러율이 약 8 % 까지 성능이 나온다고 논문에 있는것 같읍니다 ... 음성인식도 CTC-Transformer Model 로 구현관련 세부 메커니즘을 이했구요 ... 상용 수준으로 성능을 내려면 음향모델과 언어모델 둘 다 구현이 필요할것 같읍니다 ...
언어모델의 경우 GPT-3 가 SOTA 성능을 냈다 하니 이게 기본 동작 구조가 Transformer Model 이 기본 동작 구조이고 
언어가 어떤 메커니즘으로 번역 처리가 동작한다는것을 이해했읍니다 ... 음향모델 같은 경우도 CTC-Transformer Model 로 음성과 음소의 얼라인 처리를 어떤 방식으로 처리하는지도 이해했읍니다 ....


 - 딥러닝 이미지의 3D 모델링 구현 모델 분석 및? 세부 설계 노하우 확보 성공
    StyleGAN 구현 기법중 부족한 부분의 개선을 위한 딥러닝 모델 설계 안 을 투자사에 제안해 놨음
    NVidia 의 3D Graphic Engine 의 설계 노하우가 딥러닝 이미지의 3D 모델링 구현에 많이 채텍되고 있음
   이것의 관련 모델을 학습시키려면 최소한 NVidia 의 DGX-1 딥러닝 서버 구축비용이 필수 임
   관련해서 DMBTEC 도 관련해서 투자유치 노력을 하고 있음

 

제가 왜 이런 글을 올렸냐하면 해외논문중 대표적으로 엔비디아에서 발표된 StyleGAN 논문의 경우 딥러닝 학습 
개발환경이 기본적으로 미국 엔비디아의 딥러닝 서버 DGX-1 이 기본 개발환경 이라고 논문에 명기되 있읍니다 
DGX-1 이 구매비용이 미화 15 만불 입니다 그렇다고 사설 딥러닝 서버로도 불가능한것은 아닌데 사설 딥러닝 
서버의 파워부도 인텔 제온 서버 파워를 그대로 사용할수가 없거든요 왜냐하면 엔비디아 A100 GPU 카드를 4 장 
실장하면 이를 구동시키기 위해서는 큰 전력을 공급해줘야 하고 딥러닝 서버가 열이 많이 나니까 쿨링 시스템 
까지도 고려해야 하고 딥러닝 서버 파이썬 개발환경을 멀티 GPU 개발환경에서 동작 가능하도록 개발환경 구축도 
만만치 않거든요? 딥러닝 사업화를 내 아이디어로 모델 구축 도 다 자금확보가 기본 이거든요? 저는 지금확보를 
위해 투자사에 어떻게 해야 신뢰를 얻어볼까를 심각히 고민중 입니다

저는 최근에 논문을 거의 300 편 가까이 검토분석하면서 3D 모델링 관련해서 3D 캐릭터를 생성해서 이 3D 캐릭터로 
애니메이션을 만들려면  그동안 10 년 이상의 세월동안 국내 대기업 게임회사들은 어떤 방식으로 사업화를 접근했을까 
부터 궁금해졌읍니다 ...   저는 맨처음에는 딥러닝으로 3D Reconstructing 쪽 논문에 관심을 갖고 살펴봤구요 ... 
이쪽을 세부적으로 분석하다 보니 엔비디아의 3D Graphic 엔진 설계 구조 같은것의 분석 필요를 느꼈읍니다 ... 
삼성전자 무선사업부 연구소에서는 이미 10 여년전 엔비디아의  3D Graphic 엔진을 적용해서 3D 어플리케이션을 설계하는 
작업들이 이미 진행되고 있었는데 그동안 저는 관심을 안 가져서 몰랐었구요 ... 
요즘 뜨는 메타버스 이슈가 3D 캐릭터를 어떤식으로 설계해서 이것으로 애니메이션을 어떻게 만들지가 가장 핵심 
이슈인것 같읍니다 ...   이미 대기업 게임 회사에서는 이런 작업을 Unity 엔진 혹은 언리얼 엔진을 적용해서 상용화 작업을 
이미 한 10 년전쯤부터 이미 해오신것 같읍니다 ...  그렇다면 이쪽으로 사업화시 필수적인 검토 이슈는 무었일까 부터 생각했구요 ... 제가 분석한 바로는 Unity 엔진 혹은 언리얼 엔진 같은 경우 그 유명한 3D 툴인 Maya 나 3DSMAX 같은 
3D CAD Modeling TOOL 을 사용해서 3D 캐릭터를 만드는 과정이 필요합니다 ...  이것의 결과파일을 임포트해서 Unity 엔진 혹은 언리얼 엔진을 적용해서 3D 캐릭터 애니메이션 작업의 처리가 되는것으로 파악했읍니다 ...  여기에서 놓치지 말아야 할 이슈는 Unity 엔진 혹은 언리얼 엔진을 적용해서 3D 캐릭터 애니메이션 작업의 처리가 된 
3D 캐릭터 애니메이션을 저장하는 3D 파일은 어떤 구조로 저장되는지 까지도 분석할 필요가 있읍니다 ... 3D 캐릭터 
애니메이션을 저장하는 3D 파일은 어떤 구조로 저장되는지가 파악이 되면 Unity 엔진 혹은 언리얼 엔진 같은 개발환경을 
설계하는 작업의 기본처리가 되는것 이라서 저는 이쪽으로 검토를 했었읍니다 ... 
말씀을 장황하게 드렸는데 여기서 핵심은 이 모든것이 엔비디아의 3D 그래픽 엔진에 모든것이 다 포함되 있다는것 입니다 ... 
 그래서 엔비디아가 대단한것 이구요 ... 이런것들 관련해서 대기업 투자사에 제안서도 넣어봤었는데 그쪽에서는 이미 투자한 스타트업과 약정 때문에 저와는 사업화 진행이 어렵겠다는 답변을 들었구요 ... 이렇게 이런 글을 올리는 이유는 혹시 저의 이런 세부 구상에 관심을 갖고 협력해 주실 업체가 있을지가 궁금해서 이런 글을 올렸읍니다 ... 업계 관계자분들과 이런저런 
이야기도 나눠보고 싶읍니다 ...

    대기업 투자사에 투자를 단계별로 받으려면 투자제안서에 딥러닝 이슈 설계 안을 작성시 어떤어떤 논문을 근거로  
    사업화 이슈의  설계 안을 구상했는지 명확히 할 필요가 있을것 같구요 설계 안을 제시할때 근거자료도 같이 제시하면 
    투자유치가 통과가 될것  같읍니다  1 차 투자금으로는 약 1 년 개발 진행 비용 정도이므로 이 기간내 확실하게 
    프로토타입 결과물 제시가 가능할수 있는 실현  가능성이 확실한 딥러닝 설계 안의 제시가 되야 투자도 가능할것 
    같읍니다  그동안 약 8 개월간 딥러닝 투자제안서 작업을 했었는데 제가 제출 했었던 제안서가 위에서 말씀드린
    사항을 완벽히 준비치 못해서  그동안 투자제안서가 통과되지 못했다는 것을 최근에 깨달았읍니다


관련해서 기술자문 및 개발용역 문의를 아래의 메일주소로 부탁드립니다 ...

DMBTEC  장석원
HP :  010-3350-6509
이메일  :  sayhi7@daum.net 
Home  :   https://dmbtec.blogspot.com/



저의 경우
제 소개를 드리자면 1989 년에 일반대학원 전자공학과를 졸업했구요
그후 91 년부터 7 년간 대기업 중앙 연구소 시스템제어실에서 연구직으로 근무 경험이 있읍니다 ...
코스닥 상장사가 된 기업의 기반기술팀에서 계약직으로 약 1 년 근무도 했었구요
최근에 중소기업에 기술고문으로 약 1 년반 근무를 했었읍니다 ...

저는 IT 분야 SW / Firmware 개발용역 관련 일을 거의 30 년 하다보니 여러 분야의 개발용역이 어떤 방식으로 처리되는지 이해하고 있읍니다 ...

Camera / WIFI / LTE / USB Host / USB Client / 블루투스 / TFT-LCD / Touchscreen / FAT32 / SD Card / Flash Memory
SDRAM?
등의 분야의 일을 처리해왔읍니다 ...
위의 분야의 개발용역 일을 처리하기 위해서는 위의 분야의 메이져 칩셋사에 최소 1K - 2K 사이의 칩셋 구매 오더를
해당 분야 칩셋 종류별로 구매오더를 최소 1K - 2K 사이로 처리해 줘야만이 해당 부문의 개발용역 진행이 가능해 집니다.
해당 메이져사 칩셋들 별로 기술자료를 제공 받는 방법이 구매오더를?최소 1K - 2K 사이로 집어넣고 처리하는 방법이 있고
라이센싱비 명목으로 수만불의 NRE Charge 를 결제를 해야만 기술정보를 제공하는 칩셋들도 있다는것 입니다 ...

무슨 이야기냐 하면 제품개발을 의뢰시 구체적인 양산계획까지 검토가 되 있어야 한다는 의미 입니다  제품 개발을 진행시 단계를  두 단계를 거치게 되는데 그 첫번째 단계가 프로토타입 개발 단계 이구요 그 두번째가 양산 대응한 제품의 안정화 개발 단계 입니다  프로토타입 개발시 그 제품에서 소요되는 칩셋들의 MOQ 수량의 구매오더를 넣어야만이 칩셋사에서 세부 기술정보를 제공해 주는것을  적극적으로 검토하기 때문 입니다 ...  제품 개발의뢰시 정확한 양산물량 계획이 없으면 칩셋을 공급해주는 칩셋사에서 기술지원 대응에  거의 관심을 갖지 않읍니다 ...  

어떤 분들은 그런것들은 알아서 처리가 가능하지 않냐고 애기하시는 분도 있지만 IT 개발용역 일이 수백 수천가지다 보니
그 각각의 분여별로 개발용역 세부 스펙도 다 다르거든요 ...  그래서 개발용역 처리시 일감 맡은 업체가 모든 일꺼리를
다 미리 파악해 놓고 처리하는 경우는 거의 없읍니다 ...

제가 위에서 말씀드린 내용을 이해해 주시는 개발용역 의뢰 업체의 세부문의 부탁드립니다 ....
세상에 공짜로 되는것은 없읍니다 ...  다 돈이 들어야만 제대로 처리가 되는게 요즘 시대 이런 일의 처리구조 이거든요

DMBTEC? 장석원
010-3350-6509
sayhi7@daum.net
문의주실때 귀사의 개발이슈가 어떤것 때문에 문의 주시는지를 설명 부탁드리구요
가능하면 세부 개발스펙을 위의 메일주소로 송부 부탁드립니다 ....



저의 경우, 한 2 년전부터 딥러닝 음성인식 논문분석을 진행했읍니다 ... 지도학습부터 자기지도 학습까지 살펴봤읍니다 ... 
지도학습이나 자기지도 학습이나 학습데이터셋의 데이터 갯수가 일정 이상으로 충분치 않으면 상용 수준으로 만족스런 성능이 가능하다는 논문은 제가 찾지 못한것 같읍니다 ... 대기업들의 음성인식도 예전 논문의 기법의 파악없이는 성능내기가 어려운 구조더군요 ... Kaldi 라는 툴의 도움으로 음성인식 딥러닝 모델을 학습시키거든요 ,,, 이게 보통의 딥러닝 모델의 구조이구요 ... Kaldi 툴도 HMM-GMM 딥러닝 모델로 구현된것인데 ...  죤스홉킨스 대학에서 오래전에 발표한 기술인데 아직도 이것의 도움이 필요 하거든요 ... 저는 그래서 최근까지 음성인식의 롤 모델인 구조가  CTC-Transformer Model 입니다 ... 이것이 에러율이 약 8 % 까지 성능이 나온다고 논문에 있는것 같읍니다 ... 음성인식도 CTC-Transformer Model 로 구현관련 세부 메커니즘을 이했구요 ... 상용 수준으로 성능을 내려면 음향모델과 언어모델 둘 다 구현이 필요할것 같읍니다 ...언어모델의 경우 GPT-3 가 SOTA 성능을 냈다 하니 이게 기본 동작 구조가 Transformer Model 이 기본 동작 구조이고 언어가 어떤 메커니즘으로 번역 처리가  동작한다는것을 이해했읍니다 ... 음향모델 같은 경우도 CTC-Transformer Model 로 음성과 음소의 얼라인 처리를 어떤 방식으로 처리하는지도 이해했읍니다 ....
자율주행차의 3D 오브젝트 인식 이라던가 메타버스 플랫폼 설계시 3D 아바타 설계가 어떤식으로 딥러닝 모델이 설계되야 하는지를 파악했읍니다 ... 

2D 이미지를 3D 모델로 Reconstruct 해서 3D Shape 를 만드는 딥러닝 모델의 설계 구조를 분석했구요 ... 간략히 설명드리자면 엔비디아의 3D Graphic Engine 의 알고리즘 설계 수식의 이해를 통해 3D Graphic Engine 수식으로 오규멘테이션 처리한 3D Shape 의 예측 데이터를 얻을수 있고,  이 예측데이터의 손실값을 최소화하는 딥러닝 가중치값을 학습 루프를 실행시켜서 얻을수 있다고 판단 합니다 ...

더 자세한것은 제 사업 노하우이기 때문에 이 정도만 이야기 하겠읍니다 ....  이런 기술들은 자율주행차 혹은 메타버스 플랫폼 구현시 반드시 필요한 기반기술 입니다 ...  저의 경우 세부 구현 설계 안까지 준비하고 있는데 이런 저의 설계 안에 직접적으로 관심을 표명하는 기업은 만나기가 너누 어렵습니다 ...  혹시나 해서 저의 이런 딥러닝 세부 설계 안에 관심이 있으셔서 저는 비록 소기업이지만 공동으로 사업을 펼쳐보실 기업이 있으신지 궁금 합니다 ...

저의 경우 세부 구현 설계 안까지 준비하고 있는데 이런 저의 설계 안에 직접적으로 관심을 표명하는 기업은 만나기가 너무 어렵습니다 ...    혹시나 해서 저의 이런 딥러닝 세부 설계 안에 관심이 있으셔서 저는 비록 소기업이지만 공동으로 사업을 펼쳐보실 기업이 있으신지 궁금 합니다 ...  투자사는 기본적으로 동작하는 결과물 확인이 기본인것은 저두 알구요 단지 딥러닝 논문을 한 300편 살피다보니 딥러닝 논문의 세부 노하우 파악에 성공했고 이것으로 협력할 기업 좀 더 솔찍이는 투자를 받고  싶은것 입니다 딥러닝 소스 분석능력도 어느정도 터득했고 딥러닝 논문도 300편 보다보니 통찰력이 자연스레 생겼기에 이런 말씀도  드리는것 입니다  


DMBTEC 장석원
010-3350-6509
관련해서 문의 연락 주시면 감사하겠읍니다 ....

스마트팜 사업화 준비도 그동안 한 2 년간 딥러닝 음성인식 과 3D 엔진 설계 관련 논문을 400 편 이상 살피다 보니 음성인식 과 3D 엔진 관련 딥러닝 모델 분석이 상당히 됬는데 문제는 비즈니스 모델 제시더라구요

지금 쓰는 글도 연구 결과물을 내는것이 당장 돈이 안되니 투자사에서는 제가 연구 결과를 내는게 가능하다고 해도 당장 돈이 되는 비즈니스 모델 제시가 부족하면 아마도 투자를 꺼릴것 같읍니다 ...  스마트 팜 사업화 분야도 요즘 석유 혹은 식량등의 자원을 가진 나라들이 각종 자원을 무기화하고 있고 그에 따라  공급망 위기까지 이어지고 있읍니다 ...  

스마트팜 사업화 검토시에도 가장 큰 문제가 돈이 되는 사업화(비즈니스 모델) 모델을 제시하려면 돈이 안되는 연구개발에 상당한 기간과 돈이 필요하다는 점이 사업화의 가장 큰 걸림돌 입니다 ...  농작물 혹은 축산의 경우도 작물재배기술을 인공지능으로 안정적인 스마트팜 재배가 가능하려면 최소 5 년 이상 농장주와 합의가 되서 농장 몇백평에 스마트팜을 구축하고 작물재배 딥러닝 시계열 데이터 축적이 최소 5 년 이상 필요 합니다 ...   그리고 5 년을 이렇게 시간과 돈을 들일수 있도록 농장주와의 협의도 필요하고 작물재배기술 컨설팅을 정밀하게 해줄 농촌진흥청 연구소와의 협업관계 구축도 중요하고 이런 스마트팜 사업화 연구개발 진행이 가능하도록 정부지원 연구과제 20 - 30 억짜리 과제의 심사통과가 되도록 서류작업 또한 중요 합니다 ...    

농작물 재배시 대기중의 환경요소와 토양의 환경요소를 포함하는 딥러닝 모델 설계가 작물재배 성공률을 확실히 높일수 있는 작물재배 딥러닝 시계열 데이터 축적이 최소 5 년 이상을 축적하는것이 시간과 돈 그리고 농진청 연구소와 협력이 필요한데 ...   농진청 연구소에서는 이런 딥러닝 스마트팜 연구개발 작업을 몇몇 작물에 적용해서 연구개발이 진행된게 최근 한 2 년여 밖에 안되서 축적된 작물재배 딥러닝 시계열 데이터가 2 년 정도밖에 안된다고 하고 더 고려해야 하는것이 이렇게 농진청 연구소에서 2 년간 축적된 데이타도 딥러닝 구현 테스트시 적용되는 모델 파라미터 관련 세부 작물재배 딥러닝 관련 세부 Annotation 정보까지 공개가 농진청 연구소에서 해주실지 의문 입니다 ...    이런것 협력이 부족해지면 결국 부족한 작물재배 딥러닝 관련 여러 정보들을 획득하려면 맨땅에 헤딩하는 그런식으로 개발이 되야 한다는 점 입니다 ...

그러니 스마트팜 사업화 진행이 위에서 언급해 드린 문제 때문에 결국 맨땅에 헤딩 식으로 간다면 투자사가 뭘 믿고 이 스마트팜에 투자를 할것인가가 이것을 준비하는 저의 고민 입니다 ...

 

관심있으신 기업 관계자분의 연락 기다리겠읍니다 ...

 

 

DMBTEC 장석원

Home :   https://dmbtec.blogspot.com/

HP : 010-3350-6509

E-Mail  :   sayhi7@daum.net 

 

 

 

 

 

DMBTEC 장석원 입니다
 
NeRF 논문을 본격적으로 분석한지 10 달 됬읍니다
NeRF 논문은 2D IMAGE TO 3D SCENE 을 구현하기위해 다른곳에서 발표한 논문을 꽤 여러편 참조하는것 같읍니다
대기업 에서도 NeRF 논문으로 사업화를 진행중인데 이 NeRF 논문이 그리 호락호락하게 분석되게 논문에서 이슈 파악에 대해 자세한 언급이 부족해서
NeRF 논문을 제가 세부적으로 파악 성공했다고 대기업 제안부서에 보냈었는데 저를 믿지 못하는것 같더라구요
NeRF 논문 설계구조 파악이 호락호락하지 않은것을 대기업 관계자도 자기네도 파악하려 노력해도 쉽사리 파악이 어려우니 어찌보면 당연한 반응 같읍니다
 
 
오늘 새벽에 NeRF 논문 설계 이슈중 논문에  자세히 언급 안된 부분의 구현 메커니즘 파악이 필수라서 이것 관련 정보 얻느라 다른 논문  10 여개를 더 검토하니 해결방안이 보이더라구요
NeRF 논문도 그동안 이슈 논문 20 여개를 통합설계 했다보면 좋을것 같읍니다 엔비디아가 노하우를 비공개해서 분석이 불가일줄 알았는데 엔비디아 기술도 다 그동안의 이슈를 정리한 논문 인것 같읍니다
 
저의 NeRF 기술력을 사업적으로 이야기하고 싶으신 업체의 연락 기다리고 있겠읍니다
 
sayhi7@daum.met
DMBTEC 장석원
010 3350 6509

올 한해 딥러닝으로 투자받으려고 시도도 해봤구요

요즘  미디어 데이터를 수만명 수십만명한테 방송 서비스를 하려면 수신을 원한다고 체크한 가입자만 방송 서비스를 수신 가능하게 미디어 송수신 설계를 해야 합니다 이런 대용량방송 서비스 구현시에는 필수적으로 로드밸런싱 제어가 필수적인데 이런 노하우도 파악하고 있읍니다...    대용량 미디어 데이터 실시간 송수신 서비스  구현 개발을 클라우드 서비스인 RabbitMQ 를 적용해서 설계시 메시지큐 통신이 어떤 구조로 처리가 되는지 RabbitMQ 를 어떻게 적용해서 구현되는지를 이해하고 있고, 즉 RabbitMQ 로 통신 부하 분산처리 설계를 구현시 L4 스위칭 장비를 적용해서 어떻게 로드밸런싱 제어 기법을 적용하는것도 파악하고 있읍니다    클라우드 서비스 RabbitMQ 로 대용량 미디어 데이터 송수신 구현을 메시지 큐 통신 방식으로 어떻게 구현하고 있는지의 세부 설계 구현 노하우를 파악 성공했고 또 대용량 미디어 데이터를 송수신처리 예를들어 RabbitMQ 로 방송서비스를 구현하고자 했을때 네트웍의 부하분산 처리를 L4 네트웍 스위칭 장비로 어떤 방식으로 구현하는지에 대한 설계 노하우도 파악 성공했읍니다  ... 

RabbitMQ 클라우드 서비스를 적용한 수만명 정도의 대상으로 실시간으로 대규모 미디어 데이터 송수신 기술개발 및 기술자문 가능 합니다 ... RabbitMQ 클라우드 서비스의 API 함수를 적용해서 어떻게 1 : N (수만명)의 송수신이 실시간에 가깝게 가능하게 구현 설계가 가능한지 파악에 성공했읍니다 ... 이것을 분석하는것을 일년반전에 시작한 동기가 이탈리아 개발 회사 Meetecho 가 설계한 오픈소스인 Janus Gateway 오픈소스를 거의 일년 이상 소스를 세부적으로 검토분석하다가 네트웍 통신 부하를 분산처리하는것이 대용량 방송 서비스에 필수이고 이를 위해 네트웍 장비 L4 스위치 장비를 사용해서 부하를 분산시키는 노하우도 파악에 성공했구요 ...  Janus Gateway 오픈소스가 RabbitMQ 서비스로 미디어데이터를 수만개 이상을 실시간으로 송수신하는 기능을 이 오픈소스에 포함된것을 파악하면서 본격적으로 1 : N (수만명)의 미디어 데이터의 네트웍 통신 송수신이 실시간에 가깝게 가능하게 구현 설계를 한 일년 빡시게 분석해서 파악 성공했읍니다 ... 이를 적용해서 상용화를 위해서는 저 또한 추가의 검토분석은 필요합니다 ... 저의 경우 1 : N (수만명)의 미디어 데이터의 네트웍 통신 송수신의 프로토타입 구현 설계가 가능한 기술력을 현재 보유하고 있어서 이렇게 글을 올리게 됬읍니다 ...    저는 RabbitMQ 서비스의 API 함수로 미디어 데이터를 수만명한테 송수신하는 설계 기술을 말씀드렸는데 ...  이 기술에다가 네트웍 장비 L4 스위치 장비를 사용해서 네트웍 통신 부하를 분산시키는 추가 설계해주면 카카오톡 같은 메신져같은 메시지 데이터의 송수신 처리를 1000 만명 이상의 사람(사용자)들에게 서비스가 가능하게 구현할수가 있죠 ...   어떤분들은 카카오톡 같은 메신져같은 메시지 데이터의 송수신 처리는 Kafka 서비스로 처리하는것이 더 적당하다라고 하실수 있지만 RabbitMQ 서비스의 API 함수로도 L4 스위치 장비의 네트웍 부하 분산처리를 제대로 구현하면 아파치 Kafka 서비스의 API 함수를 적용해서 설계한것과 같은 성능 구현이 가능하다고 저는 판단 합니다 ....

저의 경우 이렇게 네트웍 부하 분산처리를 통한 대규모(100 만명 이상의 사용자에게) 네트웍 송수신를 처리하는것이 가능한데, 저의경우 기술개발시 발생하는 기술적 이슈의 문제점의 원인 과 그 해결방안에 대해 준비되 있는 전문가인데 요즘 거의 IMF 시대와 차이가 없는 시대이기에 투자절벽 시대라서 이렇게 네이버 D2SF 에 저의 기술적인 해결능력을 설명드려서 위의 네트웍 부하분산처리가 되는 대용량 데이터 송수신 설계라는 이슈로 D2SF 심사역분들과 이야기를 나눠보고 싶읍니다 ...

 이런 부하분산처리를 포함하는 네트웍 송수신 기술은 한류스타들의 공연 중계를 인터넷으로 공연 구독신청을 한 가입자에게 방송을 송출해서 공연중계를 보고 싶은 전세계 수천만명의 공연을 구독을 인터넷으로 원하는 사람에게 방송 서비스가 가능한 사업모델 도 가능한데 ...  이의 이윤확보를 하려면 어떻게 대규모 방송 서비스(비용이 상당히 드는 개발된 방송장비로 이윤확보가 가능할것 인가)를 구축해서 서비스시 이윤확보가 가능한 서비스가 될지 뭐 이런것을 더 고민해봐야 합니다 ...

 

DMBTEC

HP 010 3350 6509

sayhi7@daum.net    장석원 입니다

메일로 문의주시면 성실히 검토의견 드리겠읍니다

아래의 내용은 페이스북에 올라온 3D Structured Light 기술을 이용한 얼굴인식 도어락을 중국 샤오미에서 개발했다는 기사 입니다 ...

다른것은 아래의 내용에서 궁금한게 없는데 ...

3D Structured Light 를 어떻게 송출제어를 해서 31000 개의 위치로 빔을 발사할수 있었는지 이것의 해결이  중요한 기술 이슈 인것 같읍니다 ... 

이  3D Structured Light 기술로 자동차 라이다 설계시에도 응용설계 적용이 가능할것 같다 ...

 

 

 

안녕하세요 DMBTEC 장석원 입니다

 

저의 경우 딥러닝 해외논문을 살펴본지 2년이 넘읍니다
초기에는 음성인식쪽을 살펴봤구요
음성인식도 최신 구현 기법이 아닌 Legacy 구현 기법으로 구현하는것은 나름 파악이 됬는데 Legacy 음향모델도 깊숙히 분석했구요 ...  언어모델 을 GPT-3 구현 기법으로 처리하자니 초거대 GPU 환경 이 필요하고 이 GPT-3 언어모델의 개략적인 트랜스포머 모델 설계구조는 이해했는데 저는 상용으로 접근한 경험이 없는데 이쪽 경함이 딸려서 이쪽 논문분석은 잠시중단했구요
 
요즘 한 10 달정도를 엔비디아의 NeRF 논문의 세부 구현을 어떻게 동작시키는지를 한 10 달분석했읍니다
이쪽은 대기업에서도 관심이 많은 이슈라 저도 10 달을 시간투자를 했읍니다
NeRF 논문도 2D 이미지를 3D Scene 으로 생성해주는 딥러닝 모델인데 이것 관련해서는 그동안 고생해서 파악 성공한 노하우라 자세히 말씀드리지는 못하지만 저도 굉장히 깊숙히 모델이 어떻게 구현해서 동작시켰는지를 파악하는데 성공해서 뿌듯합니다
관심있으신 업체 연락 부탁드립니다
 
sayhi7@daum.net 장석원 입니다
메일로 자세히 연락 부탁드립니다

 

WebRTC JANUS 미디어 서버의 경우 대용량 미디어 서비스를 위해 클라우드 서비스 RabbitMQ 로 기본 동작 구현까지 참조소스를 제공하고 있읍니다 저는 RabbitMQ 클라우드 서비스를 쿠버네이트로 대용량 네트웍 서비스 구현 설계 안을 분석하고 있읍니다

Pod 간 통신 그리고 Pod 와 서비스와 통신 구현 방안도 하나씩 파악하고 있읍니다 Kubernate 툴로 이런것들 제어 하나씩 세부 검토하고 있읍니다
투자사에 투자제안서 작성중 입니다
 
DMBTEC 장석원
Home  :  https://dmbtec.blogspot.com/
HP :   010-3350-6509
 
 
 
 

한 일주일전에 WebRTC 미디어서버로 공연 방송 송수신 기술자문이 가능한지 문의메일을 받았읍니다 다들 접ㆍ다 더 잘 아시겠지만 고액 인건비 지출이 필요한 능력자분을 모시는게 우선 이거든요 이건 대기업도 마찬가지 입니다 기본적으로 이런것의 개발은 기본적으로 프로토타입 개발을 능력자를 모셔서 진행해야 하고 상용화를 위한 양산대응 개발도 출중한 능력자분이 필요합니다 저 같은 경우만해도 클라우드 서비스로 개발하기위한 세부설계 안을 준비해놨는데 이 설계안도 확장성 있게 구현하기 위해서는 제가 준비한 기본적인 세부 설계 안 만으로는 완벽한 대응이 어렵습니다 확장성 있게 대응을 하려면 바로 위에서 언급한 이쪽으로 분석과 구현 경험이 반드시 필요할수 밖에 없읍니다 이렇게 처리하려면 모든게 다 비용지출이 상당히 필요하게 됩니다 클라우드 서비스 RABBITMQ 같은 경우도 기본설계까지는 저도 분석이 가능했는데 확장성을 고려한 상용화 설계는 저도 분석 및 구현에 시간이 훨씬 더 필요할수 밖에 없는게 현실 입니다

이련 저의 검토 분석 내용을 토대로 저에게 관련한 기술자문 문의주실 분 있으시면 아래의 연락처로 문의 주십시요

 

DMBTEC 장석원

010 3350 6509

sayhi7@daum.net

인터넷상의 여러 활동을 하면서 느낀 점 몇자 적어봅니다
요즘 세상의 변화가 굉장하다 라는것을 체감 못하시는분들도 많은것 같읍니다 기술적인 노하우 관련 부분만 하더라도 예전에는 국내 최우수 교수님팀이나 대기업 관련 연구소 정도가 세부 노하우 정보의 접근이 가능한 시대가 있었는데 요즘 세상은 인터넷 이나 유투브상에 기술 노하우 정보 관련 내용의 검색이 시행착오를 겪으면 기술 노하우 파악이 어느정도 가능한 시대에 살고 있읍니다 돈 이 되는 세부 노하우 정보를 얻으려면 그 만큼 시간투자를 하는 노력 없이는 돈이 되는 정보 획득은 불가능합니다
딥러닝 노하우도 요즘에는 시간을 투자해서 꾸준히 노력을 하면 돈이 되는 정보획득도 가능하다고 저는 판단하거든요
시대가 이렇게 변하다 보니 소기업은 돈벌이하기가 예전보다 몇배 더 어려워졌고 자금력이 확보된 대기업은 검증된 결과물을 돈 주고 구매해서 필요한 기술을 확보하는 세상에 살고 있읍니다 저도 돈 없는 소기업 이다보니 기술개발을 본격적으로 하려해도 다 자금확보 없이는 불가능한게 자본주의 사회의 특징 이구요
 
저는 나이가 58세 이고 인공지능 개발자로 취업준비하는 상황이 아닙니다 글로벌 대기업이 주요 이슈로 진행하는 사업의 세부 설계안이 준비가 되었기에 이것을 개발하는것의 주요 노하우 파악이 되었다는것을 말씀드리는것 입니다
저는 그동안 사회생활 30년동안 대기업 연구소도 경험이 있고 주로 IT 펌웨어 개발 처리를 25년 진행했읍니다 제가 목표로 하는 딥러닝 사업 아이템 개발에 필수 개발장비 요건을 말씀드린것 입니다
다시한번 말씀드리지만 작은규모 프로토결과물로 취업 준비하는 내용이 아님을 밝힘니다

현재 대기업이 메타버스 사업 아이템으로 딥러닝 투자한 스타트업도 제 사업 아이템과 아주 유사합니다

저는 대기업도 관심을 갖고 투자하는 딥러닝 사업 아이템을 분석했고 글로벌 대기업도 관심을 갖을 아이템으로 사업을 하려다보니 엔비디아 딥러닝 서버도 필요한것 입니다 페이스북이나 테슬라 같은곳의 딥러닝 부분의 진행 이슈를 살펴서 이쪽 관련 아이템으로 사업을 하고자 하거든요
 
투자사에게 제가 믿음을 주는게 롯또 당첨 만큼이나 어려워서 저도 계속 노력중 입니다

딥러닝도 정보가 넘치는 시대인것은 다들 공감하실텐데요 작은 프로토타입 결과물 제시도 중요한데 저는 실제 상용화시 필요한 정밀도가 높은 데이터셋 확보 내지 구축이 더 중요할것 같읍니다 제가 분석했었던 음성인식 분야도 죤스홉킨스대학의 KALDI 툴을 사용해서 음성인식에 필요한 정밀 데이터셋을 만드는게 한 10년전부터 가능해지면서 대기업들도 음성인식 정확도 향상이 가능해지지 않았나 싶읍니다 세월이 지난 지금도 KALDI 툴이 널리 사용되고 있는게 현실 이니까요

 

제가 왜 이런 글을 올렸냐하면 해외논문중 대표적으로 엔비디아에서 발표된 StyleGAN 논문의 경우 딥러닝 학습 개발환경이 기본적으로 미국 엔비디아의 딥러닝 서버 DGX-1 이 기본 개발환경 이라고 논문에 명기되 있읍니다 DGX-1 이 구매비용이 미화 15 만불 입니다 그렇다고 사설 딥러닝 서버로도 불가능한것은 아닌데 사설 딥러닝 서버의 파워부도 인텔 제온 서버 파워를 그대로 사용할수가 없거든요 왜냐하면 엔비디아 A100 GPU 카드를 4 장 실장하면 이를 구동시키기 위해서는 큰 전력을 공급해줘야 하고 딥러닝 서버가 열이 많이 나니까 쿨링 시스템 까지도 고려해야 하고 딥러닝 서버 파이썬 개발환경을 멀티 GPU 개발환경에서 동작 가능하도록 개발환경 구축도 만만치 않거든요  딥러닝 사업화를 내 아이디어로 모델 구축 도 다 자금확보가 기본 이거든요  저는 지금확보를 위해 투자사에 어떻게 해야 신뢰를 얻어볼까를 심각히 고민중 입니다

 
저의 경우
딥러닝 논문 그동안 한 2년에 걸쳐 300 편의 논문을 세부 검토했읍니다 논문을 세부 검토를 300 편 하다보니 오즘 뜨는 분야인 메타버스 3D 캐릭터를 생성해서 애니메이션 작업까지의 노하우가 요즘 중요시 되고 있구요 이런 설계안을 딥러닝 모델을 어떤 구조로 설계해야 사업성이 있을지 세부 설계 안까지 구체적으로 준비했구요 대기업 투자사에 이와 관련해서 제안을 드려보고 있읍니다 제가 장비 탓을 하는게 아니라 이런 저의 준비된 세부 설계 안을 테스트하려면 최소한의 개발환경이 엔비디아 DGX-1 정도가 필요하다는 검토가 되서 이런 글도 올리는것 입니다
저의 경우 요즘 딥러닝 모델의 세부 설계안이 마련중 인 사업화 아이템이 메타버스의 3D 아바타 구현을 딥러닝으로 구현하는것을 준비하고 있고 2D to 3D 모델 맵핑 도 딥러닝으로 구현 제시했던 논문들에서 딥러닝 모델의 세부 사업화 설계 안을 마련도 해 논 상태 입니다
 
 
저의 경우, 한 2 년전부터 딥러닝 음성인식 논문분석을 진행했읍니다 ... 지도학습부터 자기지도 학습까지 살펴봤읍니다 ... 지도학습이나 자기지도 학습이나 학습데이터셋의 데이터 갯수가 일정 이상으로 충분치 않으면 상용 수준으로 만족스런 성능이 가능하다는 논문은 제가 찾지 못한것 같읍니다 ... 대기업들의 음성인식도 예전 논문의 기법의 파악없이는 성능내기가 어려운 구조더군요 ... Kaldi 라는 툴의 도움으로 음성인식 딥러닝 모델을 학습시키거든요 ,,, 이게 보통의 딥러닝 모델의 구조이구요 ... Kaldi 툴도 HMM-GMM 딥러닝 모델로 구현된것인데 ... 죤스홉킨스 대학에서 오래전에 발표한 기술인데 아직도 이것의 도움이 필요 하거든요 ... Kaldi 라는 툴의 경우 Fundamental Frequency F0 의 값도 출력해 주구요 ... 이 F0 값은 음성인식 논문에서 유용하게 설계에 적용됩니다 ... 저는 그래서 최근까지 음성인식의 롤 모델인 구조가 CTC-Transformer Model 이었구요 ... 이것은 디코더부에 빔 써치 알고리즘등을 적용해서 특정 데이터셋으로 학습 테스트시 에러율이 약 8 % 까지 성능이 나온다고 논문에 있는것 같읍니다 ... 음성인식도 CTC-Transformer Model 로 구현관련 세부 메커니즘을 이했구요 ... 상용 수준으로 성능을 내려면 음향모델과 언어모델 둘 다 구현이 필요할것 같읍니다 ...언어모델의 경우 GPT-3 가 SOTA 성능을 냈다 하니 이게 기본 동작 구조가 Transformer Model 이 기본 동작 구조이고 언어가 어떤 메커니즘으로 번역 처리가 동작한다는것을 이해했읍니다 ... 음향모델 같은 경우도 CTC-Transformer Model 로 음성과 음소의 얼라인 처리를 어떤 방식으로 처리하는지도 이해했읍니다 ....
 
 
DMBTEC 장석원
010-3350-6509
sayhi7@daum.net  
 
의견 있으시면 메일로 송부 부탁드립니다 ....
 
 
 
 
 
 

 

요즘 세상살이 고민 적어봤읍니다

+ Recent posts