저는 딥러닝 분야중 음성인식 / 음성합성 구현관련해서 국내외 논문분석을 한 2 년 진행했읍니다 ... 딥러닝으로 음성인식을 구현하려면 음성 데이터를 딥러닝으로 어떻게 세부적으로 처리하는지 이해하는것이 쉽지 않았읍니다 ... 다중 화자 인식을 구현하려면 음성 데이터를 딥러닝으로 어떤 기법을 적용해서 이를 구현하는지 메커니즘의 핵심은 어떤 방법으로 처리가 이루어지는지 뭐 이런것들을 알려고 그동안 논문분석을 한 70 - 80 편 정도 한것 같읍니다 ... 메타버스 시스템 개발시에도 마찬가지라고 생각합니다 ... 저는 메타버스 구현시 응용 가능한 기술인 StyleGAN 기술이나 CycleGAN 기술이 최종 판단시 어떤한 동작 메커니즘으로 처리가 이루어지는지 그런것들 분석을 국내외 논문 분석을 통해서 나름대로 파악에 성공했읍니다 ... 딥러닝으로 아바타 동영상을 만들려면 아바타로 만들 사람의 영상 데이터도 필요하고 또한 아바다로 만들기 위해서는 아바타의 동작 특성을 표현 가능한 아바타 영상의 영상 데이터 자료도 필요 합니다 ...
딥러닝 기술을 사용치 않고 3 D 아바타 캐릭터를 만들려면, UV Mapping 기술이 필요 합니다 .... UV 매핑(UV mapping)은 2 차원 그림을 3 차원 모델로 만드는 3 차원 모델링 프로세스 입니다. 딥러닝으로 3 D 아바타 캐릭터를 만들려면 3 D 스캔한 학습데이터가 필요할것 같읍니다 .. 3 D 스캔한 학습데이터를 확보하는것도 상당한 비용이 필요할것 같읍니다 ... 3 D 스캔한 학습데이터가 있어야 2 D 이미지를 3 D 스캔한 학습데이터와 맵핑되게 학습시켜서 3 D 아바타 캐릭터를 생성 하는것이 가능할것 같읍니다 ...
아바타 영상을 딥러닝으로 개발해서 상용화 수준으로 결과를 내려면 딥러닝 서버도 처리용량이 이를 감당할수 있어야 할것 같읍니다 ... 사업계획서 준비도 같이 하려고 합니다 ...
관심있으신 분들 아래 연락처로 연락 부탁드립니다 ...
제 기업블로그 사이트
HP 010-3350-6509
E-mail : sayhi7@daum.net
HOME : https://dmbtec.blogspot.com/