목록2024/03 (19)
딥 네트워크 - 딥러닝 모델 분석/네트웍 통신/카메라 3A 튜닝 분야
Hello, I am Seokwon Jang, the representative and chief developer of DeepNetwork, a one-person company. I run a company that provides optical character recognition (OCR) solutions based on deep learning. OCR is a technology that recognizes characters written or printed by people, characters in photographed or scanned images, and converts them into digital text that machines can read and edit. I a..
I am 60 years old this year… I have been working in the field of Information and Communication Technology (IT) for 30 years… For the past 10 years, I have been a self-employed individual providing development services in the firmware sector of IT… I am going to talk about life in today’s world after 30 years of social life… From now on, I have been reviewing and analyzing 2-3 papers related to L..
레이더나 미사일에 적용되는 9 축센서 상용과 군용의 차이점은 주로 성능과 내구성에 있습니다. 군용 센서는 상용 센서보다 더 높은 온도, 습도, 진동, 충격, 방사선 등의 극한 환경에 견딜 수 있도록 설계되어 있습니다. 또한 군용 센서는 상용 센서보다 더 정확하고 안정적인 데이터를 제공하기 위해 더 높은 해상도와 샘플링 레이트를 가질 수 있습니다. 그러나 이러한 차이는 센서의 제조사와 모델에 따라 다를 수 있다 ... 나는 일인기업이다 보니 9 축센서 파악한 부분도 대부분이 상용 9 축 센서에 대한것 들이다 ... 가속도, 자이로스코프, 자력계의 9 축 센서의 센서데이터를 쿼터니언 값으로 변환해서 레이더나 미사일에 적용한다 ... 가속도, 자이로스코프, 자력계의 9 축 센서의 센서데이터로 부..
DeepNetwork: Pioneering AI Solutions with Proximal Policy Optimization and Reinforcement Learning with Human Feedback At one-person enterprise DeepNetwork, we specialize in providing expert technical advisory services in the field of deep learning and artificial intelligence. Our primary focus is on the application and understanding of advanced reinforcement learning algorithms, particularly the..
I am 60 years old this year and have been working in the IT software development field for 30 years. I started analyzing deep learning papers about 4-5 years ago… Initially, I started analyzing papers to apply deep learning to the vision field… Then, I also analyzed papers to understand the detailed structure of ultra-large language models… When implementing ultra-large language models, I looked..
제가 운영하는 딥네트워크 에서는 탱크의 수위를 측정하기 위해 Analog Devices 의 3D Time of Flight (ToF) 기술을 사용하여 깊이 정보를 캡처하는 데 사용되는 칩셋을 사용합니다. 이 기술은 고전력 광 펄스를 사용하여 관심 있는 장면에서 깊이 정보를 캡처합니다. 이러한 칩셋 중 하나는 ADSD3100 ToF 신호 프로세서를 기반으로 하는 깊이 이미지 신호 프로세서인 ADTF3175입니다. 이러한 단계를 따르면, ToF 원리를 사용하여 탱크의 액체 수준을 측정하는 시스템을 설계하고 구현할 수 있습니다. Analog Devices에서는 3D Time of Flight (ToF) 기술을 사용하여 깊이 정보를 캡처하는 데 사용되는 칩셋을 제공합니다. 이 기술은 고전력 광 펄스를 사용하여 ..
NXP’s MC33771C is a 14-channel lithium-ion battery cell controller IC that can monitor the status of each cell. Cell state monitoring: These chipsets monitor the status of each cell through high-precision cell voltage and temperature measurements. They use ADC conversion to measure the difference in cell voltage, and average a maximum of 256 samples to increase accuracy. Overcharge, overcurrent,..
“The GPT-3 model, which applies the theory of conditional probability to large-scale language models to predict the next word, was trained and applied to create GPT-3.5, which has shown remarkable performance. However, when you look closely, the learning algorithm itself does not differ significantly from the learning algorithm based on the design principles of Google’s Transformer. Rather, the ..
I am Seokwon Jang, a technical advisor specializing in ultra-large model technology at DeepNetwork. I approached the commercialization preparation of the ultra-large language model, ChatGPT, somewhat vaguely three years ago. In fact, many corporate officials may wonder if a one-person company like me can understand the implementation know-how of an ultra-large language model like ChatGPT. For ov..
초거대 모델 기술자문 전문 딥네트워크 장석원 입니다 ... 초거대 언어 모델 ChatGPT 의 상용화 준비를 하는것에 나도 3 년전에는 약간 막연하게 접근했다 ... 사실 ChatGPT 같은 초거대 언어 모델의 구현 노하우를 저 같은 일인기업이 파악이 가능하기나 하냐 라고 의문을 가지는 기업 관계자가 많을것 입니다 ... 제가 그동안 한 3 년 이상 LLM(거대언어모델)관련 해외 논문을 3 년 동안 매일 매일 하루에 두편씩 세부 검토 분석을 해왔읍니다 ... 이렇게 한 3 년 논문을 검토 분석하다 보니 초거대 모델 구현시 글로벌 기업들이 관련 기술이슈를 어떤것들을 고민하는지를 알게됬읍니다 ... 제가 그동안 3 년동안 논문을 검토 분석한 내용은 대략적으로 딥러닝 분야 구현 설계 핵심 이슈 한 100 가지..
The 900GB/s bandwidth between the Grace CPU and NVIDIA Hopper GPU is made possible by NVIDIA’s NVLink-C2C technology. This technology connects the CPU, GPU, and memory in a memory-coherent, high-bandwidth, low-latency manner. It provides a bandwidth that is 7 times faster than PCIe Gen5. NVLink-C2C combines the Grace CPU and Hopper GPU into a single superchip, providing a CPU+GPU coherent memory..
딥네트워크 :: 합성개구레이더(SAR) 도플러 효과 동작원리 분석 전문기업일인기업 딥네트워크는 SAR 위성 기술을 통해 지상의 특정 지점에서 반사되어 돌아오는 신호의 위상을 측정하고, 이를 통해 거리에 비례하는 위상 변화량을 정확하게 보정하는 설계를 구현합니다. 이 과정은 복잡한 신호 처리 알고리즘과 정밀한 계산을 필요로 합니다.위상 보정 설계 원리:위상 보정은 신호가 지상의 특정 지점에서 반사되어 위성에 돌아올 때까지의 거리를 계산하는 데 사용됩니다. 이 거리는 신호의 위상 변화량과 직접적으로 관련이 있으며, 딥네트워크는 이를 정확히 측정하여 위성 이미지의 해상도와 정확도를 향상시킵니다.도플러 편이 계산 원리: 위성의 고속 이동으로 인해 발생하는 도플러 편이는 신호의 주파수와 위상에 변화를 일으킵니다...
The one-person enterprise, DeepNetwork, is developing a Transformer model in the TensorFlow development environment. TensorFlow is an open-source machine learning framework created by Google, which allows you to easily and quickly build and deploy deep learning models on various platforms. TensorFlow provides official tutorials and APIs for implementing the Transformer model. Here are the key po..
Hello, I am DeepNetwork, a one-person enterprise specializing in the analysis of super-large AI models. Over the past 3 years, DeepNetwork has conducted detailed review and analysis of hundreds of deep learning papers related to super-large models, and has also carried out detailed analysis work on Google’s deep learning environment, TensorFlow. While DeepNetwork does not have solutions for all ..
I have been working in the IT field for 30 years… Lately, there’s a buzz that Nvidia’s market capitalization is around 2 trillion dollars…” Nvidia has been manufacturing GPUs such as V100 / A100 / H100 at TSMC in Taiwan… The issue of super-large language models is flooding the media in Korea and abroad… Global companies are desperate to secure the original technology of how to develop something ..
나는 IT(정보통신) 분야 일을 한지 30 년 이다 ... IT(정보통신) 분야 일을 하는 사람들도 공대에서 컴퓨터공학과나 전자공학과를 4 년 배웠어도 데기업 이든 중소기업 이든 입사하면 쌩 초보 역할밖에 할수 있는게 없다 ... 왜냐하면 공대에서 4 년을 컴퓨터 프로그래밍 이나 회로 설계 같은걸 배우긴 하는데 아무래도 회사에 입사해서 바로 써 먹을 실력은 안되기 대문이다 ... 이렇게 공대 4 년 배우고 회사를 들어가도 최소 10 년은 정보통신 분야 일을 경험을 해봐야 대학때는 안 가르쳐줬던 수십 수백가지 가지가지 수많은 여러 기법들을 회사에서 배우고 경험해야 비로서 한 분야 나름 이름값도 가능하다 ... 가수 분야 특히 예능 분야인 경우 중학교 고등학교 때부터 예술 고교가면 중고교 부터 가수가 터득해..
IT 분야에서 일한지 30 년이다 ... 요즘 엔비디아 시총이 2400조 라고 떠들석 하다 ... 엔비디아는 그동안 GPU 를 V100 / A100 / H100 을 대만 TSMC 에서 제조해왔다 ... 요즘 초거대 언어 모델 이슈가 한국이나 외국 언론을 도배하고 있다 ... 초거대 모델 GPT-3.5 같은걸 어떻게 개발하는가의 원천 기술을 확보하려고 글로벌 기업들이 혈안이 되있다 ... 이런 GPT-3.5 Model 같은 경우도 세부 모델 설계 구조 정보는 대외비이고 GPT-3 의 경우도 모델 설계 구조는 비공개로 알고 있다 ... 그래서 EleutherAI 이라는 GPT-3 의 오픈소스 버전인 GPT-J 모델을 학습하여 공개했다고 하고 이것을 기반으로 개발준비를 하는곳도 꽤 있는듯 하다 ... 왜냐하면..
안녕하세요 ? 인공지능 초거대 모델 분석 전문 일인기업 딥네트워크 입니다 ... 딥네트워크는 그동안 3 년 이상 초거대 모델 등등 관련 딥러닝 분야 논문을 최소 몇백편을 세부 검토분석을 했고 구글의 딥러닝 개발환경인 텐서플로우 환경에 대해서도 세부 분석작업을 진행했읍니다 ... 딥네트워크는 현재 초거대 모델의 모든 이슈에 대해 해결방안이 있는것은 아니지만 일부 이슈에 대한 해결 방안은 확보하고 있읍니다 ... 초거대 모델의 가능성을 확실히 제시한 GPT-3 모델의 세부분석은 나름 자신있게 분석되 있읍니다 ... 요즘엔 LLM 의 개발 이슈가 sLLM 으로 옮겨 가고 있고 또 그래서 딥네트워크 또한 sLLM 세부 이슈에 대한 기술 이슈 연구를 진행해서 나름 의미있는 분석 결과물도 확보하고 있읍니다 ... ..
딥네트워크는 초거대 언어 모델인 ChatGPT의 세부 설계 구조 분석에 대한 깊은 이해를 바탕으로 다양한 분야에서 활용할 수 있는 정보를 제공하고 있습니다. 아래에서 ChatGPT의 기술적 세부 사항과 학습 원리, 데이터에 대한 분석 정보를 단계별로 설명드리겠습니다. ChatGPT란? ChatGPT는 OpenAI에서 개발한 생성형 인공지능 모델로, 주로 자연어 처리 작업(Natural Language Processing, NLP)을 위해 설계되었습니다. 이 모델은 Narrow AI에서 General AI로 향해 가는 변곡점을 나타내며, 다양한 작업에 적용될 수 있습니다. 그러나 여전히 진정한 의미의 General AI는 아닙니다. ChatGPT의 기술적 세부 사항 ChatGPT는 GPT-3.5 모델을 기..