Рибак Денис Андрійович2025-04-162025-04-162025Рибак Д.А. Оптимізація нейромережевих моделей для реального часу з використанням технологій прискорення на GPU // Політ. Сучасні проблеми науки : тези доповідей ХХV Міжнародної науково-практичної конференції здобувачів вищої освіти і молодих учених . – Київ, ДУ КАІ, 2025. - С. 25-26https://er.nau.edu.ua/handle/NAU/668151. Optimizing Deep Learning Models with TensorRT. URL: https://astconsulting.in/artificial-intelligence/ml-machine-learning/optimizing-deep-learning-models-with-tensorrt (date of access: 14.03.2025). 2. Accelerating Inference for Deep Learning Models. URL: https://github.com/triton-inference-server/tutorials/blob/main/Conceptual_Guide/Part_4-inference_acceleration/README.md (date of access: 14.03.2025). 3. Power of GPU Acceleration in Deep Learning: Elevating Model Training Performance. URL: https://www.linkedin.com/pulse/power-gpu-acceleration-deep-learning-elevating-model-training-sachin-1ivtc/ (date of access: 14.03.2025). 4. ResNet-50. URL: https://infohub.delltechnologies.com/en-us/l/power-ai-with-dell-and-nvidia/resnet-50/ (date of access: 14.03.2025). 5. How we made EfficientNet more efficient. URL: https://towardsdatascience.com/how-we-made-efficientnet-more-efficient-61e1bf3f84b3/ (date of access: 14.03.2025). 6. Real-Time Neural Network Optimization. URL: https://www.restack.io/p/model-optimization-answer-real-time-neural-network-optimization-cat-ai (date of access: 14.03.2025).Використання нейромережевих моделей у задачах реального часу вимагає оптимізації їх продуктивності для забезпечення швидкого інференсу. Один із підходів до підвищення швидкодії – використання технологій прискорення на графічних процесорах. Завдяки ефективному паралельному обчисленню сучасні GPU дозволяють значно зменшити час виконання глибоких нейромережевих моделей без втрати точності.ukтезиоптимізація нейромережGPU-прискоренняглибоке навчанняTensorRTCUDAОптимізація нейромережевих моделей для реального часу з використанням технологій прискорення на GPUArticle004.77.032.26(043.2)