Vui lòng dùng định danh này để trích dẫn hoặc liên kết đến tài liệu này: https://elib.vku.udn.vn/handle/123456789/2300
Nhan đề: Distributed Training with Data Parallelism Method in TensorFlow 2
Tác giả: Dang, Hoang Quan
Nguyen, Duc Duy Anh
Do, Trong Hop
Từ khoá: Distributed computing
Data parallelism
Deep learning
Năm xuất bản: thá-2022
Nhà xuất bản: Da Nang Publishing House
Tóm tắt: Deep learning is becoming more and more popular, especially well suited for large data sets. Besides, dee learning network training also requires vast computing power. Taking advantage of the power of GPU or TPU can partly solve the massive computing of deep learning. However, training an extensive neural network like Resner 152 on an ImageNet database of about 14 million image is not easy. That's why in this article, we are talking about not only leveraging the power of one GPU but also leveraging the power of multiple GPUs to reduce the training time of complex models by data parallelism method with two approaches Multi-worker Training and Parameter Server Training on two datasets flower and 30VNFoods.
Mô tả: The 11th Conference on Information Technology and its Applications; Topic: Image and Natural Language Processing; pp.136-144.
Định danh: http://elib.vku.udn.vn/handle/123456789/2300
ISSN: 978-604-84-6711-1
Bộ sưu tập: CITA 2022

Các tập tin trong tài liệu này:

 Đăng nhập để xem toàn văn



Khi sử dụng các tài liệu trong Thư viện số phải tuân thủ Luật bản quyền.