Εντοπίστηκε ένα σφάλμα στη λειτουργία της ΠΥΞΙΔΑΣ όταν χρησιμοποιείται μέσω του προγράμματος περιήγησης Safari. Μέχρι να αποκατασταθεί το πρόβλημα, προτείνουμε τη χρήση εναλλακτικού browser όπως ο Chrome ή ο Firefox. A bug has been identified in the operation of the PYXIDA platform when accessed via the Safari browser. Until the problem is resolved, we recommend using an alternative browser such as Chrome or Firefox.
 

Optimizing distributed deep learning through automated batch size tuning

dc.contributor.degreegrantinginstitutionAthens University of Economics and Business, Department of Informaticsen
dc.contributor.opponentGunopulos, Dimitriosen
dc.contributor.opponentGkritzalis, Dimitriosen
dc.contributor.thesisadvisorKalogeraki, Vanaen
dc.creatorΝταντάμης, Φοίβοςel
dc.creatorDadamis, Phivosen
dc.date.accessioned2025-03-26T19:11:58Z
dc.date.available2025-03-26T19:11:58Z
dc.date.issued24-10-2024
dc.date.submitted2024-10-18 11:44:26
dc.description.abstractΗ ταχεία πρόοδος των µοντέλων βαϑιάς µάϑησης τα τελευταία χρόνια έχει οδηγήσει σε σηµαντιϰή πρόοδο σε διάφορους τοµείς όπως η όραση υπολογιστή ϰαι η αναγνώριση οµιλίας. Ωστόσο, ϰαϑώς αυτά τα µοντέλα γίνονται πιο πολύπλοϰα ϰαι απαιτούν ολοένα ϰαι µεγαλύτερους υπολογιστιϰούς πόρους όπως υπολογιστιϰή ισχύ ϰαι µνήµη. Τα ϰατανεµηµένα συστήµατα βαϑιάς µάϑησης έχουν εµφανιστεί για να αντιµετωπίσουν αυτές τις προϰλήσεις, αξιοποιώντας τεχνιϰές παραλληλισµού πολλών συσϰευών, όπως ο παραλληλισµός δεδοµένων ϰαι ο παραλληλισµός αγωγών. Αυτή η διατριβή εστιάζει στον παραλληλισµό αγωγών, ο οποίος διαχωρίζει βαϑιά νευρωνιϰά δίϰτυα σε πολλαπλές συσϰευές για να βελτιώσει την επεϰτασιµότητα ϰαι να µειώσει τον χρόνο εϰπαίδευσης. Σε αυτήν την εργασία, προτείνουµε το OptiBatch, έναν προσαρµοστιϰό βελτιστοποιητή διοχέτευσης µε επίγνωση µνήµης που προσαρµόζει δυναµιϰά τις παραµέτρους εϰπαίδευσης, όπως τα µεγέϑη mini-batch ϰαι micro-batch, ως απόϰριση στη χρήση της µνήµης σε πραγµατιϰό χρόνο σε όλες τις συσϰευές. ∆ιεξάγοντας πειράµατα σε ευρέως χρησιµοποιούµενα µοντέλα, ResNet18 ϰαι VGG11, ϰαι σε σύνολα δεδοµένων, MNIST ϰαι CIFAR-10, διερευνούµε τους συµβιβασµούς µεταξύ της ϰατανάλωσης µνήµης, του χρόνου εϰτέλεσης ϰαι της ϰατάτµησης µοντέλων. Η προσέγγισή µας χρησιµοποιεί τη βελτιστοποίηση Pareto για να εξισορροπήσει τη χρήση της µνήµης ϰαι τον χρόνο εϰτέλεσης, διασφαλίζοντας αποτελεσµατιϰή χρήση πόρων ϰάτω από διαφορετιϰές συνϑήϰες συστήµατος. Τα αποτελέσµατα ϰαταδειϰνύουν ότι η δυναµιϰή προσαρµογή παραµέτρων ενισχύει σηµαντιϰά την αποτελεσµατιϰότητα της εϰπαίδευσης, προσφέροντας πληροφορίες για τους επαγγελµατίες που εργάζονται σε µεγάλης ϰλίµαϰας ϰατανεµηµένη βαϑιά µάϑηση. Αυτή η προσαρµοστιϰή λύση παρέχει ένα πλαίσιο για την υπέρβαση των περιορισµών της µνήµης, διατηρώντας παράλληλα τη βέλτιστη απόδοση στην εϰπαίδευση µοντέλων βαϑιάς µάϑησης.el
dc.description.abstractThe rapid advancement of deep learning models in recent years has led to significant progress in various domains such as computer vision and speech recognition. However, as these models become more complex and data-intensive, they require increasingly large computational resources including cpu and memory. Distributed Deep Learning Systems have emerged to address these challenges, leveraging multi-device parallelism techniques like data parallelism and pipeline parallelism. This thesis focuses on pipeline parallelism, which partitions deep neural networks across multiple devices to improve scalability and reduce training time. In this work, we propose OptiBatch, an adaptive memory-aware pipeline optimizer that dynamically adjusts training parameters, such as mini-batch and micro-batch sizes, in response to real-time memory usage across devices. By conducting experiments on widely used models, ResNet18 and VGG11, and datasets, MNIST and CIFAR-10, we explore the trade-offs between memory consumption, execution time, and model partitioning. Our approach utilizes Pareto optimization to balance memory usage and execution time, ensuring efficient resource utilization under varying system conditions. The results demonstrate that dynamic parameter adjustment significantly enhances training efficiency, offering insights for practitioners working on large-scale distributed deep learning. This adaptive solution provides a framework for overcoming memory limitations while maintaining optimal performance in deep learning model training.en
dc.embargo.expire2024-10-18 11:44:26
dc.embargo.ruleOpen access
dc.format.extent59p.
dc.identifierhttp://www.pyxida.aueb.gr/index.php?op=view_object&object_id=11622
dc.identifier.urihttps://pyxida.aueb.gr/handle/123456789/1937
dc.languageen
dc.rightsCC BY: Attribution alone 4.0
dc.rights.urihttps://creativecommons.org/licenses/by/4.0/
dc.subjectΒαθιά μάθησηel
dc.subjectΚατανεμημένη εκπαίδευσηel
dc.subjectΜέγεθος παρτίδαςel
dc.subjectDeep learningen
dc.subjectDistributed trainingen
dc.subjectBatch sizeen
dc.titleOptimizing distributed deep learning through automated batch size tuningen
dc.title.alternativeΒελτιστοποίηση κατανεμημένης βαθιάς μάθησης μέσω αυτοματοποιημένου συντονισμού μεγέθους παρτίδαςel
dc.typeText

Αρχεία

Πρωτότυπος φάκελος/πακέτο

Τώρα δείχνει 1 - 1 από 1
Φόρτωση...
Μικρογραφία εικόνας
Ονομα:
Dadamis_2024.pdf
Μέγεθος:
7.16 MB
Μορφότυπο:
Adobe Portable Document Format