Μεταπτυχιακές Εργασίες
Μόνιμο URI για αυτήν τη συλλογήhttps://pyxida.aueb.gr/handle/123456789/7
Περιήγηση
Πρόσφατες Υποβολές
Τεκμήριο Σημασιολογική αναπαράσταση της πολιτικής εξορίας στη μεταπολεμική Ελλάδα μέσω αρχειακών τεκμηρίων: οντολογική προσέγγιση με βάση το πρότυπο CIDOC CRM και την έννοια των ψηφιακών διδύμων(2026-03-04) Μπένου, Αίγλη; Κωνσταντόπουλος, Πάνος; Κωτίδης, Ιωάννης; Ντρίτσου, ΒασιλικήΑντικείμενο της παρούσας εργασία είναι η σημασιολογική αναπαράσταση της πολιτικής εξορίας στη μεταπολεμική Ελλάδα μέσω αρχειακών τεκμηρίων. Η οντολογική αυτή προσέγγιση έγινε με τη χρήση του διεθνούς προτύπου πολιτισμικής κληρονομιάς CIDOC CRM και της επέκτασης των Πολιτισμικών Ψηφιακών Διδύμων (Heritage Digital Twins). Τα αρχειακά τεκμήρια στα οποία βασίστηκε η εργασία προέρχονται από τέσσερις πολιτιστικούς φορείς (διεθνείς και εγχώριους), με αποτέλεσμα την ενοποίηση ετερογενών ψηφιακών τεκμηρίων και την δημιουργία μετέπειτα μιας βάσης γνώσης. Κεντρικός πυλώνας για την επίτευξη της εργασίας αποτελεί η εννοιολογική μοντελοποίηση μέσω του διεθνούς προτύπου CIDOC CRM, σε συνδυασμό με την καινοτομία των ψηφιακών διδύμων και της ενσωμάτωσης της οντολογίας RHDT. Γίνεται μια πρώτη απόπειρα για το πως μπορεί να αναπαρασταθεί η άυλη πολιτιστική κληρονομιά, όπως είναι το ιστορικό και πολιτικό φαινόμενο της εξορίας. Σε αυτό το σημείο, η παρούσα εργασία «ανοίγει» τον δρόμο για την δυνατότητα μοντελοποίησης της άυλης κληρονομιάς με την εισαγωγή νέων κλάσεων στα υπάρχοντα μοντέλα που αξιοποιήθηκαν. Η οντολογία για την πολιτική εξορία υλοποιήθηκε στο εργαλείο Protégé. Στο πρακτικό στάδιο, ύστερα από την κατασκευή της οντολογίας και απόδοσης των πραγματώσεων της (σε μορφή Turtle/RDF) ενσωματώθηκαν στο περιβάλλον του GraphDB. Η αξιολόγηση του συστήματος πραγματοποιήθηκε με την διεξαγωγή επερωτήσεων (SPARQL Queries), που έχουν σκοπό να ωφελήσουν έναν ιστορικό ή ερευνητή που ασχολείται με την αρχειακή έρευνα. Τα αποτελέσματα ή αλλιώς οι απαντήσεις που θα προκύπτουν, αποτελούν μια διασυνδεδεμένη πληροφορία που ξεπερνά τα όρια των μεμονωμένων συλλογών, προσφέροντας μια νέα καθολική οπτική στην ιστορική έρευνα.Τεκμήριο Στρατηγική κατανομή επενδύσεων με τεχνητή νοημοσύνη(2026-03-09) Μαντατζή, Στυλιανή; Βασσάλος, Παρασκευάς; Εμμανουήλ, Ιωάννης; Κυριακόπουλος, ΚωνσταντίνοςΗ παρούσα διπλωματική εργασία εξετάζει το πρόβλημα της στρατηγικής κατανομής περιουσιακών στοιχείων (Strategic Asset Allocation – SAA) υπό μεταβαλλόμενες μακροοικονομικούς δείκτες, αξιοποιώντας την τεχνητή νοημοσύνη και τη μηχανική μάθηση. Σε αντίθεση με τις κλασικές προσεγγίσεις βελτιστοποίησης χαρτοφυλακίου που υπάρχουν και βασίζονται σε στατικές εκτιμήσεις αποδόσεων και συνδιακυμάνσεων, προτείνουμε ένα καθεστώς όπου οι επενδυτικές αποφάσεις προσαρμόζονται δυναμικά στο μακροοικονομικό περιβάλλον. Για αυτό χρησιμοποιούμε μακροοικονομικά δεδομένα από τη βάση FRED. Μέσω μη επιβλεπόμενων τεχνικών μάθησης (unsupervised), εντοπίζονται διακριτά μακροοικονομικά καθεστώτα, τα οποία αντιστοιχούν σε διαφορετικές φάσεις του οικονομικού κύκλου. Τα καθεστώτα αυτά τα λαμβάνουμε υπόψιν και τα χρησιμοποιούμε ως input στο επενδυτικό σύστημα. Έπειτα αναπτύσσουμε ένα νευρωνικό δίκτυο το οποίο μαθαίνει τα βέλτιστα βάρη χαρτοφυλακίου. Το μοντέλο εκπαιδεύεται με σκοπό τη μεγιστοποίηση του δείκτη Sharpe. Η ενσωμάτωση μακροοικονομικών καθεστώτων και τεχνητής νοημοσύνης οδηγεί σε πιο σταθερή και αποδοτική κατανομή χαρτοφυλακίου, με βελτιωμένη απόδοση προσαρμοσμένη στον κίνδυνο κάτι που υποστηρίζεται και από την βιβλιογραφία. Η εργασία προσθέτει στη βιβλιογραφία της SAA, αναδεικνύοντας τον ρόλο της τεχνητής νοημοσύνης ως εργαλείο δυναμικής και προσαρμοστικής επενδυτικής λήψης αποφάσεων.Τεκμήριο Ανάπτυξη και βελτιστοποίηση microservices πάνω σε υπολογιστικό νέφος(2026-02-27) Νινίγια, Θεοδώρα; Γουνόπουλος, Δημήτριος; Γκρίτζαλης, Δημήτριος; Καλογεράκη, ΒασιλικήΗ παρούσα διπλωματική εργασία εξετάζει την ανάπτυξη και βελτιστοποίηση εφαρμογών αρχιτεκτονικής microservices στο υπολογιστικό νέφος, με έμφαση στην αποδοτικότητα, την κλιμάκωση και την αξιοπιστία. Η πειραματική αξιολόγηση πραγματοποιείται από ένα πρόγραμμα, το οποίο προσομοιώνει μια διαδικτυακή πλατφόρμα όπου οι χρήστες μπορούν να εγγραφούν, να συνδεθούν, να υποβάλλουν κριτικές για ταινίες και να τις ενοικιάζουν. Η αρχιτεκτονική βασίζεται σε τεχνολογίες όπως Docker, Kubernetes, Apache Thrift, MongoDB και Memcached, ενώ η μέτρηση επιδόσεων γίνεται μέσω εργαλείων φόρτου και παρακολούθησης (wrk2, Jaeger). Εξετάζονται επίσης σύγχρονες στρατηγικές ανάπτυξης, όπως canary και blue-green deployments. Τα αποτελέσματα δείχνουν την επίδραση διαφορετικών τεχνικών βελτιστοποίησης σε δείκτες όπως latency, throughput και κατανάλωση πόρων, παρέχοντας συμπεράσματα για βέλτιστες πρακτικές ανάπτυξης microservices σε περιβάλλοντα cloud.Τεκμήριο Δημιουργία οντολογίας πολιτιστικών τεκμηρίων και αναπαράστασή τους σε property graphs(2026-02-11) Λιουδάκη, Μαρία-Εμμανουέλα; Ανδρούτσος, Αθανάσιος; Κωτίδης, Ιωάννης; Καπέτης, ΧρυσόστομοςΟ Παγκόσμιος Ιστός εξελίχθηκε σε βαθμό που να επιτρέπει τη συνεργασία ανθρώπων και υπολογιστών στο πλαίσιο της εκ βάθους κατανόησης των δημοσιευμένων δεδομένων. Οι τεχνολογίες του Σημασιολογικού Ιστού αναπτύχθηκαν με σκοπό τη σημασιολογική ανάλυση εννοιών και τη διασύνδεση δεδομένων, διευκολύνοντας, έτσι, την πλοήγηση του χρήστη στο Διαδίκτυο. Μία μέθοδος αναπαράστασης της διασυνδεδεμένης πληροφορίας είναι η χρήση των Γράφων Γνώσης. Αποτελούμενοι από κόμβους και τόξα, οι Γράφοι Γνώσης στοχεύουν στη βέλτιστη οπτικοποίηση και διαχείριση όγκου δεδομένων, παρουσιάζοντας τις βασικές οντότητες – έννοιες ενός πεδίου γνώσης, τις σχέσεις που τις συνδέουν, καθώς και τις κύριες ιδιότητες που τις χαρακτηρίζουν. Οι Γράφοι Ιδιοτήτων (Property Graphs), οι οποίοι συνιστούν σημαντική υποκατηγορία των Γράφων Γνώσης, δίνουν έμφαση στην απεικόνιση των κύριων ιδιοτήτων των οντοτήτων – εννοιών. Η αποτελεσματική διαχείριση μεγάλου αριθμού εννοιών, πολύτιμων όσον αφορά την ιστορία και τον πολιτισμό, είναι κεντρική απασχόληση των ιδρυμάτων που εργάζονται για την προστασία της πολιτιστικής κληρονομιάς. Ιδιαίτερα διαδεδομένη είναι η εφαρμογή ψηφιακών τεχνολογιών για την τεκμηρίωση πολιτιστικού υλικού, όπως οι τεχνολογίες του Σημασιολογικού Ιστού, οι Γράφοι Γνώσης ή ακόμα, και τα υβριδικά μοντέλα, που συνδυάζουν αυτές τις μεθόδους. Η παρούσα εργασία αποσκοπεί στη διερεύνηση των τεχνολογιών για την οργάνωση και αναπαράσταση πολιτιστικού περιεχομένου. Αξιοποιώντας ένα σύνολο δεδομένων για έργα τέχνης και καλλιτέχνες, το οποίο είναι διαθέσιμο μέσω του Μουσείου MoMA, η μελέτη πραγματοποίησε τη σύγκριση ανάμεσα στις τεχνολογίες του Σημασιολογικού Ιστού και τους Γράφους Γνώσης, έχοντας ως πρόθεση την ανάδειξη της αξία της σημασιολογίας και την αναζήτηση της πιο αποδοτικής στρατηγικής διαχείρισης πολιτιστικών τεκμηρίων.Τεκμήριο Αξιοποίηση μεγάλων γλωσσικών μοντέλων για την αναδόμηση λογισμικού(2026-02-26) Μαντζώρος, Γεώργιος; Ζαφείρης, Βασίλειος; Γκρίτζαλης, Δημήτριος; Διαμαντίδης, ΝικόλαοςΗ εσωτερική δομή των συστημάτων λογισμικού συχνά υποβαθμίζεται καθώς αυτά εξελίσσονται, με αποτέλεσμα μειωμένη συνεκτικότητα, αυξημένη σύζευξη και αυξημένο κόστος συντήρησης. Μία βασική μέθοδος για τη βελτίωση της ποιότητας σχεδίασης είναι η αναδόμηση κώδικα, και ειδικότερα η τεχνική Extract Class. Παρότι τα παραδοσιακά εργαλεία στατικής ανάλυσης παρέχουν αυτοματοποιημένη υποστήριξη για τον εντοπισμό ευκαιριών αναδόμησης, βασίζονται σε προκαθορισμένες ευρετικές μεθόδους και συχνά αποτυγχάνουν να αποτυπώσουν βαθύτερο σημασιολογικό νόημα. Παράλληλα, οι πρόσφατες εξελίξεις στα Μεγάλα Γλωσσικά Μοντέλα εμφανίζουν προοπτικές για την κατανόηση και τον μετασχηματισμό κώδικα, ωστόσο η αποτελεσματικότητά τους εξαρτάται σε μεγάλο βαθμό από την ποιότητα του παρεχόμενου περιβάλλοντος εισόδου. Η παρούσα εργασία διερευνά κατά πόσο ο εμπλουτισμός των prompts των LLM με δομημένο πλαίσιο στατικής ανάλυσης μπορεί να βελτιώσει την ποιότητα της αναδόμησης τύπου Extract Class. Υλοποιείται ένα επίπεδο εξαγωγής context στο εργαλείο JDeodorant για την καταγραφή δομικών εξαρτήσεων, αλληλεπιδράσεων και μετρικών που σχετίζονται με τη συνεκτικότητα, τα οποία μετασχηματίζονται σε αναπαραστάσεις κατάλληλες για prompts. Μια εμπειρική αξιολόγηση συγκρίνει αναδόμηση βασισμένη σε LLM με και χωρίς πλαίσιο έναντι παραδοσιακών προσεγγίσεων βασισμένων σε στατική ανάλυση σε σύγχρονα έργα ανοικτού κώδικα που δεν περιλαμβάνονται στα δεδομένα εκπαίδευσης των LLM. Τα αποτελέσματα δείχνουν ότι οι προτροπές με εμπλουτισμένο πλαίσιο οδηγούν σε πιο συνεπείς και υψηλότερης ποιότητας διασπάσεις κλάσεων, αναδεικνύοντας τη δυναμική υβριδικών προσεγγίσεων που συνδυάζουν στατική ανάλυση με συλλογιστική βασισμένη σε LLM.Τεκμήριο Secure and efficient data spaces: implementation and evaluation(2026-02-18) Bistas, Fotios; Μπίστας, Φώτιος; Polyzos, George; Siris, Vasilios; Xylomenos, GeorgeThis thesis presents the design and implementation of SeEDS (Secure and Efficient Data Spaces), a standards-compliant Data Space solution aligned with the International Data Spaces Association (IDSA) specifications for Data Spaces, utilizing the European Telecommunication Standards Institute (ETSI) NGSI-LD API specifications. Data Spaces enable independent organizations to securely share and discover data while maintaining control, governance, and sovereignty, in contrast to centralized data platforms or proprietary CDNs. SeEDS builds upon the Secure Named Data Spaces (SNDS) project, which leveraged the Named Data Networking (NDN) architecture to provide data-centric communication with built-in cryptographic security and in-network caching. NDN’s content-based addressing and inherent data authentication make it a natural foundation for decentralized and self-sovereign Data Spaces. The SeEDS prototype extends SNDS into a complete NGSI-LD-compliant context broker, implementing the full API, including required data operations, content filtering, and optional temporal operations for historical data access. The system was significantly refactored to improve modularity, maintainability, and architectural clarity. This thesis documents and develops the SeEDS architecture, its internal modules, and the messaging patterns underlying each supported operation. The author contributed to the design and implementation of the full NGSI-LD API, a persistent storage subsystem, a resilience and failure-recovery mechanism, support for temporal queries, and a modular execution framework that enables efficient integration of new capabilities. Together, these contributions strengthen SeEDS as a robust, decentralized, and standards-based Data Space solution.Τεκμήριο Η μνήμη της κατοχικής Αθήνας στο αστικό τοπίο: ψηφιακή αποτύπωση και χωρική αφήγηση με χρήση εργαλείων textual GIS(2026-01-30) Λυμπέρη, Ελένη; Γκαδόλου, Ελένη; Κατσιάνης, Μάρκος; Μπενάρδου, Αγιάτις; Γκαδόλου, Ελένη; Κατσιάνης, ΜάρκοςΗ παρούσα διπλωματική εργασία διεξάγεται στο πλαίσιο του μεταπτυχιακού προγράμματος «Ψηφιακές Μέθοδοι για τις Ανθρωπιστικές Επιστήμες» του τμήματος Πληροφορικής του Οικονομικού Πανεπιστημίου Αθηνών. Διερευνά τη σχέση ανάμεσα στη μνήμη, τη λογοτεχνία και τον αστικό χώρο, εστιάζοντας στην περίοδο της Κατοχής (1941–1944) στην Αθήνα. Μέσα από το μυθιστόρημα «Όταν ο ήλιος…» της Ζωρζ Σαρή, εξετάζεται πώς τα ιστορικά γεγονότα της εποχής αποτυπώνονται μέσω της αφήγησης και πώς συνδέονται με το αστικό τοπίο της πόλης. Η μελέτη αξιοποιεί μεθόδους και εργαλεία των Ψηφιακών Ανθρωπιστικών Επιστημών (Digital Humanities) και των Γεωγραφικών Πληροφοριακών Συστημάτων (GIS), προκειμένου να εντοπιστούν, να αναλυθούν και να οπτικοποιηθούν οι χωρικές αναφορές του έργου. Στο πλαίσιο αυτό, η διαδικασία περιλαμβάνει τη γεωχωρική επισημείωση αποσπασμάτων του λογοτεχνικού έργου στο Recogito, τη χαρτογράφηση και τον εμπλουτισμό των μεταδεδομένων στο QGIS και τη δημιουργία διαδραστικής αφήγησης μέσω του StoryMapJS. Tο Historypin αξιοποιείται συμπληρωματικά προς το StoryMapJS, λειτουργώντας ως ανοικτό αποθετήριο του αφηγηματικού υλικού με δυνατότητα εμπλουτισμού (crowdsourcing). Με τον τρόπο αυτό καθίσταται δυνατός ο σχολιασμός και η περαιτέρω ανάδειξη του υλικού, προσδίδοντας μια επιπλέον διάσταση συλλογικής καταγραφής. Τα εργαλεία συγκεντρώνονται και παρουσιάζονται σε ενιαίο ψηφιακό περιβάλλον μέσω της πλατφόρμας Notion, προσφέροντας στον χρήστη μια ολοκληρωμένη και ευέλικτη εμπειρία πρόσβασης και πλοήγησης. Ο κεντρικός στόχος της εργασίας είναι να αναδείξει ότι η ιστορική-κοινωνική λογοτεχνία μπορεί να αποτελέσει έγκυρο τεκμήριο για τη μελέτη της πολιτισμικής και ιστορικής γεωγραφίας ενός τόπου, ενσωματώνοντας παράλληλα τις προσωπικές και βιωματικές προσλήψεις της ιστορικής εμπειρίας. Παράλληλα, αναδεικνύεται η αξία των ψηφιακών εργαλείων και διαμορφώνεται μια ροή εργασιών χωρικοποίησης και εμπλουτισμού κειμένων. Με τον τρόπο αυτό, η εργασία ενισχύει την ανάλυση, παρουσίαση και διάχυση της γνώσης, συμβάλλοντας σε μια νέα, διεπιστημονική προσέγγιση της ιστορικής έρευνας.Τεκμήριο Ανάπτυξη ψηφιακής ξενάγησης πολιτιστικών χώρων με χρήση Gaussian splatting(2026-02-11) Τσακνάκη, Μαρία; Παπαϊωάννου, Γεώργιος; Μπενάρδου, Αγιάτης; Βασιλάκης, Ανδρέας-ΑλέξανδροςΗ παρούσα διπλωματική εργασία εξετάζει την εφαρμογή σύγχρονων νευρωνικών μεθόδων τρισδιάστατης ανακατασκευής για την παραγωγή διαδραστικών εμπειριών ψηφιακής ξενάγησης σε πολιτιστικούς χώρους. Ειδικότερα, η έρευνα επικεντρώνεται στη χρήση της τεχνικής 3D Gaussian Splatting, μιας πρόσφατης μεθόδου που επιτρέπει υψηλής ποιότητας αναπαραστάσεις με απόδοση σε πραγματικό χρόνο. Ως μελέτη περίπτωσης επιλέχθηκαν το ιστορικό τρένο «Μουτζούρης» και ο σιδηροδρομικός σταθμός των Άνω Λεχωνίων, χώροι με ιδιαίτερη πολιτιστική και τεχνολογική αξία αλλά και σημαντικές προκλήσεις για τρισδιάστατη τεκμηρίωση λόγω περιορισμών φωτισμού και διαφορετικής χωρικής κλίμακας. Η ψηφιοποίηση των χώρων πραγματοποιήθηκε με καταγραφή μικρής διάρκειας βίντεο μέσω έξυπνης κινητής συσκευής, ενώ η αρχική ανακατασκευή των τρισδιάστατων μοντέλων υλοποιήθηκε μέσω της πλατφόρμας Luma AI, η οποία παράγει Gaussian Splat αναπαραστάσεις. Ακολούθησε επεξεργασία και βελτιστοποίηση των αποτελεσμάτων με χρήση του εργαλείου Supersplat, με στόχο τον καθαρισμό των δεδομένων και τη βελτίωση της οπτικής ποιότητας των σκηνών. Το τελικό αποτέλεσμα ενσωματώθηκε σε ψηφιακή ξενάγηση δύο μορφών: μία διαδραστική διαδικτυακή εφαρμογή, όπου ο χρήστης πλοηγείται ελεύθερα με δυνατότητα ενεργοποίησης επιπλέον πληροφοριών ιστορικής έρευνας, και μία ασύγχρονη, μέσω αφηγηματικού βίντεο με υποτιτλισμένη φωνητική αφήγηση. Η εργασία αξιολογεί τεχνικά και μεθοδολογικά τη συνολική διαδικασία, καταδεικνύοντας την καταλληλότητα του Gaussian Splatting για εφαρμογές ψηφιακής πολιτιστικής κληρονομιάς και προσφέρει ένα ενδεικτικό πρότυπο για την ενσωμάτωση της τεχνητής νοημοσύνης και του real-time rendering στην ανάδειξη της πολιτιστικής κληρονομιάς.Τεκμήριο Μηχανική μάθηση και μεγάλα γλωσσικά μοντέλα στην επιδιόρθωση και αναδόμηση λογισμικού(2026-01-30) Τσακίρης, Θεοφάνης; Ζαφείρης, Βασίλειος; Γκρίτζαλης, Δημήτριος; Διαμαντίδης, ΝικόλαοςΗ ανάπτυξη λογισμικού υψηλής ποιότητας, συχνά απαιτεί επενδύσεις αυξημένου κόστους στη συντήρηση αυτού. Ο εντοπισμός και διόρθωση των σφαλμάτων και των ευπαθειών ασφαλείας, όπως και η αφαίρεση προβληματικών patterns από μία βάση κώδικα, γίνονται κυρίως με χειροκίνητο τρόπο, από ειδικούς ή με μια αυτοματοποίηση που βασίζεται σε προαποφασισμένους κανόνες και επομένως έχει περιορισμούς στην αποτελεσματικότητά της. Η άνοδος της βαθιάς μάθησης και των νέων αρχιτεκτονικών στα νευρωνικά δίκτυα, με αποκορύφωμα τα μεγάλα γλωσσικά μοντέλα, άνοιξε το δρόμο για μια αυτοματοποιημένη αντιμετώπιση των παραπάνω, βασισμένη στην αναγνώριση των προβληματικών χαρακτηριστικών, έπειτα από εκπαίδευση ενός μοντέλου σε σχετικά δεδομένα. Η τεχνική αυτή δίνει μια εναλλακτική λύση με υψηλή ευελιξία στην αντιμετώπιση προβλημάτων, που μπορεί να συνδυαστεί με τις υπάρχουσες λύσεις. Η παρούσα διπλωματική εργασία αποτελεί μια βιβλιογραφική ανασκόπηση από δημοφιλείς ερευνητικές εργασίες των πρόσφατων ετών, που είχαν ως θέμα την χρήση νευρωνικών δικτύων για τις τρεις προαναφερθείσες κατηγορίες, δηλαδή διόρθωση σφαλμάτων (bug fixing), εντοπισμό και διόρθωση ευπαθειών (vulnerabilities) και εντοπισμός και αναδόμηση (refactoring) πηγαίου κώδικα που περιέχει code smells. Στο κείμενο αναλύονται οι μεθοδολογίες, οι καινοτομίες και οι αρχιτεκτονικές, που έφεραν τα καλύτερα αποτελέσματα, για την κάθε κατηγορία προβλήματος, τόσο σε συνθετικά σετ δεδομένων, όσο και σε case-studies σε πραγματικά πρότζεκτ. Στη διεθνή βιβλιογραφία παρουσιάστηκαν πολλές ενδιαφέρουσες ιδέες. Από μεθόδους που βασίστηκαν σε μηχανική μετάφραση από προβληματικό (buggy) σε διορθωμένο (fixed) κώδικα, μέχρι την χρήση διαφορετικών μεγάλων γλωσσικών μοντέλων, παρατηρήθηκε μια πρώτη ικανότητα αυτόματης επίλυσης των απλούστερων σφαλμάτων, αλλά χαμηλή επιτυχία στα πιο σύνθετα σφάλματα. Στο κομμάτι της ασφάλειας παρουσιάστηκαν υποσχόμενα αποτελέσματα στον εντοπισμό ευπαθειών, ενώ η αναδόμηση κώδικα για την αυτόματη επιδιόρθωση αυτών, είχε περιορισμένη επιτυχία, με τα διαφορετικά CWE να παρουσιάζουν διαφορετικούς βαθμούς δυσκολίας στην επισκευή τους. Τέλος, τα νευρωνικά δίκτυα, παρουσίασαν υποσχόμενα αποτελέσματα στον εντοπισμό των code smells, κυρίως σε επίπεδο μεθόδου, με τα εργαλεία βαθιάς μάθησης να ξεπερνούν σε απόδοση δημοφιλή στατικά εργαλεία.Τεκμήριο Variational autoencoders & applications(2018-06-03) Κορμαρής, Χρήστος; Kormaris, Christos; Titsias, MichalisΟ variational autoencoder είναι μια μέθοδος που μπορεί να παράγει τεχνητά δεδομένα που θα μοιάζουν σε ένα δοσμένο σύνολο πραγματικών δεδομένων. Για παράδειγμα, αν θέλουμε να δημιουργήσουμε καινούργιες τεχνητές φωτογραφίες από γάτες, μπορούμε να χρησιμοποιήσουμε ένα variational autoencoder αλγόριθμο για να τα καταφέρουμε, αφού τον εκπαιδεύσουμε σε ένα μεγάλο σύνολο δεδομένων από γάτες. Τα δεδομένα εισόδου είναι μη κατηγοριοποιημένα διότι δεν ενδιαφερόμαστε να τα κατηγοριοποιήσουμε σε κάποια κλάση, αλλά επιθυμούμε να είμαστε σε θέση να μάθουμε τα πιο σημαντικά χαρακτηριστικά ή τις ομοιότητες μεταξύ τους. Εφόσον τα δεδομένα μας είναι ακατηγοριοποίητα, ο variational autoencoder χαρακτηρίζεται ως αλγόριθμος μη επιβλεπόμενης μάθησης και ανήκει σε μια κατηγορία μάθησης, που είναι γνωστή ως Ενισχυτική Μάθηση (Reinforcement Learning). Όσον αφορά το παράδειγμα των εικόνων από γάτες, ο αλγόριθμος μπορεί να μάθει να αναγνωρίζει ότι μια γάτα πρέπει να έχει δύο αυτιά, μια μύτη, μουστάκια, τέσσερα πόδια, μια ουρά και μια ποικιλία από χρώματα. Ο αλγόριθμος χρησιμοποιεί δύο νευρωνικά δίκτυα, έναν κωδικοποιητή και έναν αποκωδικοποιητή, τα οποία εκπαιδεύονται ταυτόχρονα. Ένας variational autoencoder θα έχει καλές εφαρμογές σε περιπτώσεις όπου θα επιθυμούσαμε να παράγουμε μεγαλύτερο σύνολο δεδομένων, για καλύτερη εκπαίδευση σε διάφορα νευρωνικά δίκτυα. Επίσης, κάνει ελάττωση διάστασης των δεδομένων, συμπιέζοντάς τα σε λανθάνουσες μεταβλητές. Τρέχουμε υλοποιήσεις διαφορετικών variational autoencoder σε διάφορα dataset, όπως MNIST, Binarized MNIST, CIFAR-10, OMNIGLOT, YALE Faces, The Database of Faces, MovieLens, υλοποιημένες σε Python 3, χρησιμοποιώντας τρεις διαφορετικές βιβλιοθήκες κάθε φορά, TensorFlow, PyTorch και Keras και παρουσιάζουμε τα αποτελέσματα. Συστήνουμε έναν απλό αλγόριθμο συμπλήρωσης ελλιπών τιμών που χρησιμοποιεί K-NN συνεργατικό φιλτράρισμα για να κάνει προβλέψεις (πχ. για ελλιπή pixel). Τέλος, χρησιμοποιούμε το variational autoencoder σε αλγόριθμο συμπλήρωσης ελλιπών τιμών για να προβλέψουμε τις ελλιπείς τιμές σε διάφορα dataset. Ο K-NN αλγόριθμος τα πήγε σπουδαία στις προβλέψεις και το variational autoencoder σύστημα συμπλήρωσης επέφερε πολύ ικανοποιητικά αποτελέσματα. Έχει επίσης υλοποιηθεί GUI.Τεκμήριο The rise of neuromarketing: discovering security and ethical implications(2026-02-04) Zygokostas, Evangelos; Ζυγοκώστας, Ευάγγελος; Stergiopoulos, George; Gritzali, Alkmini; Gritzalis, DimitriosNeuromarketing has emerged as an interdisciplinary field that applies neuroscientific and psychophysiological methods to the study of consumer behavior. By collecting and analyzing neurophysiological signals such as electroencephalography (EEG) activity, eye movements, heart-rate variability, and other biometric indicators, neuromarketing aims to reveal cognitive and emotional processes that influence decision-making beyond conscious awareness. While these techniques promise more precise insights for advertising, user experience design, and consumer analytics, they also introduce significant security, ethical, and legal challenges due to the sensitive nature of the data involved. This thesis examines the rise of neuromarketing from the perspective of information security and ethics, with a particular focus on how neurophysiological data are collected, processed, stored, and commercially deployed. The study analyzes current neuromarketing practices by reviewing academic literature and industry-relevant research, identifying vulnerabilities across the neurodata lifecycle. Key security risks include data breaches, unauthorized access, reidentification threats, and the long-term misuse of biometric and neural data. In parallel, the thesis explores ethical concerns related to informed consent, transparency, consumer autonomy, and the potential manipulation of behavior through subconscious influence. The research further evaluates the adequacy of existing legal and regulatory frameworks, with emphasis on the General Data Protection Regulation (GDPR), in addressing the unique characteristics of neurophysiological data. The analysis highlights structural gaps in current data protection regimes, particularly regarding the inferential power, permanence, and sensitivity of neural data, as well as the lack of sector-specific standards for neuromarketing. Based on the identified security, ethical, and regulatory challenges, the thesis proposes conceptual guidelines and policy-oriented recommendations aimed at promoting secure, transparent, and ethically responsible neuromarketing practices. By framing neuromarketing as both a technological innovation and a potential vector for cognitive and privacy risks, this study contributes to ongoing discussions on mental privacy, data protection, and the governance of emerging neurotechnologies in commercial environments.Τεκμήριο Implementation of global illumination using on-surface caches(2026-02-04) Kotsis-Panakakis, Vasileios-Ektor; Κώτσης-Πανακάκης, Βασίλειος-Έκτωρ; Xylomenos, George; Vasilakis, Andreas A.; Papaioannou, GeorgiosReal-time path-tracing remains limited by the high computational cost of evaluating lighting through per-pixel Monte Carlo integration. This inhibits imagery generated using stochastic path-tracing approaches from replacing rasterization-based or simpler hybrid approaches in real-time renderers. This thesis addresses these inefficiencies by investigating the utilization of radiance caching, and in particular, in texture space, which replaces deep per-ray evaluations with cheap cache look-ups and illumination smoothing via trilinear interpolation performed directly on object surfaces. We directly implement On-Surface Caching for Global illumination (OSC-GI) [Tat+24] and attempt to verify the writers’ findings. Ray-casting is decoupled from the screen-space sampling rate and its results are instead stored on sparser, spatio-temporally stable on-surface cache blocks that pixels query during shading. This decoupling also allows for the sharing of radiance over multiple cameras, effectively accelerating multi-view rendering. We leverage OSC-GI’s two-level radiance caching scheme and achieve real-time global illumination for diffuse and glossy surfaces by using the secondary cache level to represent the indirect radiance field that the primary cache samples.Τεκμήριο Blockchain-based incentivization of information flows using fuzzy logic(2026-02-04) Karlis, Konstantinos; Καρλής, Κωνσταντίνος; Stergiopoulos, George; Ntouskas, Theodoros; Gkritzalis, DimitriosThis thesis addresses the problem of information flow management in IIoT environments, focusing on the assessment of risks arising from illegal or suspicious data exchanges. Initially, the theoretical background of IIoT systems, access control mechanisms, information flow control principles and blockchain technologies is presented. Special emphasis is placed on the unique characteristics of industrial infrastructures, including strict requirements for reliability, availability and resilience against cyber threats. Subsequently, the INFFLOW-RT methodology is examined as a real-time risk-based approach for detecting illegal information flows in IIoT systems. The methodology models industrial environments as dependency graphs and evaluates transactions using descriptors such as data severity, operation type and legality. In addition, it considers risk propagation across multi-order dependencies and the structural importance of nodes, enabling both localized and system-wide risk assessment. Building upon this analysis, the thesis introduces INFFLOW-RT+, a risk-adaptive incentive framework that translates information flow risk assessments into proportional incentive and enforcement actions. The framework employs fuzzy logic to manage uncertainty and gradual behavioral changes, while leveraging blockchain technology and smart contracts to ensure decentralized, transparent and tamper-resistant enforcement. Through this design, secure behavior becomes the most beneficial long-term strategy for participating nodes. Although the proposed framework has not been deployed or experimentally evaluated in real industrial environments, illustrative scenarios are presented to demonstrate its potential effectiveness. These scenarios highlight how linking risk analysis with incentive mechanisms can promote compliance, self-regulation and long-term resilience in IIoT infrastructures. Overall, this thesis contributes to risk-aware and incentive-driven security management in IIoT systems by proposing an integrated and adaptive approach.Τεκμήριο Evading and crashing anti-malware solutions via data collection overloading during analysis serialization(2026-02-02) Gkritsis, Evgenios; Γκρίτσης, Ευγένιος; Gritzalis, Dimitrios; Stergiopoulos, George; Patsakis, ConstantinosAnti-malware systems rely on sandboxes, hooks, and telemetry pipelines like collection agents, serializers, and database backends, to monitor program and system behavior. We show that these data-handling components constitute an exploitable attack surface that can lead to denial-of-analysis (DoA) states without disabling sensors or requiring elevated privileges. We present Telemetry Complexity Attacks (TCAs), a new class of vulnerabilities that exploit mismatches between unbounded collection mechanisms and bounded processing capabilities. Our method recursively spawns child processes to generate deeply nested and oversized objects that stress serialization and storage boundaries, as well as visualization layers, e.g., JSON/BSON depth and size limits. Depending on the product, this leads to truncated or missing behavioral reports, rejected database inserts, serializer recursion and size errors, and unresponsive dashboards, with some cases also exhibiting normal malicious execution that was not recorded or presented to analysts. We evaluate our technique against 13 commercial and open-source malware analysis platforms and endpoint detection and response (EDR) solutions. Seven products fail at different stages of the telemetry pipeline; three CVE identifiers have been assigned (CVE-2025-61301, CVE-2025-61303, and CVE-2025-67221); one more is pending; and others have issued patches or configuration changes. We discuss root causes and propose mitigation strategies to prevent DoA attacks triggered by adversarial telemetry.Τεκμήριο Implementing a recirculation‑based selective forwarding unit using P4(2026-01-22) Papageorgiou, Efthymios; Παπαγεωργίου, Ευθύμιος; Voulgaris, Spyridon; Gritzalis, Dimitrios; Xylomenos, GeorgeModern video conference applications rely on Selective Forwarding Units (SFU) to replicate packet traffic between participants. Traditional SFUs commonly operate in user space and as such are required to move packets to and from it so they can copy them. These operations have a significant negative impact on latency. Switches with programmable dataplanes offer a solution to this problem enabling SFUs to run directly on switches and thus not to incur such costs. Using P4, an open-source programing language for switches, specifically its recirculation feature, in which packets can reenter a switch pipeline instead of being transmitted, a more efficient SFU was developed. After its development, it was compared with a Python-based SFU implementation running in user space on a Linux host, instead of on a switch, similarly to traditional SFUs. Even in simulated hardware, the P4-Based SFU outperformed its counterpart by demonstrating lower latency, increased stability and reduced packet loss. The results highlight the potential of programmable dataplanes for the development of high performance SFUs.Τεκμήριο Zero trust security models: a theoretical and bibliographic analysis of identity-centric cybersecurity in modern organizations(2026-01-22) Μαρσέλης, Κωνσταντίνος; Βούλγαρης, Σπυρίδων; Γκρίτζαλης, Δημήτριος.; Ξυλωμένος, ΓεώργιοςΗ αρχιτεκτονική Zero Trust αποτελεί μία από τις σημαντικότερες σύγχρονες εξελίξεις στον χώρο της κυβερνοασφάλειας, μετατοπίζοντας το επίκεντρο από την παραδοσιακή περιμετρική προστασία προς ένα μοντέλο συνεχούς επαλήθευσης και ταυτοκεντρικής ασφάλειας. Η παρούσα εργασία εξετάζει θεωρητικά και βιβλιογραφικά τις αρχές, τις τεχνολογίες και τα ερευνητικά μοντέλα που πλαισιώνουν το Zero Trust, εστιάζοντας ειδικότερα στον ρόλο των IAM συστημάτων, της πολυπαραγοντικής ταυτοποίησης, της ταυτοποίησης με βάση το ρίσκο, της tokenization και των σύγχρονων πρωτοκόλλων ταυτοποίησης και εξουσιοδότησης. Επιπλέον, αναλύονται τα κύρια μοντέλα αναφοράς, όπως το BeyondCorp της Google και το NIST SP 800-207, τα οποία έχουν συμβάλει στην τυποποίηση και καθιέρωση των αρχών Zero Trust σε διεθνές επίπεδο. Ιδιαίτερη έμφαση δίνεται στις οργανωσιακές προκλήσεις υιοθέτησης, στις τεχνολογικές δυσκολίες, στα όρια της υπάρχουσας βιβλιογραφίας και στις κατευθύνσεις για μελλοντική έρευνα. Τα ευρήματα δείχνουν ότι το Zero Trust δεν αποτελεί ένα στατικό τεχνικό πλαίσιο, αλλά μία εξελισσόμενη φιλοσοφία ασφάλειας που απαιτεί διαρκή προσαρμογή, υψηλή τεχνολογική ωριμότητα και βαθιά οργανωσιακή μεταμόρφωση. Η βιβλιογραφική σύνθεση αναδεικνύει πως το Zero Trust προσφέρει σημαντικά πλεονεκτήματα στην ασφάλεια, στη συμμόρφωση και στη διακυβέρνηση δεδομένων, συγχρόνως όμως υπογραμμίζει την ανάγκη περαιτέρω εμπειρικής έρευνας.Τεκμήριο Κρυπτογραφία πλεγμάτων με χρήση του προβλήματος μάθησης με θόρυβο στην κβαντική εποχή(2026-01-07) Σκέντος, Αλέξανδρος; Ντούσκας, Θεόδωρος; Γκρίτζαλης, Δημήτριος.; Στεργιόπουλος, ΓεώργιοςΗ αναδυόμενη απειλή των κβαντικών υπολογιστών στον χώρο της κρυπτογραφίας και συγκεκριμένα στην κρυπτογραφία δημοσίου κλειδιού έχει δημιουργήσει την ανάγκη μελέτης και ανάπτυξης των λεγόμενων μετα-κβαντικών αλγορίθμων κρυπτογράφησης. Το πρόβλημα Learning with Errors έχοντας ήδη αποδειχθεί ότι είναι δύσκολα επιλύσιμο ακόμα και με τη χρήση κβαντικής υπολογιστικής τεχνολογίας, έχει αναδειχθεί σε ένα απο τα βασικά μαθηματικά προβλήματα που χρησιμοποιούνται για αυτό το σκοπό. Η συγκεκριμένη διπλωματική εργασία στοχεύει να μελετήσει την συγκεκριμένη περιοχή και να προσπαθήσει να περάσει απο τη θεωρητική προσέγγιση στην πρακτική εφαρμογή. Πιο συγκεκριμένα, σκοπός είναι ο σχεδιασμός και η δημιουργία ενός απλού LWE πρωτοκόλλου για την ανταλλαγή κλειδιού με τη χρήση Python και στη συνέχεια η ανάλυση της απόδοσης σε επίπεδο λειτουργίας και ασφάλειας. Οι κύριες λειτουργίες του κρυπτογραφικού σχήματος δηλαδή αυτές της δημιουργίας κλειδιού, της κρυπτογράφησης και της αποκρυπτογράφησης ομαδοποιούνται, και το ασφαλές δικτυακό επίπεδο, ενσωματώνοντας πρωτόκολλο TLS και σειριοποίηση JSON για την μεταφορά των δομών πλέγματος lattices, ολοκληρώνουν την εικόνα και παρουσιάζονται αναλυτικά. Επιπλέον, αναπτύχθηκε μία μέθοδος αξιολόγισης της υπολογιστικής απόδοσης, του κόστους δικτυακής μεταφοράς και της αξιοπιστίας, ανάλογα τους διάφορους συνδυασμούς των κρίσιμων παραμέτρων διάστασης πλέγματος n, συντελεστής modulo q και κατανομή σφαλμάτων σ.Τεκμήριο Applying Monte Carlo simulations in process-aware risk assessment(2026-01-13) Παναγόπουλος, Ηλίας; Στεργιόπουλος, Γεώργιος; Ντούσκας, Θεόδωρος; Γκρίτζαλης, ΔημήτριοςΗ εργασία αυτή επικεντρώνεται στην ανάλυση και εκτίμηση επιπτώσεων σε επιχειρησιακές διαδικασίες μέσω της χρήσης προηγμένων μεθόδων προσομοίωσης και ποσοτικής αξιολόγησης. Ως βασικό εργαλείο χρησιμοποιείται το πλαίσιο PRIA (Process Risk Impact Assessment), το οποίο επιτρέπει την αναπαράσταση επιχειρησιακών διαδικασιών με τη μορφή αιτιακών γράφων. Στο πλαίσιο αυτό αναπτύχθηκε ένας μηχανισμός προσομοίωσης Monte Carlo με στόχο την ενσωμάτωση τυχαιοποίησης σε κρίσιμες παραμέτρους, όπως τα βάρη των ακμών, η διαθεσιμότητα κόμβων και η ένταση του συμβάντος (severity). Παρότι μεθοδολογίες όπως η PRIA αποτελούν ένα σημαντικό βήμα προς την αυτοματοποίηση τής αξιολόγησης κινδύνου και της ανάλυσης επιχειρησιακού αντίκτυπου, παραμένουν κατά βάση ντετερμινιστικές, καθώς βασίζονται σε συγκεκριμένα σενάρια και σταθερές παραμέτρους. Αντίστοιχες προσεγγίσεις στη σχετική βιβλιογραφία, αν και έχουν αποβεί ιδιαίτερα χρήσιμες σε ερευνητικό επίπεδο, παρουσιάζουν περιορισμένη ευελιξία ως προς τη μοντελοποίηση τής αβεβαιότητας και της φύσης των πραγματικών κυβερνοεπιθέσεων. Στην πράξη, οι οργανισμοί καλούνται να αξιολογήσουν όχι ένα μόνο σενάριο, αλλά πλήθος πιθανών εκβάσεων, λαμβάνοντας υπόψη ατελή γνώση, μεταβαλλόμενες συνθήκες και αβέβαιες παραμέτρους. Η παρούσα εργασία επιχειρεί να γεφυρώσει αυτό το κενό, επεκτείνοντας τη PRIA με στοχαστικούς μηχανισμούς Monte Carlo, ώστε να καταστεί δυνατή η πιο ρεαλιστική αποτύπωση της αβεβαιότητας και η ενίσχυση της πρακτικής εφαρμογής της μεθόδου σε πραγματικά επιχειρησιακά περιβάλλοντα. Η μεθοδολογία που ακολουθήθηκε περιλαμβάνει την κατασκευή γράφων δραστηριοτήτων από αρχεία event logs (.xes), τον υπολογισμό χαρακτηριστικών κόμβων και ακμών, καθώς και την εκτίμηση επιπτώσεων μέσω διαδικασιών διάδοσης (impact propagation). Στο στάδιο της προσομοίωσης εισήχθησαν μηχανισμοί τυχαιοποίησης: • θόρυβος στα βάρη των ακμών (Gaussian perturbation), • πιθανότητα αποτυχίας κόμβων (asset unavailability), • κλιμάκωση της έντασης μέσω τυχαίας παραμέτρου severity. Για την αποτύπωση των αποτελεσμάτων επιλέχθηκαν τρεις μετρικές: μέση τιμή impact (Mean Impact), τυπική απόκλιση (Standard Deviation) και πιθανότητα κρισιμότητας (P>0.5). Οι μετρικές αυτές προσφέρουν μια ισορροπημένη εικόνα του αναμενόμενου κινδύνου, της αβεβαιότητας που τον συνοδεύει και της πιθανότητας εμφάνισης κρίσιμων καταστάσεων. Τα αποτελέσματα δείχνουν ότι η προσέγγιση αυτή μπορεί να αποτυπώσει με ρεαλισμό την αβεβαιότητα και την τυχαιότητα που χαρακτηρίζουν τις επιχειρησιακές διαδικασίες, παρέχοντας χρήσιμες ενδείξεις για τη διαχείριση κινδύνου και την ενίσχυση της κυβερνοασφάλειας. Η εργασία συνεισφέρει στην κατεύθυνση της αυτοματοποιημένης και ποσοτικής αξιολόγησης κινδύνων σε επιχειρησιακά περιβάλλοντα, ανοίγοντας τον δρόμο για μελλοντικές επεκτάσεις που θα ενσωματώνουν πιο σύνθετες στοχαστικές μεθόδους και μετρικές.Τεκμήριο Static analysis techniques and tools for infrastructure as code on the Kubernetes platform(2026-01-12) Stentoumis, Nikolaos; Στεντουμής, Νικόλαος; Diamantidis, Nikolaos; Gritzalis, Dimitrios; Zafeiris,VasileiosThis thesis investigates Infrastructure as Code, mainly in the Kubernetes platform. More specifically, it starts by explaining Infrastructure as Code and then deep dives in the Kubernetes architecture and the technologies around it, like Docker, Helm Charts, static analysis tools like Checkov, Terrascan and more. Technologies mentioned above are the introduction for the main focus of this thesis, which is static analysis and refactoring of the Kubernetes manifests for maintainability purposes. In that scope tools like Ansible, Terraform, Pulumi and others are analyzed as well. Building upon this knowledge this study examines the challenges related to Kubernetes manifests, like issues related to security and repetitive code blocks among others. It reviews existing static analysis approaches and tools aimed at improving code reliability, security and maintainability. The main contribution of this work is the proposal of a static analysis method. More specifically, this method suggests a way to refactor helm charts created by Helmify, which is an automation tool aiming to transform traditional manifests files to helm charts. The core target of this method is to present a way to reduce repetitive code as it occurs by the output of helmify. The core idea is to create a template, which will contain the union of all the features contained in the manifest files. Manifest files then have to be reconfigured to just reference this newly created template instead of containing all the feature they previously had. Overall the method proposed in this Thesis has been evaluated on some real world applications with results showing dramatic decrease in repetitive code, helping in the overall maintainability of the Infrastructure as Code.Τεκμήριο Infrastructure-as-code approach for on-premises automated Kubernetes deployment(2025-12-29) Giachalis, Konstantinos; Γιαχαλής, Κωνσταντίνος; Siris, Vasilios A.; Gkritzalis, Dimitrios; Xylomenos, GeorgeThis thesis develops and validates an automated provisioning system that transforms virtual infrastructure into ready-to-use basic Kubernetes environments through a coordinated application of Infrastructure-as-Code (IaC) tools. The system employs Terraform to establish computational resources on virtualized platforms, followed by Ansible-driven orchestration of software installation and cluster bootstrap procedures, with a seamless data flow between these stages. Performance assessment through repeated deployment trials revealed consistent cluster establishment within four minutes for a three node cluster, achieving significantly reduced deployment time compared to conventional manual procedures, while maintaining operational success throughout testing. Validation demonstrated that the resulting environment successfully executed diverse workloads, including multi-component monitoring systems, persistent databases, and resource-intensive enterprise applications. Network functionality testing confirmed proper pod-to-pod communication and policy enforcement across cluster nodes. Concerning resilience, the cluster presented appropriate behavior under failure conditions, with automated recovery mechanisms functioning as expected. In addition to that, configuration stability analysis confirmed that repeated automation execution produced consistent outcomes, without unintended state modifications. Findings demonstrated that coordinated automation frameworks can substantially reduce the provisioning time for locally-hosted Kubernetes installations, while producing environments adequate for software development and instructional contexts. This investigation contributes quantitative performance data, validates integration strategies between IaC automation technologies, and addresses the underrepresented domain of non-cloud infrastructure in the academic literature.
