Εντοπίστηκε ένα σφάλμα στη λειτουργία της ΠΥΞΙΔΑΣ όταν χρησιμοποιείται μέσω του προγράμματος περιήγησης Safari. Μέχρι να αποκατασταθεί το πρόβλημα, προτείνουμε τη χρήση εναλλακτικού browser όπως ο Chrome ή ο Firefox. A bug has been identified in the operation of the PYXIDA platform when accessed via the Safari browser. Until the problem is resolved, we recommend using an alternative browser such as Chrome or Firefox.
 

Investigating hallucinations in AI-based text generation using semantic entropy

dc.contributor.degreegrantinginstitutionAthens University of Economics and Business, Department of Informaticsen
dc.contributor.opponentToumpis, Stavrosen
dc.contributor.opponentPavlopoulos, Ioannisen
dc.contributor.thesisadvisorKoutsopoulos, Iordanisen
dc.creatorΑγγελίδης, Αναστάσιοςel
dc.creatorAngelidis, Anastasiosen
dc.date.accessioned2025-03-26T19:14:09Z
dc.date.available2025-03-26T19:14:09Z
dc.date.issued07-02-2025
dc.date.submitted2025-02-16 22:48:20
dc.description.abstractΤα Μεγάλα Γλωσσικά Μοντέλα (LLMs) έχουν φέρει επανάσταση στη Γενετική Φυσικής Γλώσσας (NLG), αλλά πάσχουν από παραισθήσεις—παραγόμενο περιεχόμενο που είναι πραγματολογικά λανθασμένο ή μη πιστό στο αρχικό υλικό. Αυτή η διπλωματική εργασία διερευνά τις επινοήσεις, μια συγκεκριμένη υποκατηγορία παραισθήσεων, χρησιμοποιώντας ένα πλαίσιο σημασιολογικής εντροπίας. Μέσω ομαδοποίησης σημασιολογικά ισοδύναμων απαντήσεων και υπολογισμού της εντροπίας, το πλαίσιο εντοπίζει αβέβαιες εξόδους που είναι πιθανό να αποτελούν επινοήσεις. Μια βασική τροποποίηση αντικαθιστά την υπολογιστικά απαιτητική αξιολόγηση σημασιολογικά ισοδύναμων απαντήσεων με LLMs με ελαφριά μοντέλα Transformer, προσαρμοσμένα για Συμπερασματική Φυσικής Γλώσσας (NLI). Τα πειραματικά αποτελέσματα σε σύνολα δεδομένων αξιολόγησης (TriviaQA, SQuAD, SVAMP και NQ Open) δείχνουν βελτιωμένη ακρίβεια, κλιμάκωση και αποδοτικότητα.el
dc.description.abstractLarge Language Models (LLMs) have revolutionized Natural Language Generation (NLG) but suffer from hallucinations—generated content that is factually incorrect or unfaithful to source material. This thesis investigates confabulations, a specific subset of hallucinations, using a semantic entropy framework. By clustering semantically equivalent responses and computing entropy, the framework identifies uncertain outputs likely to be confabulations. A key modification replaces computationally intensive LLM-based entailment evaluation with lightweight Transformer models fine-tuned for Natural Language Inference (NLI). Experimental results on benchmark datasets (TriviaQA, SQuAD, SVAMP, and NQ Open) demonstrate improved accuracy, scalability, and efficiency.en
dc.embargo.expire2025-02-16 22:48:20
dc.embargo.ruleOpen access
dc.format.extent82p.
dc.identifierhttp://www.pyxida.aueb.gr/index.php?op=view_object&object_id=11894
dc.identifier.urihttps://pyxida.aueb.gr/handle/123456789/2236
dc.languageen
dc.rightsCC BY-NC: Attribution + Noncommercial 4.0
dc.rights.urihttps://creativecommons.org/licenses/by-nc/4.0/
dc.subjectΠαραισθήσειςel
dc.subjectΜεγάλα γλωσσικά μοντέλαel
dc.subjectΜετασχηματιστήςel
dc.subjectΣυνεπακόλουθοel
dc.subjectHallucinationsen
dc.subjectLarge Language Model (LLM)en
dc.subjectTransformeren
dc.subjectEntailmenten
dc.titleInvestigating hallucinations in AI-based text generation using semantic entropyen
dc.title.alternativeΔιερεύνηση παραισθήσεων στην παραγωγή κειμένου με τεχνητή νοημοσύνη μέσω σημασιολογικής εντροπίαςel
dc.typeText

Αρχεία

Πρωτότυπος φάκελος/πακέτο

Τώρα δείχνει 1 - 1 από 1
Φόρτωση...
Μικρογραφία εικόνας
Ονομα:
Angelidis_2025.pdf
Μέγεθος:
2.78 MB
Μορφότυπο:
Adobe Portable Document Format