Πλοήγηση ανά Επιβλέπων "Malakasiotis, Prodromos"
A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Α Β Γ Δ Ε Ζ Η Θ Ι Κ Λ Μ Ν Ξ Ο Π Ρ Σ Τ Υ Φ Χ Ψ Ω
Τώρα δείχνει 1 - 10 από 10
- Αποτελέσματα ανά σελίδα
- Επιλογές ταξινόμησης
Τεκμήριο Anomaly detection for banking applications(02/01/2022) Fourka, Maria-Niki; Φούρκα, Μαρία-Νίκη; Athens University of Economics and Business, Department of Informatics; Malakasiotis, ProdromosIn recent years, the number of applications for internet and mobile banking platformshas increased considerably, due to advances in technology and the push to transition tomore digital systems in response to the COVID-19 pandemic. This in turn has forcedbanks to evolve and expand their offered services from simply processing payments tohandling more complex tasks such as fully digital banking, instant loans, credit checking,and contracts, entirely online. Businesses use these services through API gateways, which,due to their importance, must operate reliably. This thesis proposes a method whichderives features from the event logs generated by API calls and uses self-supervision todetect irregularities across multiple time windows and dimensions. Experiments show thatFenceGAN (a type of GAN with a modified loss function) outperforms commonly usedunsupervised anomaly detection methods such as Isolation Forests and State of the Artdetectors like DAGMM by over 29% in terms of PR-AUC.Τεκμήριο Code generation in repository level through LLMs(26-11-2024) Δρούζας, Βασίλειος Ηλίας; Drouzas, Vasileios-Ilias; Athens University of Economics and Business, Department of Informatics; Vassalos, Vasilios; Vrontos, Ioannis; Malakasiotis, ProdromosΣτη σύγχρονη µηχανιϰή λογισµιϰού, η αποδοτιϰή αναγνώριση σχετιϰού ϰώδιϰα εντός µεγάλων αποϑετηρίων (repositories) έχει γίνει ολοένα ϰαι πιο δύσϰολη λόγω της αυξανόµενης πολυπλοϰότητας ϰαι ϰλίµαϰας των βάσεων για ϰώδιϰα. Στόχος αυτής της διπλωµατιϰής εργασίας είναι η ανάπτυξη µιας λύσης ιϰανής να παράγει αρχεία ϰώδιϰα που σχετίζονται µε συγϰεϰριµένα προγραµµατιστιϰά αρχεία εντός ενός αποϑετηρίου, χωρίς την ανάγϰη εξαντλητιϰής ανάλυσης του αποϑετηρίου στο σύνολό του για την εύρεση των πιο σχετιϰών αρχείων. Αυτή η µέϑοδος αξιοποιεί πολλαπλούς παράγοντες, όπως η τεϰµηρίωση (όπου είναι διαϑέσιµη), οι εισαγωγές βιβλιοϑηϰών, οι ϰλήσεις συναρτήσεων ϰαι τα ονόµατα µεταβλητών, για να αποµονώσει δυναµιϰά τα σχετιϰά αρχεία.Η αναπτυχϑείσα λύση, AutoTestLab, βασίζεται σε αυτήν την ιϰανότητα αυτοµατοποίησης της δηµιουργίας, εϰτέλεσης ϰαι επιϰύρωσης µονάδων δοϰιµών για τα αναγνωρισµένα αρχεία. Με την ενσωµάτωση Μεγάλων Γλωσσιϰών Μοντέλων (LLMs), το AutoTestLab ϰαταφέρνει να βελτιστοποιήσει τη δηµιουργία δοϰιµών χρησιµοποιώντας few-shot learning, βελτιώνοντας την αϰρίβεια των δοϰιµών αϰόµη ϰαι για ϰώδιϰες µε περιορισµένη τεϰµηρίωση. Η παρούσα διπλωµατιϰή εργασία αξιολογεί την απόδοση του AutoTestLab µέσω πειραµάτων που πραγµατοποιήϑηϰαν σε βιβλιοϑήϰες Apache Commons, αποδειϰνύοντας την ιϰανότητά του να διαχειρίζεται σύνϑετους ϰώδιϰες ϰαι να δηµιουργεί αυτόµατα αξιόπιστα unit tests. Η προσέγγιση συνδυάζει τεχνιϰέςδηµιουργίας ϰώδιϰα σε επίπεδο αποϑετηρίου ϰαι δυναµιϰή επιϰύρωση δοϰιµών για να εξασφαλίσει υψηλή ϰάλυψη ϰαι ποσοστά επιτυχίας.Παρά τα υποσχόµενα αποτελέσµατα στην ϰάλυψη των δοϰιµών ϰαι την αποτελεσµατιϰότητα, το σύστηµα αποϰαλύπτει προϰλήσεις, όπως η διαχείριση πιο σύνϑετων, αλληλοεξαρτώµενων παϰέτων ϰαι η ϰλιµάϰωση σε µεγαλύτερα σύνολα δεδοµένων. Μελλοντιϰές έρευνες ϑα επιϰεντρωϑούν στην επέϰταση του συνόλου δεδοµένων, στην ενσωµάτωση της δηµιουργίας µε επαυξηµένη ανάϰτηση (Retrieval-Augmented Generation - RAG) ϰαι στη βελτίωση της προσαρµοστιϰότητας του συστήµατος σε ένα ευρύτερο φάσµα περιβαλλόντων λογισµιϰού.Τεκμήριο Compressing and accelerating the inference of transformer-based models(29-12-2022) Μαρούδας, Στυλιανός; Maroudas, Stylianos; Athens University of Economics and Business, Department of Informatics; Markakis, Evangelos; Vassalos, Vasilios; Malakasiotis, ProdromosΗ εποχή της προεϰπαίδευσης (pre-training) ϰαι προσαρμογής (fine-tuning) τεράστιων γλωσσιϰών μοντέλων έδωσε την δυνατότητα στις επιχειρήσεις να μπορούν να επιλύουν πολύπλοϰα γλωσσιϰά προβλήματα με ευϰολία. Ωστόσο, όσον αφορά την εγϰατάσταση αυτών των μοντέλων (deployment), οι ογϰώδεις απαιτήσεις για την αποϑήϰευσή τους αυξάνουν την ανάγϰη υπολογιστιϰών πόρων σε μεγάλο βαϑμό, με άμεσο επαϰόλουϑο την επιβολή ανεπιϑύμητων οιϰονομιϰών συνεπειών. Η πρόϰληση αυτή μπορεί να αντιμετωπιστεί με τη συμπίεση μοντέλων. Στην παρούσα εργασία, πρώτα παρουσιάζονται οι τρεις πιο δημοφιλείς τεχνιϰές συμπίεσης μοντέλων, δηλαδή το ϰλάδεμα (pruning), η ϰβαντοποίηση (quantization) ϰαι η διύλιση γνώσης (knowledge distillation), ϰαϑώς ϰαι η εφαρμογή τους σε μοντέλα που βασίζονται σε μετασχηματιστές (transformers). Στη συνέχεια, αναπτύσσουμε τη Σταδιαϰή Συμπίεση, έναν ειδιϰών-προβλημάτων (task specific) αγωγό (pipeline) συμπίεσης που συνδυάζει όλες τις προαναφερϑείσες τεχνιϰές, για την δημιουργία πιο αποτελεσματιϰών (ελαφρύτερων ϰαι ταχύτερων) μοντέλων που εγϰαϑίστανται ευϰολότερα στην παραγωγή, χωρίς να ϑυσιάζεται πολύ από την αρχιϰή τους απόδοση. Αρχιϰά αξιολογούμε τον προτεινόμενο αγωγό συμπίεσης σε 5 διαφορετιϰά προβλήματα (down-stream tasks), που ϰυμαίνονται από την ϰατηγοριοποίηση εγγράφων, έως την ϰατηγοριοποίηση προτάσεων ϰαι συμβόλων (tokens). Στη συνέχεια, παρέχουμε πρόσϑετες αποδείξεις για το ότι η συμπίεση μοντέλων είναι πολύ πιο αποτελεσματιϰή από την εξαρχής (from-scratch) προεϰπαίδευση ϰαι προσαρμογή μιϰρότερων μοντέλων. Τέλος, υποστηρίζουμε ότι όταν υιοϑετείται μία σταδιαϰή αντί για μία πιο «άμεση» προσέγγιση συμπίεσης, η αντιστάϑμιση συμπίεσης/απόδοσης μπορεί να βελτιωϑεί σημαντιϰά.Τεκμήριο Cross-lingual adaptation in automatic speech recognition(12/04/2021) Gkouzias, Thomas; Γκούζιας, Θωμάς; Athens University of Economics and Business, Department of Informatics; Androutsopoulos, Ion; Vassalos, Vasilios; Malakasiotis, ProdromosAutomatic speech recognition is a complex task in Natural Language Processing, and whilehumans do it effortlessly, machines have a harder time with it. Nowadays, the advent ofartificial intelligence and neural networks have improved our ability to tackle tasks likespeech recognition. Nevertheless, a serious disadvantage of such a task, is the difficultyof finding appropriate and sufficient data. In this thesis, we seek a solution to this issuefor Greek speech recognition systems, by exploring whether a cross-lingual approach canimprove these very systems. To achieve this, we exploit transfer learning, and particularlya powerful pre-trained model called wav2vec 2.0 XLSR. Trained on fifty-three languagesother than Greek, it serves as an effective way to observe if "knowledge" of foreign speechcan be used to help speech recognition systems with the Greek language. We also examinehow data availability affects our models, even when following a transfer learning strategy.Τεκμήριο Exploring the effects of Stochastic Gradient Descent variants on Transformer models for Natural Language Processing tasks(23-12-2022) Γκούτη, Μαρία-Νεφέλη; Gkouti, Maria-Nefeli; Athens University of Economics and Business, Department of Informatics; Markakis, Evangelos; Androutsopoulos, Ion; Toumpis, Stavros; Malakasiotis, ProdromosΟι περισσότεροι αλγόριθμοι στη Βαθιά μάθηση εμπεριέχουν τεχνικές βελτιστοποίησης. Με τον όρο βελτιστοποίηση εννοούμε την ελαχιστοποίηση μιας συνάρτησης. Η συνάρτη- ση αυτή ονομάζεται αντικειμενική συνάρτηση, και στην περίπτωση της Βαθιάς Μάθησης πολλές φορές καλείται συνάρτηση κόστους/σφάλματος. Ένας τέτοιος αλγόριθμος βελτι- στοποίησης βρίσκει τις τιμές των παραμέτρων (τα βάρη του νευρωνικού δικτύου) που ελαχιστοποιούν το σφάλμα του μοντέλου.Τα τελευταία χρόνια έχουν προταθεί μια πληθώρα τέτοιων αλγορίθμων, με πιο ευρέως διαδεδομένο τον Adam (Adaptive Moment Optimization algorithm). Ωστόσο, η μέχρι τώρα βιβλιογραφία απαριθμεί κάποιες εκατοντάδες τέτοιων μεθόδων, με τις περισσότερες να αποτελούν παραλλαγές του αλγορίθμου Adam. Το ερώτημα αν είναι καθοριστική στην απόδοση του μοντέλου, η επιλογή του αλγορίθμου βελτιστοποίησης είναι ανοιχτό. Εμπειρικά, φαίνεται ότι η καλύτερη επιλογή εξαρτάται από το πρόβλημα που καλείται να λύσει το νευρωνικό δίκτυο. Επιπλέον, τέτοιοι αλγόριθμοι περιέχουν αρκετές υπερπαραμέτρους, όπως είναι ο ρυθμός μάθησης (learning rate), στις οποίες αν εκχωρηθούν κατάλληλες τιμές, η απόδοση των αλγορίθμων αυξάνεται σημαντικά. Έχουν γίνει αρκετές προσπάθειες από ερευνητές, με σκοπό να αποφανθούν ποιος αλγόριθμος είναι προτιμότερος, σε σχέση με το ελάχιστο σφάλμα που παρουσιάζει το δίκτυο όταν εισάγουμε καινούρια δεδομένα και σε συνάρτηση πάντα με το υπολογιστικό κόστος που απαιτείται για να βρεθούν οι βέλτιστες τιμές των υπερπαραμέτρων του. Φαίνεται η επιστημονική κοινότητα να συγκλίνει στην άποψη ότι δεν υπάρχει αλγόριθμος βελτιστο- ποιήσης που να τα πηγαίνει καλύτερα σε όλα τα προβλήματα. Σε αυτή την εργασία, επιβεβαιώνουμε τον προηγούμενο ισχυρισμό, εστιάζοντας σε προβλήματα Επεργασίας Φυσικής Γλώσσας, και συγκεκριμένα σε προβλήματα ταξινόμησης κεινένων που εμπεριέχονται στο General Language Understanding Evaluation (GLUE) benchmark. Μελετάμε και συγκρίνουμε παραλλαγές του Adam, εξετάζοντας το ρόλο που παίζουν οι υπερπαράμετροι στην απόδοση τους. Στις περισσότερες περιπτώσεις οι διαφορές στην απόδοση τους είναι μικρές και συνήθως ασταθείς. Ένα ενδιαφέρον αποτέλεσμα αποτελεί ότι ο Stochastic Gradient Descent (SGD) with momentum έχει συγκρίσιμα αποτελέσματα με βελτιωμένες εκδοχές του Adam, ενώ ο απλός SGD εμφανίζει σημαντικά χειρότερα αποτελέσματα.Τεκμήριο Generalized 0-shot learning in image classification: with the quasi-fully supervised method and variants(2021) Papadoudis, Stratos Kovalkov; Παπαδούδης, Στράτος; Athens University of Economics and Business, Department of Informatics; Androutsopoulos, Ion; Vassalos, Vasilios; Malakasiotis, ProdromosIn this work we explore the generalized zero-shot problem in image classification specifically to address the primary problem in this setting, the domain shift, by which, naive models are biased to predict images in inference mode towards the seen classes. There exists a variety of methods addressing the problem in various settings. In this work, the quasi-fully supervised approach is explored, along with variations in combination with the EfficientNet, for producing visual features, to test if various biases toward unseen classes have an improving effect on their prediction.Τεκμήριο Large pre-trained language model for contractual and regulatory text(01-10-2022) Λέγκας, Σωτήριος; Legkas, Sotirios; Athens University of Economics and Business, Department of Informatics; Markakis, Evangelos; Vassalos, Vasilios; Malakasiotis, ProdromosΗ ανάλυση πολλαπλών ϰαι ιδιαίτερα εϰτενών νοµιϰών εγγράφων απαιτεί πολύωρη ενασχόληση αυτών που τα χρησιµοποιούν. Για το λόγο αυτό, πολλές νεοφυείς επιχειρήσεις δραστηριοποιούνται στον ϰλάδο της τεχνητής νοηµοσύνης (ΤΝ) παρέχοντας ανάλυση ϰειµένων µέσω τεχνιϰών βαϑιάς µάϑησης, που εξάγουν χρήσιµες πληροφορίες από τα έγγραφα. Οι νεοφυείς επιχειρήσεις πρέπει να προσαρµόσουν την τεχνολογία τους ανάλογα µε τις τάσεις των γλωσσιϰών µοντέλων (ΓΜ) δισεϰατοµµυρίων παραµέτρων. Ωστόσο, η ανάπτυξη µεγάλων µοντέλων είναι δύσϰολη εξαιτίας των υψηλών απαιτήσεων σε υπολογιστιϰούς πόρους ϰαι των οιϰονοµιϰών συνεπειών από την ανάπτυξη ϰαι την ενσωµάτωση τους σε µία εφορµογή. Η παρούσα µελέτη παρέχει σηµαντιϰές πληροφορίες σχετιϰάµε το προαναφερϑέν πρόβληµα, ϰαϑώς αϰολουϑεί τα βήµατα του τµήµατος έρευνας ϰαι ανάπτυξης µιας νεοφυούς επιχείρησης, εξειδιϰευµένης στην εφαρµογή τεχνολογίας ΤΝ µε τεχνιϰές βαϑιάς µάϑησης σε νοµιϰά ϰείµενα. Αϰολουϑώντας την µελέτη του Χαλϰίδη ϰ.ά., 2020, που έδειξε ότι τα προεϰπαιδευµένα µοντέλα στον συγϰεϰριµένο τοµέα των νοµιϰών ϰειµένων αποδίδουν ϰαλύτερα σε διάφορες νοµιϰές διεργασίες επεξεργασίας φυσιϰής γλώσσας (ΕΦΓ), προ-εϰπαιδεύουµε από την αρχή πολλαπλές παραλλαγές ενός πολυγλωσσιϰού ΓΜ σε νοµιϰά ϰείµενα µε βάση την αρχιτεϰτονιϰή του µοντέλου RoBERTa. Τα ϰείµενα που χρησιµοποιήϑηϰαν αποτελούνται από συµβατιϰά ϰαι ϰανονιστιϰά νοµιϰά ϰείµενα σε δέϰα διαφορετιϰές γλώσσες. Στόχος είναι η εϰ νέου χρήση των προ-εϰπαιδευµένων µοντέλων ως ραχοϰοϰαλιά οποιουδήποτε µοντέλου στο µέλλον για την εϰπαίδευση πολλαπλών ταξινοµητών που µας ενδιαφέρουν, µε περιορισµένα δεδοµένα εϰπαίδευσης σε σύγϰριση µε εϰείνα που απαιτούνται για να έχουν ίση απόδοση µε ένα µη προ-εϰπαιδευµένο µοντέλο. Τέλος, η απόδοση των µοντέλων έχει ωςσηµεία αναφοράς 5 νοµιϰές διεργασίες ΕΦΓ, οι οποίες αποτελούνται από δηµόσια ϰαι ιδιωτιϰά σύνολα δεδοµένων. Τα σύνολα δεδοµένων απαρτίζονται απο 3 αγγλιϰά ϰαι 2 πολυγλωσσιϰά σύνολα διαφόρων τύπων διεργασιών (ταξινόµηση εγγράφων/προτάσεων, συµπερασµατολογία φυσιϰής γλώσσας ϰαι εξαγωγή οντοτήτων). Τα αποτελέσµατα έδειξαν ότι τα µεγαλύτερα µοντέλα που εϰπαιδεύτηϰαν σε δεδοµένα συγϰεϰριµένου τοµέα ϰειµένων αποδίδουν ϰαλύτερα από τα µιϰρότερα µοντελα ϰαι ότι τα µοντέλα C-XLM µας ξεπερνούν σε απόδοση τα αντίστοιχα µοντέλα XLM-R που έχουν εϰπαιδευτεί σε δεδοµένα ϰειµένων γενιϰής φύσεως, παρόλο που χρησιµοποιούν µιϰρότερο λεξιλόγιο ϰαι έχουν προ-εϰπαιδευτεί για λιγότερα βήµατα. Επιπλέον, τα µιϰρότερα µοντέλα που εϰπαιδεύτηϰαν στον τοµέα νοµιϰών εγγράφων επιτυγχάνουν ανταγωνιστιϰά αποτελέσµατα έναντι µεγαλύτερων γενιϰών µοντέλων. Εν ϰαταϰλείδι, η προ-εϰπαίδευση ενός αρϰετά µεγάλου ΓΜ για διεργασίες συσχετιζόµενες µε συµβάσεις ϰαι ϰανονιστιϰά νοµιϰά ϰείµενα επιτυγχάνει ϰορυφαία αποτελέσµατα ταξινόµησης σε σύγϰριση µε µιϰρότερα ϰαι µη εξειδιϰευµένα στον τοµέα µοντέλα.Τεκμήριο Leveraging ChatGPT and NLP for enhanced FX market news and analysis(07-03-2024) Καπτσίκας, Αγιόπουλος; Kaptsikas, Agiopoulos; Athens University of Economics and Business, Department of Informatics; Androutsopoulos, Ion; Vassalos, Vasilios; Malakasiotis, ProdromosΠρόσφατα, οι εξελίξεις στην Τεχνητή Νοημοσύνη (ΤΝ) έχουν επαναστατήσει πολλές πτυχές του τρόπου, με τον οποίο πραγματοποιούνται οι χρηματοοικονομικές συναλλαγές. Αδιαμφισβήτητα, μία από τις πιο πολλά υποσχόμενες, είναι η άνοδος των Μεγάλων Γλωσσικών Μοντέλων (ΜΓΜ), όπως το ChatGPT. Τα προηγούμενα χρόνια, πραγματοποιήθηκε αυξανόμενος αριθμός μελετών, που προσπαθούσαν να ερευνήσουν τις δυνητικές εφαρμογές των ΜΓΜ σε διάφορους τομείς. Ωστόσο, λίγες από αυτές αφορούσαν τις επιπτώσεις του ChatGPT στην αγορά συναλλάγματος. Επομένως, αυτή η διατριβή σκοπεύει να αποκαλύψει πόσο αποτελεσματικά μπορεί το ChatGPT να υποστηρίξει τους επενδυτές στις αγοραπωλησίες νομισμάτων. Για τον σκοπό αυτό, το ChatGPT εφαρμόζεται και αξιολογείται σε τρεις διαφορετικές εργασίες: την ανάλυση συναισθήματος, την περίληψη, και τις απαντήσεις σε ερωτήσεις. Όσον αφορά τα νομίσματα, που εξετάζονται, όλες τρεις εργασίες λαμβάνουν υπόψη το Αμερικανικό Δολάριο, και τα κυριότερα νομισματικά του ζεύγη. Σχετικά με τα χρησιμοποιούμενα σύνολα δεδομένων, για τις εργασίες της ανάλυσης συναισθήματος και της περίληψης, τα δεδομένα περιλάμβαναν οικονομικά άρθρα ειδήσεων σχετικά με τα νομίσματα, ενώ για την εργασία απάντησης σε ερωτήσεις, λαμβάνονται υπόψη προσεκτικά σχεδιασμένες ποσοτικές ερωτήσεις σχετικά με τις ιστορικές τιμές των νομισμάτων. Τα αποτελέσματα των αξιολογήσεων έδειξαν ενθαρρυντικά στοιχεία, από τα οποία προκύπτει, ότι το ChatGPT είναι ικανό να εκτελεί και τις τρεις εργασίες με σημαντική απόδοση, ενδεχομένως μπορώντας να θεωρηθεί, ως μια δυνητικά χρήσιμη προσθήκη σε αυτοματοποιημένες εφαρμογές στον τομέα της αγοράς συναλλάγματος.Τεκμήριο Loan risk assessment from Greek legal reports(2021) Kekkis, Georgios; Athens University of Economics and Business, Department of Informatics; Androutsopoulos, Ion; Vassalos, Vasilios; Malakasiotis, ProdromosIn this thesis we experimented with deep learning techniques in order to design regressionmodels that can estimate the risk of customers of NBG depending on the legal reports that theLegal Department of NBG has extracted, in order to conclude if the associated customer iscapable of paying off. NBG has provided us with an imbalanced dataset of 1,100 annotatedlegal reports. There are 4 categories of risk according to this dataset: ‘not known’, ‘low-risk’,‘intermediate-risk’, and ‘high-risk’. Due to computational limitations, tuning was performedmanually, by trying many different hyperparameters and keeping the optimal combinations ofthem. Also, we experimented with pretrained Greek-BERT embeddings and with Word2VEcembeddings which were constructed manually with open-source Greek corpora. Moreover,inspired from existing architectures which are commonly used on image data, we propose anovel combination of them which is suitable for text data as well. Our proposed combinationcontains features from the Inception (Google) and Deep Pyramid models, aiming to increasethe receptive field of our models. We experimented with Bi-LSTMs with Attention, DeepPyramid CNNs, Dilated CNNs, Inception models combined with CNNs and Bi-LSTMs withAttention and pre-trained Greek-BERT. Because our dataset was relatively small, we used 10-fold Cross Validation with Stratified Sampling for models. In addition, in order to form thefinal predictions on the test set we used two approaches. The first was to take the average ofthe in-fold predictions and the second was to take a weighted average of them, where theweights extraction depends on the MAE of the predictions. Last, we computed our models’performances in the entire dataset and with the ‘not known’ category excluded. Ourexperimental results showed, in both dataset formats, that Inception and Deep Pyramid modelswith pre-trained Greek-BERT embeddings and the weighted average approach, outperformwell established architectures in the field of NLP.Τεκμήριο Toxicity detection on Greek tweetsAnagnostopoulos, Theodoros; Athens University of Economics and Business, Department of Informatics; Pavlopoulos, Ioannis; Malakasiotis, Prodromos; Vassalos, VasiliosIn this thesis, we experimented with detecting verbally offensive (toxic) greek tweets withgreek & multilingual transformer models. We firstly compared said BERT models on apublicly available greek dataset on toxic tweet detection. Having been trained on that publicdataset, we tested their ability to generalize their knowledge on our newly annotated datasetconstructed, in collaboration with PALOservices. Furthermore, we applied Semi-Supervisedlearning techniques on 10,000 unlabeled data to augment the existing training data, andfurther increase performance on our dataset. We also further pretrained a BERT model on300,000 unlabeled tweets to examine its capacity to learn new tokens and detect toxicity in amore reliable way. Lastly, we experimented with sentiment and emotion in tweets, not only toinvestigate possible correlations with toxicity but also, once again, to maximize our model’spredictive ability on offensive language detection.