Περίληψη : | Ο όρος "hate speech" ή αλλιώς ρητορική μίσους στα ελληνικά, αναφέρεται σε οποιονδήποτε λόγο, γραπτή ή προφορική έκφραση, ή πρακτική που εκφράζει περιφρόνηση, μίσος ή προωθεί την βία εναντίον ενός ατόμου ή μιας ομάδας ατόμων λόγω ρατσισμού, θρησκευτικών πεποιθήσεων, σεξουαλικού προσανατολισμού, φύλου, εθνικής καταγωγής ή άλλων χαρακτηριστικών. Ο όρος αυτός έχει παρεισφρήσει στην καθημερινότητά μας τα τελευταία χρόνια, κυρίως λόγω της ανάπτυξης των τεχνολογιών και της δημοφιλίας των μέσων κοινωνικής δικτύωσης. Το διαδίκτυο, δίνοντας την δυνατότητα και την ελευθερία στους χρήστες να γράφουν ό,τι θέλουν ανώνυμα, γίνεται πρόσφορο έδαφος για να αναπτυχθεί η διαδικτυακή ρητορική μίσους, που στοχεύει μειονότητες. Η παρούσα εργασία ασχολείται κατά βάση με την διαδικτυακή ρητορική μίσους και πώς αυτή προσλαμβάνεται από άτομα τα οποία στοχοποιούνται από αυτήν. Συγκεκριμένα, θέλουμε να εξετάσουμε αν τα χαρακτηριστικά που συνδέονται με το βιολογικό και κοινωνικό φύλο, αλλά και την σεξουαλική ταυτότητα ενός ατόμου επηρεάζουν την οπτική του σχετικά με την ρητορική μίσους και συγκεκριμένα τις αποφάσεις του, όταν καλείται να μεταφράσει τοξικά σχόλια με σκληρό λεξιλόγιο, το οποίο ίσως και να τον στοχοποιεί. Για αυτό τον λόγο, επικεντρωθήκαμε σε δύο πλευρές της ρητορικής μίσους, τον μισογυνισμό και την ομοφοβία και δημιουργήσαμε ένα σύνολο δεδομένων το οποίο περιλαμβάνει 53 τοξικά σχόλια στα αγγλικά. Στην συνέχεια, διαμορφώσαμε 3 ομάδες επισημειωτών, των straight επισημειωτών, των LGBTQ+ επισημειωτών και των αυτόματων επισημειωτών, προκειμένου να τα μεταφράσουν στα ελληνικά. Οι δύο ομάδες περιλαμβάνουν δύο (2) άτομα η καθεμία και διαμορφώθηκαν με βάση τον σεξουαλικό προσανατολισμό των επισημειωτών, ενώ η τρίτη περιλαμβάνει συστήματα αυτόματης μετάφρασης, όπως είναι το DeepL και το Google Translate, αλλά και ένα μεγάλο γλωσσικό μοντέλο, το Chat GPT 3.5. Αφού συλλέξαμε τις μεταφράσεις από όλες τις ομάδες, χρησιμοποιήσαμε το Character Error Rate και το Word Error Rate για να εξετάσουμε τις διαφορές και τις ομοιότητες που υπάρχουν στις μεταφράσεις, αλλά και την συμφωνία ή διαφωνία που υπάρχει μέσα στην ομάδα, αλλά και στις ομάδες μεταξύ τους. Τα αποτελέσματα έδειξαν ότι οι straight επισημειωτές συμφωνούν περισσότερο μεταξύ τους σε σχέση με τους επισημειωτές άλλων ομάδων, ενώ οι αυτόματοι επισημειωτές είχαν μεγαλύτερη διαφωνία μεταξύ τους. Ακόμα, όσον αφορά στα ζευγάρια διαφορετικών ομάδων, οι straight και οι LGBTQ+ επισημειωτές συμφωνούν περισσότερο, σε σχέση με τα άλλα ζευγάρια, ενώ η ομάδα των αυτόματων και των LGBTQ+ επισημειωτών διαφωνεί περισσότερο. Τέλος, ασχοληθήκαμε με την επισημείωση των διαφορών των μεταφρασμένων σχολίων με βάση την σεξουαλική ταυτότητα του κάθε επισημειωτή και την ποιοτική ανάλυσή τους. The term "hate speech" refers to any speech, written or spoken expression, or practice that expresses contempt, hatred or initiates violence against a person or a group of persons because of racism, religious beliefs, sexual orientation, gender, national origin, or other characteristics. This term has become infiltrated in our daily lives in recent years, mainly due to the development of technologies and the popularity of social media platforms. The Internet, by giving users the possibility and freedom to write what they want anonymously, becomes fertile ground for online hate speech to develop, mainly targeting minorities. This paper is primarily concerned with online hate speech and how it is perceived by individuals who are targeted by it. Specifically, we want to examine whether the characteristics associated with an individual's biological and social gender, as well as their sexual identity, influence their perspective on hate speech and, in particular, their decisions when asked to translate toxic comments with harsh vocabulary, which may also target them. For this reason, we focused on two aspects of hate speech, misogyny and homophobia, and created a dataset that includes 53 toxic comments in English. We then formed 3 groups of annotators, straight annotators, LGBTQ+ annotators and automated annotators, to translate them into Greek. The two groups include two (2) people each and were formed based on the sexual orientation of the annotators, while the third group includes machine translation systems such as DeepL and Google Translate, as well as a large language model, Chat GPT 3.5. After collecting the translations from all groups, we used the Character Error Rate and Word Error Rate to examine the differences and similarities present in the translations, as well as the agreement or disagreement within the group and between groups. The results showed that straight annotators agreed more with each other than annotators in other groups, while automated annotators disagreed more with each other. Still, in terms of inter-group pairs, straight and LGBTQ+ annotators agree more, relative to other pairs, while the group of automated and LGBTQ+ annotators disagree more. Finally, we annotated the differences found between the translated comments based on the sexual identity of the annotator and we analyzed their content.
|
---|