ΠΥΞΙΔΑ Ιδρυματικό Αποθετήριο
και Ψηφιακή Βιβλιοθήκη
Συλλογές :

Τίτλος :Ερευνώντας την προκατάληψη στην τεχνητή νοημοσύνη: μελέτη περίπτωσης πρόβλεψης εγκληματικής συμπεριφοράς
Εναλλακτικός τίτλος :Investigating the prejudice in artificial intelligence algorithms:case study in prediction of criminal behaviour
Δημιουργός :Αντωνοπούλου, Γεωργία
Συντελεστής :Λεκάκος, Γεώργιος (Επιβλέπων καθηγητής)
Κορφιάτης, Νικόλαος (Εξεταστής)
Ζαχαριάδης, Εμμανουήλ (Εξεταστής)
Οικονομικό Πανεπιστήμιο Αθηνών, Τμήμα Διοικητικής Επιστήμης και Τεχνολογίας (Degree granting institution)
Τύπος :Text
Φυσική περιγραφή :45σ.
Γλώσσα :el
Αναγνωριστικό :http://www.pyxida.aueb.gr/index.php?op=view_object&object_id=10346
Περίληψη :Τα συστήματα AI αυξάνονται σε δημοτικότητα και εφαρμόζονται ευρέως σε πολλούς τομείς. Τα μέσα ενημέρωσης και η βιβλιογραφία έχουν αναφέρει πολυάριθμα περιστατικά μεροληπτικών συστημάτων τεχνητής νοημοσύνης. Έχουν εντοπιστεί πολλές αιτίες και λύσεις για τα μεροληπτικά αποτελέσματα των αλγορίθμων τεχνητής νοημοσύνης προς συγκεκριμένα άτομα ή ομάδες ατόμων ενώ αρκετά ιδρύματα έχουν δημοσιεύσει κατευθυντήριες γραμμές δεοντολογίας.Σκοπός αυτής την εργασίας είναι η διερεύνηση και η κατανόηση των τρόπων και των διαδικασιών, τόσο κατά την σχεδίαση και την υλοποίηση των αλγορίθμων όσο και των στρατηγικών των εταιρειών στον κλάδο, μέσω των οποίων στερεότυπα και προκαταλήψεις εισέρχονται στα συστήματα της τεχνητής νοημοσύνης. Επιπλέον, γίνεται μια εκτενής παρουσίαση πρακτικών που εφαρμόζονται, ή μπορούν να εφαρμοστούν, για τον εντοπισμό και την αντιμετώπιση των μεροληπτικών αποτελεσμάτων.Στην πρακτική ανάλυση της εργασίας, δημιουργήθηκε ένα μοντέλο λήψης αποφάσεων μέσω RapidMiner, το οποίο εκπαιδεύτηκε δυο φορές. Την πρώτη φορά με σύνολο δεδομένων που περιείχε τα δημογραφικά στοιχεία σαν μεταβλητές πρόβλεψης και την δεύτερη φορά αφού οι μεταβλητές αυτές αφαιρέθηκαν.
AI systems are growing in popularity and are widely applied in many fields. The media and literature have reported numerous incidents of biased Artificial Intelligent systems. Many causes and solutions have been identified for the biasing effects of artificial intelligence algorithms towards specific individuals or groups of individuals and several institutions have published ethical guidelines.The purpose of this paper is to explore and understand the ways and processes, both in the design and implementation of algorithms and the strategies of companies in the industry, through which stereotypes and prejudices enter AI systems. In addition, there is an extensive presentation of practices that are, or can be, implemented to detect and address biased results.In the practical analysis of the work, a decision-making model was created through RapidMiner, which was trained twice. The first time with a data set that contained demographic information as predictor variables and the second time after these variables were removed.
Λέξη κλειδί :Τεχνητή νοημοσύνη
Αλγόριθμος
Μεροληπτικά συστήματα τεχνητής νοημοσύνης
Μεροληπτικοί αλγόριθμοι
Μεροληπτικά αποτελέσματα
Artificial Intelligence (AI)
Algorithms
Bias AI systems
Bias AI algorithms
Bias AI decisions
Διαθέσιμο από :2023-04-03 23:34:35
Ημερομηνία έκδοσης :03-04-2023
Ημερομηνία κατάθεσης :2023-04-03 23:34:35
Δικαιώματα χρήσης :Free access
Άδεια χρήσης :

Αρχείο: Antonopoulou_2023.pdf

Τύπος: application/pdf