Περίληψη : | Τα συστήματα AI αυξάνονται σε δημοτικότητα και εφαρμόζονται ευρέως σε πολλούς τομείς. Τα μέσα ενημέρωσης και η βιβλιογραφία έχουν αναφέρει πολυάριθμα περιστατικά μεροληπτικών συστημάτων τεχνητής νοημοσύνης. Έχουν εντοπιστεί πολλές αιτίες και λύσεις για τα μεροληπτικά αποτελέσματα των αλγορίθμων τεχνητής νοημοσύνης προς συγκεκριμένα άτομα ή ομάδες ατόμων ενώ αρκετά ιδρύματα έχουν δημοσιεύσει κατευθυντήριες γραμμές δεοντολογίας.Σκοπός αυτής την εργασίας είναι η διερεύνηση και η κατανόηση των τρόπων και των διαδικασιών, τόσο κατά την σχεδίαση και την υλοποίηση των αλγορίθμων όσο και των στρατηγικών των εταιρειών στον κλάδο, μέσω των οποίων στερεότυπα και προκαταλήψεις εισέρχονται στα συστήματα της τεχνητής νοημοσύνης. Επιπλέον, γίνεται μια εκτενής παρουσίαση πρακτικών που εφαρμόζονται, ή μπορούν να εφαρμοστούν, για τον εντοπισμό και την αντιμετώπιση των μεροληπτικών αποτελεσμάτων.Στην πρακτική ανάλυση της εργασίας, δημιουργήθηκε ένα μοντέλο λήψης αποφάσεων μέσω RapidMiner, το οποίο εκπαιδεύτηκε δυο φορές. Την πρώτη φορά με σύνολο δεδομένων που περιείχε τα δημογραφικά στοιχεία σαν μεταβλητές πρόβλεψης και την δεύτερη φορά αφού οι μεταβλητές αυτές αφαιρέθηκαν. AI systems are growing in popularity and are widely applied in many fields. The media and literature have reported numerous incidents of biased Artificial Intelligent systems. Many causes and solutions have been identified for the biasing effects of artificial intelligence algorithms towards specific individuals or groups of individuals and several institutions have published ethical guidelines.The purpose of this paper is to explore and understand the ways and processes, both in the design and implementation of algorithms and the strategies of companies in the industry, through which stereotypes and prejudices enter AI systems. In addition, there is an extensive presentation of practices that are, or can be, implemented to detect and address biased results.In the practical analysis of the work, a decision-making model was created through RapidMiner, which was trained twice. The first time with a data set that contained demographic information as predictor variables and the second time after these variables were removed.
|
---|