ΠΥΞΙΔΑ Ιδρυματικό Αποθετήριο
και Ψηφιακή Βιβλιοθήκη
Συλλογές :

Τίτλος :Ethical implications of algorithmic hiring
Εναλλακτικός τίτλος :Ηθικές επιπτώσεις της αλγοριθμικής πρόσληψης
Δημιουργός :Μαριόλη-Κονιδάρη, Ειρήνη
Marioli Konidari, Eirini
Συντελεστής :Mitrou, Lilian (Επιβλέπων καθηγητής)
Stergiopoulos, George (Εξεταστής)
Gkritzalis, Dimitrios (Εξεταστής)
Athens University of Economics and Business, Department of Informatics (Degree granting institution)
Τύπος :Text
Φυσική περιγραφή :75p.
Γλώσσα :en
Αναγνωριστικό :http://www.pyxida.aueb.gr/index.php?op=view_object&object_id=11472
Περίληψη :Οι ραγδαίες εξελίξεις της τεχνολογίας έχουν οδηγήσει στην υιοθέτηση της Τεχνητής Νοημοσύνης από εργοδότες και εταιρίες στις διαδικασίες πρόσληψης προσωπικού. Οι αυτόματες μέθοδοι πρόσληψης υπόσχονται ποικιλομορφία και αποδοτικότερη αναζήτηση εργατικού δυναμικού. Ωστόσο, παρά τις υποσχέσεις αυτές, συχνά η πραγματικότητα διαφέρει. Οι αλγόριθμοι πρόσληψης κρύβουν προκαταλήψεις του παρελθόντος που δυσχεραίνουν την θέση ιστορικά περιθωριοποιημένων κοινωνικών ομάδων και μειονοτήτων. Επιπρόσθετα, λόγω της περιπλοκότητας και αδιαφάνειας των συστημάτων αυτών, επικρατεί αβεβαιότητα για τις ακριβείς συσχετίσεις από τις οποίες προκύπτουν τα αποτελέσματα. Ταυτόχρονα, μεγάλο κομμάτι της πληροφόρησης αυτής μπορεί συνειδητά να μην αποκαλύπτεται στους υποψηφίους της θέσης. Η ενδεχόμενη εμφάνιση των προαναφερθέντων ζητημάτων θα ισοδυναμούσε με σημαντικές ηθικές, νομικές και κοινωνικές επιπτώσεις. Ταυτοχρόνως, η έλλειψη επιμόρφωσης σε ηθικά ζητήματα και κινδύνους της Τεχνητής Νοημοσύνης, ελλοχεύει επιπλέον απειλές και καθιστά αναγκαία την υιοθέτηση μέτρων προστασίας. Ενώ οι κίνδυνοι της ΤΝ στην πρόσληψη εργαζομένων είναι πολυσυζητημένοι, υπάρχει έλλειψη επαρκούς νομοθετικού πλαισίου. Παρ’ότι υπάρχουν αναφορές αυτόματων εργαλείων στον Γενικό Κανονισμό για την Προστασία Προσωπικών Δεδομένων, δεν υφίσταται νομοθεσία που να προστατεύει εξ ολοκλήρου από την Τεχνητή Νοημοσύνη. Ταυτοχρόνως η ευθύνη θα πρέπει να επιμερίζεται σε όλα τα ενδιαφερόμενα μέλη (οργανισμούς, προγραμματιστές, νομοθέτες, το κοινό και ερευνητές) στο να διαμορφώσουν συλλογικά το έδαφος για την δημιουργία αλγορίθμων πρόσληψης που θα είναι δίκαιοι, διαφανείς και ηθικοί. Η σχεδίαση συστημάτων με γνώμονα τα ανθρώπινα δικαιώματα, την δικαιοσύνη και τις αρχές της διαφάνειας και της λογοδοσίας πρέπει να είναι προτεραιότητα του κάθε πάροχου λογισμικού ΤΝ. Επιπρόσθετα μέτρα προστασίας όπως συστηματικοί έλεγχοι, ανθρώπινη παρέμβαση όπου είναι αναγκαίο και διαρκής εκπαίδευση και πληροφόρηση, θα ενισχύσουν την ασφαλέστερη ανάπτυξη λογισμικού. Εν κατακλείδι, η παρούσα διπλωματική εργασία έχει σαν στόχο να τονίσει σε όλα τα ενδιαφερόμενα μέλη τις επιπλοκές των αυτόματων διαδικασιών πρόσληψης προσωπικού, ενώ ταυτοχρόνως να δοθούν προτάσεις για την ασφαλέστερη, υπευθυνότερη και δικαιότερη περιήγηση στο ραγδαία αναπτυσσόμενο αυτό τοπίο.
Technological advancements have led to the adoption of Artificial Intelligence in hiring processes by employers and hiring managers. Automated hiring approaches offer the potential of a more diversified and effective candidate pool. However, sometimes the reality differs. Algorithmic hiring tools often hide unfairness and biases that affect historically marginalized groups. Moreover, due to the complexity and opacity of such systems, it often needs to be clarified or disclosed to candidates how those systems come to a specific decision. The possibility of preexisting biases and lack of transparency raises ethical, legal, and societal concerns. Meanwhile, the lack of AI literacy exacerbates additional risks and necessitates the immediate adoption of protective measures. Regardless of the profound concerns regarding Artificial Intelligence in hiring, the legislative framework has a big gap. Although there are a few mentions of Artificial Intelligence in the General Data Protection Regulation, AI is mostly unregulated. The responsibility lies with all stakeholders—organizations, developers, legislators, the public, and researchers—to collaboratively shape a future where algorithmic hiring is diversified, fair, ethical, and transparent. Designing systems while considering human rights and transparency, fairness, and accountability principles should be the first concern for each employer and AI vendor. Additional protection measures such as audits, human intervention where necessary, and information and education will assist in developing safer AI software. Ultimately, this thesis aims to inform stakeholders of the implications regarding automatic recruitment processes while proposing ways to navigate this landscape with awareness, responsibility, and a commitment to adopting fairness and equity principles.
Λέξη κλειδί :Τεχνητή νοημοσύνη
Ανθρώπινο δυναμικό
Πρόσληψη προσωπικού
Ηθική
Διαφάνεια
Artificial Intelligence (AI)
Human resources
Recruitment
Ethics
Transparency
Διαθέσιμο από :2024-06-20 16:13:37
Ημερομηνία έκδοσης :15-11-2023
Ημερομηνία κατάθεσης :2024-06-20 16:13:37
Δικαιώματα χρήσης :Free access
Άδεια χρήσης :

Αρχείο: Marioli-Konidari_2023.pdf

Τύπος: application/pdf