Business Tech
Όταν οι αλγόριθμοι απολύουν
Η αυτοματοποίηση του HR και οι ηθικοί κίνδυνοι
Όταν οι αλγόριθμοι απολύουν


Οι τεχνητοί αλγόριθμοι δεν αξιολογούν πλέον μόνο βιογραφικά. Σε πολλές πολυεθνικές, έχουν ήδη αρχίσει να λαμβάνουν αποφάσεις που αφορούν απολύσεις, μειώσεις ωραρίου ή μη ανανεώσεις συμβολαίων, με βάση στατιστικά μοντέλα απόδοσης, κόστους και «συμπεριφορικής καταλληλότητας».

Η νέα αυτή πραγματικότητα ονομάζεται “algorithmic management”, και αναπτύσσεται ραγδαία σε κλάδους όπως η εστίαση, η λιανική, τα call centers, η εφοδιαστική αλυσίδα και οι gig platforms. Σύμφωνα με εσωτερικά έγγραφα που αποκάλυψε η Washington Post, η Amazon έχει υλοποιήσει αυτοματοποιημένο σύστημα εσωτερικής αξιολόγησης, το οποίο ειδοποιεί ανθρώπινους προϊστάμενους όταν ένας εργαζόμενος θεωρείται «στατιστικά ασταθής».

Το πρόβλημα;
    •    Οι αλγόριθμοι δεν εξηγούν πάντα πώς κατέληξαν σε μια απόφαση
    •    Δεν αντιλαμβάνονται αποχρώσεις, εξαιρέσεις ή ανθρώπινα γεγονότα
    •    Μπορούν να ενσωματώνουν προκαταλήψεις αν εκπαιδεύονται με στρεβλά δεδομένα
    •    Δεν υπάρχει πάντα προσφυγή ή δυνατότητα ένστασης, ειδικά σε εταιρείες που βασίζονται αποκλειστικά στην αυτοματοποίηση

Η ΕΕ με τον νέο AI Act επιβάλλει ειδική κατηγορία ρυθμιστικού ελέγχου για “υψηλού ρίσκου” ΑΙ εφαρμογές σε εργασιακό πλαίσιο, αλλά η πρακτική έχει ήδη ξεφύγει από τη νομοθεσία σε αρκετές δικαιοδοσίες.

Η ερώτηση που τίθεται είναι επείγουσα: Μπορεί μια μηχανή να απολύσει δίκαια έναν άνθρωπο; Και ποιος ευθύνεται όταν το κάνει λάθος;

Μετάφραση και προσαρμογή από The Washington Post, MIT Technology Review & The Guardian