Οι τεχνητοί αλγόριθμοι δεν αξιολογούν πλέον μόνο βιογραφικά. Σε πολλές πολυεθνικές, έχουν ήδη αρχίσει να λαμβάνουν αποφάσεις που αφορούν απολύσεις, μειώσεις ωραρίου ή μη ανανεώσεις συμβολαίων, με βάση στατιστικά μοντέλα απόδοσης, κόστους και «συμπεριφορικής καταλληλότητας».
Η νέα αυτή πραγματικότητα ονομάζεται “algorithmic management”, και αναπτύσσεται ραγδαία σε κλάδους όπως η εστίαση, η λιανική, τα call centers, η εφοδιαστική αλυσίδα και οι gig platforms. Σύμφωνα με εσωτερικά έγγραφα που αποκάλυψε η Washington Post, η Amazon έχει υλοποιήσει αυτοματοποιημένο σύστημα εσωτερικής αξιολόγησης, το οποίο ειδοποιεί ανθρώπινους προϊστάμενους όταν ένας εργαζόμενος θεωρείται «στατιστικά ασταθής».
Το πρόβλημα;
• Οι αλγόριθμοι δεν εξηγούν πάντα πώς κατέληξαν σε μια απόφαση
• Δεν αντιλαμβάνονται αποχρώσεις, εξαιρέσεις ή ανθρώπινα γεγονότα
• Μπορούν να ενσωματώνουν προκαταλήψεις αν εκπαιδεύονται με στρεβλά δεδομένα
• Δεν υπάρχει πάντα προσφυγή ή δυνατότητα ένστασης, ειδικά σε εταιρείες που βασίζονται αποκλειστικά στην αυτοματοποίηση
Η ΕΕ με τον νέο AI Act επιβάλλει ειδική κατηγορία ρυθμιστικού ελέγχου για “υψηλού ρίσκου” ΑΙ εφαρμογές σε εργασιακό πλαίσιο, αλλά η πρακτική έχει ήδη ξεφύγει από τη νομοθεσία σε αρκετές δικαιοδοσίες.
Η ερώτηση που τίθεται είναι επείγουσα: Μπορεί μια μηχανή να απολύσει δίκαια έναν άνθρωπο; Και ποιος ευθύνεται όταν το κάνει λάθος;
Μετάφραση και προσαρμογή από The Washington Post, MIT Technology Review & The Guardian