Η αυτοκρατορία των αλγόριθμων / Δημοκρατία στην εποχή των αλγοριθμικών Μέσων.


 
Η αυτοκρατορία των αλγόριθμων / Δημοκρατία στην εποχή των αλγοριθμικών Μέσων. 

Η εισαγωγή τεχνικών μηχανικής μάθησης για τη διαχείριση της πληροφορίας δημιούργησε μια νέα γενιά μέσων που βασίζονται στους αλγόριθμους και τα μεγάλα δεδομένα. Η Δήμητρα Μηλιώνη, Αναπληρώτρια Καθηγήτρια του Τμήματος Επικοινωνίας και Σπουδών Διαδικτύου του Τεχνολογικού Πανεπιστημίου Κύπρου, μιλά στο Πρίσμα και τη Λήδα Αρνέλλου για τα αλγοριθμικά μέσα και τις συνέπειές τους.

1. Τι εννοούμε με τον όρο αλγοριθμικά μέσα;

Τα αλγοριθμικά μέσα χρησιμοποιούν υπολογιστικές διαδικασίες για τη λήψη αποφάσεων και προσαρμόζουν δυναμικά τα δεδομένα εισροής και εκροής. Ένα παράδειγμα είναι οι μηχανές αναζήτησης, οι οποίες ιεραρχούν την πληροφορία για να «αποφασίσουν» ποια αποτελέσματα είναι καταλληλότερα για τη δική μου αναζήτηση προσωπικά. Τα περισσότερα από τα μέσα που χρησιμοποιούμε σήμερα είναι αλγοριθμικά και γι’ αυτό μιλάμε για «αλγοριθμοποίηση» της καθημερινής ζωής.

Όμως, οι αλγόριθμοι πρέπει να ιδωθούν σε στενή συνάρτηση με τα δεδομένα. Ουσιαστικά, ο λόγος για τον οποίο είναι απαραίτητοι σήμερα είναι ακριβώς επειδή μπορούν να επεξεργαστούν τα «μεγάλα δεδομένα» με μηχανική μάθηση. Στην πράξη έχουμε εισέλθει στην εποχή της «δεδομενοποίησης» (datafication), που είναι ο μετασχηματισμός του μεγαλύτερου μέρους της ζωής μας σε επεξεργάσιμα δεδομένα. Η επικοινωνία μας, οι κοινωνικές μας σχέσεις, η φυσική μας κατάσταση, η υγεία μας, η κατανάλωση, η πολιτική συμμετοχή, οι πεποιθήσεις, τα συναισθήματα, οι πάσης φύσεως κοινωνικές συμπεριφορές, ακόμη και οι βιολογικές διεργασίες μας αποτυπώνονται σε αριθμητικά δεδομένα, τα οποία γίνονται αντικείμενο επεξεργασίας για την εξαγωγή συμπερασμάτων και τη διατύπωση προβλέψεων.

2. Πώς διαμεσολαβούν οι αλγόριθμοι την πρόσβαση, την αξιολόγηση και την παραγωγή γνώσης;

Στις μηχανές αναζήτησης, η απόφαση για το ποια πληροφορία ανταποκρίνεται καλύτερα στην αναζήτησή μας κάθε φορά είναι αποτέλεσμα μιας πολύπλοκης αλγοριθμικής διαδικασίας. Οι αλγόριθμοι «αποφασίζουν» τι θα προβληθεί και σε πόσο περίοπτη θέση. Σπανιότερα διαμεσολαβούν και την παραγωγή γνώσης ή συμβολικών μορφών, όπως συμβαίνει με την αυτοματοποίηση της γραφής ειδήσεων ή την παραγωγή ταινιών βάσει των προτιμήσεων του κοινού, προκειμένου να μεγιστοποιηθούν οι πιθανότητες εμπορικής επιτυχίας (το μοντέλο Netflix) - ένα φαινόμενο που έχει αποκληθεί «αλγοριθμική κουλτούρα». Ακόμη σημαντικότερο είναι ότι οι αλγόριθμοι μπορούν να κάνουν προβλέψεις - από τις πολιτικές προτιμήσεις και τις καταναλωτικές μας επιθυμίες μέχρι την εγκληματική συμπεριφορά και τη μη αποπληρωμή χρεών, διαμορφώνοντας ανάλογα μοντέλα δράσης.

3. Πώς δημιουργείται η «ψηφιακή ανισότητα» μεταξύ εταιρειών και χρηστών;

Το πρόβλημα ξεκινά από τη μυστικότητα που περιβάλλει τους αλγόριθμους καθώς θεωρούνται εμπορικά απόρρητα. Αυτό το γεγονός δημιουργεί μία θεμελιώδη ασυμμετρία ανάμεσα στις ιδιοκτήτριες εταιρείες και στους χρήστες, αφού οι εταιρείες έχουν γνώση των όρων λειτουργίας των αλγοριθμικών συστημάτων, ενώ οι χρήστες όχι. Αυτό σημαίνει ότι οι εταιρείες συνθέτουν ένα αναλυτικό προφίλ για κάθε χρήστη, χωρίς ο τελευταίος να μπορεί να τις αντικρούσει. Σημαίνει επίσης, όπως συνέβη πρόσφατα, ότι μία μικρή αλλαγή στον αλγόριθμο ιεράρχησης του περιεχομένου σε μια πλατφόρμα όπως το Facebook μπορεί να επηρεάσει σημαντικά (να καταποντίσει ή να απογειώσει) ολόκληρες κατηγορίες επιχειρήσεων ή χρηστών.

4. Τι συμβαίνει με την ευθύνη, όταν μεσολαβεί ένας αλγόριθμος;

Η μυστικότητα για τα αξιολογικά κριτήρια βάσει των οποίων οι αλγόριθμοι λαμβάνουν αποφάσεις καθιστά εξαιρετικά δύσκολη τη λογοδοσία. Όταν γίνονται λάθη ή προκύπτουν ανεπιθύμητα αποτελέσματα είναι πολύ βολικό για τις εταιρείες ή τις κυβερνήσεις να αποδίδεται η ευθύνη στον απρόσωπο αλγόριθμο, ο οποίος δεν μπορεί εύκολα να ελεγχθεί ηθικά ή νομικά. Αυτή η διάχυση ευθύνης προκύπτει και από την πολυπλοκότητα των αλγοριθμικών συστημάτων: συχνά είναι τόσο σύνθετα που ούτε οι ίδιοι οι δημιουργοί τους δεν μπορούν να γνωρίζουν επακριβώς τους όρους λειτουργίας ενός συστήματος στην ολότητά του. Αυτό σημαίνει ότι ακόμη και η δημοσιοποίηση του πηγαίου κώδικα ενός λογισμικού δεν διασφαλίζει τον δημοκρατικό έλεγχο των διεργασιών του.

5. Τι κενά υπάρχουν στο επιχείρημα περί επιστημικής υπεροχής των αλγορίθμων ως συστημάτων που κρίνουν και λαμβάνουν αποφάσεις αντικειμενικά;

Οι αλγόριθμοι δεν είναι αντικειμενικοί - το ίδιο ισχύει βέβαια για όλα τα συστήματα παραγωγής γνώσης. Πλέον γνωρίζουμε ότι σε αρκετά συστήματα υπάρχει αλγοριθμική προκατάληψη, συνήθως σε βάρος των πιο ευάλωτων πληθυσμών, με αποτέλεσμα την όξυνση των ταξικών ανισοτήτων, όπως διατείνεται η Kathy O’Neil στο βιβλίο της Weapons of MathDestruction (2016). Το κυριότερο πρόβλημα, όμως, έγκειται στη δυσκολία ανίχνευσης αυτής της (συχνά ακούσιας) προκατάληψης λόγω της διαδεδομένης πεποίθησης ότι οι αλγόριθμοι είναι δίκαιοι και αντικειμενικοί. Έτσι, οι πλήρως αυτοματοποιημένες αποφάσεις παρουσιάζονται ως πιο ουδέτερες και δημοκρατικές και επομένως ως προτιμητέες από κοινωνική και ηθική σκοπιά - ειδικά σε συνθήκες όπου οι πολιτικοί θεσμοί βάλλονται ως ανεπαρκείς, πατερναλιστικοί ή διεφθαρμένοι. Για παράδειγμα, για την αντιμετώπιση της εγκληματικότητας τείνει να προτιμάται η χρήση συστημάτων αναγνώρισης προσώπου, παρά το γεγονός ότι η εν λόγω τεχνολογία λειτουργεί ατελώς για όσους δεν ανήκουν στη λευκή φυλή και οδηγεί σε τεράστια λάθη, έναντι απλών μέτρων όπως ο καλύτερος φωτισμός στους δημόσιους χώρους που αποδεδειγμένα αυξάνει την ασφάλεια με ελάχιστο κόστος.

6. Ποια θεωρείτε τα πιο σημαντικά σημεία όσον αφορά στην απώλεια ελέγχου του χρήστη και στο νέο είδος εξουσίας που εκπορεύεται από τα Μέσα αυτά;

Τα αλγοριθμικά μέσα λειτουργούν κάπως διαφορετικά από τα συμβατικά. Το είδος της εξουσίας που ασκούν δεν είναι τόσο συμβολικό ή σημειωτικό, αλλά λειτουργεί σε βιωματικό επίπεδο δομώντας έναν τρόπο ύπαρξης. Τα αλγοριθμικά μέσα δεν περιλαμβάνουν αναπαραστάσεις με διάρκεια όπως είναι το εξώφυλλο μιας εφημερίδας, το οποίο, αν ιδωθεί αναστοχαστικά, μπορεί να προσληφθεί με εναντιωματικό τρόπο. Αντίθετα, επειδή τα αποτελέσματα μιας μηχανής αναζήτησης ή οι προτάσεις που γίνονται στην αυτόματη συμπλήρωση αναζητήσεων (autocomplete) δεν αποκαλύπτουν τη λογική τους και η διάρκειά τους είναι στιγμιαία, είναι πολύ πιο δύσκολο οι χρήστες να σταθούν και να αναστοχαστούν. Λόγω της συνεχούς χρονικότητάς τους και του α-σημειωτικού χαρακτήρα τους, περισσότερο βιώνουμε τα αλγοριθμικά μέσα και λιγότερο στοχαζόμαστε συνειδητά πάνω στη λειτουργία και τις επιπτώσεις τους.

7. Ποιες είναι οι ουσιαστικότερες συνέπειες της δύναμης των αλγορίθμων για τη δημοκρατία;

Όλο και περισσότερα αλγοριθμικά μέσα (τελευταία και τα μέσα ενημέρωσης) εξατομικεύουν την πρόσβαση στο περιεχόμενό τους για να αυξήσουν την ικανοποίηση των χρηστών. Η εξατομίκευση ενδέχεται να ενισχύσει τάσεις αποφυγής ειδήσεων ή να επιτρέψει τη δημιουργία των λεγόμενων «θυλάκων φιλτραρίσματος» (filter bubbles), όπου βρίσκουμε μόνο τις ειδήσεις που αναμένουμε να δούμε και τις πολιτικές πεποιθήσεις με τις οποίες ήδη συμφωνούμε.

Δεύτερον, το επιχειρηματικό μοντέλο του διαδικτύου κατέληξε να είναι η στοχευμένη διαφήμιση, που βασίζεται στην αγοραπωλησία δεδομένων ώστε να καταστεί εφικτή η ακριβής στόχευση χρηστών. Η μηχανική μάθηση δημιουργεί μοντέλα συμπεριφοράς, δηλαδή ταξινομεί τις συμπεριφορές των χρηστών, αντιστοιχίζει και ομαδοποιεί παρόμοιες συμπεριφορές και εν τέλει προβλέπει μελλοντικές συμπεριφορές. Με άλλα λόγια, αν το προφίλ μου ταιριάζει με το προφίλ ενός ατόμου που αγόρασε ένα προϊόν, αντιστοιχίζομαι σε ένα είδος προϊόντων και κάθε φορά που εμφανίζομαι στο διαδίκτυο, μια σειρά διαφημίσεων ανταγωνίζονται για το ποια θα προβληθεί στην οθόνη μου. Τόσο η μορφή όσο και το ακριβές περιεχόμενο της διαφήμισης μπορεί να παραμετροποιηθεί, στιγμιαία, για να ανταποκριθεί καλύτερα στα ενδιαφέροντά μου. Το πρόβλημα που προκύπτει για τη δημοκρατία ξεκινά από τη στιγμή που οι πρακτικές αυτές, αφού τελειοποιήθηκαν στο πεδίο της ελεύθερης αγοράς, μεταφέρονται στο πεδίο της πολιτικής. Το αποκορύφωμα ήταν οι πολυσυζητημένες προεδρικές εκλογές του 2016 στις ΗΠΑ, κατά τις οποίες κατέστη εφικτό κατάλληλα διαμορφωμένες πολιτικές διαφημίσεις και ψευδείς ειδήσεις να διοχετευθούν σε εξειδικευμένες υπο-ομάδες του πληθυσμού με συγκεκριμένες θρησκευτικές και πολιτικές πεποιθήσεις, συγκεκριμένα συναισθήματα, φόβους και ελπίδες. Η στόχευση αυτή καθιστά ορισμένες κατηγορίες ανθρώπων εξαιρετικά επιρρεπείς σε ενορχηστρωμένες προσπάθειες πειθούς και συναισθηματικής χειραγώγησης.

8. Μπορεί οι επιλογές που κάνουν οι αλγόριθμοι για εμάς να επηρεάζουν την αίσθηση που έχουμε για τον Εαυτό;

Ήδη γνωρίζουμε ότι η οικονομία του διαδικτύου λειτουργεί με βάση τη σκιαγράφηση αναλυτικότατων προφίλ χρηστών - αυτό που ο Cheney-Lippold στο βιβλίο του We Are Data(2017) ονομάζει «αλγοριθμική ταυτότητα». Αυτό που δεν γνωρίζουμε ακόμη είναι πώς αυτά τα ψηφιακά alter egos μας συγκροτούν ως (ψηφιακά) υποκείμενα - δηλαδή αν παράγουν ή ενισχύουν τις αυτοαντιλήψεις των χρηστών και υπαγορεύουν περαιτέρω τη συμπεριφορά τους. Όπως πολύ εύστοχα ρωτά η ερευνήτρια Taina Bucher, «σε ποιο βαθμό καταλήγουμε να βλέπουμε και να προσδιορίζουμε τον εαυτό μας μέσα από τα ‘μάτια’ του αλγόριθμου;» Παίρνοντας ως παράδειγμα το φύλο, ένας χρήστης που έχει χαρακτηριστεί ως άνδρας είναι πιθανότερο να εκτεθεί σε περιεχόμενο που (στερεο)τυπικά ανταποκρίνεται στα έμφυλα ενδιαφέροντά του, γεγονός που μπορεί να έχει αντίκτυπο στη διαμόρφωση της «πραγματικής» του ταυτότητας. Το σημαντικότερο, όμως, είναι ότι καθώς οι αλγόριθμοι προσδιορίζουν το νόημα αυτών των ταυτοτήτων (δηλαδή τι σημαίνει να είναι κανείς άνδρας, λευκός ή να ανήκει στην εργατική τάξη), συνδέοντάς τις με συγκεκριμένα ενδιαφέροντα, γούστα, συνήθειες, πεποιθήσεις κ.λπ., όχι μόνο χάνουμε τον έλεγχο του να προσδιορίζουμε ποιοι είμαστε στο διαδίκτυο αλλά παύει να μας ανήκει το νόημα των κατηγοριών που συνιστούν τις ταυτότητές μας. Με άλλα λόγια, η αλγοριθμική κατασκευή των ταυτοτήτων απομακρύνει αυτές τις ταυτότητες από την κοινωνική πάλη και τους παραδοσιακούς μηχανισμούς πολιτικής εκπροσώπησης και παρέμβασης.

9. Ποιες δυνατότητες έχουν οι πολίτες να διαπραγματευθούν τη δύναμη των αλγόριθμων;

Μέχρι στιγμής η σχετική έρευνα δεν έχει δώσει αρκετή προσοχή στην (αντί)δραση των πολιτών σε συνθήκες δεδομενοποίησης. Υπάρχουν καίρια ερωτήματα που είναι ακόμη ανοιχτά: Πώς θα διαμορφωθεί η αντίσταση των χρηστών στην εποχή των μεγάλων δεδομένων; Θα είναι ρηματική, θεσμική ή αλγοριθμική; Είναι η απάντηση περισσότεροι νόμοι για την οριοθέτηση της χρήσης των αλγόριθμων; Θα δημιουργηθούν εναλλακτικά μέσα κοινωνικής δικτύωσης βιώσιμα και ικανά να ανταγωνιστούν τους εταιρικούς γίγαντες; Ή η αντίσταση θα ανθίσει στο περιθώριο της κοινωνίας πολιτών;

Η κριτική έρευνα για τους αλγόριθμους

Η κριτική έρευνα για τους αλγόριθμους και τα μεγάλα δεδομένα είναι ένα πρόσφατο πεδίο έρευνας που αντανακλά το (μάλλον όψιμο) ενδιαφέρον των κοινωνικών-ανθρωπιστικών επιστημών και των πολιτισμικών σπουδών για την εννοιολόγηση των αλγοριθμικών διαδικασιών και την κατανόηση των προεκτάσεών τους για τη διακυβέρνηση και την καθημερινή ζωή. Με βάση την κριτική θεωρία και το ζωηρό ενδιαφέρον της για τον τρόπο που λειτουργεί η εξουσία, ειδικά σε βάρος των υποπρονομιούχων ομάδων, καταπιάνεται με ερωτήματα όπως: Πώς «κυβερνούν» οι αλγόριθμοι; Πώς αρθρώνεται η αλγοριθμική δύναμη και ποιες επιπτώσεις έχει; Κατά τη λειτουργία των αλγοριθμικών συστημάτων εξυπηρετούνται τα συμφέροντα ορισμένων κοινωνικών ομάδων, ενώ τα συμφέροντα άλλων ομάδων πλήττονται ή καθίστανται αόρατα;

Ο ακτιβισμός δεδομένων (data activism)

Ο ακτιβισμός δεδομένων είναι μια μορφή εναντιωματικής δράσης που αναπτύσσεται στο πλαίσιο της δεδομενοποίησης, αξιοποιώντας τα ίδια της τα «όπλα», δηλαδή το λογισμικό ή τον κώδικα. Τα σχετικά εγχειρήματα επιχειρούν να αποκαλύψουν κίνητρα και επιπτώσεις των εμπορικών πλατφορμών και να ενθαρρύνουν αντιθετικές χρήσεις. Ένα παράδειγμα είναι το Go Rando (http://bengrosser.com/projects/go-rando/), το οποίο χρησιμοποιεί την τακτική της «δημιουργίας σύγχυσης» (obfuscation). Τυχαιοποιώντας τις έξι συναισθηματικές αντιδράσεις στο Facebook ‘Like’, η εφαρμογή «θολώνει» το συναισθηματικό προφίλ των χρηστών γεμίζοντάς το με «θόρυβο», έτσι ώστε να μην είναι πλέον αξιοποιήσιμο από το διαδικτυακό μάρκετινγκ (προϊόντων ή ιδεών) και οι χρήστες να προστατεύονται από τη συναισθηματική χειραγώγηση. Αντίστοιχα, η εφαρμογή “how normal am I” (www.hownormalami.eu/) εκθέτει πώς οι αλγόριθμοι αναγνώρισης προσώπου βαθμολογούν την ομορφιά και συνάγουν την ηλικία, το φύλο, το βάρος, τη συναισθηματική μας κατάσταση, ακόμη και το προσδόκιμο ζωής.
 
Λήδα Αρνέλλου


19/11/2020