Από την Ελένη Παπανικολάου
Εισαγωγή
Στην ψηφιακή εποχή, τα κοινωνικά δίκτυα έχουν μετατραπεί σε κεντρικό πεδίο πολιτικής πληροφόρησης, διαλόγου και διαμόρφωσης στάσεων. Ειδικά για τις νεότερες γενιές, πλατφόρμες όπως το TikTok, το Instagram και το YouTube αποτελούν πρωταρχικές πηγές ενημέρωσης για κοινωνικά και πολιτικά ζητήματα (Pew Research Center, 2022). Ωστόσο, η πληροφόρηση που λαμβάνει ο χρήστης δεν είναι τυχαία ούτε ουδέτερη· αντίθετα, διαμεσολαβείται από αλγοριθμικά συστήματα που επιλέγουν ποιο περιεχόμενο θα εμφανιστεί στην οθόνη του (Gillespie, 2018).
Οι αλγόριθμοι αυτοί δεν περιορίζονται στο να “προτείνουν” περιεχόμενο· λειτουργούν ως μηχανισμοί που ενισχύουν συγκεκριμένες αφηγήσεις και, μέσα από την αρχή της απήχησης (engagement), αναδεικνύουν περιεχόμενο με υψηλή συναισθηματική ή πολωτική αξία (Tufekci, 2015). Το αποτέλεσμα είναι η δημιουργία “θαλάμων ηχούς” (echo chambers) και “φίλτρων-φούσκας” (filter bubbles), όπου ο χρήστης εκτίθεται κατ’ επανάληψη σε όμοιες απόψεις, με αποτέλεσμα να ενισχύεται η πολιτική πόλωση (Sunstein, 2017).
Συνεπώς, το ερώτημα δεν είναι πλέον αν τα social media επηρεάζουν την πολιτική, αλλά με ποιον τρόπο οι αλγόριθμοι καθορίζουν την ίδια τη φύση της πολιτικής συμμετοχής στη σύγχρονη δημοκρατία.
Τι είναι οι αλγόριθμοι και πώς λειτουργούν στα social media;
Οι αλγόριθμοι στα μέσα κοινωνικής δικτύωσης αποτελούν μαθηματικούς μηχανισμούς που επεξεργάζονται τεράστιους όγκους δεδομένων, όπως προτιμήσεις, κοινοποιήσεις και χρόνο παραμονής σε περιεχόμενο, με σκοπό να διαμορφώσουν εξατομικευμένα περιβάλλοντα πληροφόρησης για κάθε χρήστη (Jung et al., 2024). Η βασική τους λειτουργία δεν περιορίζεται στην απλή ταξινόμηση, αλλά επεκτείνεται στην επιλογή και προβολή περιεχομένου που θεωρείται πιθανότερο να προκαλέσει υψηλή αλληλεπίδραση.
Μέσα από αυτή τη διαδικασία αναδύεται το φαινόμενο της «αλγοριθμικής ενίσχυσης» (algorithmic amplification), όπου συγκεκριμένα μηνύματα αποκτούν αυξημένη προβολή όχι απαραίτητα λόγω εγκυρότητας, αλλά λόγω συναισθηματικού ή πολωτικού χαρακτήρα τους (Chaney et al., 2019). Η ενίσχυση αυτή δημιουργεί «βρόχους ανατροφοδότησης» (feedback loops): όσο περισσότερο ο χρήστης αλληλεπιδρά με ένα είδος περιεχομένου, τόσο ο αλγόριθμος προσαρμόζεται ώστε να προτείνει παρόμοιο υλικό, ενισχύοντας περαιτέρω την ίδια κατηγορία απόψεων.
Συνδεδεμένα με αυτή τη λογική είναι τα φαινόμενα των «θαλάμων ηχούς» (echo chambers) και των «φίλτρων-φούσκας» (filter bubbles). Οι θάλαμοι ηχούς δημιουργούνται όταν οι χρήστες εκτίθενται συστηματικά σε περιεχόμενο που επιβεβαιώνει τις ήδη υπάρχουσες πεποιθήσεις τους, συχνά μέσα από ομοιογενείς κοινότητες (Sunstein, 2017). Τα φίλτρα-φούσκες, αντίθετα, προκύπτουν από τις ίδιες τις αλγοριθμικές επιλογές που περιορίζουν την πρόσβαση σε διαφορετικές απόψεις, χωρίς ο χρήστης να το αντιλαμβάνεται (Pariser, 2011). Έτσι, η πληροφοριακή πραγματικότητα διαμεσολαβείται και «φιλτράρεται» αθόρυβα.
Παρά τα παραπάνω, η επιστημονική συζήτηση παραμένει ανοιχτή. Ορισμένες έρευνες αμφισβητούν το κατά πόσο οι αλγόριθμοι οδηγούν πάντοτε σε ακραία πόλωση, υποστηρίζοντας ότι τα αποτελέσματα μπορεί να είναι πιο σύνθετα και λιγότερο καθολικά (DeVito, 2016). Μάλιστα, πρόσφατα ευρήματα δείχνουν ότι όταν το προτεινόμενο περιεχόμενο συνδέεται με πολιτικές ή θρησκευτικές αξίες του χρήστη, μπορεί να ενισχύσει τα κίνητρα συμμετοχής σε πολιτικές δράσεις, όπως η υπογραφή ηλεκτρονικών αναφορών (Jung et al., 2024).
Συμπερασματικά, οι αλγόριθμοι δεν είναι ουδέτερα εργαλεία· λειτουργούν ως μηχανισμοί ορατού και αόρατου φιλτραρίσματος, οι οποίοι άλλοτε ενισχύουν προκατειλημμένες αντιλήψεις και άλλοτε δημιουργούν νέες δυνατότητες πολιτικής ενεργοποίησης. Η διττή αυτή λειτουργία καθιστά κρίσιμη την κατανόηση του τρόπου με τον οποίο διαμορφώνουν την εμπειρία των πολιτών στον ψηφιακό δημόσιο χώρο.
Από την ενημέρωση στην ενίσχυση προκατειλημμένων αφηγήσεων
Στην εποχή των κοινωνικών δικτύων, η μετάβαση από την απλή πληροφόρηση στην ενεργή ενίσχυση προκατειλημμένων αφηγήσεων μέσω αλγορίθμων δεν αποτελεί απλώς θεωρία, αλλά έχει επιβεβαιωθεί σε πρακτικά παραδείγματα. Ένα χαρακτηριστικό παράδειγμα προέρχεται από την προεκλογική περίοδο στις ΗΠΑ, όπου χρήστες του TikTok, όπως η Kacey Smith, υποστηρίκτρια της Κάμαλα Χάρις, εκτέθηκαν κυρίως σε θετικά ή φιλικά προς την υποψήφια μηνύματα στη σελίδα «Για Σένα». Αυτό δημιούργησε μια ψευδαίσθηση ευρείας υποστήριξης -μια φούσκα φίλτρου που απομόνωσε τον χρήστη από αντικρουόμενες απόψεις- με αποτέλεσμα την ξαφνική έκπληξη κατά την ήττα της Χάρις στις εκλογές (The Verge, 2024).
Το φαινόμενο αυτό δεν περιορίζεται σε μια μεμονωμένη περίπτωση, αλλά αντανακλά δύο κεντρικές λογικές. Πρώτον, τα echo chambers και τα filter bubbles αποτελούν περιβάλλοντα όπου ο χρήστης εκτίθεται κυρίως σε απόψεις που επιβεβαιώνουν τις δικές του (Sunstein, 2017), ενώ οι αλγόριθμοι αποκλείουν αντιθετικές ή ποικιλόμορφες φωνές (Pariser, 2011; Wikipedia, 2024a). Δεύτερον, υπάρχει το ζήτημα της αλγοριθμικής ενίσχυσης συγκεκριμένου πολιτικού περιεχομένου, καθώς μελέτες σε πλατφόρμες όπως το Twitter έδειξαν ότι πολιτικά δεξιές αφηγήσεις, σε πολλές χώρες, τείνουν να προβάλλονται περισσότερο σε σχέση με αριστερές ή μετριοπαθείς φωνές (Huszár et al., 2021).
Η δυναμική αυτή οδηγεί όχι μόνο σε προσωπικές φούσκες, αλλά και σε συλλογικές ψευδαισθήσεις: οι χρήστες αντιλαμβάνονται το κοινωνικό συναίσθημα μέσα από έναν μονότονο καθρέφτη, γεγονός που αποτρέπει την έκθεση σε ποικιλία απόψεων και περιορίζει την κριτική αξιολόγηση. Από φιλοσοφική σκοπιά, τα echo chambers δεν είναι μόνο προϊόν τεχνολογίας, αλλά και της ανθρώπινης τάσης να απορρίπτει αντιφατικές πληροφορίες, καθώς η γνωστική ασυμφωνία δημιουργεί «epistemic discomfort» που ωθεί σε αυτοεπιβεβαίωση (Helberger et al., 2021).
Επιπλέον, η ενίσχυση περιεχομένου μέσω hashtags και συναισθηματικής εμπλοκής μπορεί να οδηγήσει σε «αλγοριθμικά λαγούμια»(rabbit holes), όπου ένα ουδέτερο βίντεο, μέσω αυτόματης πρότασης, καταλήγει να συνδέεται με όλο και πιο ακραίο ή παραπλανητικό περιεχόμενο. Αυτός ο μηχανισμός έχει αξιοποιηθεί από συνωμοσιολογικές αφηγήσεις, όπως το QAnon, ή από ψευδείς πολιτικές ειδήσεις(Wikipedia, 2024b; Reclaim AI, n.d.).
Συνολικά, η μετάβαση από την ενημέρωση στην ενίσχυση προκατειλημμένων αφηγήσεων δείχνει πώς οι αλγόριθμοι, αντί να λειτουργούν ως ουδέτεροι μηχανισμοί διανομής πληροφορίας, συχνά διαμορφώνουν ενεργά την αντίληψη των πολιτών για την πολιτική πραγματικότητα.
Επιπτώσεις στη δημοκρατική διαδικασία και στον πολιτικό λόγο
Η αλγοριθμική ενίσχυση του περιεχομένου στα social media δεν είναι ένα απλό τεχνικό φαινόμενο· νοηματοδοτεί και διαμορφώνει την ίδια τη δημόσια σφαίρα και τη δημοκρατική διαδικασία. Αν και οι πλατφόρμες δεν αποτελούν την αιτία της αναδυόμενης πόλωσης, η χρήση τους εντείνει τη διχαστική δυναμική και υπονομεύει την εμπιστοσύνη προς δημοκρατικούς θεσμούς(NYU Stern, 2025)(Bhrabham et al., 2025). Η πόλωση αυτή γίνεται εύκολα αντιληπτή μέσα από την ενίσχυση συναισθηματικά φορτισμένων, ακραίων ή ανακριβών αφηγήσεων, με αποτέλεσμα την αποδυνάμωση του πολιτικού διαλόγου (Brookings, 2021 & 2022).
Η διαμόρφωση της πληροφοριακής πραγματικότητας μέσα από echo chambers οδηγεί σε απώλεια ποικιλίας απόψεων, κάτι που θεωρείται αναγκαίο για μια λειτουργική δημοκρατία: η δημοκρατική διακυβέρνηση και η παροχή δημόσιων αγαθών απειλούνται όταν η πολιτική πολυφωνία μειώνεται σημαντικά (Princeton PNAS, 2021). Επιπλέον, διαπιστώνεται ότι οι αλγόριθμοι μεροληπτούν πολιτικά: π.χ., σε πλατφόρμες όπως το Twitter, πολιτικά δεξιές αφηγήσεις λαμβάνουν συστηματικά περισσότερη ενίσχυση σε σύγκριση με πιο μετριοπαθείς ή αριστερές, με αποτέλεσμα η πολιτική δυναμική να διαμορφώνεται μέσα στην ψηφιακή δημόσια σφαίρα (Huszár et al., 2022) (Ye, 2024).
Κρίσιμο στοιχείο αποτελεί η δυνατότητα των χρηστών να λαμβάνουν μετριασμένη ή αναστοχαστική ενημέρωση: όταν οι αλγόριθμοι προσαρμόζονται ώστε να μειώνουν την έκθεση σε περιεχόμενο με αντιδημοκρατικές ή πολωτικές τάσεις, οι χρήστες εμφανίζουν πιο θετική στάση προς την άλλη πολιτική πλευρά(Piccardi et al., 2024). Η έλλειψη τέτοιων παρεμβάσεων οδηγεί σε επανάληψη του ίδιου κύκλου πόλωσης. Από μια θεσμική σκοπιά, η συνεχής έκθεση σε ακραίες πολιτικές αφηγήσεις διαβρώνει το κύρος των δημοκρατικών θεσμών και το θεμέλιο της πολιτικής αντιπροσωπευτικότητας. Επιπλέον, η διάδοση παραπληροφορίας και συνωμοσιολογικού περιεχομένου μειώνει την εμπιστοσύνη των πολιτών στη δημοκρατία και ενισχύει την απομάκρυνση από την πραγματική πολιτική συμμετοχή(Brookings, 2022).
Τέλος, η αλγοριθμική ενίσχυση δεν διαμορφώνει απλώς τη ροή της πληροφορίας· επηρεάζει βαθιά τη μορφή της δημοκρατικής διακυβέρνησης, αποδυναμώνοντας τη δημοκρατική κουλτούρα, και συστήματα εμπιστοσύνης και συντροφικότητας στο πολιτικό σώμα.
Ποιος ελέγχει την πληροφορία; Ο ρόλος των εταιρειών τεχνολογίας
Η συζήτηση γύρω από τον έλεγχο της πληροφορίας στην ψηφιακή δημόσια σφαίρα συνδέεται άμεσα με την αδιαφάνεια που χαρακτηρίζει τη λειτουργία των αλγορίθμων. Οι μεγάλες τεχνολογικές εταιρείες -Meta, Google, ByteDance, X- έχουν αναλάβει έναν ιδιότυπο ρόλο ως «φύλακες της πληροφορίας», χωρίς όμως να υπόκεινται σε ουσιαστικό δημοκρατικό έλεγχο(Gillespie, 2018). Οι αλγόριθμοι που καθορίζουν τι βλέπουν οι χρήστες αποτελούν «μαύρα κουτιά»(Pasquale, 2015), με περιορισμένη δυνατότητα εξωτερικής αξιολόγησης και λογοδοσίας.
Η απουσία διαφάνειας έχει οδηγήσει σε έντονη συζήτηση γύρω από την ευθύνη των ίδιων των πλατφορμών: αν και οι εταιρείες υποστηρίζουν ότι είναι απλά «ουδέτεροι μεσολαβητές», η πραγματικότητα δείχνει ότι με τις πολιτικές αλγοριθμικής ενίσχυσης και moderation διαμορφώνουν άμεσα το οικοσύστημα πληροφορίας(Gorwa, 2019). Αυτή η διπλή ταυτότητα -τεχνολογικές επιχειρήσεις από τη μια και πολιτικοί ρυθμιστές της πληροφορίας από την άλλη- δημιουργεί μια κρίσιμη ένταση: πού σταματά η ευθύνη τους και πού ξεκινά η αδιαφορία; Το ζήτημα αυτό αναδεικνύεται και μέσα από διακρατικές συγκρούσεις. Πλατφόρμες όπως το TikTok έχουν κατηγορηθεί για πιθανή χειραγώγηση της πληροφορίας από ξένες κυβερνήσεις, γεγονός που έχει οδηγήσει σε απαγορεύσεις χρήσης σε δημόσιες υπηρεσίες ή ακόμα και σε ολόκληρες χώρες (Feldstein, 2021). Αντίστοιχα, το Facebook έχει βρεθεί στο επίκεντρο κατηγοριών για τη συμβολή του στη διάδοση παραπληροφόρησης και μίσους κατά τη διάρκεια εκλογών(Isaac & Frenkel, 2020).
Απέναντι σε αυτά τα φαινόμενα, η συζήτηση για ρύθμιση και αλγοριθμική λογοδοσία έχει ενταθεί. Η ΕΕ με τον Digital Services Act(DSA) εισάγει μέτρα για μεγαλύτερη διαφάνεια και δυνατότητα ελέγχου των αλγοριθμικών συστημάτων(European Commission, 2022). Ωστόσο, παραμένει ανοιχτό το ερώτημα αν τέτοια μέτρα αρκούν για να αντιμετωπίσουν την υπερσυγκέντρωση εξουσίας που κατέχουν οι εταιρείες τεχνολογίας στη διαχείριση της πληροφορίας.
Εν τέλει, η απάντηση στο ποιος ελέγχει την πληροφορία δεν είναι μονοδιάστατη: η δύναμη των εταιρειών συνυπάρχει με την πίεση της κοινωνίας των πολιτών και των κρατικών θεσμών. Χωρίς ουσιαστική ρύθμιση, η ισορροπία θα γέρνει υπέρ των εταιρειών, με κίνδυνο η δημοκρατική δημόσια σφαίρα να καθορίζεται ολοκληρωτικά από εμπορικά συμφέροντα.
Υπάρχει λύση; Προς μια πιο υπεύθυνη χρήση και κατανόηση των social media
Η κριτική στις πλατφόρμες και στους αλγορίθμους τους δεν αρκεί αν δεν συνοδευτεί από λύσεις που θα ενισχύσουν την υπεύθυνη χρήση και κατανόηση των social media. Ένας βασικός άξονας αυτής της προσπάθειας είναι ο ψηφιακός γραμματισμός: η εκπαίδευση των πολιτών, και ιδιαίτερα των νέων, ώστε να μπορούν να κατανοούν πώς λειτουργούν οι πλατφόρμες, να αναγνωρίζουν παραπληροφόρηση και να υιοθετούν κριτική στάση απέναντι στο περιεχόμενο που καταναλώνουν(Livingstone, 2014). Έρευνες δείχνουν ότι οι πρωτοβουλίες εκπαίδευσης στα σχολεία και στα πανεπιστήμια μπορούν να μειώσουν την ευπάθεια απέναντι σε ψευδείς ειδήσεις και να καλλιεργήσουν υπεύθυνες πρακτικές χρήσης (Mihailidis & Viotty, 2017).
Ένα δεύτερο επίπεδο αφορά την ενίσχυση της διαφάνειας των αλγορίθμων. Η έννοια των algorithmic audits -δηλαδή ανεξάρτητοι έλεγχοι των συστημάτων προτάσεων και moderation- έχει προταθεί ως βασικό εργαλείο ώστε να αξιολογούνται οι κοινωνικές επιπτώσεις των πλατφορμών και να εντοπίζονται πιθανοί μεροληπτικοί ή επιβλαβείς μηχανισμοί(Sandvig et al., 2014). Παράλληλα, κανονιστικά πλαίσια όπως ο Digital Services Act επιχειρούν να εισαγάγουν θεσμικά μέτρα για μεγαλύτερη λογοδοσία, απαιτώντας από τις εταιρείες να αποκαλύπτουν βασικά στοιχεία των αλγοριθμικών τους διαδικασιών(European Commission, 2022).
Ωστόσο, ούτε η εκπαίδευση ούτε η ρύθμιση αρκούν από μόνες τους. Η δημοκρατική συμμετοχή στον ψηφιακό χώρο απαιτεί τον ενεργό και ενημερωμένο πολίτη, που δεν περιορίζεται στην παθητική κατανάλωση περιεχομένου αλλά εμπλέκεται σε ουσιαστικό διάλογο, διεκδικεί διαφάνεια και λογοδοσία και συνδέει την ψηφιακή δράση με την πραγματική πολιτική πράξη(Jenkins et al., 2016). Η καλλιέργεια μιας τέτοιας κουλτούρας ενεργού πολίτη αποτελεί ίσως τη σημαντικότερη προϋπόθεση για τη μείωση της ψευδαίσθησης πολιτικής συμμετοχής που ενισχύουν οι πλατφόρμες.
Συνεπώς, η λύση βρίσκεται σε μια συνεργασία τριών επιπέδων: εκπαίδευση και ψηφιακός γραμματισμός, θεσμική ρύθμιση και αλγοριθμική λογοδοσία, και τέλος, ενδυνάμωση του ίδιου του πολίτη. Μόνο έτσι οι κοινωνίες μπορούν να ελπίζουν σε μια πιο ισόρροπη και δημοκρατική χρήση των social media.
Βιβλιογραφία:
Algorithmic radicalization. Wikipedia. https://en.wikipedia.org/wiki/Algorithmic_radicalization
Bhrabham, J., et al. (2025). Fueling the fire: How social media intensifies U.S. political polarization and what can be done about it. NYU Stern School of Business. https://bhr.stern.nyu.edu/publication/fueling-the-fire-how-social-media-intensifies-u-s-political-polarization-and-what-can-be-done-about-it/
Brookings Institution. (2021). How tech platforms fuel U.S. political polarization and what government can do about it. https://www.brookings.edu/articles/how-tech-platforms-fuel-u-s-political-polarization-and-what-government-can-do-about-it/
Brookings Institution. (2022). Misinformation is eroding the public’s confidence in democracy.
https://www.brookings.edu/articles/misinformation-is-eroding-the-publics-confidence-in-democracy/
Chaney, A. J. B., Stewart, B. M., & Engelhardt, B. E. (2019). Feedback loops and echo chambers: How algorithms amplify viewpoints. The Conversation. https://theconversation.com/feedback-loops-and-echo-chambers-how-algorithms-amplify-viewpoints-107935
DeVito, M. A. (2016). From editors to algorithms: A values-based approach to understanding story selection in the Facebook news feed. Journalism & Mass Communication Quarterly, 94(2), 317–334. https://doi.org/10.1177/1077699016679976
European Commission. (2022). The Digital Services Act: ensuring a safe and accountable online environment. https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package
Feldstein, S. (2021). How Big Tech Is Reshaping Democracy and Human Rights. Carnegie Endowment for International Peace. https://carnegieendowment.org/2021/09/08/how-big-tech-is-reshaping-democracy-and-human-rights-pub-85236
Filter bubble. Wikipedia.https://en.wikipedia.org/wiki/Filter_bubble
Fuchs, C. (2021). Social media, fake news, and the public sphere. Media, Culture & Society, 43(1), 153–160. https://doi.org/10.1177/0163443720957883
Gillespie, T. (2018). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Yale University Press. https://yalebooks.yale.edu/book/9780300173130/custodians-of-the-internet/
Gorwa, R. (2019). What is platform governance? Information, Communication & Society, 22(6), 854–871. https://doi.org/10.1080/1369118X.2019.1573914
Helberger, N., et al. (2021). Through the Newsfeed Glass: Rethinking Filter Bubbles and Echo Chambers. Philosophy & Technology. https://link.springer.com/article/10.1007/s13347-021-00494-z
Huszár, F., Ktena, S. I., O’Brien, C., Belli, L., Schlaikjer, A., & Hardt, M. (2021). Algorithmic amplification of politics on Twitter. Proceedings of the National Academy of Sciences. https://www.pnas.org/doi/10.1073/pnas.2025334119
Isaac, M., & Frenkel, S. (2020). Facebook Struggles to Balance Civility and Free Expression. The New York Times. https://www.nytimes.com/2020/05/27/technology/facebook-hate-speech.html
Jenkins, H., Ito, M., & boyd, d. (2016). Participatory Culture in a Networked Era. Polity.
Jung, J. Y., Park, S., & Lee, H. (2024). Algorithmic curation and political participation: How personalized newsfeeds influence civic engagement. Perspectives on Psychological Science, 19(1), 45–60. https://journals.sagepub.com/doi/full/10.1177/17456916231198471
Livingstone, S. (2014). Developing social media literacy: How children learn to interpret risky opportunities on social network sites. Communications, 39(3), 283–303. https://doi.org/10.1515/commun-2014-0113
Lorenz-Spreen, P., Lewandowsky, S., Sunstein, C. R., & Hertwig, R. (2020). How behavioural sciences can promote truth, autonomy and democratic discourse online. Nature Human Behaviour, 4, 1102–1109. https://doi.org/10.1038/s41562-020-0889-7
Mihailidis, P., & Viotty, S. (2017). Spreadable Spectacle in Digital Culture: Civic Expression, Fake News, and the Role of Media Literacies in “Post-Fact” Society. American Behavioral Scientist, 61(4), 441–454. https://doi.org/10.1177/0002764217701217
Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. Penguin Press.
https://en.wikipedia.org/wiki/Filter_bubble
Pasquale, F. (2015). The Black Box Society: The Secret Algorithms That Control Money and Information. Harvard University Press. https://www.hup.harvard.edu/catalog.php?isbn=9780674970847
Pew Research Center (2022). News Consumption Across Social Media Platforms.
Piccardi, T., Saveski, M., Jia, C., Hancock, J. T., Tsai, J. L., & Bernstein, M. (2024). Social media algorithms can shape affective polarization via exposure to antidemocratic attitudes and partisan animosity. arXiv. https://arxiv.org/abs/2411.14652
Princeton University & ASU. (2021). Political polarization and its echo chambers: Surprising new cross-disciplinary insights. Proceedings of the National Academy of Sciences. https://www.princeton.edu/news/2021/12/09/political-polarization-and-its-echo-chambers-surprising-new-cross-disciplinary
Reclaim AI. (n.d.). Algorithmic amplification of disinformation. : https://reclaimai.org/impact-of-social-media-algorithms-on-populism-and-political-discourse-in-the-usa/
Sandvig, C., Hamilton, K., Karahalios, K., & Langbort, C. (2014). Auditing Algorithms: Research Methods for Detecting Discrimination on Internet Platforms. Data and Discrimination: Collected Essays. https://ssrn.com/abstract=2477598
The Verge. (2024, November 14). Pro-Harris TikTok felt safe in an algorithmic bubble — until Election Day. Retrieved from (14/08/2025): https://www.theverge.com/24295814/kamala-harris-tiktok-filter-bubble-donald-trump-algorithm
Tufekci, Z. (2015). Algorithmic harms beyond Facebook and Google: Emergent challenges of computational agency. Colorado Technology Law Journal, 13(1), 203–218. https://ctlj.colorado.edu/?p=1617
Ye, J. (2024). Auditing political exposure bias: Algorithmic amplification. SSRN.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5018879
Πηγή Εικόνας Κειμένου: https://evergreen.greenhill.org/the-political-power-of-social-media/