Παρασκευή 03 Ιανουαρίου 2025 -

Τεχνητή νοημοσύνη και επιτήρηση – «Καλώς ήρθατε στον οργουελικό εφιάλτη»



Θέλοντας και μη, η εποχή της σύγχρονης επιτήρησης -με κυρίαρχη πια την τεχνητή νοημοσύνη- φαντάζει κατά πολλούς με ένα αλγοριθμικό Πανοπτικό.

Ήτοι μια τεχνολογικά προηγμένη εκδοχή του κτιρίου-φυλακή που σχεδίασε το 1785 ο Άγγλος φιλόσοφος και κοινωνιολόγος Τζέρεμι Μπένθαμ, έχοντας ως κεντρική ιδέα την ανά πάσα στιγμή επίβλεψη όλων των κρατουμένων.

Σε ένα οργουελικό σενάριο, ως «φυλακή» θα μπορούσε να νοηθεί η συνεχής επόπτευση και ως δυνάμει «κρατούμενοι» όλοι οι πολίτες.

Διαρκώς εξελισσόμενο, το φαινόμενο δεν είναι καν νέο.

Σε μια υπόθεση που χρονολογείται από την άνοιξη του 2016 στην Καλιφόρνια, για παράδειγμα, ένας τυπικός αστυνομικός έλεγχος σε έναν οδηγό μετατράπηκε σε ποινική έρευνα, με μπερδεμένα ίχνη DNA και αντικρουόμενες αναλύσεις δεδομένων βάσει αλγορίθμων.

Η εν λόγω περίπτωση αποτέλεσε αφορμή για τη δημοσίευση το 2023 σχετικής μελέτης από τον Γουίλιαμ Σ. Τόμσον, ομότιμο καθηγητή Εγκληματολογίας και Νομικής στο Πανεπιστήμιο της Καλιφόρνια στο Ιρβάιν.

Στην ουσία της, απηχούσε ένα πολύ ευρύτερο ζήτημα.

Την πικρή, δημόσια διαμάχη για τις γενετικές πληροφορίες, την τεχνητή νοημοσύνη και τις κοινωνικές εφαρμογές των υπολογιστικών εργαλείων που αξιοποιούν μεγάλες ποσότητες δεδομένων.

Προς επίρρωση -επισημαίνει σε σχετικό ρεπορτάζ ο ιστότοπος επιστημονικών θεμάτων Undark– επιστήμονες κατέδειξαν προσφάτως ότι είναι δυνατό να αποσπάσουν δείγματα ανθρώπινου DNA από μια μονάδα κλιματισμού.

Ακόμα και αν ένας εγκληματίας εισέλθει για μικρό χρονικό διάστημα σε ένα δωμάτιο φορώντας γάντια -αναφέρουν- έχει τυλίξει το κινητό του με αλουμινόχαρτο για να αποφύγει τον γεωεντοπισμό και καθαρίσει ακόμη και το παραμικρό ίχνος αίματος από το χώρο, οι μονάδες κλιματισμού συλλέγουν παθητικά ίχνη DNA, τα οποία θα μπορούσαν στη συνέχεια να συγκεντρωθούν, να απομονωθούν και να χρησιμοποιηθούν για την ταυτοποίηση του δράστη.

 

Θεωρητικά το ίδιο ισχύει για οποιοδήποτε άτομο, υπό οποιεσδήποτε συνθήκες.

Η σύγχρονη επιτήρηση μας αφορά όλους.

Και δη όταν επεκτείνεται σταδιακά παντού, από χώρες με αυταρχικά καθεστώτα, μέχρι δυτικού τύπου δημοκρατίες.

Κάμερα ασφαλείας σε δρόμο στο Πεκίνο (REUTERS/Carlos Garcia Rawlins/File Photo)

Σύγχρονο κράτος-επόπτης

Τα παθητικά μέσα ακρόασης και παρατήρησης είναι πια πανταχού παρόντα.

Στις ΗΠΑ, φερ’ ειπείν, τα αστυνομικά τμήματα σε πόλεις με πληθυσμό άνω του 1 εκατομμυρίου κατοίκων αναπτύσσουν κάμερες αυτόματης αναγνώρισης πινακίδων κυκλοφορίας.

«Τα χαρακτηριστικά του οχήματός σας», γράφει το Undark, «είναι πιθανό να καταχωρούνται σε μια εταιρεία, που ισχυρίζεται ότι συμμετείχε στην εξιχνίαση του 10% όλων των εγκλημάτων στις ΗΠΑ».

Ακόμη και εάν η καταγραφή δεν είναι πλήρης ή καθαρή, ένας αλγόριθμος που ονομάζεται DeepPlate αποκρυπτογραφεί τις θολές εικόνες, παρέχοντας έτσι στοιχεία για τη διερεύνηση π.χ. ενός εγκλήματος.

Έτσι, ακόμη και φαινομενικά αθώες παραβάσεις μπορούν δυνητικά να εγκλωβίσουν τους πολίτες στο «δίχτυ» της σύγχρονης επιτήρησης.

«Ασήμαντα πλημμελήματα, όπως το να βγάζετε βόλτα τον σκύλο σας χωρίς λουρί, μπορεί να αντιμετωπίζονται συχνά με αντάλλαγμα τη λήψη δείγματος DNA για να μην απαγγελθούν κατηγορίες», υπογραμμίζεται χαρακτηριστικά στο ρεπορτάζ, παραπέμποντας σε σχετικά περιστατικά που έχουν καταγγελθεί στο πρόσφατο παρελθόν σε συγκεκριμένες περιοχές των ΗΠΑ.

Αυτό πρακτικά σημαίνει ότι το γονιδίωμα ενός πολίτη μπορεί να καταχωρηθεί σε μια εθνική βάση δεδομένων και, κάποια στιγμή δυνητικά, να χρησιμοποιηθεί για τη σύνδεση του ίδιου ή συγγενικών προσώπων του -ακόμη και όσα δεν έχουν ακόμη γεννηθεί – με μελλοντικά εγκλήματα.

Για όσους καταλήγουν πίσω από τα κάγκελα, εν τω μεταξύ, διάφορα συστήματα όχι μόνο μπορούν να παρακολουθούν τις κλήσεις και τις επαφές τους, αλλά να χρησιμοποιούν λογισμικό για να «διαβάζουν τυχόν προβληματική γλώσσα».

Κανένα από τα παραπάνω παραδείγματα δεν είναι υποθετικό.

Αυτές οι τεχνολογίες υπάρχουν, λειτουργούν και η χρήση τους επεκτείνεται σε όλο τον κόσμο, επισημαίνει το Undark.

Μοιραία, υπάρχουν εύλογες και εντεινόμενες ανησυχίες σχετικά με την ιδιωτικότητα και τη συγκατάθεση, ακόμη και για τη διείσδυση της τεχνητής νοημοσύνης στην κυβερνητική επιτήρηση.

Υπάρχουν ωστόσο εξίσου βασικά ερωτήματα, που -όπως λένε πολλοί ειδικοί- έχουν αγνοηθεί σε μεγάλο βαθμό.

Drone της γαλλικής αστυνομίας σε πτήση επιτήρησης πάνω από το Παρίσι (REUTERS/Gonzalo Fuentes)

Κανονικοποιώντας την επιτήρηση

Ένας αυξανόμενος αριθμός επικριτών στρέφεται κατά των σύγχρονων συστημάτων επιτήρησης, αμφισβητώντας την χρησιμότητα και αποδοτικότητά τους.

Ορισμένες από αυτές τις τεχνολογίες, λένε, δεν έχουν αποδεδειγμένο ιστορικό αξιοπιστίας και διαφάνειας, τουλάχιστον στην τρέχουσα εκδοχή τους, ενώ οι «απαντήσεις» που παρέχουν παραμένουν επικίνδυνα «θολές».

Εξ ου και στη «γλώσσα» των μηχανικών λογισμικού τα συστήματα αυτά  ονομάζονταν «εύθραυστα».

Τίθενται εύλογα και ουσιώδη ερωτήματα ως προς τους αλγορίθμους που κάνουν προβλέψεις και παράγουν στατιστικές για συμπεριφορικά μοντέλα.

Αυτά τα συστήματα αντιπροσωπεύουν μια ολόκληρη κατηγορία εργαλείων επιτήρησης, αντανακλώντας ευρύτερα πρότυπα για τον τρόπο με τον οποίο αναπτύσσονται άκριτα, χωρίς σαφείς προδιαγραφές και ρυθμιστικό πλαίσιο.

«Ζούμε όλο και περισσότερο σε έναν κόσμο όπου συλλέγονται όλο και περισσότερα δεδομένα για εμάς, συχνά χωρίς να γίνει εν γνώσει μας ή με την πλήρη συγκατάθεσή μας», εξηγεί η Ντάφνι Μαρτσένκο, ερευνήτρια στο Κέντρο Βιοϊατρικής Ηθικής του Πανεπιστημίου Στάνφορντ.

«Είτε σας νοιάζει, είτε όχι -και μπορεί να μη σας νοιάζει αν θεωρείτε τον εαυτό σας νομοταγή πολίτη- συνήθως δεν παίρνουμε στα σοβαρά αυτές τις συνήθεις παραβιάσεις της αυτονομίας και την απώλεια της ιδιωτικής ζωής», υπογραμμίζει το Undark.

Όμως «η κανονικοποίηση της βιντεοεπιτήρησης και των τεχνολογιών αναγνώρισης προσώπου, συμπεριλαμβανομένων των πανταχού παρόντων καταναλωτικών προϊόντων -όπως κάμερες εισόδου ή οι λειτουργίες αυτόματης σήμανσης που ανιχνεύουν το πρόσωπο του παιδιού σας στην κατασκήνωση- έχει οδηγήσει σε εφησυχασμό».

Το αποτέλεσμα, παρατηρούν ακαδημαϊκοί σε πρόσφατη μελέτη, είναι σαν «να προγραμματιζόμαστε να μην ανησυχούμε για μορφές επιτήρησης, που κάποτε φάνταζαν σε πολλούς εξ ημών ως ανατριχιαστικές, διφορούμενες απειλές».

Τεχνητή νοημοσύνη και τεχνολογικός μιθριδατισμός

Πάρτε για παράδειγμα το DNA, που αποτελεί πλέον «χρυσό κανόνα» για τις εγκληματολογικές έρευνες.

Οι εφαρμογές του στην επιβολή του νόμου μπορεί να σας τρόμαζαν μόλις πριν από μερικές δεκαετίες.

Βρέθηκαν στο επίκεντρο με τη δίκη του O. Τζέι Σίμπσον στα μέσα της δεκαετίας του ’90.

Τώρα, αν και οι σύγχρονες χρήσεις εγκληματολογικών τεχνολογιών DNA είναι εκθετικά πιο ισχυρές, υπόκεινται σε λιγότερο έλεγχο.

Σημείο αναφοράς αποτελεί η γενετική γενεαλογία, η οποία συγκρίνει συλλεχθέντα προφίλ DNA από τόπους εγκλήματος με δημόσια διαθέσιμες βάσεις δεδομένων, συμπεριλαμβανομένων εκείνων που παρέχονται από εταιρείες βάσει απευθείας γενικών ελέγχων σε καταναλωτές.

«Από τη στιγμή που το DNA υπάρχει παντού στο σύστημα, πολλές από τις αρχικές ανησυχίες έχουν πια εξαφανιστεί», τονίζει η Σάρα Τσου, ακαδημαϊκός και συντονίστρια σχετικού πρόσφατου εργαστηρίου της Εθνικής Ακαδημίας Επιστημών των ΗΠΑ.

Αλλά αυτό, παρατηρεί, συμβαίνει «σε μια εποχή που η τεχνολογία έχει προχωρήσει», ενώ «δεν υπάρχουν περιορισμοί ότι τα δεδομένα που συλλέγονται», ακόμη και από εταιρείες, «δεν μπορούν να χρησιμοποιηθούν αλλού».

«Ζούμε σε μια καπιταλιστική κοινωνία, όπου η βιομηχανία καθοδηγείται από το κέρδος και η αποκάλυψη του “μαύρου κουτιού” όσον αφορά το λογισμικό που χρησιμοποιούν δεν είναι απαραίτητα προς το συμφέρον τους», τονίζει η Ντάφνι Μαρτσένκο.

«Στην περίπτωση χρήσης αυτών των γενετικών τεχνολογιών από τις υπηρεσίες επιβολής του νόμου οι επιπτώσεις μπορεί να είναι σοβαρές για τους ανθρώπους, σε ολόκληρο τον κόσμο».

Πολλώ μάλλον όταν -όπως παρατηρούν ακαδημαϊκοί σε μελέτη για την προστασία της ιδιωτικότητας– «η λήψη αποφάσεων σχετικά με τους ανθρώπους περιλαμβάνει ειδικές συναισθηματικές και ηθικές εκτιμήσεις, που οι αλγόριθμοι δεν είναι ακόμη έτοιμοι να κάνουν και ίσως να μην είναι ποτέ σε θέση να το πράξουν».

Αντίθετα, κατά την Σάρα Τσου και άλλους εμπειρογνώμονες, είναι ορατός ο κίνδυνος οι αλγόριθμοι και οι προβλέψεις τους να ενισχύουν τα στερεότυπα, παγιώνοντας ή και ενισχύοντας ανισότητες και προκαταλήψεις.