Αν και ο δημόσιος διάλογος το τελευταίο διάστημα καθορίστηκε από τη δημόσια πρόσβαση στο ChatGPT, συνυπάρχουμε χρόνια με τεχνολογίες που ομαδοποιούνται κάτω από τον όρο «Τεχνητή Νοημοσύνη». Συνήθως, το αποτέλεσμα που παίρνουμε είναι ευθέως ανάλογο του ποσού και της ποιότητας της ανθρώπινης εργασίας που έχει καταναλωθεί κατά τη δημιουργία του συστήματος. 

A.I. Απομυθοποίηση και κατανόηση

του Έκτορα-Ξαβιέ Δελαστίκ
Πηγή: ΠΡΙΝ

Εισαγωγή στην Τεχνητή Νοημοσύνη

Αν και ο δημόσιος διάλογος το τελευταίο διάστημα καθορίστηκε από τη δημόσια πρόσβαση στο ChatGPT, συνυπάρχουμε χρόνια με τεχνολογίες που ομαδοποιούνται κάτω από τον όρο «Τεχνητή Νοημοσύνη». Συνήθως, το αποτέλεσμα που παίρνουμε είναι ευθέως ανάλογο του ποσού και της ποιότητας της ανθρώπινης εργασίας που έχει καταναλωθεί κατά τη δημιουργία του συστήματος. 

Δεν υπάρχει Τεχνητή Νοημοσύνη

Δεν εννοούμε πως οι τεχνολογίες που αναπτύσσονται δεν ανταποκρίνονται σε κάποια κριτήριά μας. Εννοούμε, πολύ συγκεκριμένα, πως ο όρος «Τεχνητή Νοημοσύνη» χρησιμοποιείται ως εμπορική ονομασία για τεχνολογίες τόσο διαφορετικές μεταξύ τους που στερείται νοήματος. Η ίδια η επιλογή του όρου αποτελεί συνειδητή προσπάθεια δημιουργίας ενός ευνοϊκού επενδυτικού περιβάλλοντος μέσω της δημιουργίας τεχνητού δέους στο κοινό. Έτσι, ξεκινούμε αποσαφηνίζοντας σημαντικούς όρους, καθώς βλέπουμε συχνά παραλλαγές της φράσης «τα συστήματα τεχνητής νοημοσύνης εκπαιδεύονται με ή χωρίς επίβλεψη και μετά λαμβάνουν αποφάσεις».

«Εκπαίδευση»: Όταν μιλάμε για συστήματα μηχανικής μάθησης ή νευρωνικών δικτύων, ο αρχικός αλγόριθμος είναι απολύτως άχρηστος εάν δεν έρθει σε επαφή με ένα σύνολο επιλεγμένων δεδομένων, πάνω στα οποία θα προσαρμοστεί. Η διαδικασία αυτή προκαθορίζει τη μετέπειτα λειτουργία του, με εμάς να ελπίζουμε πως θα συνεχίσει να λειτουργεί αποτελεσματικά σε πραγματικά δεδομένα.

«Επίβλεψη»: Η διαδικασία κατά την οποία κατηγοριοποιεί τα δεδομένα εκπαίδευσης κάποια ομάδα ανθρώπων. Έτσι, εκπαίδευση χωρίς επίβλεψη έχουμε όταν δίνουμε στο πρόγραμμα φωτογραφίες και ελπίζουμε να τις διαχωρίσει σωστά σε γάτες και σκύλους. Μερική επίβλεψη έχουμε όταν έχουμε κατηγοριοποιήσει μερικές ως γάτες ή σκύλους, ώστε να νουθετήσουμε ελαφρά τον αλγόριθμο, και πλήρη επίβλεψη όταν έχουμε κατηγοριοποιήσει ένα-ένα όλα τα δεδομένα εκπαίδευσης.

«Απόφαση»: Στην τεχνική γλώσσα, οποιοδήποτε σύστημα μπορεί να κάνει διαφορετικές πράξεις αναλόγως των συνθηκών, αποτελεί σύστημα απόφασης. Με άλλα λόγια, η βαλβίδα υπερχείλισης ενός υδατοφράγματος είναι σύστημα απόφασης, χωρίς όμως κανείς να θεωρεί νοήμον το φράγμα.

Πλέον δεν αποπνέει τόσο δέος η πρόταση από την οποία ξεκινήσαμε, έτσι;

A.I. – Απομυθοποίηση τώρα 

Εργαζόμενη καθαρίζει με παραδοσιακό τρόπο το πάτωμα σε κατάστημα που πουλάει έξυπνες σκούπες-ρομπότ

Για να μπορέσουμε να βάλουμε σε τάξη έναν ταχέως εξελισσόμενο τομέα, το να θέσουμε σαφείς όρους συζήτησης είναι απαραίτητο. Το φάσμα τεχνολογιών που σήμερα αναφέρονται ως «τεχνητή νοημοσύνη» πάσχει σημαντικά σε αυτόν τον τομέα, με αρκετές από αυτές να αναφέρονται σε δύο και τρεις διαφορετικές κατηγορίες, ή ακόμα και μέθοδοι να μετονομάζονται σε «τεχνητή νοημοσύνη» για να εκμεταλλευτούν το κύμα δημόσιου διαλόγου που βρίσκεται σε εξέλιξη. Γι αυτό το λόγο θα ξεκινήσουμε μια αδρή κατηγοριοποίηση, θέτοντας τους όρους που θα χρησιμοποιήσουμε κατά τη διάρκεια του άρθρου.

Ο πρώτος τομέας του φάσματος που υπάγεται στον όρο «τεχνητή νοημοσύνη» είναι αυτό που ονομάζουμε «έξυπνο προγραμματισμό» (intelligent programming). Πρόκειται για κλασικό προγραμματισμό, υπό την έννοια ότι η κατασκευαστική ομάδα καλείται να προβλέψει και να προκαθορίσει αντιδράσεις για κάθε πιθανή περίπτωση ή συνδυασμό παραγόντων. Με άλλα λόγια, το αποτέλεσμα που παίρνουμε είναι ευθέως ανάλογο του ποσού και της ποιότητας της ανθρώπινης εργασίας που έχει καταναλωθεί κατά τη δημιουργία του συστήματος. Αν έχετε παίξει κάποιο ηλεκτρονικό παιχνίδι με αντίπαλο τον υπολογιστή, τότε σίγουρα έχετε μάθει υποσυνείδητα να εκμεταλλεύεστε ακριβώς τις περιπτώσεις που δεν προγραμματίστηκαν αρκετά ενδελεχώς ώστε να κερδίζετε. Ένα χρήσιμο εποπτικό παράδειγμα σε αυτόν τον τομέα είναι η ραχοκοκκαλιά των «αυτο-οδηγούμενων οχημάτων». Εάν βάλετε έναν κώνο της τροχαίας στο καπώ ενός τέτοιου οχήματος, σταματά να κινείται [1], καθώς δεν έχει προγραμματιστεί να διαχειρίζεται μια τέτοια κατάσταση.

Ο δεύτερος τομέας του φάσματος τεχνολογιών που συζητάμε είναι τα «συστήματα μηχανικής μάθησης» (machine learning). Κατά τη δημιουργία τους, καθορίζουμε με σαφήνεια μια σειρά μεταβλητών που θα μπορούσαν να είναι σημαντικές κατά τη λήψη αποφάσεων. Μετά, η διαδικασία της εκμάθησης συνίσταται στο να φέρουμε τον αλγόριθμο σε επαφή με δοκιμαστικά δεδομένα, ώστε να προσαρμοστεί σε αυτά και να αναδείξει ποιές από τις μεταβλητές που προκαθορίσαμε είναι σημαντικές και πόσο. Το αποτέλεσμα είναι πως αφ’ ενός τα αποτελέσματα που παίρνουμε από την πραγματική του χρήση έχουν προκαθορισμένα και απολύτως γνωστά κριτήρια, αφ’ ετέρου μπορούμε ανά πάσα στιγμή να μελετήσουμε τις εξισώσεις του συστήματος και να κατανοήσουμε με λεπτομέρεια την ιεράρχηση που έδωσε κάποιο αποτέλεσμα. Ένα καλό εποπτικό παράδειγμα είναι ο τρόπος με τον οποίο το Netflix προτείνει περιεχόμενο [2]. Με ένα τέτοιο σύστημα να προσπαθεί να μιμηθεί τις ανθρώπινες επιλογές, η εταιρία μπορεί να δει με λεπτομέρεια ποιοί παράγοντες (κριτικές, ώρα θέασης, ηθοποιοί κ.α.) είναι σημαντικοί για την εταιρία ώστε να επενδύσει σε αυτούς.

Ο τρίτος τομέας περιλαμβάνει τις «τεχνολογίες νευρωνικών δικτύων» (neural networks). Αυτός ο τομέας είναι ο πιο δύσκολα κατανοήσιμος για βαθύτατους λόγους. Κατ’ αρχάς, προσπαθούμε να δημιουργήσουμε ένα ψηφιακό μοντέλο κόμβων (νευρικών κυττάρων) που συνδέονται μεταξύ τους με πολλούς τρόπους (συνάψεις). Πρόκειται για μια απόπειρα να δημιουργήσουμε ένα πάρα πολύ απλό και αφαιρετικό μοντέλο μιας μικρής μάζας νευρώνων, ελπίζοντας πως αυτό θα μπορεί να προσαρμοστεί σε προβλήματα που του θέτουμε. Όπως και στη μηχανική μάθηση, έχουμε και εδώ τη διαδικασία εκμάθησης με την εφαρμογή του αλγορίθμου σε προσεκτικά επιλεγμένα δοκιμαστικά δεδομένα, ώστε το ειδικό βάρος του κάθε «νευρικού κυττάρου» και η ισχύς κάθε «σύναψης» να αλλάξει, με το αποτέλεσμα να είναι ένα έτοιμο σύστημα, προσαρμοσμένο στα δεδομένα αυτά. Εδώ όμως δεν έχουμε κανένα πλήρες φιλοσοφικό μοντέλο ώστε να μπορούμε να κατανοήσουμε τον τρόπο με τον οποίο αυτή η προσαρμογή απεικονίζει τα δεδομένα που χρησιμοποιήσαμε. Με άλλα λόγια, όπως δεν έχουμε ένα φυσικό μοντέλο για την ανθρώπινη νόηση, με τον ίδιο τρόπο δεν έχουμε ένα θεωρητικό μοντέλο για τον τρόπο με τον οποίο ένα τέτοιο σύστημα παράγει αποτελέσματα, δημιουργώντας ένα μεγάλο ζήτημα όσον αφορά την αξιοπιστία του. Ένα πολύ καλό παράδειγμα είναι συστήματα που φτιάχτηκαν για να ξεχωρίζουν καλοήθεις από καρκινικές ελιές δέρματος. Μετέπειτα μελέτη ενός τέτοιου συστήματος έδειξε πως θεωρούσε την ύπαρξη χάρακα στη φωτογραφία ως καρκινικό δείκτη, μιας και οι νοσοκομειακές φωτογραφίες καρκινικών ελιών έχουν συχνότερα παρακολούθηση του μεγέθους τους [3].

Σε αυτήν την τεχνολογία οφείλεται η τεράστια πλειοψηφία της δημόσιας συζήτησης, με το πιο πολυσυζητημένο παράδειγμά της να είναι το ChatGPT της εταιρίας OpenAI, εκπαιδευμένο πάνω σε τεράστιες ποσότητες κειμένου αλιευμένου από το διαδίκτυο, άρθρα και εκθέσεις [4], ώστε με τη σειρά του να παράγει αληθοφανές κείμενο, επιλέγοντας κάθε νέα λέξη με βάση όσες έχουν προηγηθεί. Επειδή ακριβώς όμως ο δημόσιος διάλογος καθορίστηκε από τη δημόσια πρόσβαση στο συγκεκριμένο σύστημα, παραλείπονται πολύ σημαντικές ήδη υπάρχουσες ή δυνητικές εφαρμογές. Επί παραδείγματι, από το 2015, τα αποτελέσματα αναζήτησης που εμφανίζει η Google βασίζονται σε μηχανική μάθηση, ενώ η λειτουργία του Google Translate βασίζεται σε νευρωνικά δίκτυα, έχοντας κάνει άλματα στη δυνατότητα έστω και μέτριας μετάφρασης. Παράλληλα, η δημιουργία βέλτιστων διαδρομών σε προγράμματα γεωεντοπισμού (GPS) έχει μεταβάλει ριζικά τις μεταφορές, από τα τάνκερ μέχρι τα κούριερ.

Νευρωνικά δίκτυα ακροδεξιού λόγου

Με την έκρηξη δημόσιας κάλυψης που πυροδότησε το ChatGPT, ξεχνούμε πως δεν ήταν το πρώτο τέτοιο κοινωνικό πείραμα. Στις 23/3/2016, δημιουργήθηκε ο λογαριασμός στο Twitter ονόματι «TayandYou», όπου η Microsoft προσκάλεσε το κοινό της πλατφόρμας να συζητήσει με ένα νευρωνικό δίκτυο παραγωγής λόγου ονόματι Tay (το οποίο θα βελτιωνόταν μέσω της αλληλεπίδρασης) σε μια εντυπωσιακή κίνηση δημόσιας εικόνας. Σε περίπου 16 ώρες η εταιρία κατέβασε τον λογιαριασμό, καθώς «εκπαιδεύτηκε» σε πραγματικό χρόνο να γράφει ναζιστικές αναρτήσεις και μισογυνικά συνθήματα [5] [6]. Το γεγονός αναδεικνύει το εγγενές χαρακτηριστικό αυτών των συστημάτων να αναπαράγουν μοτίβα που συναντούν αδιακρίτως. Ο ακροδεξιός λόγος χαμηλού επιπέδου χαρακτηρίζεται από επανάληψη των συνθημάτων, από λέξεις-κλειδιά και από ταυτόχρονη παράθεση εννοιών χωρίς αιτιακή σχέση μεταξύ τους (π.χ. μετανάστευση-υπογεννητικότητα). Τυγχάνει, γι’ αυτούς τους λόγους, προνομιακής μεταχείρισης όταν υπάρχει στα δεδομένα εκμάθησης ενός συστήματος, όπως φάνηκε στην ιστορία της Tay.

Το ChatGPT δεν έχει γίνει γνωστό για ανάλογη συμπεριφορά συγκεκριμένα επειδή η OpenAI έδωσε υπεργολαβία στην Κένυα (με 2$ ωρομίσθιο) τη δημιουργία ενός δεύτερου συστήματος με αντικείμενο να αναγνωρίζει και κόβει συγκεκριμένα τις ακροδεξιές, ρατσιστικές, μισογύνικες, κακοποιητικές απαντήσεις πριν τις δει ο χρήστης [7]. Στο ίδιο σημείο του μυαλού μας πρέπει να βρίσκεται η επιστολή μαθηματικών στις ΗΠΑ το 2020, η οποία καλεί την κοινότητα των μαθηματικών να διακόψει τις συνεργασίες με αστυνομικά τμήματα [8]. Ο λόγος ήταν μια πλειάδα αυτόματων συστημάτων και μαθηματικών εργαλείων που εμπορεύονταν ιδιωτικές εταιρίες, τα οποία θα αυτοματοποιούσαν τη διαχείριση πόρων αστυνόμευσης. Εκπαιδευόμενα πάνω σε ρατσιστικά και ταξικά δεδομένα, παράγουν ταξικές και ρατσιστικές απαντήσεις, προστατεύοντας τους διευθυντές από την ηθική και νομική ευθύνη των αποφάσεων αυτών.

Μέσο ελέγχου, ο έλεγχος του μέσου παραγωγής

Στην ανάλυση που προηγήθηκε γίνεται σαφής η κομβική σημασία του ελέγχου πάνω στα δεδομένα εκπαίδευσης τα οποία μετατρέπουν τα συστήματα μηχανικής μάθησης και νευρωνικών δικτύων σε προϊόντα προς χρήση. Η συλλογή γιγάντιων όγκων στοιχείων απαιτεί εξαιρετικά σημαντικό ποσό ανθρώπινης εργασίας, οπότε κι επιτυγχάνεται κυρίως μέσω δημόσιων οργανισμών (π.χ. μηχανοράνωση νοσοκομειακών και φορολογικών αρχείων), στα πλαίσια μεγάλων επιχειρηματικών ομίλων (π.χ. συγκέντρωση δεδομένων κίνησης των χρηστών από τη Google) ή απλά αλιεύονται από το ήδη υπάρχον υλικό του διαδικτύου χωρίς ενημέρωση του κοινού και αποζημίωση των δημιουργών (π.χ. απόκτηση φωτογραφιών από την Clearview, ή κειμένου για τις ανάγκες του ChatGPT). Η προετοιμασία δεδομένων για εκπαίδευση από αυτά τα στοιχεία είναι ένας νέος εργολαβικός κλάδος της οικονομίας, με έδρες κυρίως στη νοτιοανατολική Ασία και μέγεθος ευθέως ανάλογο της ανάγκης για τη χρήση τέτοιων αλγορίθμων. Όπως είδαμε και στην Κένυα [7], πρόκειται για επαναληπτική, χαμηλής ειδίκευσης εργασία, το προϊόν της οποίας αποτελεί πρώτη ύλη για ολοκληρωμένα εμπορικά συστήματα.

Καλούμαστε να ξεδιαλύνουμε το ποια μπορεί και πρέπει να είναι η συνύπαρξη με την υπόλοιπη ανθρώπινη εργασία από τα επενδυτικά συνθήματα. Κατ’ αρχάς, μεγάλο μέρος των ισχυρισμών για αντικατάσταση θέσεων εργασίας οφείλεται σε άρθρα επενδυτών όπως ο Vinod Khosla [10] [9], τα οποία αποτελούν απλώς πρόσκληση σε χρηματιστηριακό σπεκουλάρισμα. Καμία σοβαρή έρευνα δεν κάνει προβλέψεις για αντικατάσταση ανθρώπινης εργασίας από μια τεχνολογία στα σπάργανα. Υπάρχουν όμως κλάδοι στους οποίους η αύξηση της παραγωγικότητας θα φέρει στην καθημερινή διάταξη τη μείωση των ωρών εργασίας χωρίς μείωση μισθού. Στον κλάδο των μεταφορών ήδη υπάρχει τέτοια πίεση υπό το βάρος της αυξανόμενης παραγωγικότητας. Στην πλειοψηφία των κλάδων της οικονομίας όμως η πίεση θα είναι έμμεση, ως «επστημονικό management με νέα εργαλεία».

Η ύπαρξη αυτών των εργαλείων δημιουργεί όμως και μια σειρά επιχειρήσεων που θα υποσχεθούν πλήρη αντικατάσταση ανθρώπινων θέσεων εργασίας με αλγορίθμους, ανεξαρτήτως του αν κάτι τέτοιο είναι εφικτό ή θνησιγενές. Στους χώρους εργασίας αυτές οι εταιρίες προϊόντων ή/και management θα αξιοποιηθούν ώστε να δικαιολογήσουν προειλημμένες αποφάσεις απολύσεων με νέα γλώσσα. Είναι λοιπόν εξαιρετικής σημασίας η πλήρης και ουσιαστική ενημέρωση του κόσμου της εργασίας, ώστε να μη νιώσει κανένα δέος απέναντι σε «λαγούς με A.I. πετραχήλια» και να δει τις μειώσεις προσωπικού ως αυτό που πραγματικά είναι.

Το τελικό ερώτημα είναι αν πρόκειται για ένα ακόμα νέο μέσο παραγωγής ή για δυνητική αντικαταστάση του ανθρώπου. Οι τεχνολογίες μηχανικής μάθησης και νευρωνικών δικτύων αποτελούν συστήματα αναγνώρισης μοτίβων, χωρίς καμμία δυνατότητα στο προβλέψιμο μέλλον «κατανόησης» του προβλήματος που καλούνται να λύσουν. Ακόμα περισσότερο, η χρήση τους απαιτεί επανεκπαίδευση πάνω σε πρόσφατα δεδομένα ανά τακτά χρονικά διαστήματα, άρα εκ νέου δημιουργία, προετοιμασία και εκπαίδευση με τη σπατάλη νέας ανθρώπινης εργασίας. Αποτελούν δηλαδή σαφώς ένα φθαρτό μέσο παραγωγής και όχι ανατροπή του τρόπου παραγωγής.

Βιβλιογραφία

[1] https://futurism.com/the-byte/trapping-self-driving-cars-traffic-cones

[2] Blog, N. T. (2017, April 18). Netflix recommendations: Beyond the 5 stars (part 1). Medium. https://netflixtechblog.com/netflix-recommendations-beyond-the-5-stars-part-1-55838468f429

[3] Narla, A., Kuprel, B., Sarin, K., Novoa, R., & Ko, J. (2018). Automated classification of skin lesions: From pixels to practice. Journal of Investigative Dermatology, 138(10), 2108–2110. https://doi.org/10.1016/j.jid.2018.06.175

[4] Cretu, C. (2023a, October 23). How does chatgpt actually work? an ML engineer explains. Scalable Path. https://www.scalablepath.com/machine-learning/chatgpt-architecture-explained

[5] Victor, D. (2016, March 24). Microsoft created a Twitter bot to learn from users. it quickly became a racist jerk. The New York Times. https://www.nytimes.com/2016/03/25/technology/microsoft-created-a-twitter-bot-to-learn-from-users-it-quickly-became-a-racist-jerk.html

[6] Guardian News and Media. (2016, March 24). Tay, Microsoft’s AI chatbot, gets a crash course in racism from Twitter. The Guardian. https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash-course-in-racism-from-twitter

[7] Perrigo, B. (2023, January 18). OpenAI used Kenyan workers on less than $2 per hour: Exclusive. Time. https://time.com/6247678/openai-chatgpt-kenya-workers/

[8] Burke, L. Mathematicians urge cutting ties with police. Inside Higher Ed | Higher Education News, Events and Jobs. https://www.insidehighered.com/news/2020/06/24/mathematicians-urge-cutting-ties-police

[9] Khosla, V. (2012, January 10). Do we need doctors or algorithms?. TechCrunch. https://techcrunch.com/2012/01/10/doctors-or-algorithms

[10] Khosla, V. (2012, January 16). Will we need teachers or algorithms?. TechCrunch. https://techcrunch.com/2012/01/15/teachers-or-algorithms/

inffowar logo

Βοήθησε το INFO-WAR να συνεχίσει την ανεξάρτητη δημοσιογραφία

Για περισσότερες επιλογές πατήστε εδώ