Cyborg
Cyborg #06 - 06/2016

#06 - 06/2016

01001100110106 – cyborg

Ο πραγματικός κίνδυνος με την τεχνητή νοημοσύνη δεν είναι η κακία (της) αλλά οι αρμοδιότητές (της).

Μπορεί στα μέρη μας οι δημόσιες ενασχολήσεις να είναι είτε με το παρελθόν (όσο πιο μακρινό τόσο καλύτερα...) είτε με ένα κρισιακό παρόν τόσο έντονα μυθοποιημένο έως διαστρεβλωμένο ώστε να επιβάλει την αδράνεια, όμως το μέλλον είναι εδώ. Ακόμα και σ’ αυτήν την επαρχία του πλανήτη. Η τεχνητή νοημοσύνη σε κάποια πιο “light” επίπεδά της είναι παρούσα, απ’ τις μηχανές αναζήτησης στον κυβερνοχώρο μέχρι το πολύ κοντινό internet of things. Και θα γίνει ακόμα πιο καθημερινή η τεχνητή νοημοσύνη όταν τα οικιακά ρομπότ διαφόρων ειδών και χρήσεων αρχίσουν να γίνονται κοινοτοπία.

Αλλού, φυσικά, ασχολούνται (και) μ’ αυτό το ήδη παρόν τεχνολογικό (και όχι μόνο) μέλλον, και τις προεκτάσεις του· τεχνικές, πολιτισμικές, ιδεολογικές, πολιτικές. Η φράση στην αρχή είναι του Stephen Hawking. Δεν θα χρειαζόταν, ωστόσο, το κύρος ενός τέτοιου υψηλού επιπέδου ειδικού για να αναδειχθεί το βάρος της: οι μηχανές είναι “πέραν του καλού και του κακού” σαν τέτοιες... Τι συμβαίνει και τι θα συμβεί όμως με τον προγραμματισμό τους;

Οι ηθικολογικές ανησυχίες σχετικά με την τεχνητή / μηχανική νοημοσύνη και οι ανάλογες φοβίες θα πήγαιναν την συζήτηση στα αν “τα έξυπνα ρομπότ μπορεί να καταστρέψουν, κάπως, κάπου, κάποτε, το ανθρώπινο είδος”. Αυτή η ηθικολογία αντιμετωπίζει την τεχνητή / μηχανική νοημοσύνη και τα ρομπότ φετιχιστικά: σαν αυτοτελή Όντα (με κεφαλαίο το όμικρον) με δική τους βούληση. Αν οι σύγχρονες μηχανές εμφανίζονται σα να έχουν “θέληση” (ή, ακόμα και “συναισθήματα”), αυτό οφείλεται μόνο στην άγνοιαγια το πως έχουν σχεδιαστεί και πως δουλεύουν. Άγνοια που οφείλεται, με τη σειρά της, στον σύγχρονο (καπιταλιστικό) καταμερισμό εργασίας και γνώσεων.

Μετά από 40, 50, 60 ή 70 χρόνια ερευνών, δοκιμών, αποτυχιών και επιτυχιών, η αλγοριθμική συνθετότητα (και το τι έχει γίνει δυνατόν να αλγοριθμοποιηθεί)  είναι, πράγματι, εντυπωσιακό. “Μηχανές που μαθαίνουν μόνες τους” - ποιος θα φανταζόταν μια τέτοια διατύπωση, που ωστόσο είναι τυπικά ακριβής; Το τι σημαίνει, όμως, “μαθαίνω” στον ορίζοντα της γενικευμένης πληροφοριοποίησης, αυτό είναι κάτι διαφορετικό. Αρκεί κανείς να το εννοήσει σαν “ίδιο” με την ζωϊκή μάθηση, και θα αρχίσει να τον λούζει κρύος ιδρώτας.

Υπάρχει ένα ζήτημα που, κατά κάποιον τρόπο αποτελεί βασικό στοιχείο της ανησυχίας του Hawking (και όχι μόνο) σε ότι αφορά τις “αρμοδιότητες της τεχνητής νοημοσύνης”. Είναι όχι η “ευφυία” της μηχανής, αλλά το λάθος της.
Ξέρουμε το παράδειγμα του Watson, την “πλατφόρμα” που έχουν φτιάξει οι τεχνικοί της ibm. Πρόκειται για ένα εντυπωσιακό επίτευγμα “τεχνητής νοημοσύνης”, που έχει κατανικήσει τους καλύτερους ανθρώπους / παίκτες στο αμερικανικό τηλεοπτικό παιχνίδι γνώσεων “Jeopardy”. Η μηχανή Watson δείχνει να καταλαβαίνει ερωτήσεις που δεν έχουν καν την μορφή ερωτήσεων· και αξιοποιώντας με εκπληκτική ταχύτητα την big data βάση του, δίνει απαντήσεις σε ελάχιστο χρόνο. Τουλάχιστον όταν οι ερωτήσεις είναι εγκυκλοπαιδικού είδους· αφορούν, δηλαδή, “γνώσεις”.
Το ζήτημα είναι τι απαντάει ο Watson όταν κάνει λάθος. Μπορεί να είναι σπάνιο, αλλά συμβαίνει κι αυτό. Οι λάθος απαντήσεις του Watson είναι εκτρωματικά λάθος! Σαν παράδειγμα: στην ερώτηση “ο ωκεανός που χωρίζει τον παλιό και τον καινούργιο κόσμο” (απάντηση: Ατλαντικός), αν ο Watson κάνει λάθος, δεν θα απαντήσει “ινδικός”, όπως θα απαντούσε ένας κακός γνώστης της γεωγραφίας. Θα απαντήσει κάτι σαν “Βασίλης Παπακωνσταντίνου”! Επειδή σαρώνοντας την τεράσια βάση δεδομένων του “βρήκε” τον στίχο ενός ερωτικού τραγουδιού, που έλεγε “ένας ωκεανός χωρίζει τους κόσμους μας, εγώ είμαι το χτες κι εσύ το αύριο”. (Δεν υπάρχει τέτοιος στίχος, είναι μόνο ένα παράδειγμα!)

Είναι τέτοια η μηχανοηλεκτρονική και προγραμματιστική συνθετότητα της “τεχνητής νοημοσύνης” ώστε όταν γίνει λάθος, είναι εξαιρετικά πιθανό να προκύψει ένα λάθος τόσο εκτρωματικό που κανείς προγραμματιστής δεν είχε προβλέψει για να το αποτρέψει προκαταβολικά. Και απο εκεί προκύπτει το ζήτημα της “αρμοδιότητας” που υποδεικνύει ο Hawking. Έχει, μιλήσει, μάλιστα με παραδείγματα. “Έχετε ένα υδροηλεκτρικό φράγμα το οποίο διαχειρίζεται ένα σύστημα “έξυπνων μηχανών” με υψηλό βαθμό τεχνητής νοημοσύνης... Αλλά δεν είναι απλοί διακόπτες. “Δουλειά” τους είναι να συγκεντρώνουν και να επεξεργάζονται διαρκώς δεδομένα [“η μηχανή μαθαίνει μόνη της”]. Κι αυτό είναι το θέμα. Αν, για οποιοδήποτε λόγο, η τεχνητή νοημοσύνη “κάνει λάθος” εκτίμηση σε κάποια καινούργια δεδομένα και στον συνδυασμό τους με τα προηγούμενα, και ανοίξει το φράγμα; Προφανώς αυτό θα έχει καταστροφικές συνέπειες για χιλιάδες ανθρώπους”. Εκείνο που εννοεί (γενικόλογα είναι η αλήθεια) ο Hawking είναι ότι όσο “έξυπνες” κι αν γίνουν οι μηχανές, δεν θα πρέπει να τους ανατίθενται χωρίς άμεσο ανθρώπινο έλεγχο, μαζί με την δυνατότητα “ακύρωσης” , αρμοδιότητες και λειτουργίες στις οποίες ένα “λάθος” θα στοιχισει ακριβά.
Ποιές, όμως, είναι αυτές; Πρόκειται για πρωτοφανές ερώτημα που, αν δεν κάνουμε λάθος, δεν έχει ξανα-αντιμετωπιστεί στην ιστορία του είδους μας. Ενδεχομένως δεν θα δινόταν η αρμοδιότητα του “κόκκινου κουμπιού” (της έναρξης πυρηνικού πολέμου) σε μια μηχανή, οσονδήποτε έξυπνη κι αν θεωρούνταν. Όμως αυτό είναι μια απάντηση εύκολη και εύλογη για πολλούς λόγους. Πως, όμως, θα αξιολογηθούν και θα ιεραρχηθούν οι όποιες (τωρινές ή μελλοντικές) καπιταλιστικές δραστηριότητες, “κεντρικές” ή μη, ώστε να μπουν όρια;
Δεν πρόκειται για ερωτήματα ηθικής τάξης, στα οποία επιτρέπονται και οι φλυαρίες...

Ziggy Stardust

κορυφή