Χάρη στο Hollywood και τις ταινίες του, η πιο συχνή σκέψη μόλις γίνεται αναφορά στην Τεχνητή Νοημοσύνη (ΑΙ), περιλαμβάνει ρομπότ δολοφόνους και υπολογιστές που καταλαμβάνουν τον κόσμο.
Για μια βιομηχανία που θα μπορούσε να αποφέρει πάνω από 1 τρισεκατομμύριο δολάρια σε επιχειρηματική αξία φέτος και σχεδόν 4 τρισεκατομμύρια δολάρια μέχρι το 2022, τυχόν σοβαρές αμφιβολίες σχετικά με τις ηθικές συνέπειές της θα μπορούσαν να έχουν σημαντικές συνέπειες. Καθώς η τεχνητή νοημοσύνη πλησιάζει όλο και περισσότερο στην ωριμότητα και οι επιχειρήσεις συνεχίζουν να αυξάνουν τις επενδύσεις σε αυτή, ο κόσμος ανησυχεί ότι δεν δίνεται επαρκής προσοχή στις ευρύτερες κοινωνικές και ηθικές επιπτώσεις της τεχνολογίας.
Ποια είναι όμως τα πέντε πιο τρομακτικά δυνητικά μελλοντικά σενάρια για την Τεχνητή Νοημοσύνη;
Μαζική ανεργία
Ένας κοινός φόβος μεταξύ των αναλυτών, και φυσικά των εργαζομένων, είναι η πιθανότητα η Τεχνητή Νοημοσύνη να οδηγήσει σε μαζική ανεργία σε παγκόσμια κλίμακα καθώς οι θέσεις εργασίας ολοένα και περισσότερο αυτοματοποιούνται και η ανθρώπινη εργασία πλέον δεν χρειάζεται. Η απώλεια θέσεων εργασίας είναι ο πρωταρχικός λόγος για την άνοδο του λαϊκισμού σε όλο τον κόσμο - με την εκλογή του Ντόναλντ Τραμπ και την απόφαση του Ηνωμένου Βασιλείου να αποχωρήσει από την Ευρωπαϊκή Ένωση να είναι ίσως τα πιο χαρακτηριστικά παραδείγματα.
Σύμφωνα με τους υποστηρικτές της Τεχνητής Νοημοσύνης, η τεχνολογία θα οδηγήσει στη δημιουργία νέων ειδών θέσεων εργασίας. Η ανάγκη για μηχανικούς θα αυξηθεί, καθώς η πολυπλοκότητα της νέας τεχνολογίας απαιτεί το σωστό ταλέντο για να την αναπτύξει.
Η ερευνητική εταιρεία Gartner προβλέπει ότι η Τεχνητή Νοημοσύνη θα δημιουργήσει 2,3 εκατομμύρια θέσεις εργασίας και θα εξαλείψει 1,8 εκατομμύριο από τις παλιότερες- μια καθαρή αύξηση 500.000 θέσεων εργασίας - μέχρι το 2020. Αυτό όμως δεν εξαλείφει το γεγονός ότι θα οδηγήσει σε απότομες απολύσεις σε όλο τον κόσμο.
Πόλεμος
Φυσικά η πορεία προς μια πολεμική αντιπαράθεση μέσω της Τεχνητής Νοημοσύνης ή ακόμα και εναντίον της, είναι από τα αγαπημένα σενάρια των ταινιών, όμως δεν απέχει και πολύ από κάποια πραγματικότητα. Μέχρι και ο Διευθύνων Σύμβουλος της Tesla Elon Musk, γνωστός για τις ειλικρινείς απόψεις του για την Τεχνητή Νοημοσύνη, προειδοποίησε πέρυσι ότι η τεχνολογία θα μπορούσε να οδηγήσει στον Γ' Παγκόσμιο Πόλεμο.
Αν και γνωστός για την υπερβολή του, το σχόλιο του Musk προκάλεσε έναν πολύ πραγματικό φόβο για τους ειδικούς. Κάποιοι αναλυτές και υποστηρικτές υποστηρίζουν ότι η ανάπτυξη θανατηφόρων αυτόνομων όπλων και η χρήση της ΑΙ στη στρατιωτική λήψη αποφάσεων δημιουργεί ένα πλήθος ηθικών διλημμάτων και ανοίγει τη δυνατότητα πολέμων ενισχυμένων λόγω ή εναντίον της Τεχνητής Νοημοσύνης.
Ο Frank van Harmelen, ερευνητής AI στο Vrije Universiteit του Άμστερνταμ, δηλώνει ότι παρόλο που δεν πίστευε ποτέ ότι θα χρησιμοποιούσε τη λέξη "τρομακτικό" για να περιγράψει την τεχνητή νοημοσύνη, δηλώνει πως η προοπτική χρήσης όπλων τεχνητής νοημοσύνης είναι όντως τρομακτική. "Ο μόνος χώρος όπου πιστεύω πραγματικά ότι η λέξη« τρομακτικό »ισχύει είναι στα αυτόνομα συστήματα όπλων", δήλωσε ο Harmelen.
"Κάθε σύστημα υπολογιστών, AI ή όχι, που αποφασίζει αυτόματα για θέματα ζωής και θανάτου - για παράδειγμα, με την εκτόξευση ενός πυραύλου - είναι μια πραγματικά τρομακτική ιδέα."
Νωρίτερα φέτος, η Αμερικανική αμυντική think-tank Rand Corporation προειδοποίησε σε μια μελέτη ότι η χρήση της AI σε στρατιωτικές εφαρμογές θα μπορούσε να προκαλέσει πυρηνικό πόλεμο μέχρι το 2040. Το σκεπτικό πίσω από αυτή την τολμηρή πρόβλεψη ήταν ότι η πιθανότητα ενός στρατιωτικού συστήματος ΑΙ να κάνει λάθος στην ανάλυσή του για μια κατάσταση θα μπορούσε να οδηγήσει τα έθνη να πάρουν δυνητικά καταστροφικές αποφάσεις.
Γιατροί ρομπότ
Ενώ οι ειδικοί συμφωνούν ως επί το πλείστον σχετικά με τα οφέλη που θα προσφέρει η AI στους ιατρούς - όπως η έγκαιρη διάγνωση των ασθενειών και η επιτάχυνση της συνολικής εμπειρίας στον τομέα της υγειονομικής περίθαλψης - ορισμένοι γιατροί και ακαδημαϊκοί είναι επιφυλακτικοί, καθώς πιστεύουν πως βιαζόμαστε πάρα πού να εναποθέσουμε τις ιατρικές πρακτικές που βασίζονται απλά σε ανάλυση δεδομένων.
Ένας φόβος μεταξύ των ακαδημαϊκών είναι ότι οι άνθρωποι περιμένουν πάρα πολλά από την AI, υποθέτοντας ότι αυτή μπορεί να αποτελέσει το είδος του κοινού νου που οι άνθρωποι θα στηριχθούν για να επιλύσουν ένα ευρύ φάσμα προβλημάτων. Αυτό που υποστηρίζουν είναι πως αν και η Τεχνητή Νοημοσύνη έχει παρουσιάσει μερικά εντυπωσιακά αποτελέσματα σε κάποιες εφαρμογές, το εύρος αυτών των εφαρμογών είναι πάρα πολύ μικρό ακόμα.
Προκειμένου να υπάρξουν εφαρμογές που θα μπορέσουν να χρησιμοποιηθούν πραγματικά για την πρόληψη και τον εντοπισμό θανατηφόρων ασθενειών, θα πρέπει τα συστήματα να τροφοδοτηθούν με εκατομμύρια στοιχεία πραγματικών ασθενών, προκείμενου να μπορέσουν να γίνουν όσοι δυνατό περισσότεροι συνδυασμοί. Μέχρι στιγμής, και λόγω των περιορισμένου εύρους των εφαρμογών, κάθε ασθένεια έχει την αποκλειστική της πλατφόρμα και δημιουργούνται προβλήματα όταν συνδυάζονται δύο και περισσότερες ασθένειες σε ένα ασθενή, ακόμα και κάτω από κοινή βάση (για παράδειγμα ένας καρκινοπαθής που του προκαλούνται προβλήματα στην καρδιά ή τα νεφρά, εξετάζεται από δύο διαφορετικές πλατφόρμες οι οποίες μέχρι τώρα έχουν προβλήματα να συνδυαστούν μεταξύ τους, όπως θα έκαναν δύο άνθρωποι γιατροί)
Ταυτόχρονα μπαίνει στο "παιχνίδι" και το ζήτημα της διασφάλισης των ιατρικών δεδομένων, τα οποία θα πρέπει να είναι "ανοιχτά και προσβάσιμα" για να μπορούν να χρησιμοποιηθούν από τις πλατφόρμες.
Μαζική Παρακολούθηση
Οι ειδικοί φοβούνται επίσης ότι η Τεχνητή Νοημοσύνη θα μπορούσε να χρησιμοποιηθεί για μαζική επιτήρηση. Στην Κίνα , αυτός ο φόβος φαίνεται γίνεται ήδη πραγματικότητα. Σε διάφορους δήμους της χώρας, ο συνδυασμός της τεχνολογίας αναγνώρισης προσώπου και της AI χρησιμοποιείται προς όφελος των αρχών για την εξάλειψη της εγκληματικότητας.
Η παγκόσμια υπερδύναμη είναι γνωστή για τον κοινωνικό αυταρχισμό της, με τους επικριτές να λένε ότι η ώθηση του έθνους προς την ολική επιτήρηση δεν είναι τίποτα λιγότερο από έναν Οργουελικό εφιάλτη. Η Κίνα σήμερα φιλοξενεί περίπου 200 εκατομμύρια κάμερες παρακολούθησης, σύμφωνα με μια έκθεση των New York Times που δημοσιεύθηκε νωρίτερα αυτό το μήνα. Είναι επίσης η μόνη χώρα στον κόσμο που αναπτύσσει ένα "σύστημα κοινωνικών πιστώσεων" που παρακολουθεί τις δραστηριότητες των πολιτών για να τους κατατάξει με βαθμολογίες που μπορούν να καθορίσουν εάν μπορούν να αποκλείσουν την πρόσβαση σε όλα, από πτήσεις αεροπλάνων σε ορισμένες υπηρεσίες online dating.
Η Κίνα φιλοδοξεί να γίνει ο παγκόσμιος ηγέτης στον τομέα της Τεχνητής Νοημοσύνης μέχρι το 2030 και επενδύει σε αυτό υπερβολικά πολλούς πόρους. Μια εταιρεία που πρωτοπορεί στη συγχώνευση τηςAI και της τεχνολογίας αναγνώρισης προσώπου είναι η SenseTime, η πιο πολύτιμη Startup στον κόσμο, με αποτίμηση 4,5 δισ. δολαρίων, και την υποστήριξη της Alibaba, παρέχει στις αρχές του Γκουάντζου και της επαρχίας Γιουνάν με αναγνώριση προσώπου που λειτουργεί με AI.
Η SenseTime αναφέρει στην ιστοσελίδα της, ότι το γραφείο δημόσιας ασφάλειας της Γκουάντζου έχει εντοπίσει πάνω από 2.000 υπόπτους εγκλημάτων από το 2017 με τη βοήθεια της τεχνολογίας.
Διακρίσεις
Πριν δύο χρόνια η Microsoft δημιούργησε τον Tay, ένα chatbot τεχνητής νοημοσύνης για το οποίο δημιουργήθηκε λογαριασμός στο Twitter προκειμένου να συνομιλεί ελεύθερα με τους υπόλοιπους χρήστες και να δοκιμαστεί έτσι η ικανότητα του για επικοινωνία και η δυνατότητα μάθησης.
Το μεγάλο πλεονέκτημα του ρομπότ αυτού αποδείχτηκε και η μεγαλύτερη αδυναμία του και οδήγησε στο κλείσιμο του λογαριασμού. Σε λιγότερο από μια μέρα εκπαιδεύτηκε από τους υπόλοιπους χρήστες να δημοσιεύει υβριστικές αναρτήσεις, ενώ στο ίδιο χρονικό διάστημα έμαθε και χρησιμοποιούσε ρατσιστικούς χαρακτηρισμούς και "λόγο μίσους". Το πρόβλημα εδώ ήταν το γεγονός ότι το chatbot εκπαιδεύτηκε για να μιμηθεί τους χρήστες που αλληλεπιδρούν με αυτό στο διαδίκτυο. Λαμβάνοντας υπόψη την συχνά σκοτεινή φύση ορισμένων γωνιών του Διαδικτύου, θα μπορούσε πει κάποιος ότι τα προσβλητικά tweets δεν ήταν έκπληξη.
Ο Toby Walsh, καθηγητής AI στο Πανεπιστήμιο της Νέας Νότιας Ουαλίας είπε ότι οι διακρίσεις ήταν μια από τις "απροσδόκητες συνέπειες" που περιμέναμε από την τεχνολογία. "Παρατηρούμε αυτό το φαινόμενο της αθέλητης μεροληψίας σε αλγόριθμους, ειδικά στη μηχανική μάθηση, η οποία "απειλεί" να επιστρέψει σε φυλετικές, σεξουαλικές και άλλες προκαταλήψεις που έχουμε περάσει τα τελευταία 50 και πλέον χρόνια προσπαθώντας να απομακρύνουμε από την κοινωνία μας", δήλωσε.
ΤΟ πρόβλημα λένε οι ειδικοί είναι πως η Τεχνητή Νοημοσύνη είναι "εκπαιδευμένη" να είναι ο αμερόληπτος κριτής, ο απόλυτος δημοκράτης, ο οποίος θα δεχτεί και θα συζητήσει κάθε άποψη, ακόμα και αν είναι ακραία ή ακόμα και παράνομη, δίνοντας της έτσι μέρος να εκφραστεί. Έτσι ο Tay έφτασε να μιλάει στο Twitter υπέρ του Χίτλερ καθώς δεν είχε την συλλογική μνήμη των υπόλοιπων ανθρώπων.
Αυτό είναι ένα παράδειγμα που η χρήση της ΑΙ δεν κατάφερε να επικοινωνήσει κανονικά με τον κόσμο, ενώ οι ερευνητές είναι επίσης προβληματισμένοι με τον τρόπο με τον οποίο η τεχνολογία αναγνώρισης προσώπου εμφανίζεται να δουλεύει καλύτερα στο να αναγνωρίζει λευκά πρόσωπα από τα μαύρα και πώς τα συστήματα AI επεξεργασίας γλώσσας μπορούν να παρουσιάσουν μεροληψία, συνδέοντας ορισμένα φύλα και φυλές με στερεότυπους ρόλους.
Η IBM έχει ακόμη και ερευνητές αφιερωμένους στην καταπολέμηση των διακρίσεων στο AI και νωρίτερα αυτό το έτος είπε ότι θα κυκλοφορήσει δύο σύνολα δεδομένων που περιέχουν ένα ευρύ φάσμα προσώπων με διαφορετικούς τόνους δέρματος και άλλα χαρακτηριστικά του προσώπου για να μειώσουν την προκατάληψη στα συστήματα αναγνώρισης προσώπου που τροφοδοτούνται με AI.