Η ΕΕ σε «πόλεμο» με την tech βιομηχανία για την Τεχνητή Νοημοσύνη

Οι νέοι κανόνες της ΕΕ για την Τεχνητή Νοημοσύνη έχουν προκαλέσει σφοδρές αντιδράσεις από τις εταιρείες τεχνολογίας.

Οι εξελίξεις στον τομέα της Τεχνητής Νοημοσύνης(ΤΝ) τρέχουν με ιλιγγιώδη ταχύτητα κάτι το οποίο έχει προκαλέσει έντονο προβληματισμό στους φορείς της Ευρωπαϊκής Ένωσης, οι οποίοι ανησυχούν ιδιαίτερα για τους κινδύνους που αυτή μπορεί να επιφέρει στην κοινωνία. Για τον λόγο αυτό τα όργανα της εξετάζουν τη θέσπιση ενός ρυθμιστικού πλαισίου, το οποίο σύμφωνα με τους ίδιους θα μπορούσε να τους κινδύνους της ΤΝ. Στο πλαίσιο αυτό, στις 23 Μαΐου ο νέος ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη (ΤΝ) εγκρίθηκε από την επιτροπή νομοθετών και οδεύει στο να γίνει ευρωπαϊκός νόμος. Ωστόσο, οι νέοι κανόνες έχουν φέρει την ΕΕ σε μεγάλη αντιπαράθεση με την τεχνολογική βιομηχανία, καθώς αρκετές εταιρείες φοβούνται πως το νέο ρυθμιστικό πλαίσιο θα εμποδίσει την ανάπτυξή τους.

Σε αυτό το σημείο πρέπει να πούμε ότι ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη (AI Act), είναι ο πρώτος νόμος για τα συστήματα Τεχνητής Νοημοσύνης στη Δύση. Ειδικότερα, ο νόμος υιοθετεί μια προσέγγιση, η οποία βασίζεται στο επίπεδο του κινδύνου που ενέχει ένα σύστημα τεχνητής νοημοσύνης. Ακόμα, οι νέοι κανόνες καθορίζουν επίσης τις απαιτήσεις για τους παρόχους των λεγόμενων «μοντέλων θεμελίωσης», όπως το ChatGPT.

Τι προβλέπουν οι κανόνες

Ο νόμος για την τεχνητή νοημοσύνη κατηγοριοποιεί τις εφαρμογές της σε τέσσερα επίπεδα κινδύνου: μη αποδεκτός κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος.

Οι εφαρμογές μη αποδεκτού κινδύνου απαγορεύονται εξ ορισμού και δεν επιτρέπεται να αναπτυχθούν στην Ευρωπαϊκή Ένωση.

Πιο συγκεκριμένα οι κανόνες αφορούν:

Συστήματα ΤΝ που χρησιμοποιούν υποσυνείδητες τεχνικές ή τεχνικές χειραγώγησης ή παραπλάνησης για τη διαστρέβλωση της συμπεριφοράς

Συστήματα ΤΝ που εκμεταλλεύονται τρωτά σημεία ατόμων ή συγκεκριμένων ομάδων

Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά ή ιδιότητες

Συστήματα ΤΝ που χρησιμοποιούνται για κοινωνική βαθμολόγηση ή αξιολόγηση της αξιοπιστίας

Συστήματα ΤΝ που χρησιμοποιούνται για εκτιμήσεις κινδύνου που προβλέπουν ποινικές ή διοικητικές παραβάσεις

Συστήματα ΤΝ που δημιουργούν ή επεκτείνουν βάσεις δεδομένων αναγνώρισης προσώπου μέσω μη στοχευμένης απόξεσης

Συστήματα ΤΝ που συμπεραίνουν συναισθήματα στην επιβολή του νόμου, τη διαχείριση των συνόρων, τον χώρο εργασίας και την εκπαίδευση

Μάλιστα, δεν ήταν λίγοι οι νομοθέτες που είχαν ζητήσει τα μέτρα να γίνουν ακόμα πιο συγκεκριμένα, έτσι ώστε να διασφαλιστεί ότι καλύπτουν και το ChatGPT. Για τον λόγο αυτό, έχουν επιβληθεί απαιτήσεις για «μοντέλα θεμελίωσης», όπως τα μεγάλα γλωσσικά μοντέλα και η γενεσιουργός ΤΝ. ‘Έτσι λοιπόν οι προγραμματιστές των θεμελιωδών μοντέλων θα πρέπει να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης δεδομένων και μετριασμούς κινδύνου πρώτου δημοσιοποιήσουν τα μοντέλα τους.

 

Ακόμα, θα πρέπει επίσης να διασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούνται για την ενημέρωση των συστημάτων τους δεν παραβιάζουν τη νομοθεσία περί πνευματικών δικαιωμάτων.

 

Πρέπει να τονίσουμε ωστόσο ότι ενώ ο νόμος έχει ψηφιστεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, απέχει πολύ από το να γίνει καθεστώς.

 

Σφοδρές αντιδράσεις από την τεχνολογική βιομηχανία

 

Οι νέοι κανόνες προκάλεσαν σφοδρές αντιδράσεις στον κλάδο της τεχνολογίας. Για παράδειγμα, ο Σύνδεσμος Βιομηχανίας Υπολογιστών και Επικοινωνιών ανέφερε ότι ανησυχεί για το γεγονός ότι το πεδίο εφαρμογής του νόμου για την ΤΝ έχει διευρυνθεί υπερβολικά και ότι μπορεί να συλλάβει μορφές ΤΝ που είναι ακίνδυνες.

 

«Είναι ανησυχητικό να βλέπουμε ότι ευρείες κατηγορίες χρήσιμων εφαρμογών τεχνητής νοημοσύνης – οι οποίες ενέχουν πολύ περιορισμένους ή και καθόλου κινδύνους – θα αντιμετωπίζουν τώρα αυστηρές απαιτήσεις ή θα μπορούσαν ακόμη και να απαγορευτούν στην Ευρώπη», εξήγησε σε δηλώσεις του ο Boniface de Champris, υπεύθυνος πολιτικής στην CCIA Europe.

 

«Η αρχική πρόταση της Ευρωπαϊκής Επιτροπής για τον νόμο περί τεχνητής νοημοσύνης υιοθετεί μια προσέγγιση με βάση τον κίνδυνο, ρυθμίζοντας συγκεκριμένα συστήματα τεχνητής νοημοσύνης που ενέχουν σαφή κίνδυνο», πρόσθεσε.

 

«Οι ευρωβουλευτές έχουν τώρα εισάγει κάθε είδους τροποποιήσεις που αλλάζουν την ίδια τη φύση του νόμου για την ΤΝ, ο οποίος τώρα υποθέτει ότι πολύ ευρείες κατηγορίες ΤΝ είναι εγγενώς επικίνδυνες» κατέληξε ο Boniface de Champris.

 

Η OpenAI απειλεί να αποχωρήσει από την ΕΕ

 

Από την πλευρά της η κατασκευάστρια του ChatGPT, απείλησε να αποχωρήσει από την ΕΕ στο άκουσμα των επερχόμενων κανόνων. Όπως γνωρίζουμε ο διευθύνων σύμβουλος της OpenAI, Sam Altman, είχε παροτρύνει αρκετές φορές τους νομοθέτες σε όλο τον κόσμο να θεσπίσουν νέους κανόνες που θα διέπουν την τεχνολογία. Ωστόσο, σύμφωνα με το Reuters την Τετάρτη (24/5) ο Altman απείλησε ότι θα αποχωρήσει από την ΕΕ σε περίπτωση που το νέο ρυθμιστικό πλαίσιο είναι τελικά πολύ περιοριστικό. Μία από τις ανησυχίες του Altman είναι ότι συστήματα όπως το ChatGPT θα μπορούσαν να χαρακτηριστούν ως «υψηλού κινδύνου» σύμφωνα με τη νομοθεσία της ΕΕ.

Με τη σειρά του ο Ευρωπαίος επίτροπος για την εσωτερική αγορά Τιερί Μπρετόν στηλίτευσε την απειλή του Altman λέγοντας ότι τα προσχέδια των κανονισμών δεν τίθενται σε διαπραγμάτευση.

«Θα είμαστε σαφείς: Οι κανόνες μας τίθενται αποσκοπώντας στην ασφάλεια και την ευημερία των πολιτών μας και αυτό είναι αδιαπραγμάτευτο», δήλωσε χαρακτηριστικά ο Μπρετόν.

ΣΧΕΤΙΚΑ ΑΡΘΡΑ