Ένα βήμα πριν από την δημιουργία νέου ρυθμιστικού πλαισίου για την τεχνητή νοημοσύνη βρίσκεται, πλέον, η Ευρωπαϊκή Ένωση.
Η σχετική απόφαση επιτροπής της Ε.Ε. αποτελεί ορόσημο όσον αφορά την «κούρσα» επιβολής κανονισμών σε ό,τι αφορά την χρήση και τη λειτουργία της ΤΝ, η οποία εξελίσσεται ανεξέλεγκτα. Η προτεινόμενη νομοθεσία, η οποία φέρει την ονομασία «European AI Act», είναι η πρώτη του είδους της στη Δύση. Σημειωτέον πως η Κίνα έχει ήδη δημιουργήσει προσχέδιο κανονισμών που θα εφαρμόζονται σε όσες εταιρείες δημιουργούν προγράμματα όπως το ChatGPT.
O ευρωπαϊκός νόμος βασίζει τους κανονισμούς αναλόγως με το μέγεθος του κινδύνου του οποίου αποτελούν συγκεκριμένες εφαρμογές τεχνητής νοημοσύνης.
Οι κανόνες επίσης θέτουν και κανόνες για παρόχους λεγόμενων και «foundation models» όπως το ChatGPT, εφαρμογών οι οποίες έχουν πονοκεφαλιάσει τους ρυθμιστές δεδομένης της ραγδαίας εξέλιξής τους, της αυξημένης δημοφιλίας τους αλλά και της πιθανής αντικατάστασης των εργαζομένων την οποία μπορεί να προκαλέσουν σε πολλούς τομείς της οικονομίας.
Σύμφωνα με το CNBC, το European AI Act κατηγοριοποιεί τις εφαρμογές αυτές σε τέσσερα επίπεδα κινδύνου: ανεπίτρεπτος κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή μηδενικός κίνδυνος. Τα προγράμματα ανεπίτρεπτου κινδύνου απαγορεύονται και δεν μπορούν να χρησιμοποιηθούν στην Ευρωπαϊκή Ένωση.
Αυτά συμπεριλαμβάνουν συστήματα τεχνητής νοημοσύνης τα οποία χρησιμοποιούν τεχνικές χειραγώγησης η παραπλάνησης του υποσυνείδητου για τη διαστρέβλωση της συμπεριφοράς των χρηστών και τα συστήματα τα οποία εκμεταλλεύονται τα τρωτά σημεία συγκεκριμένων προσώπων η γκρουπ πολιτών.
Παράλληλα, απαγορεύονται τα συστήματα βιομετρικής κατηγοριοποίησης τα οποία βασίζονται σε συγκεκριμένες ιδιότητες ή χαρακτηριστικά, τα συστήματα τεχνητής νοημοσύνης τα οποία δημιουργούν κοινωνική βαθμίδα κατηγοριοποίησης, ή τα συστήματα τα οποία προβλέπουν εγκληματικές ενέργειες ή παραβάσεις κανονισμών.
Τέλος, απαγορεύονται και τα συστήματα τα οποία δημιουργούν ή επεκτείνουν τις βάσεις δεδομένων αναγνώρισης προσώπων μέσω μη στοχοποιημένων πρακτικών ή τα συστήματα τεχνητής νοημοσύνης τα οποία υποτίθεται πως καταμετρούν το συναισθηματικό φόρτο των αστυνομικών, των συνοριοφυλάκων, των υπαλλήλων και των εκπαιδευτικών.
Αρκετοί Ευρωπαίοι νομοθέτες είχαν τονίσει την ανάγκη επέκτασης του νομοσχεδίου για κάλυψη εφαρμογών όπως το ChatGPT, κάτι το οποίο έλαβε χώρα. Οι δημιουργοί των «foundation models» όπως τα προγράμματα generative TN θα πρέπει να παρέχουν δικλείδες ασφαλείας, τρόπους διαχείρισης των δεδομένων και περιορισμού των κινδύνων πριν λανσάρουν τα προγράμματά τους.
Σύμφωνα με το στέλεχος της Linklaters, Σεϊχούν Πεχλιβάν, «οι πάροχοι των μοντέλων αυτών θα πρέπει να λαμβάνουν μέτρα για τον περιορισμό των κινδύνων προς τα προσωπικά δικαιώματα, την υγεία των χρηστών και την ασφάλεια του περιβάλλοντος, της δημοκρατίας και των νόμων. Παράλληλα, θα υπόκεινται και στους ίδιους κανονισμούς οι οποίοι εκτιμούν την καταλληλότητα και τις πιθανές προκαταλήψεις των πηγών δεδομένων».
Σημειωτέον πως, αν και ο νόμος έχει λάβει το «πράσινο φως» από το Ευρωκοινοβούλιο, ενδέχεται να καθυστερήσει να εφαρμοστεί.
Ο ανταγωνισμός αυξάνεται
Οι ιδιωτικές εταιρείες έχουν αφεθεί ελεύθερες όσον αφορά τη δημιουργία μοντέλων τεχνητής νοημοσύνης, κάνοντας προγράμματα όπως το ChatGPT της OpenAI και της Microsoft και το Bard της Google ανάρπαστα.
Η Google ανακοίνωσε μπαράζ αναβαθμίσεων του μοντέλου τεχνητής νοημοσύνης της, συμπεριλαμβανόμενου του language model με ονομασία «PaLM 2», το οποίο -όπως τονίζει η εταιρεία- είναι γρηγορότερο από τους ανταγωνιστές στην εκπλήρωση ορισμένων καθηκόντων.
Τα chatbots τύπου ChatGPT έχουν ενθουσιάσει το κοινό, τους ακαδημαϊκούς αλλά και τους αναλυτές, όσον αφορά την ικανότητά τους να παρέχουν φαινομενικά «ανθρώπινες» απαντήσεις στις ερωτήσεις των χρηστών μέσω της «εκπαίδευσής» τους από τεράστιες βάσεις δεδομένων.
Η τεχνολογία της τεχνητής νοημοσύνης αυτή καθαυτή χρησιμοποιείται στον τομέα της τεχνολογίας εδώ και πολλά χρόνια, ενώ συμπεριλαμβάνεται σε περισσότερα προγράμματα και συστήματα από αυτά που ενδέχεται να γνωρίζει το ευρύ κοινό. Για παράδειγμα, η εμφάνιση ορισμένων αναρτήσεων στα προφίλ των χρηστών του Instagram ή του TikTok οφείλεται στην τεχνητή νοημοσύνη.
Με την νομοθετική πρότασή της αυτή, η Ευρωπαϊκή Ένωση προσπαθεί να θέσει επί τάπητος κανονισμούς οι οποίοι θα διέπουν τη χρήση των προγραμμάτων ΤΝ αυτών αλλά και της δημιουργίας τους από τις εταιρείες τεχνολογίας.
Οι προτεινόμενοι κανονισμοί έχουν εγείρει ερωτήματα στον τομέα της τεχνολογίας. Σύμφωνα με την Computer and Communications Industry Association (CCIA), οι κανονισμοί αυτοί είναι υπερβολικά γενικοί και μπορεί να πλήξουν εφαρμογές τεχνητής νοημοσύνης οι οποίες δεν έχουν κανένα βαθμό επικινδυνότητας.
Σύμφωνα με τον Μπονιφάς ντε Σαμπρί, στέλεχος της CCIA Europe, «το γεγονός πως ευρύτερες κατηγορίες χρήσιμων εφαρμογών τεχνητής νοημοσύνης οι οποίες δεν εμπεριέχουν βαθμό κινδύνου ενδέχεται να συμπεριληφθούν στην αυστηρή εποπτεία αυτή ή να απαγορευτούν, είναι ανησυχητικό. Η αρχική πρόταση της Κομισιόν για το AI Act συμπεριλαμβάνει μία ξεκάθαρη κατηγοριοποίηση κινδύνου και περιορίζει τα προγράμματα τα οποία αποτελούν πραγματικό ρίσκο. Παρ’ όλα αυτά, οι Ευρωβουλευτές έχουν, πια, εισάγει πολλές τροπολογίες οι οποίες αλλάζουν το νομοσχέδιο και θέτουν ως βάση την αναληθή εκτίμηση πως πολλές κατηγορίες τεχνητής νοημοσύνης είναι, από τη φύση τους, επικίνδυνες».
Οι εκτιμήσεις των ειδικών
Σύμφωνα με το στέλεχος της δικηγορικής Clifford Chance, Ντέσι Σάβοβα, οι κανονισμοί της Ευρωπαϊκής Ένωσης ενδέχεται να καταφέρουν να αποτελέσουν το «στάνταρ» των νόμων για τον έλεγχο της τεχνητής νοημοσύνης. Παρ’ όλα αυτά, τόνισε πως άλλες χώρες όπως η Βρετανία, η Κίνα και οι Ηνωμένες Πολιτείες της Αμερικής έχουν ήδη ξεκινήσει να μελετούν την επιβολή των δικών τους κανονισμών.
«Η ευρεία επίδραση την οποία θα έχουν οι ευρωπαϊκοί κανονισμοί αυτοί σημαίνει πως και άλλες χώρες του κόσμου θα πρέπει να απασχοληθούν με το ζήτημα. Το ερώτημα είναι για το εάν το AI Act θα αποτελέσει το μόνο, διεθνές στάνταρ αυτό. Η Κίνα, οι ΗΠΑ και η Βρετανία ήδη μελετούν την εφαρμογή δικών τους νομοσχεδίων όσον αφορά την ΤΝ και αναμένεται να παρακολουθήσουν την εξέλιξη του αντίστοιχου ευρωπαϊκού από κοντά».
Η Σάβοβα υπογράμμισε πως το προτεινόμενο νομοσχέδιο του Ευρωκοινοβουλίου θα εφαρμόσει πολλές από τις ηθικές δικλείδες ασφαλείας για τις οποίες έχουν κάνει εκκλήσεις πολλές οργανώσεις ανά τον πλανήτη.
Σύμφωνα, παράλληλα, με τη σύμβουλο της οργάνωσης European Digital Rights, Σάρα Τσάντλερ, οι νόμοι αυτοί «θα αποτελέσουν τη βάση μέσω της οποίας προγράμματα όπως το ChatGPT θα υπόκεινται σε ελέγχους όσον αφορά τη διαφάνεια και την ορθή λειτουργία τους. Αν και η αυξημένη αυτή διαφάνεια μπορεί να μην εξαλείψει τις ανησυχίες όσον αφορά τις επιπτώσεις της τεχνητής νοημοσύνης στην οικονομία ή την εύρυθμη λειτουργία της κοινωνίας, τουλάχιστον θα επιβάλλει στις εταιρείες τεχνολογίας την αποκάλυψη του ποσοστού υπολογιστικής ισχύος που απαιτείται για την ανάπτυξή τους, μεταξύ άλλων».
Όσο για τον Πεχλιβάν, επεσήμανε πως «αν και αρκετές χώρες ανά τον κόσμο μελετούν τη δημιουργία παρεμφερών κανονισμών, το ευρωπαϊκό νομοσχέδιο θα παίξει ένα σημαντικό ρόλο σε ό,τι αφορά τη σύνθεση των στάνταρ του κανονιστικού πλαισίου το οποίο θα διέπει τους διεθνείς νόμους, όπως έκανε και με το GDPR (General Data Protection Regulation)».