Ο CEO της OpenAI, Σαμ Άλτμαν, εξέπληξε τους πάντες τον περασμένο μήνα όταν, ενώπιον του Αμερικανικού Κογκρέσου, προειδοποίησε όσον αφορά τους κινδύνους οι οποίοι ελοχεύουν στην τεχνητή νοημοσύνη. Αρχικά φάνηκε πως οι εταιρείες τεχνολογίας είχαν μάθει από τα προβλήματα τα οποία προκαλούν τα μέσα κοινωνικής δικτύωσης και αναζητούσαν βοήθεια όσον αφορά την εποπτεία από την κυβέρνηση.
Μία, μόλις, εβδομάδα αργότερα, ο Άλτμαν προώθησε διαφορετικό αφήγημα σε συνέντευξή του στο Λονδίνο. Ο επικεφαλής της εταιρείας η οποία δημιούργησε το ChatGPT υποστήριξε πως θα προσπαθήσει να ακολουθήσει τους ευρωπαϊκούς κανονισμούς, αλλά εάν αυτό αποδειχθεί υπερβολικά δύσκολο, η εταιρεία του θα σταματήσει να δραστηριοποιείται στην Ευρωπαϊκή Ένωση.
To AI Act
Τα σχόλια αυτά προκάλεσαν την αντίδραση του Επιτρόπου Τιερί Μπρετόν ο οποίος τις χαρακτήρισε ως «εκβιασμό». Ο Άλτμαν ανταπάντησε, ξεκαθαρίζοντας τα σχόλιά του και την παρεξήγηση, ενώ κατά τη διάρκεια της πρόσφατης συνάντησής τους, συμφώνησαν πως έχουν την ίδια άποψη όσον αφορά την εποπτεία.
Η εξέλιξη της τεχνητής νοημοσύνης συνεχίζεται ακάθεκτα. Ο τομέας έχει προσελκύσει επενδύσεις άνω του $1 δισ. το πρώτο τετράμηνο του 2023. Το πόσο γρήγορα θα εξελιχθούν τα πράγματα θα εξαρτηθεί από τις κινήσεις των ρυθμιστικών αρχών.
Οι Big Tech υποστηρίζουν πως θέλουν εποπτεία αλλά η πραγματικότητα είναι πολύ πιο περίπλοκη. Στις ΗΠΑ, οι Google, Microsoft, IBM και OpenAI έχουν ζητήσει από τις αρχές να επιβλέπουν την τεχνητή νοημοσύνη, τόσο όσον αφορά την ασφάλεια όσο και για το θέμα της ανταγωνιστικότητας με την Κίνα.
Παράλληλα, στην Ευρωπαϊκή Ένωση η οποία έχει ήδη προχωρήσει στη σύσταση νομοθετικού σχεδίου, οι ίδιοι τεχνολογικοί κολοσσοί προσπαθούν να αντισταθούν σε παρόμοια μέτρα τα οποία θα περιορίσουν την αναπτυξιακή προοπτική του «καυτού» αυτού τεχνολογικού κλάδου.
Ο λόγος είναι και η διαφορά στην αυστηρότητα των μέτρων αυτών. Η Ε.Ε. έχει πολύ πιο αυστηρούς κανονισμούς οι οποίοι ενισχύουν την ανταγωνιστικότητα και την προστασία των προσωπικών δεδομένων. Στις ΗΠΑ, όμως, δεν έχει υπάρξει σχεδόν καμία νέα νομοθετική πρόταση τις τελευταίες δύο δεκαετίες. Κατ’ αυτόν τον τρόπο, σύμφωνα με το Bloomberg, οι εκκλήσεις των Big Tech για περαιτέρω εποπτεία στις Ηνωμένες Πολιτείες δεν είναι τίποτα άλλο από την προσπάθεια δημιουργίας θετικών εντυπώσεων.
Οι τεχνολογικές εταιρείες γνωρίζουν πως δεν μπορούν να αγνοήσουν την Ε.Ε., ιδιαίτερα αφού το GDPR έχει μετατραπεί, πια, σε παγκόσμια αποδεκτό στάνταρ. Το AI Act της Ένωσης το οποίο ενδέχεται να εφαρμοστεί τα επόμενα δύο με τρία έτη θα αποτελέσει την πρώτη απόπειρα Δυτικής κυβέρνησης για τη ρύθμιση της τεχνητής νοημοσύνης, ενώ θα φέρει σημαντικές ποινές για όποιες εταιρείες δεν συμμορφώνονται με τα μέτρα.
Αυτό, προφανώς, αφήνει τον τομέα σε μία πολύ ευαίσθητη θέση, αφού εάν μέρος του AI Act εφαρμοστεί ως νομοθεσία, οι εταιρείες αυτές θα πρέπει να «αλλάξουν ριζικά πως δραστηριοπούνται ενώ θα πρέπει να μεταβάλουν και την ίδια τη λειτουργία των προγραμμάτων τεχνητής νοημοσύνης τους», υπογράμμισε ο συνιδρυτής της DataEthics, Γκράι Χάσελμπαχ.
Σε αντίθεση με την τεχνολογία, η νομοθεσία κινείται με πολύ βραδείς ρυθμούς. Το 2021, η Κομισιόν δημοσίευσε την πρώτη πρόταση του AI Act, θέτοντας σε κίνηση μία διαδικασία η οποία θα συμπεριλάβει τρία κυβερνητικά όργανα, 27 χώρες, πληθώρα λόμπι και σωρεία διαπραγματεύσεων και συνεδριάσεων.
Οι περισσότερες νομοθετικές προτάσεις αφορούν τις υποθέσεις «υψηλού κινδύνου» όπως εταιρείες οι οποίες χρησιμοποιούν την τεχνητή νοημοσύνη για την πάταξη ή πρόβλεψη του εγκλήματος ή το ξεκαθάρισμα των αιτήσεων εργασίας. Το υπόλοιπο μέρος της νομοθεσίας συμπεριλαμβάνει τρόπους καταπολέμησης και προστασίας από τα deepfakes και τα chatbots χωρίς, όμως, να έχει γίνει αναφορά στην δημιουργική ΤΝ (generative AI) η οποία δεν είχε γίνει, τότε, ευρέως γνωστή.
Οι Big Tech προσπάθησαν να «αμβλύνουν» τις επιπτώσεις του νομοσχεδίου. Αν και η πρόταση μιλούσε για τον τρόπο χρήσης των συστημάτων των τεχνολογικών εταιρειών, οι ίδιες οι εταιρείες υποστήριξαν πως ακόμα και οι χρήστες θα πρέπει να φέρουν μέρος της ευθύνης.
Τόσο η Microsoft η οποία υποστήριξε πως δεν μπορεί να φέρει την ευθύνη για ολόκληρο το εύρος των λειτουργιών της τεχνητής νοημοσύνης, όσο και η ΙΒΜ η οποία ήθελε να μη συμπεριληφθεί στο νομοσχέδιο η «τεχνητή νοημοσύνη ευρείας χρήσης» η οποία θα χρησιμοποιηθεί για την αναγνώριση ομιλίας, μετάφρασης και δημιουργίας οπτικοακουστικών πληροφοριών, ήθελαν να «φρενάρουν» τη νομοθετική προσπάθεια της Ε.Ε.
Αρχικά, τα πράγματα υποδείκνυαν πως οι εταιρείες τεχνολογίας θα κατάφερναν να επιτύχουν στην προσπάθειά τους αυτή. Τα δεδομένα άλλαξαν την άνοιξη του 2022 όταν οι νομοθέτες συνειδητοποίησαν πως ενδέχεται να έχουν υποτιμήσει τους πιθανούς κινδύνους. Με οδηγό τη Γαλλία, τα κράτη-μέλη της Ε.Ε. ξεκίνησαν να μελετούν την πιθανότητα εφαρμογής εποπτείας στην ΤΝ γενικής χρήσης.
Τότε εισήλθε στον «χορό» των διαπραγματεύσεων και η OpenAI η οποία αρχικά είχε τονίσει πως η πιθανή νομοθεσία θα μπορούσε να οδηγήσει στη δημιουργία προβλημάτων στον κλάδο.
Παρ’ όλα αυτά, η νομοθετική πρόταση επικαιροποιήθηκε με νέους κανονισμούς τον Δεκέμβριο, μία εβδομάδα μετά το λανσάρισμα του ChatGPT. Τα μέτρα αυστηροποιήθηκαν περαιτέρω μέχρι και πριν από δύο εβδομάδες, όσο οι νομοθέτες μάθαιναν τις ικανότητες του chatbot. Η απαίτηση, πια, ήταν η διαφάνεια από εταιρείες όπως η OpenAI όσον αφορά τα μοντέλα εκπαίδευσης της ΤΝ τα οποία χρησιμοποιούνται και η δημιουργία προϊόντων τα οποία δεν μπορούν να προσφέρουν παράνομο περιεχόμενο.
Αν και οι Meta, Apple και Amazon δεν έχουν εισέλθει ακόμα στην αντιπαράθεση μεταξύ ρυθμιστικών αρχών και τεχνολογικών εταιρειών, η Google υποστήριξε πως η νομοθεσία θα αντιμετωπίζει τη γενικής χρήσης τεχνητή νοημοσύνη ως «υψηλού κινδύνου» τεχνολογία αν και αυτή δεν αποτελεί απειλή.
Το ευρύ κοινό, όμως, έχει παρατηρήσει από κοντά τις ελλείψεις και τα προβλήματα της τεχνητής νοημοσύνης, ωθώντας πολλές από τις Big Tech και γνωστά ονόματα του κλάδου σε εκκλήσεις για εποπτεία και αυστηρή ρύθμιση. Γι αυτόν το λόγο και δεδομένης της καλής δημόσιας εικόνας την οποία μπορούν να επιδείξουν οι εταιρείες η οποία θα βοηθήσει και στα προγράμματα ESG τους, πολλά εκ των ανωτάτων στελεχών των κολοσσών έχουν, πια, δείξει θέληση συνεργασίας με τις αρχές.
Οι απόψεις των εταιρειών τεχνολογίας
Άλλοι αναλυτές υποστηρίζουν πως η σύμπνοια με τη νομοθεσία θα δώσει στις εταιρείες αυτές την ευκαιρία να αρπάξουν μεγαλύτερο μερίδιο της νέας αυτής αγοράς. Οποιεσδήποτε αντιδράσεις τους εναντίον των προτάσεων της Ε.Ε., παράλληλα, αποτελούν «απλή ασυμφωνία με ορισμένες εκ των προτάσεων», όπως ανέφερε εκπρόσωπος της Microsoft, συμπληρώνοντας πως «η Microsoft γνωρίζει πως θα υπόκειται στην εποπτεία των αρχών και δεν την αποφεύγει». Σημειωτέον πως η Microsoft έχει κάνει έκκληση για τη δημιουργία υπηρεσίας για την εξασφάλιση των προτύπων ασφαλείας της ΤΝ και την έκδοση αδειών.
Παρόμοια έκκληση για την δημιουργία και τον έλεγχο ρυθμιστικών πλαισίων στις ΗΠΑ έχει κάνει η OpenAI, ενώ η Google έχει ζητήσει την δημιουργία πολλαπλών εποπτικών αρχών αντί για μία κεντρική ομοσπονδιακή υπηρεσία.
Δεδομένων, όμως, των κερδών τα οποία μπορούν να προσφέρουν οι νέες αυτές επιχειρηματικές δραστηριότητες οι οποίες αφορούν την τεχνητή νοημοσύνη, όλο και περισσότεροι πολιτικοί έχουν αρχίσει να λαμβάνουν το μέρος των εταιρειών. Τόσο ο πρώην Υπουργός Ψηφιακής Διακυβέρνησης της Γαλλίας όσο και ο Γάλλος Πρόεδρος Εμανουέλ Μακρόν έχουν πρόσφατα υποστηρίξει πως η υπερβολική εποπτεία θα περιορίσει την ευρωπαϊκή ανταγωνιστικότητα.
Μέχρι, όμως, την τελευταία ψηφοφορία για το AI Act, κανείς δε γνωρίζει την τελική μορφή της νομοθεσίας. Ακόμα και σε περίπτωση γρήγορης εφαρμογής των κανονισμών οι εταιρείες δεν θα χρειαστεί να ανησυχήσουν γι αυτούς μέχρι το 2025. Μέχρι τότε, η τεχνητή νοημοσύνη συνεχίζει να εξελίσσεται.