Ο Στίβεν Άντλερ, πρώην ερευνητής ασφάλειας της OpenAI, εξέφρασε ανησυχίες σχετικά με τις εταιρείες που επιδιώκουν την ταχεία ανάπτυξη της τεχνητής γενικής νοημοσύνης (AGI). Αυτός ο όρος αναφέρεται σε συστήματα που μπορούν να εκτελούν οποιαδήποτε πνευματική εργασία με τον ίδιο, ή καλύτερο, τρόπο από τους ανθρώπους.
Ο Άντλερ, ο οποίος αποχώρησε από την OpenAI τον Νοέμβριο, δήλωσε σε μια σειρά αναρτήσεων στο X ότι είχε μια «έντονη εμπειρία» στην αμερικανική εταιρεία και θα του λείψουν «πολλά από αυτήν».
Είπε επίσης, ότι η τεχνολογία αναπτύσσεται τόσο γρήγορα που έχει αρχίσει να έχει «αμφιβολίες για το μέλλον της ανθρωπότητας».
Σύμφωνα με το προφίλ του Άντλερ στο LinkedIn, ο ίδιος ηγήθηκε της έρευνας για την ασφάλεια στα πρώτα προϊόντα της OpenAI και τα πιο εξελιγμένα συστήματα τεχνητής νοημοσύνης με εμπορικό ενδιαφέρον, κατά τη διάρκεια της τετραετούς θητείας του στην εταιρεία, σύμφωνα με το theguardian.com.
Αναφερόμενος στην ανάπτυξη της AGI, τον βασικό στόχο του OpenAI, ο Άντλερ πρόσθεσε: «Η επένδυση για την ανάπτυξη του AGI είναι ένα πολύ επικίνδυνο στοίχημα, που ίσως φέρει τεράστια αρνητικά αποτελέσματα». Επίσης, τόνισε ότι «κανένα ερευνητικό εργαστήριο δεν έχει βρει ακόμη λύση για το πώς να εξασφαλίσει ότι η Τεχνητή Νοημοσύνη θα ακολουθεί κανόνες ανθρώπινης ηθικής και αξιών». Τέλος, δήλωσε ότι η ανάπτυξη της τεχνητής νοημοσύνης «προχωράει πολύ γρήγορα, χωρίς να έχουν επιλυθεί όλα τα προβλήματα ασφάλειας και ηθικής».
Οι αναρτήσεις Χ του Άντλερ δημοσιεύτηκαν την ίδια περίοδο κατά την οποία η κινεζική DeepSeek, η οποία επίσης επιδιώκει να αναπτύξει συστήματα AGI, αναστάτωσε την αμερικανική βιομηχανία τεχνολογίας αποκαλύπτοντας ένα μοντέλο που ανταγωνίζεται την τεχνολογία της OpenAI, παρά το γεγονός ότι αναπτύχθηκε με λιγότερους πόρους.
«Ενώ κάποια εργαστήρια μπορεί να θέλουν να αναπτύξουν την AGI με υπευθυνότητα, υπάρχει ο κίνδυνος άλλα εργαστήρια να προσπαθήσουν να ξεπεράσουν τους ανταγωνιστές τους κάνοντας επικίνδυνες ενέργειες, ίσως προκαλώντας μεγάλες καταστροφές», δήλωσε ο Άντλερ.