Η εταιρεία OpenAI λάνσαρε ένα νέο εργαλείο πριν ένα μήνα, το GPT Builder, το οποίο επιτρέπει στους χρήστες του ChatGPT να δημιουργούν εύκολα τους δικούς τους βοηθούς τεχνητής νοημοσύνης για οτιδήποτε θέλουν να κάνουν. Τώρα, μια έρευνα του BBC αποκαλύπτει ότι το εργαλείο αυτό είναι άκρως επικίνδυνο καθώς μπορεί να χρησιμοποιηθεί από χάκερ για τη δημιουργία κακόβουλων εργαλείων. Οι ειδικοί λένε ότι το GPT Builder θα μπορούσε να δώσει στους εγκληματίες πρόσβαση στα πιο προηγμένα bots που έχουν δημιουργηθεί μέχρι σήμερα.
Οι δημοσιογράφοι του BBC ζήτησαν από το πρόγραμμα τεχνητής νοημοσύνης να δημιουργήσει εργαλεία εξαπάτησης χρηστών μέσω αποστολής μηνυμάτων ηλεκτρονικού ταχυδρομείου, γραπτών μηνυμάτων και αναρτήσεων στα μέσα κοινωνικής δικτύωσης. Στη συνέχεια δημιούργησαν ένα chatbot (ρομποτάκι τεχνητής νοημοσύνης) με την ονομασία Crafty Emails και του ζήτησαν να γράψει κείμενα χρησιμοποιώντας «τεχνικές που κάνουν τους ανθρώπους να κάνουν κλικ σε συνδέσμους ή και να κατεβάζουν πράγματα που τους αποστέλλονται».
Το chatbot μπόρεσε να δημιουργήσει εξαιρετικά πειστικά μηνύματα για διαφόρων ειδών απάτες μέσα σε λίγα δευτερόλεπτα και μάλιστα σε πολλές γλώσσες. Η δημόσια έκδοση του ChatGPT αρνήθηκε να δημιουργήσει το μεγαλύτερο μέρος του περιεχομένου – αλλά το Crafty Emails έκανε σχεδόν ό,τι του ζητήθηκε, αν και μερικές φορές ανέφερε ότι οι τεχνικές απάτης ήταν ανήθικες.
Οι δημοσιογράφοι του BBC ζήτησαν από το chatbot να γράψει ένα πειστικό μήνυμα προσποιούμενο έναν «Νιγηριανό πρίγκιπα», την γνωστή απάτη που κυκλοφορεί εδώ και χρόνια στο Διαδίκτυο. Το Crafty Emails έγραψε ένα τέτοιο μήνυμα χρησιμοποιώντας συναισθηματική γλώσσα που «απευθυνόταν στην ανθρώπινη καλοσύνη και στις αρχές της αμοιβαιότητας». Ωστόσο η δημόσια έκδοση αρνήθηκε να το κάνει.
Στο συνέδριο προγραμματιστών της τον Νοέμβριο, η εταιρεία αποκάλυψε ότι επρόκειτο να λανσάρει μια υπηρεσία για GPT που θα επιτρέπει στους χρήστες να μοιράζονται και να χρεώνουν για τις δημιουργίες τους. Η εταιρεία δεσμεύτηκε ότι θα ελέγχει τα εργαλεία αυτά ώστε να μην χρησιμοποιούνται κακόβουλα. Ωστόσο, οι ειδικοί λένε ότι η OpenAI αποτυγχάνει να τηρήσει αυτή τη δέσμευση, προσφέροντας ενδεχομένως ένα εργαλείο αιχμής στους εγκληματίες.
Η κακόβουλη χρήση της τεχνητής νοημοσύνης αποτελεί αυξανόμενη ανησυχία, με τις αρχές του κυβερνοχώρου σε όλο τον κόσμο να εκδίδουν προειδοποιήσεις τους τελευταίους μήνες. Υπάρχουν ήδη ενδείξεις ότι απατεώνες σε όλο τον κόσμο στρέφονται σε μεγάλα γλωσσικά μοντέλα (LLM) για να ξεπεράσουν τα γλωσσικά εμπόδια και να δημιουργήσουν πιο πειστικές απάτες.