Η αμερικανική Anthropic, εταιρεία τεχνητής νοημοσύνης (ΑΙ) που χρηματοδοτείται από τη Google, παρουσίασε αυτή την εβδομάδα τις γραπτές ηθικές αξίες στις οποίες εκπαιδεύτηκε το Claude, μια μηχανή διαλόγου που φιλοδοξεί να ανταγωνιστεί το ChatGPT, σύμφωνα με το VentureBeat.
Η χάρτα των ηθικών αρχών, τις οποίες η Anthropic ονομάζει «σύνταγμα» της τεχνητής νοημοσύνης, βασίστηκε σε μια ποικιλία πηγών, από τη Διακήρυξη του ΟΗΕ για τα Ανθρώπινα Δικαιώματα μέχρι τους κανόνες ιδιωτικότητας που εφαρμόζει η Apple.
Ο συνιδρυτής της Anthropic Ντάριο Άμοντεϊ ήταν ένας από τους επικεφαλής μεγάλων εταιρειών που προσκλήθηκαν την περασμένη εβδομάδα στον Λευκό Οίκο για μια συζήτηση σχετικά με τους κινδύνους την ΑΙ, με τον πρόεδρο Τζο Μπάιντεν να τονίζει ότι οι εταιρείες οφείλουν να ελέγχουν την ασφάλεια των προϊόντων τους πριν τα διαθέσουν στο ευρύ κοινό.
H Anthropic ιδρύθηκε από πρώην στελέχη της OpenAI, δημιουργό του ChatGPT, με στόχο την ανάπτυξη συστημάτων ΑΙ που σέβονται τις ηθικές αξίες –τα οποία για παράδειγμα αρνούνται να δίνουν οδηγίες για την κατασκευή όπλων και δεν χρησιμοποιούν ρατσιστικούς χαρακτηρισμούς.
Σήμερα, οι περισσότερες μηχανές διαλόγου (chatbot) εκπαιδεύονται με τη βοήθεια ανθρώπων που εξηγούν ποιες απαντήσεις μπορεί να είναι επιβλαβείς ή προσβλητικές. Δεδομένου όμως ότι κανείς δεν μπορεί να προβλέψει κάθε ερώτηση που μπορεί να διατυπωθεί, τα συστήματα αυτά τείνουν να αποφεύγουν ευαίσθητα θέματα όπως η πολιτική και οι φυλετικές διακρίσεις, κάτι που σε ορισμένες περιπτώσεις περιορίζει τη χρησιμότητά τους.
Το Claude έχει λάβει επίσης την οδηγία να επιλέγει απαντήσεις που είναι λιγότερο πιθανό να θεωρηθούν προσβλητικές για μη Δυτικές κουλτούρες.
To Claude είναι διαθέσιμο για δοκιμή στον δικτυακό τόπο Poe.