Γνωστός ηθοποιός ο οποίος έπεσε θύμα της τεχνητής νοημοσύνης, κρούει τον κώδωνα του κινδύνου και προειδοποιεί για το φαινόμενο που τείνει να λάβει ανεξέλεγκτές διαστάσεις. Εν ολίγοις κάποιος μπορεί να κλωνοποιήσει τη φωνή σας και στη συνέχεια να τη στείλει σε ένα συγγενικό πρόσωπο ζητώντας πρόσβαση σε ευαίσθητες πληροφορίες. Χαρακτηριστικό το εν λόγω παράδειγμα του ηθοποιού Τζέιμς Νέσμπιτ.
Το τηλέφωνο χτυπάει και είναι η χαρακτηριστική φωνή του βορειοϊρλανδού ηθοποιού Τζέιμς Νέσμπιτ στην άλλη άκρη της γραμμής, που φαίνεται να μιλάει στην κόρη του. «Γεια σου Πέγκι, πηγαίνω σε ένα γύρισμα και προσπαθώ να σου στείλω κάποια χρήματα για το Σαββατοκύριακο. «Μπορείς να μου στείλεις μια φωτογραφία της κάρτας σου για να έχω τα στοιχεία σου;». Ευχαριστώ, γλυκιά μου. Αντίο!»
Μόνο που ο ίδιος δεν είπε ποτέ αυτές τις λέξεις. Πρόκειται για μια καμπάνια της Starling Bank η οποία επιστράτευσε τον κορυφαίο ηθοποιό Νέσμπιτ για να κλωνοποιήσει τη φωνή του από την τεχνολογία AI, αποδεικνύοντας πόσο εύκολο είναι για οποιονδήποτε να πέσει θύμα απάτης. Η απάτη μέσω της κλωνοποίησης της φωνής, είναι ίσως η πιο τρομακτική χρήση της AI και θα μπορούσε να κάνει πλήθος ανθρώπων να χάσουν κυριολεκτικά τον ύπνο τους.
Η καμπάνια με πρωταγωνιστή τον διάσημο ηθοποιό
Για την έναρξη της εκστρατείας, η Starling Bank επιστράτευσε τον κορυφαίο ηθοποιό Νέσμπιτ για να κλωνοποιήσει τη φωνή του από την τεχνολογία AI, αποδεικνύοντας πόσο εύκολο είναι για οποιονδήποτε να πέσει θύμα απάτης.
Η Starling Bank έχει ξεκινήσει την εκστρατεία «Ασφαλείς Φράσεις», για την υποστήριξη της κυβερνητικής εκστρατείας «Σταμάτα, σκέψου απάτη», ενθαρρύνοντας το κοινό να συμφωνήσει σε μια «ασφαλή φράση» με τους στενούς φίλους και την οικογένειά του, την οποία δεν γνωρίζει κανείς άλλος, ώστε να μπορούν να επαληθεύουν ότι πραγματικά τους μιλούν, σε μια προσπάθεια να προσπαθήσουν να πιάσουν τους απατεώνες.
Πόσο συχνές είναι οι απάτες μέσω Τεχνητής Νοημοσύνης
Τα στοιχεία της Starling Bank διαπίστωσαν ότι πάνω από το ένα τέταρτο (28%) των ενηλίκων του Ηνωμένου Βασιλείου δηλώνουν ότι έχουν γίνει στόχος απάτης κλωνοποίησης φωνής τεχνητής νοημοσύνης τουλάχιστον μία φορά τον τελευταίο χρόνο.
Σχεδόν ένας στους δέκα ανθρώπους (8%) δήλωσε ότι θα έστελνε χρήματα σε κάποιον αν έπεφτε θύμα απάτης κλωνοποίησης φωνής, ακόμη και αν η κλήση του φαινόταν παράξενη.