Τετάρτη 10 Μαΐου 2023

Απατεώνες χρησιμοποιούν την τεχνητή νοημοσύνη για να μιμηθούν τη φωνή μας και να αποσπάσουν χρήματα

Οι απατεώνες μπορούν τώρα να αντιγράψουν τη φωνή ενός θύματος

Μόλις τρία δευτερόλεπτα ήχου χρειάζονται για να επιτευχθεί μια πιστή αναπαραγωγή της φωνής ενός ατόμου, προειδοποιεί μια νέα μελέτη.

Οι απατεώνες μπορούν τώρα να αντιγράψουν τη φωνή ενός θύματος χρησιμοποιώντας ένα ηχητικό απόσπασμα διάρκειας μόνο τριών δευτερολέπτων, που συχνά κλέβεται από τα προφίλ των χρηστών στα μέσα κοινωνικής δικτύωσης. Στη συνέχεια τηλεφωνούν σε έναν φίλο ή μέλος της οικογένειάς του, πείθοντάς το ότι έχουν πρόβλημα και χρειάζονται επειγόντως χρήματα.


Ένας στους τέσσερις Βρετανούς δηλώνει ότι ο ίδιος ή κάποιος άλλος γνωστός τους έχει γίνει στόχος τέτοιας απάτης, σύμφωνα με ειδικούς στον τομέα της κυβερνοασφάλειας της εταιρείας McAfee, με αποτέλεσμα, η απώλεια για περίπου 1/3 των θυμάτων να ξεπερνά τις 1.000 λίρες Αγγλίας κατά μέσο όρο


Μια έκθεση της εταιρείας αναφέρει ότι η τεχνητή νοημοσύνη έχει «αλλάξει το παιχνίδι για τους εγκληματίες του κυβερνοχώρου», συμπληρώνοντας πως τα εργαλεία που απαιτούνται για την πραγματοποίηση της απάτης είναι ανοικτά στο διαδίκτυο.


Εμπειρογνώμονες, ακαδημαϊκοί και ηγετικά στελέχη από τον χώρο της τεχνολογίας απευθύνουν έκκληση για αυστηρότερους κανονισμούς σχετικά με τη χρήση της τεχνητής νοημοσύνης, καθώς φοβούνται ότι οι εφαρμογές του πεδίου της θα βγουν εκτός ελέγχου.


Η αντιπρόεδρος των ΗΠΑ Kamala Harris συναντήθηκε χθες με τους διευθύνοντες συμβούλους της Google, της Microsoft και της OpenAI, της εταιρείας πίσω από το ChatGPT, για να συζητήσουν τρόπους περαιτέρω ανάπτυξης και χρήσης της τεχνητής νοημοσύνης με υπευθυνότητα.


«Είναι ανάγκη να διασφαλιστεί ο μετριασμός πιθανών κινδύνων και να τονιστεί η σημασία της ηθικής και αξιόπιστης καινοτομίας», ανέφερε ο Λευκός Οίκος.


Σε έκθεσή της με τίτλο: “The Artificial Imposter”, η εταιρείας McAfee, αναφέρει ότι η «κλωνοποίηση» της φωνής έχει εξελιχθεί σε ένα «δυνατό εργαλείο στο οπλοστάσιο ενός εγκληματία του κυβερνοχώρου» – και δεν είναι δύσκολο να βρεθούν θύματα.


Σε μια έρευνα με περισσότερους από 1.000 ενήλικες στο Ηνωμένο Βασίλειο διαπιστώθηκε ότι οι μισοί μοιράζονταν τα φωνητικά τους δεδομένα στο διαδίκτυο τουλάχιστον μία φορά την εβδομάδα στα μέσα κοινωνικής δικτύωσης ή με φωνητικές σημειώσεις.


Η έρευνα αποκάλυψε περισσότερα από δώδεκα εργαλεία πιστής αναπαραγωγής (πολλά από αυτά δωρεάν διαθέσιμα) φωνής με τη χρήση τεχνητής νοημοσύνης στο διαδίκτυο, για τη χρήση των οποίων αρκεί ένα βασικό επίπεδο τεχνογνωσίας.


Σε μια περίπτωση, μόλις τρία δευτερόλεπτα ήχου ήταν αρκετά για να επιτευχθεί μια πιστή κατά 85% αντιγραφή φωνής. Το 65% των ερωτηθέντων παραδέχτηκε ότι δεν ήταν σίγουροι ότι θα μπορούσαν να αναγνωρίσουν την κλωνοποιημένη έκδοση από την πραγματική.


Περισσότεροι από 3 στους 10 δήλωσαν ότι θα απαντούσαν σε φωνητικό μήνυμα ή σε μια φωνητική σημείωση που υποτίθεται ότι είναι από έναν φίλο ή αγαπημένο πρόσωπο που χρειάζεται χρήματα - ιδιαίτερα αν πίστευαν ότι ήταν από έναν σύντροφο, παιδί ή γονέα.


Τα μηνύματα που ήταν πιο πιθανό να απαντηθούν ήταν εκείνα που ισχυρίζονταν ότι ο καλών είχε εμπλακεί σε περιστατικό με αυτοκίνητο, είχε πέσει θύμα ληστείας, έχασε το τηλέφωνο ή το πορτοφόλι του ή χρειαζόταν βοήθεια ενώ ταξίδευε στο εξωτερικό.


Ένας στους 12 είπε ότι είχε γίνει προσωπικά στόχος από κάποιον που χρησιμοποίησε κάποιου είδους φωνητική απάτη με τεχνητή νοημοσύνη και ένα επιπλέον 16% είπε ότι κάτι τέτοιο είχε συμβεί σε κάποιον που γνώριζε.


Το κόστος μιας φωνητικής εξαπάτησης με AI μπορεί να είναι σημαντικό, με το 78% των ανθρώπων να παραδέχονται ότι έχασαν χρήματα. Περίπου το 6% έχασε από 5.000 έως 15.000 £.


Η επικεφαλής της McAfee, Vonny Gamot, είπε στη Daily mail ότι: «Τα προηγμένα εργαλεία τεχνητής νοημοσύνης αλλάζουν το παιχνίδι για τους εγκληματίες του κυβερνοχώρου. Τώρα, με πολύ λίγη προσπάθεια, μπορούν να αναπαραγάγουν τη φωνή ενός ατόμου και να εξαπατήσουν μια στενή επαφή του για να αποσπάσουν χρήματα ».


Και πρόσθεσε: «Η Τεχνητή Νοημοσύνη φέρνει απίστευτες ευκαιρίες, αλλά για οποιαδήποτε τεχνολογία υπάρχει πάντα η πιθανότητα να χρησιμοποιηθεί κακόβουλα όταν πέσει σε λάθος χέρια. Αυτό βλέπουμε σήμερα με την πρόσβαση και την ευκολία χρήσης των εργαλείων τεχνητής νοημοσύνης που βοηθούν τους εγκληματίες του κυβερνοχώρου να κλιμακώσουν τις προσπάθειές τους με ολοένα και πιο πειστικούς τρόπους».

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Οι όροι χρήσης που ισχύουν για τη δημοσίευση των σχολίων, έχουν ως εξής:

Κάτωθι των περισσοτέρων κειμένων του διαδικτυακού τόπου παρέχεται η δυνατότητα υποβολής σχολίων από τους χρήστες/ επισκέπτες. Η δυνατότητα αυτή είναι καταρχήν ελεύθερη. Ωστόσο, η συντακτική ομάδα δύναται να προβεί άμεσα και χωρίς καμία προηγούμενη ειδοποίηση ή αιτιολόγηση, στη διαγραφή οιουδήποτε σχολίου κρίνει ότι είναι εκτός του δεοντολογικού πλαισίου, των στόχων και των υπηρεσιών του διαδικτυακού τόπου, ειδικά δε εάν αυτό είναι υβριστικό, ειρωνικό, έχει στόχο να προσβάλλει τρίτο πρόσωπο ή την ιστοσελίδα.

Σε καμία περίπτωση ο διαχειριστής του διαδικτυακού τόπου δεν υιοθετεί, ενστερνίζεται, αποδέχεται ή εγγυάται την αλήθεια των προσωπικών σκέψεων, αντιλήψεων και πληροφοριών, οι οποίες εκφράζονται από τους επισκέπτες/χρήστες της ιστοσελίδας.

Με την αποστολή ενός σχολίου αυτόματα αποδέχεστε τους όρους χρήσης.

Η συντακτική ομάδα του Aridaia365