Η νέα επιθετική τάση της κλοπής φωνής: Μια διαφορετική προοπτική

18 Μαρτίου, 2024
by
Voice Cloning Scam: An Emerging Threat

Η τεχνητή νοημοσύνη έχει επίδειξει τεράστιο δυναμικό για τη βελτίωση της κοινωνίας, αλλά πλέον αντιμετωπίζουμε μια σοβαρή απειλή λόγω της εξάπλωσης ανησυχητικών απατών. Μία από τις πιο πρόσφατες απάτες περιλαμβάνει την κλοπή φωνής που ενισχύεται από την τεχνητή νοημοσύνη, όπου εγκληματίες μιμούνται τις φωνές αγαπημένων προσώπων για να εξαναγκάσουν τα χρήματά τους.

Η Σάριτα Κάνα (όνομα αλλαγμένο) βίωσε ένα τρομακτικό περιστατικό όταν έλαβε τηλεφώνημα από άγνωστο αριθμό, ισχυριζόμενος ότι η κόρη της, Σούρμπι, βρισκόταν σε κίνδυνο. Η φωνή από την άλλη άκρη της γραμμής της απείλησε και ζήτησε λύτρα. Ανησυχημένη και φοβούμενη για την ασφάλεια της κόρης της, η Σάριτα συμμόρφωσε και μετέφερε ηλεκτρονικά 50.000 ρουπίες. Μετά από λίγες ώρες, λάμβανε τηλεφώνημα από τη Σούρμπι, η οποία ήταν ασφαλής και δεν είχε ιδέα για ολόκληρο το περιστατικό.

Η ερώτηση που προκύπτει είναι: Πώς είναι αυτό δυνατό; Η απάντηση βρίσκεται στο λογισμικό κλωνοποίησης φωνής που τροφοδοτείται από την τεχνητή νοημοσύνη. Μέσω αυτής της τεχνολογίας, οι εγκληματίες μπορούν να αναπαράγουν τη φωνή ενός στόχου χρησιμοποιώντας μόνο τρία δευτερόλεπτα ήχου. Μια μελέτη που διεξήχθη από τη McAfee, μια κορυφαία εταιρεία ασφάλειας λογισμικού, αποκάλυψε ότι το 85% αυτών των κλωνοποιημένων φωνών μοιάζουν εντυπωσιακά με το πρωτότυπο.

Η διάδοση των κοινωνικών μέσων διαδραματίζει σημαντικό ρόλο στη διευκόλυνση αυτών των απατών. Περισσότερο από το μισό των ενηλίκων που ερωτήθηκαν σε διάφορες χώρες, συμπεριλαμβανομένης της Ινδίας, μοιράζονται τις φωνές τους online τακτικά. Αυτή η πληθώρα δειγμάτων φωνής καθιστά ευκολότερο για τους απατεώνες να συλλέξουν δεδομένα για τους κακόβουλους σκοπούς τους.

Ο πρώην αξιωματικός της IPS και ειδικός σε περιστατικά διαδικτυακού εγκλήματος, Τρίβενι Σινγκ, εξηγεί ότι αυτοί οι απατεώνες δεν είναι έμπειροι προγραμματιστές ή επιστήμονες υπολογιστών. Απλώς χρειάζονται πρόσβαση σε εργαλεία τεχνητής νοημοσύνης, τηλεφωνικούς αριθμούς και ηχογραφήσεις φωνών από πλατφόρμες κοινωνικών μέσων για να δημιουργήσουν συνθετικές αντίγραφα. Ωστόσο, προσεκτικοί ακροατές μπορούν συχνά να αναγνωρίσουν τις ψεύτικες φωνές αν είναι προσεκτικοί.

Η σοβαρότητα αυτού του προβλήματος είναι εμφανής από τον αυξανόμενο αριθμό θυμάτων που πέφτουν θύματα αυτής της απάτης. Σύμφωνα με τον Σινγκ, περίπου το 77% των θυμάτων της απάτης φωνής της τεχνητής νοημοσύνης έχουν υποστεί οικονομικές απώλειες. Επιπλέον, καθώς το λογισμικό κλωνοποίησης φωνής γίνεται πιο προσβάσιμο, αναμένεται να αυξηθεί μόνο ο αριθμός των περιπτώσεων.

Για να εικονογραφήσουμε τη σοβαρότητα της απειλής αυτής, η Καβέρι Αχούτζα μοιράστηκε την εμπειρία της με έναν απατεώνα χρησιμοποιώντας ένα ηχητικό από το κλάμα της κόρης της για να ισχυριστεί ότι είχε απαχθεί. Αν και η Αχούτζα κατάφερε να καταλάβει την απάτη και να την αποκαλύψει, πολλά άτομα πανικοβάλλονται και πέφτουν στην παγίδα λόγω της συναισθηματικής αναταραχής που προκαλούν τέτοιοι κλήσεις.

Η κλοπή φωνής δεν είναι το μόνο πρόβλημα· οι απατεώνες έχουν αρχίσει επίσης να χρησιμοποιούν τεχνικές κλωνοποίησης βίντεο. Ο πρώην επίσημος της Coal India, ΠΣ Ρανάκρισναν, έπεσε θύμα απάτης όπου ένας απατεώνας ισχυρίστηκε ότι ήταν ο χαμένος φίλος του που χρειαζόταν άμεση οικονομική βοήθεια. Ο εγκληματίας εμφανίστηκε ακόμη και σε βιντεοκλήση και κατάφερε να απατήσει τον Ρανάκρισναν να καταθέσει 40.000 ρουπίες πριν προκύψουν υποψίες.

Οι τεχνικές που χρησιμοποιούν οι απατεώνες συνεχίζουν να εξελίσσονται. Συχνά χρησιμοποιούν ξένους αριθμούς τηλεφώνου ή εκμεταλλεύονται σχέσεις για να δημιουργήσουν μια αίσθηση επείγοντα. Δυστυχώς, η εντοπιση αυτών των εγκληματιών αποδεικνύεται μια δύσκολη εργασία, και πολλά θύματα επιλέγουν να μην αναφέρουν τα περιστατικά λόγω ντροπής.

Καθώς αντιμετωπίζουμε αυτήν την αναδυόμενη απειλή, είναι ουσιώδες να λάβουμε προφυλάξεις για την προστασία των προσωπικών μας πληροφοριών και να ενημερωθούμε για τους κινδύνους που ενέχουν οι απάτες που λειτουργούν με τη χρήση της τεχνητής νοημοσύνης. Η χρήση ασφαλών πρακτικών online, η περιορισμένη κοινοποίηση προσωπικού ήχου και βίντεο περιεχομένου, και η επιτήρηση μπορούν να προστατέψουν τους εαυτούς μας και τους αγαπημένους μας από το να πέσουν θύματα αυτών των επιθετικών τακτικών.

Συχνές Ερωτήσεις

1. Π

Privacy policy
Contact

Don't Miss

Europe Sets the Stage for World’s First Major AI Regulation

Η Ευρώπη Ορίζει τις Βάσεις για τον Πρώτο Μεγάλο Κανονισμό Τεχνητής Νοημοσύνης στον Κόσμο

Η Ευρωπαϊκή Ένωση ολοκλήρωσε τον πρωτοποριακό νόμο για την τεχνητή
Meta Takes Action to Address AI-Generated Content Manipulation

Η Νέα Εποχή του Περιεχομένου που Δημιουργείται από Τεχνητή Νοημοσύνη

Η δραστηριότητα της Meta, του διαδικτυακού γίγαντα, αξιοποιεί νέα μέτρα