Betrüger lassen sich leider immer wieder etwas Neues einfallen – auch am Telefon.
Dabei werden immer häufiger auch KI-Sprachmodelle genutzt. Der Sicherheitsanbieter McAfee hat sich in einer neuen Analyse mit diesem Phänomen auseinandergesetzt.
Opfer werden mit bekannten Stimmen getäuscht
Mit KI werden Stimmen von bekannten Personen der Opfer nachgeahmt. Im „Gespräch“ wird dann eine Situation herbeigeführt, in der ein Vertrag geschlossen oder eine Geldüberweisung vereinbart wird.
Die Masche ist aufgrund der täuschenden Echtheit der Stimmen erstaunlich erfolgreich. Den Ermittlungen von McAfee zufolge wurden im vergangenen Jahr auf derartigen Wegen rund 2,6 Milliarden US-Dollar erbeutet.
Entsprechend deutlich sind die Warnungen von Sicherheitsforschern, auf derartige Maschen nicht hereinzufallen und im Zweifel auf Nummer sicher zu gehen. Fragt also lieber zweimal persönlich bei Euren Bekannten nach, bevor Ihr der KI etwas anvertraut.