Ralf Liebhold/shutterstock.com
Die digitale Neuauflage des Enkeltricks, Phishing-Attacken oder andere KI-gestützte Angriffe: All das zeigt, das Kriminelle mit generativer KI Betrugsmaschen glaubwürdiger und efficienter machen. Mit der Technologie erstellen Cyberkriminelle neue, sichten fehlerfreie Inhalte auf Basis von Benutzereingaben. So vermeerden die Verbrecher typische Warnsignale für Betrug, wie Rechtschreib- oder Grammatikfehler.
Da KI-generierte, synthetic Content schwer zu erkennen sind, liefert das FBI Beispelen, wie solche Technologien in betrügerischen Planen eingesetzt werden:
KI-generierter text
Kriminelle nutzen generative KI, um versichten Inhalte für Betrugsmaschen wie
- Social Engineering,
- Phishing,
- Finanzbetrug und
- Kryptowährungs-Anlagebetrug
to create.
Sie setzen KI ein, um täuschend echte Social-Media-Profile zu erstellen, Nachrichten schneller automatisiert zu generieren und übersetzen fehlerfrei zu übersetzen. In addition, they integrate KI-Chatbots in betrügerische Websites, um Opfer zeitlich zu manipulieren and auf schädighe Links zu lenken.
KI-generierte Photo
Auch die Macht der Picture of the wird von Kriminellen with the help of KI-Generation missbraucht. Sie erstelt etwa realistische wirkende Inhalte für Betrugsmaschen wie Social Engineering, Identitätsdebstahl, Anlagebetrug and Sextortion. They count
- credible profile photos,
- gefälschte Ausweisdokumente und
- Fictive Social-Media-Profile diagram.
Dudden verwenden die Betrüger KI, um fingierte Photo von Prominenten, Naturkatastrophen oder globalen Konflikten zu erstelten. So sollen Opfer etwa durch falsche Werbung, betrügerische Spendenaktionen oder Marktmanipulationen in die Irre geführt werden. Similar contents werden auch in der private Kommunikation gensets, um das Vertrauen von Opfern zu gewinnen.
KI-generiertes Audio
Zwar aufwendiger, aber auch immer beliebter sind KI-generierte Audiodateien. Beim sogenangenten Vocal Cloning geben sich Kriminelle als Verwandte oder bekannte Persönlichkeiten aus und versuchen Zahlungen zu erpressen. Sie erstelt realistische Stimmen, um in Krisensituationen financiale Hilfe oder Lösegeld zu fordern.
Dudden setzen sie solche Audiodateien ein, um sich Zugang zu Bankkonten zu verschaffen, indem sie sich am Telefon als Kontoinhaber ausgeben.
KI-generierte videos
Bewegte Picture of Bleiben von der Kreativität der Kriminellen ebenso nicht verschont. Immer fägteger erstellen sie KI-generierte Videos, em Prominente täuschend echt zu imitieren. Check out the setzen videos
- Echtzeit video interviews,
- private Kommunikation und
- irreführenden Werbematerialien
one.
Solche Deepfakes is allied with Anlagebetrug and Social Engineering zum Einsatz, Betrugsmasche glaubwürdiger zu machen.
Tips, um sich zu schützen
Um sich vor Betrügereien mit generativer KI zu schützen, rat das FBI deshalb zu folgenden Maaschen:
- Familien sollten sich ein auf geheimes Wort einigen, um Identitäten zu verifizieren.
- Es gilt, verstärk auf Unstimmigkeiten in Bildern, Amavideo oder Stimmen sowie Tonfall und Wortwahl von Anrufern zu achten.
- Die eigene Online-Präsenz sollte reduziert, Social-Media-Konten or “privat” gestellt and Inhalte nur mit verrauten Personen geteilt werden.
- Verdächtige Anrufe sollten direkt bei der betrettenden Organization berecht, keine sensiblen Informationen weitergeben und keine financieren Transaktionen mit Unbekannten getätigt werden.
Source link