Immer mehr Cyberangriffe erschüttern Deutschland. Besonders Internetbetrug durch Künstliche Intelligenz (KI) nimmt massiv zu. Die Methoden werden raffinierter, der Schaden wächst. Behörden schlagen Alarm. Betroffen sind private Nutzer ebenso wie Unternehmen. Der neueste Bericht des Bundesamts für Sicherheit in der Informationstechnik (BSI) sowie der Gen Threat Report liefern konkrete Zahlen und Beispiele. Eine neue Qualität digitaler Bedrohung nimmt Form an.
Inhaltsverzeichnis:
- Phishingscams in Deutschland steigen um 466 Prozent
- ChatGPT und Deepfakes verändern Betrugsmethoden
- Sicherheitslücke Mensch bleibt zentrale Schwachstelle
- Avast und Scam Guardian bieten KI-basierten Schutz
Phishingscams in Deutschland steigen um 466 Prozent
Zwischen Januar und März 2025 stieg die Zahl der Datendiebstähle um über 186 Prozent. Besonders im Fokus: Passwörter, E-Mail-Konten und Kreditkartendaten. Phishingversuche verzeichneten im selben Zeitraum einen Anstieg um 466 Prozent im Vergleich zum Vorquartal. Fast ein Drittel aller registrierten Betrugsversuche im Land beruhte auf dieser Masche.
Die Betrugsversuche wirken überzeugender denn je. Cyberkriminelle nutzen Künstliche Intelligenz, um Nachrichten und Webseiten täuschend echt nachzubilden. Was früher an Rechtschreibfehlern oder schlechten Designs scheiterte, funktioniert nun fast perfekt.
Entwicklung der KI-basierten Betrugsfälle in Deutschland
| Zeitraum | Anstieg Phishing (%) | Anstieg Datendiebstahl (%) |
|---|---|---|
| Oktober–Dezember 2024 | 0 (Referenzwert) | 0 (Referenzwert) |
| Januar–März 2025 | +466 | +186 |
ChatGPT und Deepfakes verändern Betrugsmethoden
Tools wie ChatGPT oder bildgenerierende KI werden zunehmend von Kriminellen zweckentfremdet. So können perfekt formulierte E-Mails, gefälschte Webseiten oder Deepfake-Videos erstellt werden. Diese imitieren Prominente oder Familienmitglieder – eine neue Dimension der Manipulation entsteht.
Die Betrüger setzen dabei auf mehrere Elemente:
- Optimierte Sprache: Texte wirken grammatikalisch korrekt, professionell und authentisch.
- Automatisierte Abläufe: KI erstellt auf Knopfdruck verschiedene Versionen eines Betrugs für spezifische Zielgruppen oder Regionen.
- Multikanalstrategien: Betrug läuft über E-Mails, soziale Netzwerke oder SMS – individuell angepasst durch KI.
- Neue Formate: Deepfake-Videos oder manipulierte Sprachnachrichten simulieren reale Personen.
Laut Analyse gelingt jeder dritte KI-basierte Betrugsversuch. Das macht die Lage besonders bedrohlich.
Sicherheitslücke Mensch bleibt zentrale Schwachstelle
Technik kann geschützt werden – Menschen sind schwerer abzusichern. Genau das nutzen Angreifer. Die psychologische Komponente spielt bei KI-Betrug eine Schlüsselrolle. Viele Opfer werden unter Druck gesetzt oder emotional manipuliert.
Typische Maschen beinhalten:
- Dringende Anfragen durch angebliche Familienmitglieder
- Investmenttipps von gefälschten Prominenten
- Sicherheitswarnungen, die zum schnellen Handeln auffordern
Die Angreifer nutzen KI, um das Verhalten potenzieller Opfer zu analysieren und gezielt anzusprechen. Dabei durchforsten Bots soziale Medien und andere Plattformen nach persönlichen Informationen. Diese werden für Identitätsdiebstahl genutzt oder in gezielte Nachrichten eingebaut.
Avast und Scam Guardian bieten KI-basierten Schutz
Gegen die neue Welle digitaler Kriminalität setzen Experten ebenfalls auf Künstliche Intelligenz. Sicherheitsunternehmen wie Avast haben Tools entwickelt, die betrügerische Inhalte automatisch analysieren. Das Tool Scam Guardian kann verdächtige Nachrichten und Links prüfen. Eine kostenpflichtige Version, Scam Guardian Pro, bietet erweiterte Funktionen wie Echtzeit-Scans und Kanalübergreifende Analysen.
EMPFEHLUNGEN ZUM SCHUTZ GEGEN KI-BETRUG
- Links vermeiden: Keine Links aus unbekannten Quellen anklicken.
- Daten schützen: Persönliche Informationen niemals öffentlich posten.
- Misstrauisch bleiben: Unerwünschte Nachrichten ignorieren.
- Identität prüfen: Rückruf auf anderem Weg bei angeblichen Notfällen.
- Nicht unter Druck setzen lassen: Zeit nehmen, bevor man reagiert.
KI kann also nicht nur zur Bedrohung werden – sie ist auch ein wirksames Werkzeug zur Verteidigung. Entscheidend ist, dass Nutzer wachsam bleiben und moderne Schutzmechanismen nutzen. Denn die Entwicklung steht erst am Anfang.
Quelle: Focus