Direkt zum Inhalt
Innenminister Gerhard Karner (ÖVP) kündigt im Rahmen einer Pressekonferenz verstärkte Sicherheitsmaßnahmen an
Innenminister Karner hat derzeit mit Deepfakes seiner Person zu kämpfen.
Innenminister Karner hat derzeit mit Deepfakes seiner Person zu kämpfen.
Martin Juen / SEPA.Media / picturedesk.com

Warnung: Fake-Innenminister will Lösegeld

29.08.2025 um 10:52, Marcel Toifl
min read
Das Bundeskriminalamt warnt vor Internetkriminalität mit Gerhard Karner-Deepfakes. Betrüger fordern auf diese Weise Lösegeld in Millionenhöhe.

Ein Betrugsversuch mit modernster Technik hat die Sicherheitsbehörden auf den Plan gerufen. Mit Deepfake-Videos versuchen Täter derzeit, sich als Innenminister Gerhard Karner auszugeben. Das Ziel: Geldforderungen in Millionenhöhe. Das Innenministerium warnt auf seiner Homepage vor der täuschend echten Inszenierung und rät zur Vorsicht bei Videoanrufen.

Täuschend echter Videocall mit Karner

Über die offizielle Nummer des Innenministeriums ging der erste Anruf ein. In Wahrheit stand hinter der Kontaktaufnahme ein Betrügernetzwerk. Mit Hilfe von sogenanntem „Caller ID Spoofing” wurde die Nummer gefälscht. Ziel war es, potenzielle Opfer in einen Videochat zu locken, bei dem angeblich Innenminister Karner selbst sprach.

Im Videocall wurde ein täuschend echt wirkender Avatar des Ministers präsentiert. Inhaltlich ging es um angebliche Geiselnahmen und dringenden Bedarf an Lösegeldzahlungen. In mehreren Fällen versuchten die Täter, Geldflüsse zu initiieren.

Warnung und Ermittlungen

Das Bundeskriminalamt macht unmissverständlich klar, dass es sich bei diesen Methoden um Betrug handelt. Weder das Innenministerium noch andere Behörden fordern über Telefon oder Videochat zu Zahlungen auf. Die Ermittlungen wurden umgehend an das "Cybercrime-Competence-Center"  übergeben. Internationale Partnerdienste sind involviert.

Laut BKA laufen die Ermittlungen mit Hochdruck. Deepfakes seien zwar schwer zu erkennen, hinterlassen aber digitale Spuren. Ziel sei es, die Hintermänner auszuforschen und weitere Vorfälle zu verhindern.

Neue Technologie als alte Masche

Deepfakes sind längst kein Spielzeug mehr. Früher in sozialen Netzwerken als harmlose Face-Swaps belächelt, dienen sie heute gezielt zur Täuschung. Durch Künstliche Intelligenz lassen sich Gesichter und Stimmen mit erschreckender Präzision fälschen. Das macht die Technologie für Kriminelle attraktiv.

Unnatürliche Gesichtszüge, metallische Stimmen und fehlerhafte Mimik können Hinweise auf Fälschungen sein. Seit 1. Jänner 2024 werden Deepfake-Vorfälle im polizeilichen System gesondert codiert. So entsteht ein klareres Lagebild über die Verbreitung dieser Delikte.

So reagiert die Polizei

Die Bevölkerung wird zur Vorsicht aufgerufen. Bei verdächtigen Videoanrufen soll keine übereilte Handlung erfolgen. Die Polizei rät, Inhalte zu hinterfragen, Quellen zu prüfen und auffällige technische Details ernst zu nehmen. Bei Geldforderungen gilt: sofort Anzeige erstatten.

Auch der Umgang mit eigenen Bildern und Sprachaufnahmen erfordert mehr Achtsamkeit. Wer zu viel von sich preisgibt, liefert potenziellen Tätern eine Grundlage für künftige Fälschungen.

more