Hohes Gefahrenpotenzial

Europol warnt vor Deepfake-Nutzung durch organisierte Kriminalität

01.05.2022
Mit Hilfe künstlicher Intelligenz erstellte Videos und Bilder könnten von Kriminellen in vielen Bereichen zu zahlreichen Zwecken genutzt werden und auch die Arbeit von Polizei und Justiz behindern, warnt Europol.
Beispiel für ein "Deepfake" bei Bilddateien: Das mittlere Bild ist mit der "Morphing" genannten Methode mithilfe Künstlicher Intelligenz aus den beiden anderen generiert worden.
Foto: Europol

Die europäische Strafverfolgungsbehörde Europol hat vor der Nutzung der Deepfake-Technologie durch die organisierte Kriminalität gewarnt. Deepfakes könnten für Erpressungs- und Betrugsdelikte, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen genutzt werden. Desinformationskampagnen und eine Beeinflussung der öffentlichen Meinung könnten über Deepfakes ebenso betrieben werden, wie das Anstacheln zu politischen und gesellschaftlichen Unruhen.

Außerdem könnten versierte Banden die komplizierte Deepfake-Technologie anderen für kriminelle Vorhaben als Service anbieten. Die Justiz könne mit vermeintlichem Beweismaterial, das aus manipulierten Videos oder Bildern besteht, getäuscht werden, erklärt Europol in dem Bericht (PDF).

Deepfakes sind mit Hilfe künstlicher Intelligenz (KI) erstellte Videos, Bilder oder Audio-Dokumente, die authentisch wirken sollen, es aber nicht sind. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen.

Für einen Erpressungsversuch etwa könnten die Handelnden in einem Pornovideo mit dem Gesicht einer unbeteiligten Person versehen werden, teilte Europol mit. Ein Fremder könne am Telefon mit der Technik wie der bekannte Firmenchef klingen und einen Mitarbeiter zu einer Überweisung veranlassen.

Die Arbeit im Homeoffice seit der Corona-Krise schaffe verstärkt Ansatzpunkte für den betrügerischen Einsatz von Deepfakes. Selbst Passbilder könnten derart manipuliert werden, dass bei einer Kontrolle nicht auffalle, dass das Gesicht einer anderen Person in das Foto des Passinhabers hineingearbeitet worden ist.

Der zunehmenden Entwicklung und Nutzung der Deepfake-Technologie müssten Polizeibehörden Prävention und automatisierte Programme zum Erkennen von Fälschungen entgegenstellen, riet Europol. Auch die Gesetzgebung müsse mit den technischen Entwicklungen Schritt halten. (dpa/pma)