Netzwelt

Das Neueste aus dem Netz

Europol warnt vor Deepfake-Nutzung durch Kriminelle

Europol warnt vor einem zunehmenden Einsatz von Deepfake-Technologie durch die Organisierte Kriminalität. (Urheber/Quelle/Verbreiter: Nicolas Armer/dpa)
Die Herstellung authentisch wirkender Videos oder Bilder sind mit Hilfe von Künstlicher Intelligenz kein Problem mehr. Europol mahnt nun Nutzer und Unternehmen zur erhöhten Vorsicht.

Die europäische Strafverfolgungsbehörde Europol hat vor der Nutzung der Deepfake-Technologie durch die organisierte Kriminalität gewarnt.

Mit Hilfe künstlicher Intelligenz erstellte Videos und Bilder könnten von Kriminellen zu verschiedenen Zwecken genutzt und auch zur Behinderung der Arbeit von Polizei und Justiz eingesetzt werden, teilte Europol am Donnerstag in Den Haag mit.

Deepfakes könnten für Erpressungs- und Betrugsdelikte, Dokumentenfälschungen, Finanzmarktmanipulationen und Einflussnahme auf Firmen genutzt werden. Desinformationskampagnen und eine Beeinflussung der öffentlichen Meinung könnten über Deepfakes betrieben werden, bis hin zur Anstachelung zu politischen und gesellschaftlichen Unruhen. Außerdem könnten versierte Banden die komplizierte Deepfake-Technologie anderen für kriminelle Vorhaben als Service anbieten. Die Justiz könne mit vermeintlichem Beweismaterial, das aus manipulierten Videos oder Bildern besteht, getäuscht werden.

Deepfakes sind mit Hilfe künstlicher Intelligenz (KI) erstellte Videos, Bilder oder auch Audio-Dokumente, die authentisch wirken sollen, es aber nicht sind. Der KI-Einsatz sorgt dafür, dass die Stimme echt klingt und gesprochene Sprache und Mimik zueinander passen.

Für einen Erpressungsversuch etwa können die Handelnden in einem Pornovideo mit dem Gesicht einer unbeteiligten Person versehen werden, teilte Europol mit. Ein Fremder könne am Telefon mit der Technik wie der bekannte Firmenchef klingen und einen Mitarbeiter zu einer Überweisung veranlassen. Die Arbeit im Homeoffice seit der Corona-Krise schaffe verstärkt Ansatzpunkte für den betrügerischen Einsatz von Deepfakes. Selbst Passbilder könnten derart manipuliert werden, dass bei einer Kontrolle nicht auffalle, dass das Gesicht einer anderen Person in das Foto des Passinhabers hereingearbeitet worden ist.

Der zunehmenden Entwicklung und Nutzung der Deepfake-Technologie müssten Polizeibehörden Prävention und automatisierte Programme zum Erkennen von Fälschungen entgegenstellen, riet Europol. Auch die Gesetzgebung müsse mit den technischen Entwicklungen Schritt halten.