(Accesskey 0) (Accesskey 1)
online seit 29.11.2023

Deepfake-Videos mit Armin Assinger führen zu Investitionsbetrug!

Aktuell kursieren auf Facebook, Instagram, TikTok und YouTube Werbevideos mit betrügerischen Inhalten. Dabei wird insbesondere das Gesicht Armin Assingers für Deepfakes eingesetzt. Armin Assinger werden mithilfe von Künstlicher Intelligenz (KI) Worte in den Mund gelegt, sodass dadurch betrügerische Investitionsplattformen beworben werden. Vorsicht: Folgen Sie diesen Links nicht, denn hier sind sämtliche Investments verloren!

In dem betrügerischen Video wird vorgegaukelt, dass der ehemalige Schirennfahrer und Millionenshow-Host Armin Assinger die Bevölkerung über eine unglaubliche Investitionsmöglichkeit aufklären will. Die Kriminellen, die das Video erstellt haben, nützen dazu unterschiedliche Video-Ausschnitte von diversen Nachrichtensendungen oder der ORF2 Sendung STÖCKL mit Barbara Stöckl. Durch KI-generierte Deepfakes lassen es die Kriminellen erscheinen, als hätten Armin Assinger oder der DW-Nachrichten-Moderator Benjamin Alvarez Gruber tatsächlich über die beworbenen Investitionsmöglichkeiten gesprochen. Tatsächlich sind die Inhalte aber frei erfunden und Interesseierte werden in eine Investitionsbetrugsfalle gelockt.

Was passiert bei einem Klick auf das Video oder die entsprechenden Verlinkungen?

Ein Klick auf die Links führt in aller Regel auf gefälschte Zeitungsartikel, die die betrügerischen Investment-Angebote nochmals bewerben.

Zusammengefasst werden Betroffene dort davon überzeugt, eine erste Registrierung vorzunehmen und dabei Namen, E-Mail-Adresse und Telefonnummer bekanntzugeben. Kurz danach meldet sich ein angeblicher Finanzberater und man wird dazu gebracht die ersten Investitionen – meist 250 € – vorzunehmen.

info icon

Achtung! Sämtliche Investitionen auf derartigen Plattformen sind verloren. Lassen Sie sich niemals infolge telefonischer Beratungen zu Investitionen in Bitcoin, Aktien oder ähnlichem bringen. Lassen Sie die angeblichen Finanzberater auch nicht über Fernwartungssystem auf Ihre Systeme zugreifen, um den Prozess zu erleichtern.

Weitere betrügerische Werbe-Videos mit Armin Assinger im Umlauf

Neben dem Deepfake-Video mit Armin Assinger werden von Kriminellen aktuell auch weitere Werbungen im Internet veröffentlicht. Im Beispiel des folgenden Videos entsteht in Kombination mit dem oben bereits gezeigten Video eine besonders hohe Glaubwürdigkeit, da es die Inhalte aus dem ersten Video nochmals bestätigt. Vorsicht: Auch die Inhalte in diesem Video sind frei erfunden:

Wie lassen sich die Videos erkennen?

Wer Armin Assinger kennt, dem fällt es beim aktuellen Deepfake-Video wohl leicht, dieses als Fake zu erkennen, denn die KI-generierte Stimme ist nicht in der Lage den Dialekt Armin Assingers wiederzugeben. Ganz allgemein wird die Erkennung derartiger Videos als Deepfakes aber immer schwieriger. Der wichtigste Tipp lautet daher: Wenn etwas zu schön ist, um wahr zu sein, dann ist es auch nicht wahr!

Aufgrund der immer besser werdenden Qualität von Deepfakes sind Tipps wie „Achten Sie auf unübliche Mundbewegungen“ oder „Die Videoqualität ist schlechter als üblich“ nicht mehr aktuell. Daher raten wir eher dazu, derartige Inhalte mit mehreren Quellen abzugleichen. Im vorliegenden Fall ist es beispielsweise hilfreich, nach Armin Assinger zu googlen und aktuelle News zu seiner Person zu lesen. Sofort stößt man auf Infos zum Missbrauch seiner Identität für Investitionsbetrug.

Zusätzlich kann es helfen, die offiziellen Social Media Profile auf Facebook, Instagram oder TikTok der Prominenten aufzusuchen. Dabei zeigt sich schnell, dass die erfundenen Inhalte dort nicht zu finden sind, oder diese sogar schon von den Prominenten selbst als Fakes entlarvt werden.

Beratung & Hilfe

Für konkrete Beratungsanfragen wenden Sie sich bitte an die entsprechenden Stellen, die wir auf der Seite Beratung & Hilfe für Sie aufgelistet haben.

Link kopiert