Welt News

Können Sie Ihren Ohren vertrauen? KI-Stimme wehrt neue Bedrohung ab

WASHINGTON: Die Stimme am Telefon schien erschreckend real – eine amerikanische Mutter hörte ihre Tochter schluchzen, bevor ein Mann übernahm und ein Lösegeld forderte. Aber das Mädchen war ein KI-Klon und die Entführung war vorgetäuscht.

Die größte Gefahr der künstlichen Intelligenz besteht laut Experten in ihrer Fähigkeit, die Grenzen zwischen Realität und Fiktion zu zerstören und Cyberkriminellen eine kostengünstige und effektive Technologie zur Verbreitung von Desinformation an die Hand zu geben.

Bei einer neuen Art von Betrügereien, die die US-Behörden erschüttert haben, verwenden Betrüger auffallend überzeugende KI-Tools zum Klonen von Stimmen, die online weit verbreitet sind, um Menschen zu bestehlen, indem sie sich als Familienmitglieder ausgeben.

„Hilf mir, Mama, bitte hilf mir“, hörte Jennifer DeStefano, eine Mutter aus Arizona, eine Stimme am anderen Ende der Leitung.

DeStefano war „zu 100 Prozent“ überzeugt, dass es sich um ihre 15-jährige Tochter handelte, die sich während eines Skiausflugs in großer Not befand.

„Es ging nie darum, wer das ist? Es war ganz und gar ihre Stimme … es war die Art, wie sie geweint hätte“, sagte DeStefano im April einem lokalen Fernsehsender.

„Ich habe keine Sekunde daran gezweifelt, dass sie es war.“

Der Betrüger, der den Anruf entgegennahm, der von einer für DeStefano unbekannten Nummer kam, verlangte bis zu 1 Million US-Dollar.

Der KI-gestützte Trick war innerhalb weniger Minuten vorbei, als DeStefano Kontakt zu ihrer Tochter aufnahm. Doch der erschreckende Fall, der derzeit von der Polizei untersucht wird, verdeutlichte das Potenzial für Cyberkriminelle, KI-Klone zu missbrauchen.

Großelternbetrug

„Das Klonen von KI-Stimmen ist mittlerweile fast nicht mehr von menschlicher Sprache zu unterscheiden und ermöglicht es Bedrohungsakteuren wie Betrügern, den Opfern effektiver Informationen und Gelder zu entlocken“, sagte Wasim Khaled, Geschäftsführer von Blackbird.AI, gegenüber AFP.

Siehe auch  Pilot der israelischen Luftwaffe erzählt der Jerusalem Post von der Verteidigung gegen den Iran – Verteidigungsnachrichten

Eine einfache Suche im Internet führt zu einer Vielzahl von Apps, von denen viele kostenlos erhältlich sind, um KI-Stimmen mit einer kleinen Probe – manchmal nur ein paar Sekunden – der echten Stimme einer Person zu erstellen, die leicht aus online veröffentlichten Inhalten gestohlen werden kann.

„Mit einem kleinen Audiobeispiel kann ein KI-Sprachklon verwendet werden, um Voicemails und Sprachtexte zu hinterlassen. Er kann sogar als Live-Sprachwechsler bei Telefonanrufen verwendet werden“, sagte Khaled.

„Betrüger können unterschiedliche Akzente und Geschlechter verwenden oder sogar die Sprachmuster geliebter Menschen nachahmen. (Die Technologie) ermöglicht die Erstellung überzeugender Deep Fakes.“

In einer weltweiten Umfrage unter 7.000 Menschen aus neun Ländern, darunter den Vereinigten Staaten, gab jeder Vierte an, schon einmal einen KI-Stimmenklonungsbetrug erlebt zu haben oder jemanden zu kennen, der das erlebt hat.

Siebzig Prozent der Befragten sagten, sie seien sich nicht sicher, ob sie „den Unterschied zwischen einer geklonten Stimme und einer echten Stimme erkennen könnten“, heißt es in der Umfrage, die letzten Monat von McAfee Labs mit Sitz in den USA veröffentlicht wurde.

Amerikanische Beamte haben vor einer Zunahme dessen gewarnt, was im Volksmund als „Großelternbetrug“ bekannt ist – bei dem sich ein Betrüger als Enkelkind ausgibt, das in einer schwierigen Situation dringend Geld braucht.

„Sie bekommen einen Anruf. Da ist eine panische Stimme am Telefon. Es ist Ihr Enkel. Er sagt, er steckt in großen Schwierigkeiten – er hat das Auto zerstört und ist im Gefängnis gelandet. Aber Sie können helfen, indem Sie Geld schicken“, sagte die US-amerikanische Federal Trade Commission in einer Warnung im März.

Siehe auch  Crypto Analyst prognostiziert neue Allzeithochs für Solana und zwei Altcoins und sagt, dass der Boden für 2 andere Krypto-Assets bereit ist

„Es klingt genauso wie er. Wie könnte es ein Betrug sein? Stimmklonen, das ist der Grund.“

In den Kommentaren unter der Warnung der FTC befanden sich mehrere Aussagen älterer Menschen, die auf diese Weise getäuscht worden waren.

Bösartig, überzeugend

Das spiegelt auch die Erfahrung von Eddie wider, einem 19-Jährigen in Chicago, dessen Großvater einen Anruf von jemandem erhielt, der genauso klang wie er und behauptete, er brauche nach einem Autounfall Geld.

Der von McAfee Labs gemeldete Trick war so überzeugend, dass sein Großvater dringend anfing, Geld aufzutreiben, und sogar darüber nachdachte, sein Haus mit einer neuen Hypothek zu belasten, bevor die Lüge aufflog.

„Da es jetzt einfach ist, äußerst realistische Sprachklone zu erstellen, ist nahezu jeder mit einer Online-Präsenz anfällig für einen Angriff“, sagte Hany Farid, Professor an der UC Berkeley School of Information, gegenüber AFP.

„Diese Betrügereien gewinnen an Bedeutung und verbreiten sich.“

Anfang des Jahres gab das KI-Startup ElevenLabs zu, dass sein Tool zum Klonen von Stimmen für „böswillige Zwecke“ missbraucht werden könnte, nachdem Benutzer ein gefälschtes Audio gepostet hatten, in dem sie vorgaben, die Schauspielerin Emma Watson lese Adolf Hitlers Biografie „Mein Kampf“.

„Wir nähern uns schnell dem Punkt, an dem man den Dingen, die man im Internet sieht, nicht mehr vertrauen kann“, sagte Gal Tal-Hochberg, Group Chief Technology Officer bei der Risikokapitalgesellschaft Team8, gegenüber AFP.

„Wir werden neue Technologien brauchen, um herauszufinden, ob die Person, mit der Sie zu sprechen glauben, tatsächlich die Person ist, mit der Sie sprechen“, sagte er.

Krypto News Deutschland

Das beliebte Magazin für die aktuellsten Krypto News zu Kryptowährungen auf deutsch. Experten-Analysen, Prognosen, Nachrichten und Kurse zu allen Coins, findest du zuverlässig und in Echtzeit auf unserem Magazin.

Ähnliche Artikel

Schließen

Adblocker erkannt

Wir nutzen keine der folgenden Werbeformen:
  • Popups
  • Layer
  • Umleitungen
Wir nutzen nur unaufdringliche Werbebanner, um unsere Arbeit zu finanzieren. Wenn du weiterhin alle Nachrichten, Analysen, Prognosen und Kurse kostenlos erhalten möchtest, deaktiviere bitte deinen Adblocker. Vielen Dank.