Eine neue Dimension des Betrugs: Sprachimitation auf Basis künstlicher Intelligenz

Einer der beliebtesten Aspekte der letzten Zeit ist natürlich die künstliche Intelligenz. Systeme der künstlichen Intelligenz, die sich bis vor einigen Jahren immer weiter vom Nutzer weg entwickelt haben, sind nun irgendwie in unser Leben getreten. ChatGPT, das auf Dialogbasis zusammen mit Midjourney arbeitet, und DALL-E, das Visuals mit geschriebenen Befehlen produziert, macht sich weiterhin einen Namen in verschiedenen Aspekten der Technologie-Agenda. Wie mies ist diese Progression also möglich?

Der künstlichen Intelligenz wird ein neues Modell hinzugefügt, das Bilder entwerfen, Fragen beantworten und sogar Antibiotika herstellen und den Fusionsreaktor steuern kann: die Sprachimitation. Diese Systeme, die durch Zuhören und Lernen von etwa 5, 10 Sekunden Audioaufnahme mit einer ähnlichen Stimme sprechen können, wurden bis Anfang 2023 experimentell entwickelt. Heute hat seine Verwendung enorm zugenommen, aber wir können nicht sagen, dass diese künstlichen Intelligenzen so gut erinnert werden wie ChatGPT oder Midjourney.

Laut einem neuen Bericht der Washington Post erhielt ein 70-jähriges kanadisches Ehepaar, Ruth Card und Greg Grace, einen Anruf von ihrem Enkel, der sagte, er sei im Gefängnis und bat um eine Kaution. Als das Paar davon hörte, holten sie voller Entsetzen und Aufregung 3000 Dollar von einer Bank in ihrer Nähe, wobei sie das Höchstlimit ausschöpften, aber sie brauchten mehr. Der Manager der Bank stoppte die Familie, die dafür zu einer anderen Bank ging, und sagte, dass sie betrogen worden sei. Denn er erklärte, dass ein anderer Kunde einen Musteranruf erhalten und erfahren habe, dass es sich um eine Fälschung handele. Ruth Card und Greg Grace, die die Realität des Ereignisses mit der Ähnlichkeit der Stimme nicht in Frage stellen konnten, erklärten die Situation als „ wir waren überzeugt, dass wir mit unserem Enkel sprachen“ er erklärt.

Eine andere Familie, nicht so glücklich wie Ruth Card und Greg Grace, waren die Eltern von Benjamin Perkin. Das Paar erhielt einen Anruf von einem Anwalt, der sagte, ihr Sohn sei bei einem Autounfall inhaftiert worden, bei dem ein US-Diplomat getötet worden sei, und brauche Geld für Rechtskosten. Obwohl das Paar dies zunächst nicht glaubte, stimmten sie zu, Geld zu schicken, als das Telefon der Person, die behauptete, ein Anwalt zu sein, an Benjamin Perkin übergeben wurde, und glaubten an die Ähnlichkeit der durch künstliche Intelligenz verbesserten Stimme: Sie schickten 15.449 US-Dollar an den Betrüger über Bitcoin, und sie konnten das Geld nicht zurückbekommen, als die Wahrheit des Falls ans Licht kam.

Betrügereien, die auf Nachahmung basieren, sind nicht wirklich neu. Nach Angaben der FTC (Federal Trade Commission) wurden im vergangenen Jahr mehr als 5.100 der 36.000 Meldungen über Betrügereien von Tätern, die sich als Freunde oder Familie ausgaben, telefonisch erstattet. In früheren Jahren war es technisch aufwändiger, die Stimme einer Person zu imitieren. Das Problem dabei ist, dass Tools der künstlichen Intelligenz den Prozess so einfach gemacht haben, dass sogar ein paar Sekunden der Stimme aus sozialen Medien ausreichen, um der KI die Stimme der Zielperson beizubringen.

Andererseits stellen Experten klar fest, dass es nicht genügend Infrastruktur und Technologie gibt, um diese Art von Betrug einzudämmen. Denn die Hinweise, die die Opfer zur Identifizierung des Täters geben können, sind recht begrenzt. Was denkst du über das Thema?

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert