Betrüger begannen, geklonte Stimmen künstlicher Intelligenz zu verwenden: Es funktioniert!

Wie bei vielen anderen technologischen Revolutionen wird die künstliche Intelligenz neben ihren Vorteilen auch ihre Verluste in unser Leben bringen. Es sieht so aus, als wäre er im Moment noch nicht bereit dafür. Neueste Informationen künstliche Intelligenzproduziert mit realistischer Klangberichtet, dass Fälschungen für Betrug verwendet werden.

Laut der Washington Post schickten mehrere Paare Geld an ihre Kinder, die aus verschiedenen Gründen Hilfe suchten, wie es jede sensible Familie tun würde. Aber es gab ein Problem, dessen sie sich nicht bewusst waren; Die Person, mit der sie sprachen, war eine künstliche Intelligenz, nicht ihre Kinder.

Betrug mit künstlicher Intelligenz generierte Stimme

Natürlich sind sprachbasierte Betrügereien nichts Neues. Informationen des U.S. Federal Trade Board zeigen, dass von den 36.000 Meldungen im vergangenen Jahr, dass Menschen von Übeltätern betrogen wurden, die sich als Freunde oder Familie ausgaben, mehr als 5.100 telefonisch gemeldet wurden. Die Nachahmung der Stimme einer Person war zuvor mit stundenlanger Klangforschung möglich. Die Mängel der resultierenden Arbeiten konnten von sorgfältigen Personen bemerkt werden. Aber jetzt für Stimmimitationen, die mit künstlicher Intelligenz erstellt wurden nur ein paar minuten sind genug.Laut den Zitierten wurde einem Ehepaar vorgeworfen, dass Betrüger die Stimmen ihrer Kinder imitierten. 15.449 $geschickt, und sie sind nicht die einzigen Opfer.

Zum Beispiel Microsoftt’s Vall-E-Tool nur 3 Sekunden Audioclips Es ermöglicht sehr realistische und ausgewogene Klangimitationen. Darüber hinaus kann es aus diesem kleinen Soundclip sogar verschiedene Töne (wütend, aufgeregt usw.) erzeugen. ein vorbildliches Werkzeug ElevenLabs ist viel realistischer. Geräusche erzeugen kann. Sie können den Erfolg des Tools schnell aus dem obigen Twitter-Bild erkennen.

An dieser Stelle ist es üblich, umfassende Maßnahmen gegen solche Betrüger oder böswilligen Gebrauch zu ergreifen. Es sollte nicht nur als Betrug angesehen werden. Deepfake-Bilder in Kombination mit solchen generierten Geräuschen können erhebliche Folgen haben, insbesondere in Zeiten der Verwirrung. Die sprachbasierten Sicherheitsfunktionen von Banken können umgangen werden. Daher können Social-Media-Plattformen Tools enthalten, die künstliche Intelligenz in Bildern oder auf sie hochgeladenen Bildern erkennen. Derzeit werden Modelle entwickelt, wie DetectGPT, das textgenerierende künstliche Intelligenz wie ChatGPT erkennt.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert