Laut TechRadar bringt die Entwicklung der KI-Technologie (künstliche Intelligenz) viele Vorteile mit sich, birgt aber auch das Potenzial, für böswillige Zwecke missbraucht zu werden. Experten warnen vor der Zunahme von Telefonbetrug mit KI-Stimmen, die echte menschliche Stimmen auf erstaunliche Weise imitieren können.
Der Aufstieg der KI bringt komplexe Betrugsrisiken mit sich
FOTO: TECHRADAR SCREENSHOT
KI-Sprachbetrug nimmt zu
Mit nur wenigen Sekunden Audiomaterial aus sozialen Medien können Kriminelle KI-Stimmklone von Verwandten, Freunden und sogar Prominenten des Opfers erstellen. Sie nutzen diese Technologie, um automatisierte Anrufe zu tätigen, sich als Bekannte auszugeben und so zu betrügen und Eigentum zu stehlen.
Eine gängige Taktik besteht darin, sich als Familienmitglied in Not auszugeben, das dringend Geld benötigt, oder sich als Bankangestellter oder Mitarbeiter einer Behörde auszugeben, um persönliche oder Kontoinformationen anzufordern. Experten raten Nutzern, bei ungewöhnlichen Anrufen, Aufforderungen zur Geldüberweisung oder der Angabe vertraulicher Informationen äußerst wachsam zu sein.
Um sich zu schützen, sollten Benutzer:
- Richten Sie mit einem geliebten Menschen ein privates „Passwort“ ein: Vereinbaren Sie mit einem geliebten Menschen oder Freund eine geheime Phrase, mit der Sie bei Bedarf Ihre Identität bestätigen können.
- Stellen Sie eine Testfrage: Bitten Sie den Anrufer, Informationen zu bestätigen, die nur Sie beide kennen.
- Hören Sie genau auf die Stimme: Achten Sie auf Anomalien wie Intonation und unnatürliche Emotionen.
- Anruf bestätigen: Legen Sie auf und rufen Sie die Person unter ihrer Mobiltelefonnummer zurück.
- Seien Sie bei ungewöhnlichen Anfragen vorsichtig, insbesondere bei Anfragen zu dringenden Geldüberweisungen.
- Lernen Sie den Kommunikationsablauf der Bank kennen und verstehen Sie, wie die Bank mit Kunden in Kontakt tritt.
Dieser Vorfall wirft erneut ein Licht auf die potenziellen Risiken der KI-Technologie, wenn diese für böswillige Zwecke missbraucht wird. Nutzer müssen sich sensibilisieren und sich mit Wissen ausstatten, um sich vor diesen neuen und raffinierten Betrugsformen zu schützen.
[Anzeige_2]
Quelle: https://thanhnien.vn/lua-dao-bang-giong-noi-ai-tang-manh-va-cach-phong-chong-185241125092848927.htm
Kommentar (0)