AI音声詐欺:それを防ぐ方法と防止する方法

AI の音声による欺瞞は、ますます普及し、説得力が増しています。 好きな人と話しているように見えるからです。 現在、AI の音声複製がどのように機能するか、その欺瞞的な傾向を掘り下げた詳細なレポートがあります。 1回の平均コストが下がる確率と、AIの音声ごまかしを防止・防止する方法。
4月中私たちは、現実の世界で非常に恐ろしい次世代 AI の欺瞞の例を見てきました。 そのうちの 1 つは、電話のスプーフィングを使用して、愛する人を被害者の電話に発信者として表示させます。 もう 1 つは AI 音声クローンを使用して、娘を釈放するために母親の身代金を強要しようとします。 誘拐ではない
上記のセクションで述べたように。 攻撃者が通話スプーフィングと AI 音声クローニングを組み合わせるのも時間の問題かもしれません。
今 マカフィー リリースしました 詳細なレポート 脅威認識と簡単な方法を作成するのに役立つ AI 音声詐欺防御と防御で
AIボイスクローニングはどのように機能しますか?
McAfee は、AI 音声詐欺は以下の組み合わせであると強調しています。 昔からある「なりすまし詐欺」。 しかし、はるかに信頼できる可能性があります。 多くの場合、詐欺師は愛する人の声を利用して、緊急時にお金を要求します。 または場合によっては、身代金のために愛する人を拘束するふりをします。
AI オーディオ クローニング ツールは安価ですぐに利用できるためです。 そのため、悪意のあるユーザーがオーディオ クローンをすばやく簡単に作成できます。 そして、その際に音声サンプルを入手する方法は、人々がソーシャル メディアで自分の声を共有することです。 オンラインで声を共有すればするほど、 嫌がらせ者があなたの声を見つけて模倣するのがより簡単になります。

AIの声の欺瞞はどうですか?
AI による音声詐欺に関するニュースが実際に報道され始めたばかりですが、McAfee の調査によると、これらは一般的になりつつあります。
世界平均では、回答者の 25% が AI または知人による詐欺を経験したことがあることがわかりました。
これは米国の 32% よりも高く、インドでは AI を利用した音声詐欺の問題が最も多く、回答者の 47% が自分や知人が影響を受けたと答えています。

それはどのくらい正確ですか?
McAfee の調査によると、オーディオ クローン作成ツールの精度は 95% です。
公に報告された AI 音声複製詐欺の事例では、被害者はその声が複製された人物のように聞こえると説明しました。 ある深刻なケースでは偽の誘拐のためにサイバー犯罪者が要求する身代金。 母は言った 「それは彼女の声だ」「それは彼女の謙虚さだ」現在、本物と偽物を区別することはかつてないほど困難になっています。 だから人は、自分が見たり聞いたりすることを常に信じることができるとは限らないと考えなければなりません。
被害者が失う頻度と金額
- 残念なことに、McAfee の調査によると、AI 音声詐欺の被害者の 77% がお金を失っています。
- 3分の1以上 1000ドル以上を失った
- 7% が詐欺にあった $5,000 と $15,000
- 米国ではこの数字は最高で、11% 減少しました。 $5,000 ~ $15,000
全体として、この詐欺は 2022 年に 26 億ドルを盗んだと考えられています。
AI詐欺を防止および防止する方法
前に書いたように、マカフィーは、AI 音声詐欺を防止および防止するための 3 つの主な方法も共有しています。
- オンラインおよび/またはオンラインでのオーディオおよび/またはビデオ共有を制限する ソーシャル メディア アカウントを公開ではなく非公開に設定します。
- 挑戦的な質問をする または、不審な電話がかかってきた場合は、愛する人だけが応答できるものです (たとえば、子供の頃のぬいぐるみに名前を付けます)。
- ソーシャル メディアなどで回答できる質問をしないように注意してください。
- 不明な番号をボイスメールに送信し、電話から直接その人に電話またはテキスト メッセージを送信します。 それらが気になるなら
マカフィーの完全な手順は次のとおりです。
- 共有を押す前に考えてください— あなたのソーシャル メディア ネットワークには誰がいますか? 自分のつながりを本当に知っていて、信頼していますか? Facebook、YouTube、Instagram、TikTok で何を共有するかを慎重に検討し、プライバシー設定で投稿を友人や家族に制限することを検討してください。 知人は広ければ広いほどよい。 心を開くほど、自分自身に関するコンテンツを共有する可能性が高くなります。
- 本人確認サービス あなたの個人情報がダークウェブで利用可能かどうかを警告するのに役立ちます. 個人情報の盗難は、多くの場合、音声 AI やその他の標的型詐欺の出発点です. 個人データを管理して、サイバー犯罪者によるなりすましを防ぎます。 認証サービスは、ID を保護できる追加の保護層を提供します。
- また、AI 音声詐欺の直接の被害者にならないようにするための 4 つの方法::
- 1. お子様やご家族と一緒に「合言葉」を設定してください。 または、彼らだけが知っている信頼できる親友。 彼らが電話をかけてきたら、常に助けを求める計画を立ててください。 テキスト メッセージまたは電子メールを送信してヘルプを求めます。 特に彼らが年をとっている、または弱い場合。
- 2. 不明な差出人からの電話、テキスト メッセージ、または電子メールであるかどうかを常にソースに確認します。 またはあなたが知っている番号からでも. 一時停止, 一時停止, そして考えます. 直接の質問をすることで、詐欺師をフックから外すことができます.驚いた。 ただし、新しい応答を作成する必要がある場合もあります。 これにより、会話に不自然な一時停止が追加され、疑いが生じる可能性があります。
- 3. 感情に流されないでください。 サイバー犯罪者は、なりすましの相手との感情的なつながりを頼りに、あなたに行動を促しています。 答える前に一歩下がってください。 それは本当に彼らのように聞こえますか? これは彼らがあなたに聞きたいことですか? 電話を切って直接相手に電話するか、返信する前に相手の情報を確認してください。
- 4. 不明な電話番号からの予期しない電話を受けるかどうかを決定します。 見知らぬ人からの電話に出ないことは、一般的に良いアドバイスです。 彼らがボイスメールを残した場合これにより、愛する人と直接連絡を取り、安否を確認する時間を確保できます。
詳細についてはレポート全文をご覧ください。 また、AI による音声欺瞞についても読むことができます。 FTCのウェブサイトで.
トップ画像 マカフィー経由