声を聞いても本人だと信じ切ってはいけない時代

「声がそっくりだから息子だと思った」。近年、AIを用いた音声合成技術(ディープフェイク)により、家族の声を完全に再現したオレオレ詐欺の事例が海外および日本でも警戒されています。

SNS動画からわずかな音声データを抽出

犯人は、子供がSNS(TikTokやInstagramなど)に投稿した短い動画から声を抽出し、その声色で「事故を起こしてすぐにお金が必要だ」と喋らせます。

対策は「合言葉」と「本人からの折り返し」のみ

声が全く同じであっても、お金を要求されたら一旦電話を切り、必ず自分から息子の携帯番号に電話をかけ直してください。「合言葉」を決めておくことは、AI時代において最も確実な防犯対策です。