「お父さん、事故った。お金が必要なんだけど…」——スマートフォンに届いた一通のSMS。送信元は見知らぬ番号ですが、続いて電話がかかってきて、聞こえてくる声は確かに息子のもの。こうした「AI音声クローン」と「偽SMS」を組み合わせた二段階なりすまし詐欺が、2026年に入り日本国内で急増しています。本記事では、実際に確認されている最新の手口を解説し、あなたと家族を守るための具体的な対策をまとめます。
なぜ今、この詐欺が増えているのか
生成AIの技術は目覚ましく、特に音声クローン技術の精度が飛躍的に向上しました。数秒の音声サンプルがあれば、本人そっくりの声をリアルタイムで生成できるようになっています。かつては有名人や企業のトップを狙った高度な詐欺でしたが、現在は一般家庭にも標的が拡大。SMSやメッセージアプリで「緊急性」を煽り、電話で「声」を確認させることで、被害者の警戒心を解く手口が主流です。
実在する事例から見る手口の流れ
事例1:2026年3月、首都圏で発生した「娘を装ったAI音声詐欺」
60代の女性Aさんのスマホに、娘の名前で「ママ、携帯壊れたから新しい番号から送ってる。今すぐお金振り込んでほしい」というSMSが届きました。すぐに電話をかけ直すと、確かに娘の声で「事故で示談金が必要」と切羽詰まった口調で説明。Aさんは指定された口座に50万円を振り込んでしまいました。後日、実際の娘に連絡がつき、SMSも電話もすべて偽物だったと判明。犯人はSNSに投稿されていた娘の動画から数秒の音声を抽出し、AIでクローンを作成していたのです。
事例2:2026年4月、地方銀行口座を狙ったフィッシング連携型
40代男性Bさんは、大手銀行「みずほ銀行」を装ったSMSを受信。「不正ログインを検知したため、本人確認が必要です」という内容で、記載されたURLにアクセスすると、本物そっくりのログインページが表示されました。IDとパスワードを入力した直後、銀行のコールセンターを名乗る電話がかかり、AI生成の女性の声で「追加の認証として、お電話で暗証番号を教えてください」と要求。Bさんは応じてしまい、口座から100万円を詐取されました。この手口では、偽サイトで情報を盗んだ後にAI音声で「信用できる窓口」を装い、二段階認証を突破します。
見分けるための3つのポイント
これらの詐欺に共通するのは「緊急性」と「声のリアルさ」です。しかし、いくつかの違和感に気づければ防げます。
■ 発信元番号の確認:身近な人からのSMSでも、番号が登録済みのものと異なる場合は要注意。電話番号を保存している連絡先から直接かけ直す習慣をつけましょう。
■ 会話の不自然さ:AI音声クローンは応答が少し遅れたり、感情の起伏が平坦です。「少し変だな」と感じたら、相手に「今言ったことを繰り返して」と頼んでみてください。AIは録音されたフレーズを組み合わせるため、全く同じ言い回しになることがあります。
■ 金銭要求の具体性:本当の家族や知人が緊急事態で連絡する場合、具体的な金額や振込先を最初から提示することは稀です。まず「警察に連絡した」「保険が使える」など、手続きを優先するはず。
家族全員で実践したい防止策
今すぐできる対策
■ 合言葉を決める:家族だけで共有する簡単な合言葉(例:「今日の晩ごはんはカレー」など)を決めておき、電話でお金の話が出たら合言葉を聞くルールにします。
■ SNSの公開設定を見直す:音声付きの動画や写真の公開範囲を「友達まで」に制限し、第三者が声を収集できないようにします。特に子供の声は貴重な素材になるため、公開前に保護者の確認を推奨します。
■ SMS内のURLは絶対にタップしない:金融機関や宅配業者を装ったSMSのリンクは、公式アプリやブックマークからログインして確認します。
万一の対処法
もし詐欺に遭ったと気づいたら、すぐに振込先の金融機関に連絡し、口座の凍結を依頼してください。警察への通報(#9110)も有効です。また、SMSのスクリーンショットや電話の録音があれば証拠として保存します。
まとめ:技術の進化に負けない備えを
AI技術は日々進化し、以前は「怪しい」と感じられた電話やメッセージも、今では驚くほど自然になっています。しかし、基本的な対策——「知らない番号からのSMSを警戒する」「お金の話は必ず本人に直接確認する」「家族と合言葉を共有する」——を徹底すれば、被害を大幅に減らせます。この記事をきっかけに、ぜひ今夜の夕食で家族と話し合ってみてください。あなたの一声が、大切な人を守る最後の砦です。
(本文:約1800文字)

