AIオレオレ詐欺、音声のディープフェイクで簡単に騙される未来!?

ディープフェイクは画像だけとは限りません

音声の世界でも、AI(人工知能)によるフェイクが登場しつつあります!

今日は、そんな未来を見ていきましょう。

こんにちは。元オタク少年のshigeです!



■ イギリスで、22万ユーロ(約2600万円)を騙し取られた電話詐欺事件!

最近、こんなニュースが飛び込んで来ました!

電話詐欺で、22万ユーロ(約2600万円)を騙し取られた!

声の主は会社の上司。でも、実はAIで合成された音声だった

出典:Internet Watch 2019年9月13日
「AIで人の声や話し方を合成して詐欺を仕掛けてくる事件が発生」
https://internet.watch.impress.co.jp/docs/column/dlis/1206892.html

会社の上司から言われたら、信じちゃいますよね。

だから、電話で本人確認するって、時代錯誤なんですよ。電子認証にしましょ(笑)



■ 人の声を真似るAIは既に実用段階、人間には判別不能!?

マイクロソフト社のAI「りんな」ちゃんは、歌も歌えます。

AIりんな / 最高新記憶 (Music Video)

こちらもディープラーニングを基本とした技術で、人間の声を真似て、学習した成果です

これ全部、AIでつくったニセモノなんですよね。もう、ホンモノの人間かどうかなんて、どうでもよくなってます!?



■ 人の声を学習してモノマネできる「Lyrebird」、しかも無料!

カナダのスタートアップ「Lyrebird」は、無料で音声のモノマネができるシステムを公開しています。

その例がこちら

Lyrebird – Create a digital copy of your voice.

喋っている内容は、勝手に作ったもの

ニセモノの声なんです

本人の声質のまま、自由な内容を喋らせることができる、というわけです。

画像や動画は、まだコンピューター処理速度が足りず、ぎこちなさが残っていますが、音声はまったくスムースに再生できるレベルになっています。これを電話で聞かされたら、まず判別不可能ですね。

ちなみに、動画のディープフェイクは、こちらの記事で!
ディープフェイク動画の作り方、ソフトは?スマホで簡単? あなたも狙われる、フェイク動画の恐怖!

声だけで本人と信じるのは、とても危険な時代になってきました。

本人しかしらないような質問をいくつか出すとか、本人確認の方法も工夫が必要です。

もう、電話の声には騙されない! そんな気持ちを持ちたいものです。

ではでは



関連コンテンツ

シェアする

  • このエントリーをはてなブックマークに追加

フォローする