AIで偽音声、詐欺に悪用「3秒のデータから友人・親族の声」

 

投稿者:グッビオのオオカミさん

 

【AIで偽音声、詐欺に悪用 「遭遇8割で被害」調査も】

https://www.nikkei.com/article/DGKKZO74351960R10C23A9CM0000/

 

これ、ちょっと面白かったので投稿します。

 

つまり人工知能で人間の声を合成する「ディープフェイクボイス」ならば3〜4秒の人間の音声データがあれば高精度で合成出来てしまい、詐欺などの悪用が懸念されるという事です。

 

これは、考えようによっては確かにちょっと怖いですね。

 

では、新技術に対する規制をどこで線引きし、弊害から社会を守るべきなのか…。

 

皆さんはどの様に思われますか?

 

(管理人カレーせんべいのコメント)  

 

どしぇー、声まで捏造できるとは、恐ろしい時代になったものです。

「電話の声だけ」は信用できなくなるということですね。

でも私は、ガチで肉親から「振り込め」と言われても、絶対に応じないですけどね(笑)

 

対策について。

 

「人を見たらドロボーと思え」

ということわざもありますが、

これからの時代、その心構えが必要でしょうね。

 

もう「性善説」では生きていけない。


↓(スポンサーリンク)↓



コメント: 4
  • #4

    よっしぃ (土曜日, 16 9月 2023 08:21)

    声だけじゃ騙されるけど顔が映るテレビ電話なら安心と考える人も居るだろうが、音声だけでなく顔もいくつか写真があればかなりのクオリティーで合成出来るらしいので、テレビ電話でもなりすませるようですね
    詐欺師が情報を集め、個人をピンポイントで狙ったら防ぐのは難しいでしょう

  • #3

    田舎のおっちゃん (土曜日, 16 9月 2023 00:44)

    直接人に会うことの必要性、重要性が一周して復活する流れかもね。
    テクノロジーの進歩の皮肉だね。
    電波妨害物質に満ち溢れた世界で、近接で撃ち合うバトルに先祖がえりしたガンダム世界みたい。

  • #2

    sparky (金曜日, 15 9月 2023 21:59)

    相手の話を聞くだけでなくこちらから話しかけ問いかける事で、声ではなく言葉で判断するしかないのでしょうね。手っ取り早いのは「合言葉」か。「チェブリン!」「アジャリカ!」みたいなw

  • #1

    まよせん (金曜日, 15 9月 2023 21:21)

    音声合成は今やNHKニュースなどでも活用されており、また素人でも使える無料ソフトですら一昔前よりだいぶ違和感は薄いです。そしてボイスチェンジャーの技術も進んでいます。
    こうなってくると電話口での対策のしようはないでしょうね。