恣意的なのログ

徒然なるままに、夜更かしPCに向かひて、心にうつりゆくよしなしごとを、恣意的に書き殴るブログ

AIによるアイコラ画像が完璧過ぎて新たな性被害の恐れ

本物かどうか区別がつかん

f:id:eucalyptus_gunnii:20180502194408p:plain

 

記事によると

ディープラーニングなどのAI技術は、昨今では特定の人物と卑猥な写真を合成する最新技術としても進歩し始めている。分かりやすく言えば、本物と見分けのつかない「アイコラ写真」を生成できてしまうツールになるという訳だ。また画像はおろか、動画さえも生成できてしまう「ディープフェイク」なる技術が登場し、セレブや有名人を対象に被害が拡大している状況がある。

韓国の国会では、合成写真やフェイク動画を制作した人物を「性的暴行処罰法」なる国内法の適用・処罰対象とするという内容の法改正案が発議されている。

news.livedoor.com

 

新技術には副産物が付き物。

アイコラだけでなく、犯罪の隠蔽や捏造など危険性が高い技術のため、日本でも早く処罰対象にしたほうがいいですね。