【社会】AIでAV出演者の顔を女性芸能人の顔にすり替えて動画投稿、 “ディープフェイク”で男逮捕
人工知能(AI)を使ってポルノ動画の出演者の顔を女性芸能人の顔にすり替えた「ディープフェイクポルノ」をインターネット上で公開したとして、
警視庁と千葉県警は2日、熊本市中央区黒髪5、大学生、林田拓海(21)と、兵庫県三田市三輪1、システムエンジニア、大槻隆信(47)の
両容疑者を名誉毀損(きそん)と著作権法違反容疑で逮捕したと発表した。同庁によると、ディープフェイクポルノを巡る摘発は全国で初めて。……
そんな事よりAIでモザイクをだな…
日本人だったのか ていうかディープフェイク持ってたら捕まる?
技術革新の原動力って、スケベ心なんだな
訴えた芸能人は オカリナとゆりやんかな?
応用されると恐ろしいことになるね。 何の罪も無い人を犯罪者に仕立て上げることも出来るんじゃないか?
こんな事ができるんなら女優はジャンルごとに数人居ればいい。 「あなたの顔を合成していいですか?」 みたいな出演オファーになる。
個人目的ならまだしも公開しちゃあかんとおもうよ
今の技術だとここまでできるのか