【社会】AIでAV出演者の顔を女性芸能人の顔にすり替えて動画投稿、 “ディープフェイク”で男逮捕★2
人工知能(AI)を使ってポルノ動画の出演者の顔を女性芸能人の顔にすり替えた「ディープフェイクポルノ」をインターネット上で公開したとして、
警視庁と千葉県警は2日、熊本市中央区黒髪5、大学生、林田拓海(21)と、兵庫県三田市三輪1、システムエンジニア、大槻隆信(47)の
両容疑者を名誉毀損(きそん)と著作権法違反容疑で逮捕したと発表した。同庁によると、ディープフェイクポルノを巡る摘発は全国で初めて。……
参考動画は どこにありますか?
見る側もフェイクと分かってるし、誰も損してない
ディープフェイクって犯罪だったの? 動画タイトルの伏字と問い詰められたらただ単に物凄く似ている他人のフェイクですよって言って言い逃れできないもんなの?
肖像権の侵害にはならないんだ?
犯罪者に感謝するのは初めて ありがとう
何それやるじゃん そのAIを売れよ
俺が中学生の時にこんな技術があればよかった・・・ なんとも中途半端な時代に生まれてしまった
昔のクソコラで懲りている(´・ω・`)