AI(人工知能)を使って偽の性的な画像や動画を作る「ディープフェイクポルノ」。身近な人をターゲットにした被害が広がっている。 米ニュージャージー州の高校では昨年10月、少なくとも女子生徒30人の「裸画像」が学校内で出回っていることが発覚した。 「こんなことが自分の身に起こるなんて考えもしなかった。どうしたらいいのか分からず、ショックでただ泣いていた」。被害者の一人、フランチェスカ・マニさんは……
朝日「これらは非実在青少年に属する」
そのうち卒業アルバム禁止になりそうだな
グループだけで止めておけばよかったのに
自分で楽しむ分には何の問題もないだろう?
簡単にできるアイコラみたいなもんか
AIモザイク除去は普通にある。 変だったりするが
コラージュの進化形だけど 今の問題は流布できる事
スマホネイティブ世代でもあれなのに AIネイティブ世代はもっとすごくなりそうだな
朝日「これらは非実在青少年に属する」
そのうち卒業アルバム禁止になりそうだな
グループだけで止めておけばよかったのに
自分で楽しむ分には何の問題もないだろう?
簡単にできるアイコラみたいなもんか
AIモザイク除去は普通にある。 変だったりするが
コラージュの進化形だけど 今の問題は流布できる事
スマホネイティブ世代でもあれなのに AIネイティブ世代はもっとすごくなりそうだな