Ⅰ 生成AIとディープフェイク・ポルノ
被写体の同意を得ることなく、撮影・生成された「同意なき性的画像(Non-consensual Intimate Image、以下「NCII」)」のウェブ上での拡散は、標的とされた者に深刻な被害をもたらしてしまう。また膨大な学習データを用い、プロンプトの入力により、文章・画像・動画などを生成し、出力することを可能にした近年の生成AIブームは、より多くのユーザーに、安価かつ容易に画像及び動画を生成する手段を提供した。同時に他人の顔画像等を無断でポルノに合成した「ディープフェイク・ポルノ」による被害も拡大している。もともとディープラーニング(深層学習)関連技術であるGAN(敵対的生成ネットワーク)は画像等の加工に利用されていたが、その主要な利用手段はポルノの生成1)であり、その標的は当初セレブや芸能人であったが、今では一般市民(特に、女性や子供)が狙われている。こうしたディープフェイク・ポルノは、ポルノサイトなどでの消費にも用いられる(収益を目的としている場合もある)が、いわゆる「リベンジポルノ」の目的で作成・頒布される場合もあり、さらに「顔」の被写体となった人に対する脅迫(セクストーションと呼ばれる)に利用されることもある。日本においても、卒業アルバム等の写真を利用してディープフェイク・ポルノが作成・頒布されている事例などが散見される2)。¶001