ジュヌビエーブ・グラック「男の妄想は女の悪夢――テクノ・テロリズムとしてのディープフェイク・ポルノ」

【解説】本稿は、いつもお世話になっているジュヌビエーブ・グラックさんの最新記事の全訳です。グラックさんの許可を得て、ここに掲載します。

ジュヌビエーブ・グラック

2024年2月19日

 近年、個人のプライバシーを取り巻く状況は急速に悪化しつつある。日常生活に関する情報をオンラインで共有することが奨励されるようになり、公的な自己と私的な自己との境界はますます曖昧になり、ほとんど透明なものになっている。このようなプライバシーの侵食が進む以前から、その身体がすでに公共の財産として扱われていた女性と少女の権利にとってこのことが意味するのは、女性の身体を、さらには女性自身のアイデンティティそのものを知的所有物に変える無数の新しい手法である。

 盗撮ポルノ、ディープフェイク、リベンジポルノを含むポルノグラフィから始まって、「女性の」AIアシスタント、セックス人形、ジェンダーイデオロギーの席巻、SNSを通じてグルーミングされる女性や少女の人身売買に至るまで、女性の身体やイメージは男性によって著作権の名で保護され、利潤のために売買されている。現実の女性はばらばらにされ、心が人間性から分離され、過剰に性化されたイメージに、あるいは男性が自ら着脱できるような体験にさえ成り下がっている。テクノロジーの進歩は、ほとんど監視されることなく女性に対する虐待を助長し、テクノロジーの発展のスピードは、女性の権利擁護者たちが絶えず守勢に立たされることを確実にしている。

 最近、さまざまな国の運動家がSNSを活用し、技術進歩のある側面によって可能になった女性の人権侵害に注意を喚起することで、大きな成果を上げている。しかし、根本的な問題――男性による女性の商品扱い――に立ち向かわないかぎり、女性と少女は脆弱なままであり、私たちの非人間化を推進し身体的虐待への動機を与える新たなメディア技術によって促進される新たな侵害のたびに、自己防衛のために反応せざるをえないだろう。

 今日、女性の安全と尊厳を脅かすさまざまなテクノ・テロリズムの中で、最も急速に進行しているのは、ディープフェイク・ポルノグラフィの拡散だろう。現在、この目的のためにSNSのプロフィールから画像や写真が盗まれている。しかし、韓国の大手ハイテク企業サムスンが一部開発したアルゴリズムによって、たった1枚の写真からポルノコンテンツを制作することも可能になっている。最近のデータによれば、現在、世界人口の85%以上にあたる70億人近くがスマートフォンを所有している。道を歩いている女性や子どもが、本人の意思に反して、あるいは本人が知らないところで、こっそり写真を撮られ、ポルノグラフィにされてしまうかもしれない未来を想像するのは、難しくはないが恐ろしいことだ。

――――――――――――――

「女性の身体に対するいかなる侵害も、男性にとってはセックスになりうる。これがポルノグラフィの本質的な真実である」。

――アンドレア・ドウォーキン『インターコース』(1987年)

「ディープフェイク技術は、女性の顔をポルノに重ね合わせることで、女性を侵害する武器として用いられている。それは恐ろしいもので、恥ずかしく、屈辱的で、女性を沈黙させる。ディープフェイクのセックス動画は、その個人に対して、自分の身体は自分のものではないと語る。そしてそれは、被害者がネット上にとどまることを困難にし、職を得たり、あるいは職を維持したり、安全に感じることを困難にする。

――ダニエル・シトロン、ボストン大学法学部教授(著書に『サイバー空間におけるヘイトクライム』(2014年)がある)

 金のなる木であるポルノ業界と並んで、新しいタイプの性的テロリズムが出現した。ディープフェイク・ポルノがそれだ。被害者は、同意なしに、そして知らないうちに、ポルノ的な文脈に置かれる。「ディープフェイク」とは、ディープラーニング(深層学習)とフェイク(偽物)を組み合わせた造語で、AIを使うことで、既存の動画コンテンツに他人の顔を結合し、精度を高めていくことができる。

 この用語と操作方法は、2017年に「Deepfakes」と名乗るRedditユーザーが、ポルノ女優の身体に有名人の顔を重ね合わせた改変ポルノグラフィを投稿していたことに端を発する。ディープフェイクの話題が欧米の主流に広まったのは、同年末に掲載されたサマンサ・コールの『Vice』の記事を通じてだった。その中で、筆者は、スカーレット・ヨハンソン、ガル・ガドット、メイジー・ウィリアムズ、オーブリー・プラザ、テイラー・スウィフトといった英米の有名人がその肖像を盗まれ、ハードコア・ポルノに重ね合わされていることを指摘した。

 それ以降も、ディープフェイクは加速度的に増殖しており、野放図な客体化の衝動によって、そして女性の境界線を侵犯するエロティシズムによって駆り立てられている。メディアがディープフェイク動画について論じるとき、政治選挙に関する虚偽情報の脅威に焦点を当てることが多い。しかし、ネット上で発見されるディープフェイク動画の98%はポルノであり、ディープフェイク・ポルノに狙われる被害者の99%は女性である。調査グループSensityの2023年のレポートによると、オンラインで配信されるディープフェイク動画の数は、2019年と比較して550%も増加している。

  ディープフェイク・ポルノのターゲットにされる韓国人女性

 研究者によって分析されたディープフェイク・ポルノ動画における被害者の大半は韓国人女性であり、この事実はK-POPの人気に起因している。韓国で最も人気のあるガールズ・ポップ・グループのひとつとされるブラックピンクのメンバー4人のうち3人が、最もターゲットにされた女性のトップ10に入っている。韓国に続き、ディープフェイク・ポルノ被害者の国籍で最も多かったのは、アメリカ、日本、イギリスだった。

 しかし、このようなコンテンツの多さは、K-POPの人気で片づけることはできない。ディープフェイク・ポルノは圧倒的に男たちによって作られているのであり、韓国人女性が主にターゲットにされるのは、アジア全般におけるテクノロジー産業の急速な拡大が、日常的なレベルでのミソジニーの社会的雰囲気と結びついているためだろう。

 韓国がとりわけ盗撮ポルノやオンライン・デジタル虐待のグローバルな震源地になった理由については、さまざまな説がある。韓国はここ数十年で経済大国となり、教育を受けた若い女性世代がかつてない規模で労働力に参入するようになった。激しいミソジニー的攻撃は、それに対するバックラッシュなのかもしれない。韓国女性開発研究院(Korea Women’s Development Institute)のイ・ミジョン研究員によれば、「若者、特に若い男性は、自分の生活を親の世代と比較して、大きなフラストレーションを感じています。このフラストレーションのはけ口が女性に向けられているのです」。

 加えて、韓国は世界最速のインターネット回線を誇り、大都市では無料で広く利用できる。また、巨大テクノロジー企業サムスンの本拠地でもあり、ディープフェイク画像開発を牽引する国でもある。これらの要因が、他の先進諸国を凌ぐペースで、覗き見趣味的なオンライン・ポルノ文化を発展させることを可能にしたのである。

  急速に広がるディープフェイク・ポルノ

 しかし、ディープフェイクの流行は急速にグローバルな現象になりつつある。この記事を書いている時点で、すでにディープフェイク・ポルノ専門のウェブサイトがいくつも存在しており、ディープフェイク・ポルノは新たなジャンルとして、さらには女性に対する新たな形のテロリズムとして、急速にノーマル化しつつある。

 調査グループSensityによれば、2020年の1ヵ月間に、最大1000本のディープフェイク動画がポルノサイトにアップロードされたという。3大ポルノサイト(XVideos、Xnxx、xHamster)をホストサイトとしているこれらの動画は、数百万回もの再生回数を記録し、莫大な広告収入を生み出している。Wired.comによると、エマ・ワトソンの30秒の動画は3つのサイトすべてにアップロードされ、少なくとも2300万回の再生回数を記録した。このように「デジタルレイプ」されている有名人には、他にもビリー・アイリッシュ、ナタリー・ポートマン、アヌシュカ・シェッティ〔インドの女優で、大ヒット映画『バーフバリ』でヒロイン役を務めた〕などがいる。

 どんな女性の肖像写真でも悪意をもってハードコア・ポルノに流用することができるのであれば、ネット上に自分の写真1枚をアップロードする女性なら誰でも、デジタル性暴力の被害者になる可能性があるということだ。

 そして実際にますますそうなっている。あるデジタル映像の顔を別のものに置き換えるのに必要なのは、文字通りたった1枚の写真なのである。2019年、ロシアにおけるサムスンのラボは、1枚の画像からまったく偽のクリップを生成できるAIシステムを開発したと発表し、有名人の写真やモナリザを含む有名な絵画を使ってこれを実証した。そのAI動画では、モナリザが実際に話し、笑い、頭を動かしているように見える。動画の冒頭には「Living Portraits(生きている肖像画)」というタイトルが表示されており、視聴者が、あたかもこの技術が、歴史や芸術への興味によって駆り立てられているのだと信じるよう意図されている。だが実際には、それは、女性の意思に反して性的搾取を行なおうとする企図にほぼ全面的に駆り立てられているのである。

  犠牲になる未成年者

 2020年、調査チームSensityは、ロシアと東欧における68万人以上もの女性が、テレグラムで自由に利用できるディープフェイクbotによって、知らず知らずのうちに自分の画像が盗まれ、ポルノにされていたと報告した。ユーザーが1枚の写真をアップロードすると、数分以内にヌードバージョンを受け取ることができた。Sensity社のCEOで報告書の共著者であるジョルジオ・パトリーニによれば、「被害者はたいていは若い女の子です。残念なことに、これらの人々の中には未成年であることが明らかな場合もあります」。

 Sensityは、ディープフェイク・ポルノコンテンツを交換していたテレグラムのあるグループには10万人以上のメンバーがおり、その70%がロシアまたは東ヨーロッパに居住していると思われることを発見した。同年10月の時点で、約10万4852枚の女性の画像が同アプリで公開投稿されており、その70%がSNSや個人的なソースから得られた写真だった。

 未成年の少女を含むTikTokアカウントの動画コンテンツもポルノハブ(PornHub)にアップロードされている。社内データによれば、TikTokユーザーの3分の1近くが14歳未満だという。『ローリングストーン』誌の調査では、TikTokのインフルエンサーの顔写真がディープフェイク・ポルノに流用された事例が20数件あることが明らかになった。「プラットフォームとして動画をベースにしているため、(ディープフェイクを作るための)より多くの素材を実際に提供していることになります」とパトリーニは言う。「このような人々は、単に写真をアップロードしている以上の危険にさらされているのです」。

 同誌は、自分のTikTokビデオがポルノハブに投稿されているのを発見した17歳の少女の母親に話を聞いた。「娘は愕然としました。そして学校に行けなくなりました」と母親は言う――「娘はとても無邪気にその動画を投稿したんです。娘はポルノハブになんか関わりたくなかった。それは17歳で学ばなければならないような教訓ではありません」。

 別の例では、Discord〔チャットや動画アップのプラットフォームの一つ〕のあるサーバーが、ユーザーのリクエストによってディープフェイク・ポルノを作成することに特化していることが判明した。「〇〇〔名前は伏せる〕はあと4日で18歳になるところでした。管理者はビデオを作成し、彼女が18歳になった2週間後にポルノハブに投稿したんです」。

  政治的目的に利用されるディープフェイク・ポルノ

 テレグラムやDiscord上のチャットルームで、特に女性や少女を性的虐待や人身売買、ディープフェイク拡散の対象としている事例が、米国、英国カナダイタリア韓国ロシア中国シンガポール北マケドニアマレーシアバングラデシュミャンマーで報告されているが、この問題はもっと広範囲に広がっている可能性が高く、十分に報告されていない。

 たとえばミャンマーの場合、民主化を求める女性活動家たちの画像を使ったディープフェイク・ポルノが作られている。2021年2月1日、国軍(タトマドー)率いる軍事政権がクーデターを起こし、国民民主連盟(NLD)に取って代わった。アウン・サン・スー・チーという女性が国家元首であったが、彼女は元首の地位から追放され、ミン・アウン・フライン将軍が率いる軍に取って代わられた。

 女性たちは国軍に対する抗議行動の先頭に立ち、街頭での最初の抗議行動を主導し、抵抗を組織し続けてきた。2021年3月、「エンジェル」ことキャル・シンという若い女性が、平和的なデモの最中に軍に狙われ、スナイパーに頭を撃たれた。彼女の死は公表され、抵抗運動の象徴となった。

 女性のデモ参加者の中には、労働組合を組織した経験のある縫製労働者も多い。ミャンマーの縫製産業はGDPのかなりの部分を占め、国内最大の産業部門である。低賃金で酷使される女性や少女が労働力の約90%を占め、13歳の若さでこの業界に入った者もかなりいる。1日あたり約2ドルにも満たない賃金で、週6日、1日11時間もの労働を強いられ、欧米で最も裕福なアパレル企業に製品を提供している。

 多くの工場には適切な換気がなく、彼女らは灼熱の中で働き、休憩を与えられないこともある。賃金のごまかし、性暴力やセクシュアルハラスメント、非人道的な労働条件、強制的な残業などは、女性たちが耐えている状況の一部であり、報告では、虐待は軍事政権奪取後に「著しく」増加したと指摘されている。クーデターに先立ち、縫製産業の女性たちは公正な賃金と労働条件を求めて抗議行動を起こしていた。

 タンダー・コー――衣料品労働者の権利を教育する女性の権利団体BusinessKindの創設者――は、このような日常の悪夢から労働者を守る法律がないことを批判している。「女性をちゃんと保護する法律があればいいのにと思います。そしたら、もっと状況は改善するでしょう」と彼女は言う――「でもそういう法律がないため、多くの労働者は労働条件やハラスメントについて怖くて口にできないのです」。

 軍事政権は、女性たちが自分たちの権利のために政治的に組織化しようとする試みを抑圧してきた。国内最大の縫製労働者組合のひとつであるミャンマー縫製労働者連盟(FGWM)のリーダー、マ・モー・サンダー・ミントは2021年、『ジャコバン』誌にこう語った。「アウン・サン・スー・チー政権下では労働者のストライキが組織され、法の支配がありました。今ではまったくありません。銃で撃たれたり逮捕されたりすることなく、公然と軍を批判することはできません」。

 軍に抵抗する女性たちは、政権に拘束され、拷問を受けている。2021年2月の軍事クーデター以来、少なくとも308人の女性や少女が軍によって殺害され、数千人が逮捕されている。2023年6月には、ヤンゴンでホーシェン・ミャンマー縫製社が運営する中国資本の工場で賃上げを主張した衣料品労働者と組合活動家が、軍によって裁判にかけられると報じられた。この工場は、スペインのアパレル企業ZARAを経営するインディテックス社のサプライヤーであり、同社は現在、すでに撤退した他のヨーロッパのファッション企業数社に続き、ミャンマーからの撤退の意図を表明している。

 女性の抵抗運動指導者のポルノコンテンツを制作し、広めることに従事している「社会的懲罰」キャンペーンの標的になっているのは、これらの女性たちだけではない。現在までに、何千人もの政治的に活動的な女性が、このようなキャンペーンでドキシング〔住所その他の個人情報を漁り、さらす行為〕されたり、虐待されたりしている。被害者の性的なビデオや画像は、ミャンマー軍に近いテレグラム・チャンネルで共有されている。報道によれば、その内容は被害者を侮蔑する言語が使われている。メディアに提供された一例によれば、次のようなものだ。「誰とでもセックスして、それをビデオに録画している売女め……。立場をわきまえろ、あばずれ!」

 このような「社会的懲罰」を推進しているグループやページは、ディープフェイク・ポルノと一緒に女性の住所やその他の個人情報を頻繁に公開している。軍がミャンマーの選挙で選ばれた政府を覆してからわずか1週間後、軍事政権の国家行政評議会(SAC)の大臣の娘が、この戦術の最初の公の犠牲者となった。女性の露骨なビデオや写真は、クーデター反対派によって流布され、意図的に拡散された。女性に対する「社会的懲罰」は両方の政治分派によって利用されてきた。すなわち、軍を支持する人々は抗議者たちを辱めるために、また軍政に反対する人々は、軍に加担しているとみなされた女性たちを辱めるために、である。

  法的対応の不備

 国際的には、ほとんどの政府が、ディープフェイク・ポルノを犯罪とする法律の施行や執行に至っていないが、一部の国では懸念すべき前例ができつつある。たとえば日本では、この種の虐待は当事者女性に対する性的侵害として明確に認識されていない。むしろ、当事者女性の肖像権を有する業界に対する犯罪として扱われるか、AIが生成した児童ポルノの事例のように、まったく犯罪とみなされないかのどちらかである。

 東京の警視庁は2020年10月、女性タレントの顔を使ったディープフェイク・ポルノを制作しその動画をポルノサイトで公開したとして、林田拓海と大槻隆信の2人の男性(それぞれ大学生とシステムエンジニア)を逮捕した。2人は林田が運営するサイトで動画を公開し、合わせて約80万円(7600ドル)を得ていたという。

 この種の逮捕は全国初であり、男たちにかけられた容疑は、この新しい形の女性に対するテロリズムが、この国の司法関係者たちの多数派の目にどのように映っているかを物語っている。警察はこの侵害行為を女性に対する性暴力としてではなく、名誉毀損と著作権侵害とみなしたのである。この犯罪は、当事者である女性2人の肖像権を所有する企業、つまりポルノ業者と、女性たちが所属していた芸能事務所への毀損とみなされた。

  AIによる児童ポルノの氾濫

 恐ろしいことに、ディープフェイク技術は児童性的虐待物の生成にも使われている。日本では児童ポルノを規制する法律が緩いため、最近、本物そっくりのAI児童虐待物を生成することに特化したウェブサイトが出現している。2023年11月、『読売新聞』の調査によると、児童虐待画像の作成・販売に特化した日本発のウェブサイトが多数存在することが明らかになった。大阪を拠点とするあるサイトには10万人以上の登録ユーザーがおり、毎月200万以上のアクセスがある。同紙が確認したコンテンツは、「実写の『児童ポルノ』と区別がつかない」ものだった。毎月3000点以上の児童ポルノ画像がサイトに投稿されていたが、調査は無料で閲覧できるページのみで行なわれた。記者がアクセスしなかった有料ページには、もっと多くの画像が掲載されていると思われる。

 AIが生成した数千枚の画像には、2歳以下の子どもたちが最悪の性的虐待を受けているものもあった。『読売』の問い合わせに対し、サイトの運営会社の担当者は、「法律上問題ないと考えている」と答えた。

 この調査は、イギリスを拠点とするインターネット・ウォッチ・ファンデーション(IWF)が、この技術の悪用がインターネットを「席巻」する恐れがあると警告したことを受けて行なわれた。前月、IWFは声明を発表し、AIが生成した児童性虐待画像の氾濫を防ぐため、手遅れになる前に緊急措置をとるよう各国政府とテクノロジー・プロバイダーに警告した。このような状況は、法執行機関の捜査員の手に余るものであり、潜在的な被害者のプールを大幅に拡大するだろう。

 スージー・ハーグリーブスOBEはこう語る――「私たちの最悪の悪夢が現実になった。今年初め、私たちはAI画像はすぐに性虐待を受けている子どもたちの実際の写真と見分けがつかなくなり、この画像がはるかに大量に拡散し始める可能性があると警告した。われわれは今、その地点を過ぎたのだ」。

 この監視団体の最高技術責任者であるダン・セクストンによると、IWFのアナリストは、ネット上で有名な子供たちの顔の画像を発見したと同時に、「おそらく何年も前に、すでに虐待を受けた子供たちの画像をさらに作成するための大規模な需要」を発見したという。「彼らは既存の実際のコンテンツを利用し、それを使って犠牲者の新しいコンテンツを作り出しているのです」。

 IWFによると、「これらは、確認された性虐待画像に登場した実在の子どもたちであり、その顔や体は、これらの子どもたちの新しい画像を再現するために設計されたAIモデルに組み込まれている」という。

 報告書はまた、犯罪者がAI技術を使って、性虐待のシナリオの中で「脱年齢化」され、子どもとして描かれた有名人の画像を作り出していることを強調している。さらに、ネット上にアップロードされた子供たちの服を着た画像を「ヌード化」する技術も悪用されている。アナリストたちは、こうしたコンテンツが商品化されている証拠も確認している。

 IWFは1ヶ月間で、ダークウェブの児童虐待フォーラムで共有されていた1万1108枚のAI画像を調査した。このうち、2978枚が児童の性虐待を描写した画像であることが確認された。そのうち2562枚は非常にリアルであったため、法律上は本物の虐待画像と同じ扱いをする必要がある。これらの画像の5枚に1枚以上(564枚)は、カテゴリーAに分類された。カテゴリーAとは、レイプ、性的拷問、獣姦を描写したもので、最も深刻で暴力的な画像を指す。これらの画像の半数以上(1372枚)は、小学生(7歳から10歳)の子どもを描いていた。

  一般人でもつくれるディープフェイクの児童性虐待画像

 しかし、児童性虐待画像は、ダークウェブ上の捕食者だけが作成・共有しているわけではない。2023年9月、スペインのアルメンドラレホという小さな町で、男子高校生が同級生の女子生徒たちのディープフェイク・ポルノ画像を作成し、拡散させていたことが発覚した。少女たちの裸の写真はAIベースのアプリを使って生成されたもので、少なくとも1人の被害者が、公開されるのを防ぐために金銭をゆすり取られたと報告している。これに対し、町内の母親たちはすぐに反撃を開始し、捜査当局と協力するためにWhatsAppグループを立ち上げた。

 2022年11月、米国ユタ州の男が、大人の体に子どもの顔を重ねたディープフェイクの児童ポルノを作成し、逮捕された。取り調べに対し、彼は大人のポルノグラフィに子どもの顔を結合させた動画を少なくとも10本は作成したことを認めた。また、捜査官との面談では、少年に自分の姿を露出したこともあると主張した。

 韓国では2023年9月、この種の事件としては初めて、釜山に住む男が、画像を驚くほどリアルにする「高度な」技術を使って、AIが生成した児童ポルノを作成していたことが発覚した。

 2021年、エジプトのティーンの女の子が、彼女のものとされる裸の写真がネット上に出回った後、自ら命を絶った。この女性、パッサン・ハレド(17歳)は、恋愛関係にあった若い男性に自分のディープフェイク・ポルノをばらまかれた後に自殺したのだ。パッサンは毒を飲んで2021年12月23日に死亡し、母親に遺書を残した。「ママ、信じて、あの写真の女の子は私じゃない」。

 以上がディープフェイク・ポルノの衝撃的な現実である。女性や子どもは、触られることなく性的虐待を経験する可能性があり、その虐待画像は何百万人もの男性によって延々と閲覧されつづける可能性がある。それらを閲覧する男たちは、彼女たちの性的貶めに加担しつづけているのだ。決定的なのは、この新しいメディアが女性や子どもに対する身体的暴力を扇動し、それでもって金儲けをしていることだ。

 しかし、それと同時に、欧米の一部の学者小児性愛ロビー団体は、AIが生成した児童ポルノを性的捕食者の「セラピー」として合法化すべきだと提案している。これは恐ろしく、理解しがたい提案だ。なぜレイプだけが、その再現を定期的に消費することで予防できるとみなされなければならないのか? 法執行官は、有罪判決を受けた殺人犯に、リハビリの一形態として、残忍な殺人を演じることができるAIプログラムを与えるべきだろうか? 健全な社会であれば、そのようなことはしないし、選択肢として考えることすらないのは明らかだ。しかし、AIによって生成されたポルノがますます普及するにつれて、新たな性的捕食者が日々生み出され、すでに性暴力に寛大すぎる司法制度に深刻な負担を強いている。そのため、学者たちの反応は、ピンプやポルノ業者、小児性愛者の側に立って、シニシズムに満ちた現状追認的な提案をしているのである。

 性産業は常に、VHSやストリーミング・ビデオ、さらにはインターネットそのものなど、いくつかのメディア技術の発展の原動力となってきた。人工知能とメディア操作の影響について米下院情報委員会で講演したダニエル・シトロンは、単刀直入にこう述べている――「どの段階においても、手近にあるものを使って女性を苦しめることが行なわれている。ディープフェイクはその一例だ」。

 ディープフェイクの事例は、男性が性的暴力の脅威と実行を利用して女性や子どもを恐怖に陥れ、人間性を奪うだけでなく、男性が個人的にも経済的にも、女性を自分の性的空想や期待に従わせることに既得権益を持っていることを示している。男性たちが自分たちの欲望を女性に投影するためのツールは、歯止めなく急速に発達し、私たちの現実と彼らのポルノ化された妄想との境界線はますます曖昧になっている。

 したがって、グローバルな連帯と抵抗が必要であり、そして緊急なのだ。これはテクノロジーによるテロリズムであり、私たちの未来と少女たちの未来のために、私たちは団結して戦略を練り、私たちの安全、尊厳、人間性に対するこの脅威に対抗しなければならない。

出典:https://genevievegluck.substack.com/p/mens-fantasy-womens-nightmare-deepfake

投稿者: appjp

ポルノ・買春問題研究会(APP研)の国際情報サイトの作成と更新を担当しています。

コメントを残す