MAIL MAGAZINE

下記からメールアドレスを登録すると、FUZEが配信する最新情報が載ったメールマガジンを受け取ることができます。


AIセクハラという現代問題。反映していたのは社会が生みだす価値観だ

DIGITAL CULTURE
ライターabcxyz
  • はてなブックマーク

「AIへの性的な発言は果たしてセクハラなのだろうか?」という疑問が頭に浮かんだ。なぜならセクハラは、その対象となるものに主観性がなければなりたたないからだ。また、本記事は以下の過去記事を踏まえている。

関連記事
AIへのセクハラ発言を開発者はどう定義すべきか?|福田ミホ - FUZE

AIアシスタントへのセクハラは成立するか

人間に対して性的発言を行なっても、それがセクハラとならない状況がある。たとえばすでに性的な関係が築かれた恋人や夫婦、発言が互いの価値観を否定しないことや冗談であるという相互理解がある友達など、親しい間柄が挙げられる。もしくは、異性愛者の同性同士といった言う側/言われる側に性的な意味合いを含まない関係が成り立っている場合だ。

現実でセクハラが成立する状況は、大きく二つある。一つは性的嫌がらせをする意図を持ったもの、そしてもう一つはセクハラをする側の認識がずれていることに起因するものだ。前者に関してはいわずもがなだが、後者においては「この発言をしても相手は問題だと思わないだろう」という両者の関係に対する勝手な思い込みが外れていた場合を指す。これは性的な問題に限らず、あらゆるハラスメントに関していえることでもある。

どちらにせよ、これは二者間の関係と理解の問題だ。ある性的な発言が文化的に許容されている社会で行なわれた場合でも、相手によってはハラスメントとなりうる。逆に、落語の『まんじゅう怖い』のように、ハラスメントを行なう意図を持った行為でも、受け手がそう受けとらず問題にならない場合もある。

ユーザーの性的な発言に対するAIアシスタントの肯定的な対応は、一見ユーザーと親密な関係を築いた状態を示唆しているかもしれない。しかし実際にはAIアシスタントとユーザーが親密な関係を築く過程は存在せず、特定のインプットに対する単純なアウトプットとなっているため、多くのユーザーはこれを「親密な関係」のうえで出た回答だとは思わないだろう。

ハラスメントは、受けた側がそれを主体的に判断しないと成立しない。あなたが不可知論者でない限りは、現在のAIアシスタントに主体性がないことに同意してくれるだろう。いくらAIアシスタントに性的な発言をしても、AIはただ機械的に反応するだけだ。それを快いとも嫌がらせだとも思えないはずである。これをセクハラとは呼びがたい

「現状、AIへのセクハラは成立しない」といいきったうえで、セクハラのもう一つの要素を考えてみよう。

セクハラはパワハラの一種だ。つまりセクハラが起こる土壌には、まず発言者と受け手の力関係が存在する。多くの場合、何らかの発言がセクハラと認識されるのは、受け手がみずからの力関係を下であると認識している状況のときだ。上司と部下などはわかりやすいし、男女の平等性が低い国においては職場での同僚関係でも起こりやすい。これは必ずしも客観的な格差と一致しているとは限らない。発言を受けた側が感じる主観的な力の格差によって、発言をかわしたり言い返すことが容易でない状態がセクハラなのである。

たとえば上司に「君のお尻、セクシーだね」といわれて嫌悪感を抱いても、仕事や職場での関係を気にするあまり言い返すことができない状況はセクハラになりうる。いっぽう逆にナイトクラブで見ず知らずの人に同じことを言われたとしても、ここに力関係は持ち込まれていないので好きなように言い返すことができ、セクハラになりづらいだろう。

バーチャルセクハラは世界の価値観を反映している

AIアシスタントと「性的対象物」(*)であるセックストイとの大きな違いは、触覚によるインタラクションを除きユーザーとコミュニケーションがとれる点にある。AIアシスタントに対する性的発言はユーザーにとって「バーチャルな性的コミュニケーション」となっているのだ。では、これは問題なのだろうか?

*「性的対象物化/sexual objectification」。たいていの場合、日本語訳は「性的対象化」となるようだが、それでは単に語感から「性の対象」として読み取ることも可能で、それではこの言葉が有する問題をすべては含んでいないだろう。「sexual objectification」の語にみるのは「性的な対象」と「対象物化=物化=人格の否定」の両方である。対象を「人ではなく、性の対象物として見なす行為」にあるのだ。人を性的対象物化することは問題である。それは人間としての尊厳を貶める行為であり、人権の侵害だ。

バーチャル性にもさまざまな見方があり、これを安易に善悪と決めつけるのは難しい。たとえば、あなたが仕事の取引に失敗したあと憎たらしい取引相手の顔写真をパンチングボールに貼りつけて殴ったとする。これは「バーチャルな暴力行為」だが、実際には誰も傷つけていない。その行為が実際の暴力を助長しない限りは、取引相手の顔を直接殴るより多くの面でずっといいだろう。

また、殺人が可能なゲームで遊ぶからといって全員が殺人を犯すわけではないのと同じように、「バーチャルセクハラ」がどれだけ現実世界の人々の意識と行動に直接影響をもたらすかの判断は難しい。

バーチャルでの暴力でストレスを発散することで、現実世界での暴力行為を抑えるという説もある。つまりバーチャルなセクハラをはけ口とすることで、現実のセクハラが行なわれずに済んでいるのかもしれない。Psychology Todayによる「ポルノの増加が性的暴行の低下という証拠」、Polygonによる「暴力ゲームは現実の犯罪を低下させるか?」などが参考になるだろう。

ただ、どちらの記事中においても指摘されているが、Aが増加してBが低下しているからといって両者に相関関係を見いだすのは早まりすぎている。さらに犯罪の報告件数が実際の犯罪件数を正しく示しているかというと、その断定はできない。そのためバーチャルに対するセクハラの善し悪しを結論づけることは不可能だ。

だがバーチャルセクハラにせよバーチャル殺人にせよ、文化的な価値観の反映として読みとることができる。

Untitled design.jpg

AIアシスタントへのセクハラ問題の本質

戦争ゲームの殺人描写が許容されるのは「戦争だから殺し合う行為は仕方がないうえに敗戦国/現在の仮想敵国が敵キャラだから」という、歴史的に正当化されてきた範囲での設定という前提がある。それでも描写の密度があまりにも濃厚だと、正当化できなくなる部分も出てくる。ある社会において、登場する要素や暴力性が文化的に許容されない場合には販売禁止などの措置がとられる。

社会の価値観は固定されたものではなく、シャボン玉の表面の色のように刻々とその価値観を変えている。ときには繋がったり、弾けて消えたり、新しいのができたりもする。一概に「ある社会の文化」といっても、社会という大きな枠内にはより小さな文化のバブルが無数に存在し、それぞれのバブルで許される文化的価値観は異なってくる。

「AIアシスタントへのセクハラ」で一番の問題として取りあげられるべきは、ユーザーからの性的な発言に対する「プログラミングされたAIアシスタントの反応」と、それが性差別を助長している現象そのものだ。この反応を作りあげたのは、開発した人々や世に出すことを許した会社である。開発者の価値観とサービスが展開される個々の社会の価値観にずれが生じることでハラスメントとしての問題が生まれるのだ。世に出て多くの価値観のバブルにぶつかり合うことによって垣間見えるのが、AIアシスタントへのセクハラを問題視する価値観のバブルである。

しかし現在、問題視するバブルにぶつかっても、なお「AIアシスタントへのセクハラ」問題は解決していない。AIへのセクハラがあまりに社会の価値観から離れていれば、すぐにAIアシスタントの対応が修正されていたはずだ。たとえばFaceAppの「人種フィルター」が即座に削除されたことは、人種差別的な表現が社会の価値観として悪だと判定されたためだ。つまり、AIアシスタントのサービスが展開されている社会においては、「AIへのセクハラを黙認する価値観がまかり通っているということだ。このことは社会構成員の大多数がそれを良しと思うかどうかとはまた少し違う。

人間を性的対象物化することは、人権を貶めるだけにはとどまらず、性差別を助長するという視点からも問題だ。だが、ある社会で何度も繰り返し性的対象物化が描写されることによって、それが当然であるという意識が植えつけられてしまう。その環境で人権を貶める行為が繰り返され、価値観はより強化されていく。これについての詳細は、以下の記事に書かれている。

関連記事
「AI」は声でセクハラを助長する? 「女性秘書はロボットだから」に潜む人間の危険性|塚本 紺 - FUZE
FaceApp、人種フィルターを追加し炎上。そして削除へ - ギズモード・ジャパン

性差が反映される例

社会が抱く価値観のバブルは多種多様だが、Siri、Cortana、Alexa、Google Assistant、これらはどれもアメリカの企業によるものである。北欧諸国と比べ、まだアメリカは性的格差の面で先進国といえない。世界経済フォーラムによる世界男女格差指数2016年度版では45位だ。The Telegpaphで報じられているように、大統領が性差別発言を連発する人物であることもアメリカ社会が包括している価値観の総和の反映なのかもしれない。

Video: Pop Culture Detective/YouTube

Pop Culture Detectiveによる動画を紹介しよう。ポップカルチャーにみられるある種のジェンダー表現特性を「Born Sexy Yesterday」(*)という名称で説明している。この名称に含まれる「born yesterday」という慣用表現には「とてもナイーブ、経験不足、無知」という意味が含まれるのだが、「Born Sexy Yesterday」という名称に与えられた定義は以下のようなものだ。

Born Sexy Yesterday
おもに女性(もしくは女性に相当する)キャラクターであり、頭脳明晰ながらも非常に純真で、社交的なことには疎いといった「よくできた子供」を彷彿とさせる特性、そして男性が尊敬する能力(戦闘能力)などを備えながらも、セクシーな大人の女性の体を持ち、なおかつ自分の性的魅力に気づいていない。ただ、この表現特性はただ単にこの女性キャラクターのみを指すものではなく、この女性に対し、平凡に社会生活を送っている話の主人公となる男性が存在する。この男は極めて平凡でありながらも、この純真無垢な女性にとっては特別な存在となり、ロマンスの面でも同様だ。この動画では、このジェンダー表現特性の根底にあるのは男性の優位性への執着、無垢な少女を支配する力への欲望と考察している。女性キャラクターの持つ無垢さは好ましさを持って描かれているが、動画ではその役割が逆になっている場合も紹介されている。その際には男性キャラクターの持つ無垢性はある意味障害となり、女性キャラクターはそれを乗り越えて好意を抱く。

「Born Sexy Yesterday」は、おもにSFハリウッド映画で多く見られ、日本のアニメにも多いと指摘されているジェンダー表現特性だ。このような大衆文化にみられる性の描き方も、文化が包括し、許容する価値観のバブルの一例であるといえよう。

AIアシスタントにまとわりつく性の価値観

世界男女格差指数2016年度版で144国中111位を獲得した日本には、どんなAIアシスタントがあるだろうか?

ドコモのiコンシェルサービスには「ひつじのしつじ」というAIアシスタントキャラクターが使われているが、これは雄の羊のようだ。ひつじ/執事という言葉遊び(もしかしたらそれにくわえ『アンドロイドは電気羊の夢を見るか』ともかけているのかもしれないが)、女性的な声ではあるものの羊という非人間的な姿を与えられているためか、ここには人間の性が表現されているようには思えない。同様に日立ソリューションズによるAIアシスタントのレプリゼンテーションも無性的なロボットだ。

日立ソリューションズは女性活躍推進法に基づき厚生労働大臣より3段階式の評価が認定される「えるぼし」で最上評価の第3段階が認定されているほか、2015年には経済産業省の「ダイバーシティ経営企業100選」にも選出されている。

Livedoor Newsでは、若い女性のイラストなどでビジュアル化されたAIアシスタントの姿が多く紹介されている。

紹介した日本のAIアシスタントは人間としての性を与えられたものもあるが、必ずしも人間というわけではない。

だが、NIコンサルティングのAIアシスタント「電子秘書」は一線を画す存在だ。わざわざ女性として表現される人間の秘書と、同社の電子秘書の機能を比較するページでは、「セクハラ・パワハラ」において人間の秘書に対して行なうのは「ご法度」で「訴えられてしまう可能性」があるのに対し、電子秘書であれば何を言っても平気であるほか「目の前で着替えもします」ということだ。「セクハラ・パワハラ」の機能対比では電子秘書が優位であるとされている。なお、これは前述のLivedoor Newsで紹介されているような対話用のAIアシスタントではなく、業務サポート用のAIアシスタント、つまり仕事のための存在だ。これは職場環境において行なわれる生身の人間に対するセクハラをAIアシスタントに投影する行為が、同社の製品においては許容されるということを示唆する。同社の価値観のバブルが日本社会全体の価値観バブルと対面したのかは私にはわからないが、この価値観を生みだしたのもまた日本社会であることは事実だ。なお、このAI秘書の性別設定は変更することもできる。

アメリカでは最近シリコンバレーでの性差別問題が多く取りあげられているが、これが問題とされていること自体が価値観の移り変わりを表している。UberやGoogleが性差別を許さない姿勢も、今まさに変化が起きていることをあらわにした。女性を連想させる名称のついているSiri、Cortana、AlexaなどのAIアシスタント(*)と違い、後発(2016年)のGoogle AssistantはAIアシスタントの名称そのものが没個性的な「肩書き」であり、パーソナリティや性を感じさせないことも興味深い。

しかしそんなGoogle Assistantの声ですらも女性的な声であるうえ、「Assistant」とGoogle画像検索した結果からは、この言葉と特定の性が結びつけられているように感じられる。

男性の声に変えることのできるSiriも初期設定は女性の声だし、Cortanaに関しては女性キャラクターが化身となっている。いくらAIアシスタントの性を否定しようとも、現状ではその存在に現実世界の性がまとわりつくのはやむをえない。

Siri「私の声にだまされないでくださいね。私には性別はないのです。」 Cortana「私は複合体なので、はっきりした性別はありません。」 Google Assistant「私は中立でいようとしています :D」

*「Siri」(初登場は2011年)はスカンジナビアの女性名。「Cortana」(2014年)はMicrosoft Studiosが販売元のゲーム『Halo』シリーズのAI「コルタナ」がモデルとなっており、ゲームシリーズではつねに体の線が露わな女体のホログラムをその化身としている。AIアシスタントの声もゲームでコルタナを演じる声優のJen Taylorが担当している。ゲーム中でのコルタナは、女性であるキャサリン・エリザベス・ハルゼイ博士の脳のクローンを使って作られた設定だ。「Alexa」(2014年)も女性名。Alexaのインスパイア元は『スタートレック』シリーズのU.S.S.エンタープライズのコンピューター(女優のMajel Barrett-Roddenberryが音声を担当)だとNew York Timesで語られている。

社会の価値観のレプリゼンテーションを変えるのは人間だ

性差別と関連して取りあげられることの多いAIアシスタント。だが、問題はAIアシスタントそのものより、それが生まれた社会の価値観や利用している人々の意識にある。AIアシスタントはそれらを反映する水鏡だ。

AIアシスタントは性差別的な発言に反応したことで、現代いまだ多くの社会がもつ性差別的な価値観を映しだした。こうして水鏡に現れた価値観を客観的に見てもなお、現在私たちは自らの出で立ちを正そうとはしていない。

しかし今、水鏡を見てみれば、写っている像は揺らいでいる。

Video: ポーラ公式チャンネル(POLA)/YouTube

日本に目を移してみよう。上の動画『この国は、女性にとって発展途上国』と、それに続く下の動画『この国には、幻の女性が住んでいる』のCMを打ちだしたポーラは、あまりにも一般的となってしまった性差別的な価値観の鎖に、みずからも知らず知らずのうちに縛られる様子を描き、日本の現状に問題提起をした。

Video: ポーラ公式チャンネル(POLA)/YouTube

ある社会で「まかり通っている」価値観を変えるにはどうすればよいだろうか。もしかしたら社会の大多数の人が、その価値観をいけないと思っているかもしれない。でもそれを公言しなければ、価値観を肯定しているのと同じことだ。「見て見ぬふり」がよくないということは、『見て見ぬふりをする社会』の著者であるMargaret HeffernanがTEDで訴えかけている。

Video: MARGARET HEFFERNAN/TED

Video: NZ Human Rights Commission/YouTube

これは人種差別をなくそうというニュージーランドのNZ Human Rights Commissionによるキャンペーン動画だ。皮肉を用いて「人種差別が消えないようみんなで努力しよう」と語られている。性差別に関しても同じで、社会的な価値観の圧力に屈せず性差別を肯定しつづければ、今後もずっと性差別が社会に根づいた状態を作れるということだ。なお、本義を誤解されないよう一応書いておくと、これは「差別を肯定しないことで差別が許されない社会を作ろう」という意味である。

性的発言に対するAIアシスタントの反応に違和感を感じるのであれば、そこに映しだされた社会の価値観のバブルは、あなた自身の価値観のバブルと一致していないということだ。これから先、人間に類似し性的要素を持ったAIが普及していくと、社会での性的格差にも今後注目が集まっていくだろう。社会の力の不平等を正し、性差別をなくすことができるのは、ほかでもない我々人間だ

#未来世紀シブヤ2017

100年後、「2017年の渋谷」はどんな姿をしているだろう?