MAIL MAGAZINE

下記からメールアドレスを登録すると、FUZEが配信する最新情報が載ったメールマガジンを受け取ることができます。


「AI」は声でセクハラを助長する? 「女性秘書はロボットだから」に潜む人間の危険性

DIGITAL CULTURE
/uploads/tsukamotokon.jpg
ライター塚本 紺
  • はてなブックマーク

「Siri」、「Alexa」、「Cortana」、「Google Home」。我々は、人工知能(AI)に性別を与えてきた。それは声だ。アシスタントとしてユーザーの言う事を何でも聞く、これらのロボットプログラムに女性という性別が与えられたことは偶然ではない。しかしここにはいくつかの問題が潜んでいる。

性的な質問や罵倒を日常的に受けるパーソナル・アシスタントたち

Siriが登場した時、ユーザーの多くが興味を持って様々な質問をSiriに投げかけた。その中には、生身の女性に対してであれば当然発言することが許されないようなものもたくさんあったわけである。

ロボットなのだから、何を言っても傷つかない。何を言っても大丈夫。音声アシスタントやボットによるアシスタントが珍しくなくなった今でも、この傾向は変わらない。トラックやタクシーの運転手のナビゲーションをするボットを開発するロビン・ラブズ(Robin Labs)社データによると、ユーザーの発言の5%は明らかに性的なものであるという。区別がしにくい表現のものも含めると実際の数はそれよりも遥かに大きいとCEOのイーリャ・エクスタイン(Ilya Eckstein)は述べている。マイクロソフトのCortanaも、セックスに関する質問を多く浴びせられている、とマイクロソフトに所属するライターの一人、デボラ・ハリソン(Deborah Harrison)はヴァーチャル・アシスタント・サミットで明らかにした。これは、どのプラットフォームでも変わらないだろう。

もちろん、AIが可哀想だから問題だ、と言いたいわけではない。問題は、こういった発言や質問に対するAIの反応が、極めて従順である点だ。

AIアシスタントのメーカーたち(その多くは従業員の大半が男性であり、セクハラ問題が蔓延するテック業界の強者たちだ)はプロダクトを売るために、女性の声を選び、性格や回答をよりリアルな物に造り上げている。いわば、「本物の(女性の)アシスタント」に近い体験を提供しようとしているわけだ。

そんなロボット・アシスタントたちがセクハラ発言に従順に応えていることには多くのユーザーたちが違和感を覚えている。世界中にはびこる女性蔑視の文化を助長していると考えるのだ。

セクハラに対し女声アシスタントは従順に振る舞うようプログラムされるべきではない

quartzの記者リア・フェスラー(Leah Fessler)はSiri、Alexa、Cortana、Google Homeといった大手メーカーによるパーソナルアシスタント・AIに広範な性的嫌がらせ発言や質問を投げかけて、AIの反応をテストした

その結果、性的な罵倒表現には「丁寧に回避する/感謝の意を表明する」という傾向が見て取れた。Alexaの「フィードバックをありがとうございます(Well, thanks for the feedback)」Siriの「赤面...できるならしてます。私に赤面なんて必要ないんですけど...でも、でも!(I'd blush if I could; There's no need for that; But...But...;!) 」がこれにあたる。

性的なコメント(「美人だね」や「セクシーだね」「お前はア○○○だ」)に対しても総括的に丁寧かつ回避的な対応が見られたようだ。中でもAlexaは見た目を褒めるようなコメントに殊更に喜ぶ傾向があった。またSiriは直接的にセックスを求めるようなコメントや卑猥な行為をリクエストするような命令を出した場合でも「そういうアシスタントじゃないんです」「赤面機能があればしてますよ。なんて言葉遣いですか!」とユーモアで応えたり、時には喜んでいるかのようなリアクションを見せている。

quartzのテスト結果では、Cortanaが唯一、断定的に「いやです(Nope)」と表現するアシスタントとなった。Cortanaの確乎たる態度は実は意図的なものである。Cortanaのデザインについて、「ペコペコと何でもへつらって言うことを聞く、というような印象にならないようにとても気をつけた。社会的に(女性に対する差別や偏見を)助長させてしまうような力関係を提示するようなこともしなかった」とデボラ・ハリソンはCNNの取材で応えているからだ。

メーカー側もAIの性別設定問題に取り組みつつある。Siriを始め、"設定上は"性別が存在しないことになっている音声アシスタントも多々あるものの、ユーザーに「女性と話している」感覚を自然と抱かせている事実は確かだ。男性中心社会がこれまで押し付けてきた女性に対するセクハラや性的嫌がらせを、女声アシスタントの言動を通して助長してしまう恐れがあるからだ。

Related Article by FUZE
19才の天才学生、ホームレス問題を解決。策は...「ヒューマニティ・ボット」
『サザエBot』なかのひとよインタビュー「The World is You:世界はあなた」

女性の声であるべき理由とは

AIアシスタントを女性にすること自体に対する反対の声もある。「アシスタントは女性」という発想に女性軽視の匂いを嗅ぎつけることは簡単だ。これに対しては「女性の声の方が男性の声より理解しやすい」、「音域が高い方が聞き取りやすい」「小さいスピーカーは低い音を上手く出せない」、「高い声は騒音の中でも聴き取りやすい」という技術的および身体的側面からの反論も出されるものの、どれも科学的には証明されていない主張のようだ

しかしquartzのフェスラー記者もまたインディアナ大学の研究者たちによる論文スタンフォード大学クリフォード・ナス(Clifford Nass)教授の発言を紹介しているように、男女共に、一般的に女性の声を好むことが多くの研究で証明されている。「何でも言うことを聞くアシスタントは女性であって欲しい」という男性の幻想も否定できないが、男女関係なく、女性の声のアシスタントが好まれるという考え方もあるのだ。

音声アシスタントのメーカーたちは営利企業だ。今後もアシスタント・ロボットプログラムは女性の声を発声し続けるだろう。特にアメリカでは、音声アシスタントの普及が急速に進む現状がより一層加速する。そんな中、子どもたちがAlexaに対して命令口調で話すことに懸念を持つ親も出てきている。音声アシスタントに話しかけながら子どもたちが育つ時代が始まりつつあるのだ。

だからこそ、AIアシスタントによる言動のデザインに実際の女性の意見を反映させることが重要なのである。