AlexaやSiriなどのスマートスピーカーAIがジェンダーバイアスをどのように強化するか
ユネスコは、テクノロジー企業に、性別に依存しないバージョンの音声アシスタントを提供するよう要請しています

AppleのHomePodはSiri音声アシスタントを搭載しています
ジャスティンサリバン/ゲッティイメージズ
国連の新しい報告によると、女性のように聞こえる人工知能(AI)音声アシスタントを搭載したスマートスピーカーは、性別の偏見を強めています。
ユネスコ(国連教育科学文化機関)の調査によると、AmazonのAlexaやAppleのSiriなどのAIアシスタントは、女性は従順であり、貧弱な扱いに寛容であるべきだという考えを永続させています。 デイリーテレグラフ レポート。
性的なコメントに続いてシリが発したフレーズに関連して、私はできれば赤面すると呼ばれるレポートは、デフォルトで音声アシスタントを女性にするハイテク企業は、女性はタッチで利用できる従順なヘルパーであることを示唆していると述べていますボタンの、新聞は付け加えます。
エージェンシーはまた、テクノロジー企業が敵対的、虐待的、性別の言葉に対する適切な保護手段を構築できなかったと非難している、と報告している ザ・ヴァージ 。
代わりに、ほとんどのAIは、巧妙なジョークで攻撃的なコメントに応答します、と技術ニュースサイトは述べています。たとえば、サンドイッチを作るように頼まれた場合、Siriは次のように言います。調味料はありません。
圧倒的に男性のエンジニアリングチームが配置されているアップルやアマゾンのような企業は、女性化されたデジタルアシスタントが言葉による虐待をキャッチミーイフユーキャンの浮気で迎えるAIシステムを構築しているとユネスコの報告書は述べています。
他の研究は何を発見しましたか?
ユネスコの報告書は、米国に本拠を置く技術会社Robin Labsによる調査を含む多くの調査を引用しており、音声アシスタントとのやり取りの少なくとも5%が明確に性的に露骨であると示唆しています。
また、デジタルアシスタントを開発している同社は、性的なものを暗示する音声の検出が困難なため、この数字ははるかに高くなる可能性が高いと考えています。 保護者 レポート。
国連機関はまた、調査会社Gartnerによる調査を指摘しています。この調査では、2020年までにスマートスピーカーの音声アシスタントとの会話が配偶者よりも増えると予測されています。
音声アシスタントは、曲の再生から救急隊への連絡まで、月に推定10億のタスクをすでに管理しています。
一部のシステムでは、ユーザーが音声アシスタントの性別を変更できますが、大多数はデフォルトで明らかに女性の音声をアクティブにします。 BBC レポート。
ユネスコの報告書は、この明らかな性差別は緊急の注意を必要とすると結論付けています。
ハイテク企業はどのようにこの問題に取り組むことができますか?
ユネスコは、企業は音声アシスタントが人と対話するときに人間ではないことを発表するように要求されるべきであると主張している、と報告している サンデータイムズ 。
エージェンシーはまた、ユーザーが新しいデバイスを入手したときに音声アシスタントの性別を選択する機会を与えられるべきであり、性別に中立なオプションが利用可能であるべきだと新聞は付け加えています。
さらに、ハイテク企業は、言葉による虐待やセクハラを「いいえ」や「不適切」などの返答で非難するように音声アシスタントをプログラムする必要があるとユネスコは述べています。
ハイテク企業はまだ調査に回答していません。