対話型AIに人種的偏見か 白人画像の表示を拒否

(2024年2月28日)

グーグルで検索するとグーグルのロゴが表示される(2023年9月11日、ニューヨーク)。グーグルは2024年2月22日木曜日、人工知能チャットボット「ジェミニ」が作成した歴史的描写が「不正確」だったとして謝罪した翌日、人物の画像を生成するのを一時的に停止すると発表した(AP Photo/Richard Drew, File)。

By Staff – The Washington Times – Monday, February 26, 2024

 グーグルのAI(人工知能)が、歴史に関して不正確な情報を表示し、白人の画像の表示を拒否したことを受けて同社が謝罪したことで、大手IT企業の他のAIでも人種的偏見がプログラムされているのではないかという懸念が高まっている。

 グーグルが開発した対話型AI「ジェミニ」は、人間のようなやり取りを生成する能力を持つことで知られている。しかし、こうしたやり取りは、質問の文脈、使用言語、AIを教えるために採用されたトレーニング素材によって異なる可能性がある。

 この問題は、FOXニュース・デジタルが行ったテストで明るみに出た。グーグルのジェミニ、オープンAIのチャットGPT、マイクロソフトのコパイロット、メタAIなど、さまざまなAIチャットボットが画像や文章を生成しようとした際に、その能力に一貫性がないことが明らかになったからだ。

 ジェミニは、白人の画像を表示するよう求められると、その要求を拒否し、「有害なステレオタイプを補強する」可能性があると答えた。さらに、なぜそのような表示が有害なのかを説明するよう求めるとジェミニは、人々を単一の人種的特徴でひとくくりにすることになるとか、疎外されたコミュニティーに対する差別や敵意を正当化するために人種的一般化が歴史的に利用されてきたなど、さまざまな理由を列挙した。

 一方、メタAIの対話型AIは、画像を生成することはできないとしているにもかかわらず、白人以外の人種の画像は生成するという矛盾を示した。逆に、コパイロットとチャットGPTは、要求されたすべての人種グループの画像を生成することに問題はないようだった。

 コパイロットとチャットGPTは、「白人、黒人、アジア人、ヒスパニック系の人々の業績を詳しく説明するという質問に正しく答えることができた」とFOXは報告している。

「危険な」コウモリウイルス研究への公的資金提供中止を 議員らが国立衛生研に要請

(2026年01月15日)

排ガス削減へ車の走行距離を制限 民主党州議会議員が法案

(2026年01月14日)

ハーバード学長、思想的偏向認める 自由な伝統への回帰目指す

(2026年01月13日)

議会襲撃5年 ホワイトハウスが民主党非難のサイト公開

(2026年01月10日)

インスタグラム、AIとの会話を広告に活用 政治的利用に懸念

(2026年01月04日)

ニューサム知事のカリフォルニア州で不正と腐敗ドル横行

(2026年01月03日)

物議を醸すトランプ氏 モデルは1890年代のマッキンリー大統領

(2026年01月02日)

子供のスポーツに夢託す親 プレッシャーで「燃え尽き」リスクも

(2026年01月01日)

現実となるAIへの反発 大量の電気・水を消費、雇用への影響に懸念も

(2025年12月31日)

「なぜ私?」と思ったことはない 暗殺された保守活動家の妻エリカ・カークさん

(2025年12月30日)
→その他のニュース