AIチャットボットには政治的な偏見があることが研究で明らかになる

By Decrypt – 2023/08/09 10:14:48 (JST)

最近の研究論文によると、OpenAIのChatGPTやGPT-4を含む人気のあるAIチャットボットには、明確な政治的な偏見があることが判明しました。この研究では、14の大規模な言語モデルを調査し、政治的な主張に同意するかどうかを尋ねることで、それぞれのチャットボットの意見を政治的なコンパス上にプロットすることができました。OpenAIのGPTチャットボットは、リベラルなインターネットのテキストに基づいて訓練されており、より進歩的であることがわかりました。一方、GoogleのBERTモデルはより社会的に保守的でした。これらの偏見は、モデルがヘイトスピーチや誤情報をどのように分類するかにも影響を与えました。左派志向のAIはマイノリティに対するヘイトに敏感であり、右派志向のAIは左派が生成した誤情報を無視しました。

研究者たちは、事前学習済みの言語モデルには既存の極端化を強化し、社会的な偏見を広める政治的な傾向があると結論付けました。これらの偏見は、モデルの訓練に使用されるコーパスに影響を受けます。OpenAIは、ChatGPTを政治的に正しいように単純化したとの批判に直面していますが、同社は中立であると主張しています。一方、イーロン・マスクはxAIを使った自身のフィルターのないAIを追求し、透明性のある真実を伝えるAIを目指しています。党派的なAIがますます広まる中、その偏見に気をつけることが重要です。AIは政治的な違いと共に進化し続けるためです。

※これは引用元記事をもとにAIが書いた要約です (画像の権利は引用元記事に記載のクレジットに帰属します)

(β版: 記事が長い場合は動かない可能性があります)

類似記事

Share on: