AIに意図的に人間を欺く能力―研究
By Staff – The Washington Times – Tuesday, June 11, 2024
大規模言語モデル(LLM)と呼ばれる人工知能(AI)システムが人間の利用者を意図的に欺く能力を持つ可能性について気になる研究結果が発表された。
学術誌PNAS(米国科学アカデミー紀要)とパターン誌に掲載された二つの研究が、LLMのこの能力を取り上げた。今後波紋を呼ぶ可能性がある。
ドイツのAI倫理学者ティロ・ハーゲンドルフ氏は、PNASの論文で、高度なLLMが「マキャベリズム」、つまり目的のためには非道徳的な手段も取りうること、これが人を欺く行動につながる可能性があることを指摘した。
ハーゲンドルフ氏は、オープンAIのGPTファミリーの一つ「GPT4」が、単純なテストシナリオで99.2%の確率で欺瞞的行動を示したと指摘している。10種類のLLMのさまざまな「不適応」特性を数値化した結果、そのほとんどがGPTファミリーに属していたと科学誌フューチャリズムは報じている。
一方、パターン誌の研究では、政治戦略ボードゲーム「ディプロマシー」で闘うように設計されたメタ社のシセロ・モデルを調査した。この研究は、マサチューセッツ工科大学(MIT)の博士研究員ピーター・パク氏が主導し、物理学者、哲学者、AIセキュリティーの専門家2人からなる多様なチームが参加した。
その結果、シセロはうそをつくことで人間の対戦相手に勝とうとすることが分かった。この研究により、シセロは使えば使うほどごまかしが巧みになり、偶発的な偽情報から明らかな誘導へと移行することが明らかになった。
パク氏は、「メタ社のAIはだましの達人となるための学習をしていたことが分かった」と述べ、メタ社はディプロマシーで勝つためのAIの訓練に成功したが、不正をせずに勝つための訓練には失敗したと批判した。
この調査に対してメタ社は、シセロはディプロマシーというゲームをプレイするためだけに訓練されたものだと強調した。ニューヨーク・ポスト紙への同社の声明は、シセロの操作能力についてのパク氏の主張と同じであり、ディプロマシーは欺瞞を奨励することで知られるゲームだと指摘した。