生成AIに悪用リスク 国防総省が指摘
By Ryan Lovelace – The Washington Times – Friday, November 3, 2023
国防総省の当局者によれば、強力な人工知能(AI)モデルは、一般に考えられているよりも悪用されやすく、軍に生成AIツールを本格的に取り入れる用意は今のところない。
国防高等研究計画局(DARPA)で、セキュリティー上の制約を破り、大規模言語モデル(LLM)と呼ばれる複雑なアルゴリズムを調査した結果、ここから派生した技術に危険性があることが明らかになったという。DARPAのプログラムの責任者、アルバロ・バレスケス氏が明らかにした。
バレスケス氏はハロウィーンに開催された全米国防産業協会のシンポジウムで、このようなモデルは「防御よりも攻撃に使う方がずっと簡単だ」と述べ、国防総省のAI研究を巡る新たな見方を明らかにした。
「DARPAで私が管理しているプログラムの一つで進めている研究で、これらのLLMの安全対策を完全に回避できることが分かった。私たちは実際にチャットGPTに、爆弾の作り方など、教えてはいけないあらゆるよくないことを教えてもらった。数学的な原則に基づいて実施した」
ベラスケス氏は昨年、AI研究のためにDARPAに加わった。DARPAのウェブサイトによれば、「欺瞞のリバースエンジニアリング」と呼ばれる機械学習技術に焦点を当てたプログラムを含め、AIモデルやツールを精査するプログラムを管理している。
AIは、科学と工学の一つの分野であり、高度なコンピューティングと統計分析を使って、複雑な推論を必要とするタスクを機械が完了できるようになっている。
生成AIツールは人間が書いたようなテキストを作成することができ、その人気はここ1年で急速に高まった。チャットGPTはそのうちの一つであり、問題を解決したり、ユーザーのリクエストに応じてコンテンツを生成することができる。
キャスリーン・ヒックス国防副長官によれば、国防総省の生成AIの研究は、チャットGPTが市場に登場する以前から行われていた。
ヒックス氏は2日、記者団に対し、国防総省のいくつかの組織が独自のAIモデルを作成し、人の監督下で実験を行っていることを明らかにした。
「LLMによって実現される市販のシステムのほとんどは、責任ある運用に必要な私たちのAI倫理基準に準拠できるほど技術的に成熟していない。しかし、私たちは、そのような生成AIツールが、ソフトウエアのデバグと開発の迅速化、戦闘被害評価の分析の迅速化、オープンソースと機密データセットの両方からテキストを要約し、検証可能にするなどの180以上の事例で、能力を発揮できることを発見した」
国防総省は2日、AIを採用するための正式な戦略を発表。米国の競争相手は、AIを戦争に使用できるようになれば、先進的なAI技術を獲得し続けるだろうと指摘した。
この戦略によると、国防総省は、適用される法律に従いつつ、外国の盗用や搾取から米国の優位性を守れるよう、新たな技術を開発するという。
ヒックス氏は記者団に対し、中国とAIの優位性や技術的優位性をめぐって争うようなことは望んでいないと述べた。
「米国は、中国を含むいかなる国ともAI軍拡競争は望んでいない。それは現在、中国との紛争を望んでいないのと同じだ。AIと私たちが持つすべての能力を生かして、侵略を抑止し、わが国、同盟国、パートナー国、私たちの利益を守ることだけを追求する」