第2次大戦で原爆開発の研究所、AIリスクを研究

(2024年4月16日)

オークリッジ国立研究所はテネシー州東部の丘陵地帯にある。(画像提供:オークリッジ国立研究所)

By Ryan Lovelace – The Washington Times – Tuesday, April 9, 2024

 第2次世界大戦中に原子爆弾の製造を支援したことで有名な政府の研究所で働く研究者は、現在、人類に対する新たな生存の脅威とされる人工知能(AI)に焦点を当てている。

 最初の原子爆弾を開発したマンハッタン計画は、80年以上前に東テネシー州の丘にオークリッジ国立研究所を誕生させた。現在、新しいAIモデルとツールの熱狂の中で、米政府のこの研究所は昨年、技術の将来性と危険性に焦点を当てるため、新たなAIセキュリティー研究センターを立ち上げた。

 センターの創設ディレクターであるエドモン・ベゴリ氏は、AIの人類に対する大きなリスクの可能性を調査しており、ワシントン・タイムズに9日、AIシステムの脅威について懸念していると語った。

 彼が思い描くAIの危険性は、ハリウッドの大ヒット作「ターミネーター」のスカイネットの例のように、人間に害を加えようとする意図的に悪意のある技術ツールではなく、ハッカーの「アタックサーフェス(攻撃対象領域)」を拡大し、簡単には遮断できない、あらゆる場所に接続されたAIシステムである。

 ベゴリ氏は防衛作家グループのイベントで、「(AIシステムは)遍在しているので、戻ってすべてから削除することはできない。そしてそれは人間を殺そうとしている大きなマインドのようなものではなく、非常に有能で仕事ができるモノであり、うまく機能しない場合には私たちを傷つける可能性がある」と語った。

 AIセキュリティー研究は、ベゴリ氏の研究室の壁を超えて盛んに行われている。

 人気の対話型AI「チャットGPT」のメーカー、オープンAIは昨年、AIが凶暴化し人類の絶滅を可能にするという懸念を調査するために独自のチームを結成した。7月、オープンAIは、調整を誤り人間が制御するには賢過ぎる潜在的な超知能AIシステムの危険性を警告した。

 過去6カ月間で、オープンAIは年間20億㌦の収益の大台を上回ったとされる。AIの危険性を研究するライバル企業アンスロピックは、2024年の年間収益を8億5000万㌦と予測していると伝えられている。

 オークリッジ国立研究所のウェブサイトによると、同研究所の核科学から高度なコンピューティングまですべてをカバーする研究のための年間総予算は約24億㌦だ。

 エネルギー省の下で運営されている研究所は、民間部門や学界の研究者とは異なるインセンティブを持っている。

 ベゴリ氏は9日、オープンAIとアンスロピックの研究を称賛したが、彼の脆弱(ぜいじゃく)性追求チームが生み出す価値は、他にはない研究領域の広さから生まれていると語った。

 ベゴリ氏は、民間企業が自社製品に影響を与える脅威に執着する一方で、自身の研究室は、より多岐にわたる危険に焦点を当てる権限を与えられていると述べた。彼の研究室は国土安全保障省と空軍研究所と提携している。

 ベゴリ氏は、「私たちは理解しようとしている。『私たちは本当に米国に被害を与え、人類を苦しめ得る方向に進んでいるのか』それが主な質問だ。私のストックオプションに損害を与えているというわけではないが」と語った。

 ベゴリ氏のチームはAIから国家安全保障に至るまでの脅威を調査している唯一の政府研究所ではない。国家安全保障局は昨年、国家安全保障コミュニティーが使用するAIツールの安全な設計を検証することを目標に、独自のAIセキュリティーセンターを設立した。

米新型砕氷船の建造計画に大幅な遅れ 北極圏で安全保障上のリスクに

(2024年12月20日)

中国ロケット軍、極超音速技術でミサイル戦力増強

(2024年12月15日)

中国、最新鋭ステルス戦闘機公開へ 盗み出した米技術を利用

(2024年11月10日)

中国、新型陸上攻撃ミサイル潜水艦を配備へ

(2024年11月05日)

中国・イラン、オープンAIのツール利用しサイバー攻撃

(2024年10月21日)

中国、認知戦に音響兵器 超低周波で敵の思考に影響も-米報告書

(2024年10月20日)

中国の核戦力、米国の予想を超える可能性-専門家が警告

(2024年10月12日)

中国、AI利用しソーシャルメディア影響工作を強化-ランド研究所報告

(2024年10月09日)

米軍、インド太平洋にドローンを大量投入へ 中国の攻撃を阻止

(2024年10月05日)

沈没の中国潜水艦は新型の核・通常ハイブリッド攻撃艦か

(2024年10月03日)
→その他のニュース