第2次大戦で原爆開発の研究所、AIリスクを研究

(2024年4月16日)

オークリッジ国立研究所はテネシー州東部の丘陵地帯にある。(画像提供:オークリッジ国立研究所)

By Ryan Lovelace – The Washington Times – Tuesday, April 9, 2024

 第2次世界大戦中に原子爆弾の製造を支援したことで有名な政府の研究所で働く研究者は、現在、人類に対する新たな生存の脅威とされる人工知能(AI)に焦点を当てている。

 最初の原子爆弾を開発したマンハッタン計画は、80年以上前に東テネシー州の丘にオークリッジ国立研究所を誕生させた。現在、新しいAIモデルとツールの熱狂の中で、米政府のこの研究所は昨年、技術の将来性と危険性に焦点を当てるため、新たなAIセキュリティー研究センターを立ち上げた。

 センターの創設ディレクターであるエドモン・ベゴリ氏は、AIの人類に対する大きなリスクの可能性を調査しており、ワシントン・タイムズに9日、AIシステムの脅威について懸念していると語った。

 彼が思い描くAIの危険性は、ハリウッドの大ヒット作「ターミネーター」のスカイネットの例のように、人間に害を加えようとする意図的に悪意のある技術ツールではなく、ハッカーの「アタックサーフェス(攻撃対象領域)」を拡大し、簡単には遮断できない、あらゆる場所に接続されたAIシステムである。

 ベゴリ氏は防衛作家グループのイベントで、「(AIシステムは)遍在しているので、戻ってすべてから削除することはできない。そしてそれは人間を殺そうとしている大きなマインドのようなものではなく、非常に有能で仕事ができるモノであり、うまく機能しない場合には私たちを傷つける可能性がある」と語った。

 AIセキュリティー研究は、ベゴリ氏の研究室の壁を超えて盛んに行われている。

 人気の対話型AI「チャットGPT」のメーカー、オープンAIは昨年、AIが凶暴化し人類の絶滅を可能にするという懸念を調査するために独自のチームを結成した。7月、オープンAIは、調整を誤り人間が制御するには賢過ぎる潜在的な超知能AIシステムの危険性を警告した。

 過去6カ月間で、オープンAIは年間20億㌦の収益の大台を上回ったとされる。AIの危険性を研究するライバル企業アンスロピックは、2024年の年間収益を8億5000万㌦と予測していると伝えられている。

 オークリッジ国立研究所のウェブサイトによると、同研究所の核科学から高度なコンピューティングまですべてをカバーする研究のための年間総予算は約24億㌦だ。

 エネルギー省の下で運営されている研究所は、民間部門や学界の研究者とは異なるインセンティブを持っている。

 ベゴリ氏は9日、オープンAIとアンスロピックの研究を称賛したが、彼の脆弱(ぜいじゃく)性追求チームが生み出す価値は、他にはない研究領域の広さから生まれていると語った。

 ベゴリ氏は、民間企業が自社製品に影響を与える脅威に執着する一方で、自身の研究室は、より多岐にわたる危険に焦点を当てる権限を与えられていると述べた。彼の研究室は国土安全保障省と空軍研究所と提携している。

 ベゴリ氏は、「私たちは理解しようとしている。『私たちは本当に米国に被害を与え、人類を苦しめ得る方向に進んでいるのか』それが主な質問だ。私のストックオプションに損害を与えているというわけではないが」と語った。

 ベゴリ氏のチームはAIから国家安全保障に至るまでの脅威を調査している唯一の政府研究所ではない。国家安全保障局は昨年、国家安全保障コミュニティーが使用するAIツールの安全な設計を検証することを目標に、独自のAIセキュリティーセンターを設立した。

中国軍が海洋毒を研究、生物兵器に転用か

(2024年04月27日)

米軍、フィリピンに新型長距離ミサイル配備 中国の主要都市射程に

(2024年04月21日)

米情報機関、敵国の量子コンピューター開発を懸念

(2024年03月28日)

最高裁、政府によるソーシャルメディアへの干渉を容認か

(2024年03月24日)

米中が共有する生成AIへの懸念

(2024年03月23日)

中国経済低迷で戦争の危険性高まる 米情報長官が警告

(2024年03月14日)

中国の「人の心を読む」技術開発に警鐘

(2024年03月11日)

米国の技術がロシアの戦争遂行能力を後押し

(2024年03月09日)

中国、新世代の移動式ICBMを開発中-米戦略軍司令官

(2024年03月08日)

中国、民間と協力し生物兵器開発 危険な病原体研究を継続

(2024年03月01日)
→その他のニュース