第2次大戦で原爆開発の研究所、AIリスクを研究
By Ryan Lovelace – The Washington Times – Tuesday, April 9, 2024
第2次世界大戦中に原子爆弾の製造を支援したことで有名な政府の研究所で働く研究者は、現在、人類に対する新たな生存の脅威とされる人工知能(AI)に焦点を当てている。
最初の原子爆弾を開発したマンハッタン計画は、80年以上前に東テネシー州の丘にオークリッジ国立研究所を誕生させた。現在、新しいAIモデルとツールの熱狂の中で、米政府のこの研究所は昨年、技術の将来性と危険性に焦点を当てるため、新たなAIセキュリティー研究センターを立ち上げた。
センターの創設ディレクターであるエドモン・ベゴリ氏は、AIの人類に対する大きなリスクの可能性を調査しており、ワシントン・タイムズに9日、AIシステムの脅威について懸念していると語った。
彼が思い描くAIの危険性は、ハリウッドの大ヒット作「ターミネーター」のスカイネットの例のように、人間に害を加えようとする意図的に悪意のある技術ツールではなく、ハッカーの「アタックサーフェス(攻撃対象領域)」を拡大し、簡単には遮断できない、あらゆる場所に接続されたAIシステムである。
ベゴリ氏は防衛作家グループのイベントで、「(AIシステムは)遍在しているので、戻ってすべてから削除することはできない。そしてそれは人間を殺そうとしている大きなマインドのようなものではなく、非常に有能で仕事ができるモノであり、うまく機能しない場合には私たちを傷つける可能性がある」と語った。
AIセキュリティー研究は、ベゴリ氏の研究室の壁を超えて盛んに行われている。
人気の対話型AI「チャットGPT」のメーカー、オープンAIは昨年、AIが凶暴化し人類の絶滅を可能にするという懸念を調査するために独自のチームを結成した。7月、オープンAIは、調整を誤り人間が制御するには賢過ぎる潜在的な超知能AIシステムの危険性を警告した。
過去6カ月間で、オープンAIは年間20億㌦の収益の大台を上回ったとされる。AIの危険性を研究するライバル企業アンスロピックは、2024年の年間収益を8億5000万㌦と予測していると伝えられている。
オークリッジ国立研究所のウェブサイトによると、同研究所の核科学から高度なコンピューティングまですべてをカバーする研究のための年間総予算は約24億㌦だ。
エネルギー省の下で運営されている研究所は、民間部門や学界の研究者とは異なるインセンティブを持っている。
ベゴリ氏は9日、オープンAIとアンスロピックの研究を称賛したが、彼の脆弱(ぜいじゃく)性追求チームが生み出す価値は、他にはない研究領域の広さから生まれていると語った。
ベゴリ氏は、民間企業が自社製品に影響を与える脅威に執着する一方で、自身の研究室は、より多岐にわたる危険に焦点を当てる権限を与えられていると述べた。彼の研究室は国土安全保障省と空軍研究所と提携している。
ベゴリ氏は、「私たちは理解しようとしている。『私たちは本当に米国に被害を与え、人類を苦しめ得る方向に進んでいるのか』それが主な質問だ。私のストックオプションに損害を与えているというわけではないが」と語った。
ベゴリ氏のチームはAIから国家安全保障に至るまでの脅威を調査している唯一の政府研究所ではない。国家安全保障局は昨年、国家安全保障コミュニティーが使用するAIツールの安全な設計を検証することを目標に、独自のAIセキュリティーセンターを設立した。