AIによる「人類滅亡」阻止へチームーオープンAI
By Ryan Lovelace – The Washington Times – Friday, July 7, 2023
米振興IT企業オープンAIは、成長を続ける人工知能(AI)技術が暴走し、人類滅亡に拍車をかけることを防ぐためのチームを編成する。
人気の対話型AI「チャットGPT」を手掛けるオープンAIは、AIは、世界のさまざまな課題の解決に役立つ新たなスーパーインテリジェンス(超知能、人間の能力を超えた人工知能)を生み出し、人類が発明した中で最も重要な技術になると主張している。
ところが、オープンAIのイリア・サツキバー氏とヤン・ライカ氏は、人類は人間よりも賢い技術をうまく扱う準備ができていないと警告した。
サツキバー、ライカ両氏はオープンAIのブログで、「超知能が持つ巨大な力は非常に危険でもあり、人類を無力化し、あるいは人類を絶滅させる可能性さえある。まだ先のことのように思えるが、私たちはこの10年で現実にものになると考えている」と述べた。
AIによる「世界の終わり」がすぐそこまで来ているとしても、OpenAIの優秀な技術者らにも、それを止めるプランはないという。
両氏によると「今のところ、人間を超える可能性のあるAIを操り、制御し、暴走を防ぐための解決策は持っていない。人間によるフィードバックからの強化学習など、AIを調整するための私たちの現在の技術は、AIを管理する人間の能力に依存している。しかし、人間は私たちよりはるかに賢いAIシステムを確実に管理することはできない」。
オープンAIの共同設立者であり主任科学者のサツキバー氏と、調整責任者であるライカ氏は、超知能の技術的課題を解決することで世界の終わりを回避するために、研究者と技術者からなる新しいチームを結成すると述べた。チームには4年の期間が与えられている。
人類が終わるかもしれないというのは愉快な話ではないが、オープンAIの幹部らは、技術者らが問題を解決してくれることに期待しているという。
サツキバー、ライカ両氏は、「これはかなり野心的な目標であり、成功する保証はないが、力を結集し、協力し合うことでこの問題を解決できると考えている。予備実験では有望なアイデアがたくさんあり、さらに進展につながる有用な指標も増えてきている。現在のモデルを使ってこれらの問題の多くを研究し、実証していくことができる」と述べた。
両氏は、研究の成果を広く共有するつもりだと述べている。オープンAIは研究者、技術者、科学者、管理職を募集しており、オタクの新しいおもちゃが人類を奴隷にしたり、抹殺したりするのを阻止したいとしている。
政界でも、AIの危険性に頭を悩ませている。チャールズ・シューマー上院院内総務(民主、ニューヨーク州)は、この技術を管理するための新たなルールを求めており、上院司法委員会ではAIの監視に関する公聴会が集中的に行われている。
同委員会では、AIがサイバー攻撃や政治的不安定化、大量破壊兵器の配備を可能にするのではないかという懸念についての調査も行われている。
オープンAIのCEO、サム・アルトマン氏は、5月に上院司法委員会のプライバシー・テクノロジー・法律小委員会で証言した際、規制を設けるよう要請。AIツールが人々を操作するために悪用される可能性について懸念を抱いていると述べた。
リチャード・ダービン上院司法委員長は、AIツールが危害を加えた場合に備え、連邦と州の民事責任の可能性を含む「AIの説明責任制度」の創設に関心を示している。
オープンAIの支援者であるグーグルやマイクロソフトなどの大手IT企業も、AIに対する新たな規制を求めており、連邦政府はこれに耳を傾けている。
バイデン政権は、AI国家戦略の策定を急いでおり、ホワイトハウスの科学技術政策室が「社会全体」からのアプローチとしてこの問題に取り組んでいる。
ホワイトハウスの高官が6月に明らかにしたところによると、ホワイトハウスでAIに関する会合が週に何度も行われており、ホワイトハウスの首席補佐官室は、バイデン大統領がAIに関して次にどのような措置を取るべきかに関して協議を進めている。
オープンAIは6日、「最も有能な」AIモデル「GPT4」を一般に公開し、開発者が利用しやすくすると発表した。