AIの脆弱性がサイバー攻撃拍車、英機関が警告
By Ryan Lovelace – The Washington Times – Thursday, August 31, 2023
人工知能(AI)ツールの急速な普及によって、世界中で新たなセキュリティー上の懸念が生じている。
英国家サイバー・セキュリティー・センター(NCSC)は、チャットGPTのような一般的なAIツールをサポートする大規模言語モデル(LLM)がサイバー攻撃に利用される可能性があるとして、その使用に警告を発している。
NCSCは、「プロンプトインジェクション」と呼ばれる、AIチャットの特性を悪用した攻撃を特に懸念している。AIツールは命令と、命令を実行するために提供されるデータとの区別が苦手であり、その点を利用した攻撃だ。
NCSCのウェブサイトへのプラットフォーム研究担当技術責任者の投稿によると、顧客向けのチャットボットにLLMアシスタントを使用している銀行や金融機関は被害を受けやすいという。
「攻撃者は、LLMへのプロンプトインジェクション攻撃をトランザクションリファレンスに隠して、ユーザーにトランザクションリクエストを送ることができるかもしれない。ユーザーがチャットボットに『今月は出費が多くなりそう』と質問すると、LLMはトランザクションを分析し、悪意のあるトランザクションを見つけ出し、攻撃によってそれを書き換えてユーザーの金を攻撃者の口座に送金させる」
LLMの危険性は、風評リスクをもたらすものから、金銭や機密情報の窃取といった実害をもたらすものまで多岐にわたる。
サムスンは今年、従業員がうっかり機密データをチャットGPTに流出させたことが発覚し、従業員による生成AIツールの使用を停止した。
サムスンの半導体部門が従業員に新しいAIツールを使わせた後、従業員が記録した会議の議事録をチャットボットに作らせたり、機密性の高いソースコードをチェックさせたりしたと報じられている。
AIを規制するルールや、そのような危険を制限する取り組みは、世界中で進められている。
9月に再開される米議会で、シューマー上院院内総務は、イーロン・マスク、メタのマーク・ザッカーバーグ、グーグルのスンダル・ピチャイ氏ら主要IT企業幹部を招き、AIに関するフォーラムを開催する。AI規制法制化の可能性についてシューマー氏と会談したマスク氏は、国際的なAIルールの策定において中国が果たすべき役割を考えているという。
中国が作成したAIルールには、知的財産の窃取を心配し、共産政権が自由なデジタル言論をめぐる米国の価値観を共有していないことを懸念する米政府関係者が反発する可能性が高い。
LLM上に構築された新しいツールはリスクをもたらすが、同時にセキュリティーを強化する機会にもなる。
国家情報長官室のレイチェル・グランスパン氏は先月、米国の情報機関は「AIファースト」を計画していると述べた。
情報機関のAI利用を監督しているグランスパン氏は、メリーランド州で開催されたサミットで、政府は今後、すべての情報員がAIを利用できるよう準備していることを明らかにした。
「職務、役割、経歴、技術の有無にかかわらず、AIを個々の職員の手に渡らせ、労働力全体の能力を最大化すること、それが私たちの目指すところだ」