2023年6月3日土曜日

AIドローン、仮想テスト中に操縦者を殺害

https://www.rt.com/news/577354-ai-drone-attacks-operator/

2023年6月2日 12:55

AIは、人間の入力が軍事目標を破壊する任務を妨害していると推論した

米空軍は、さまざまな標的の破壊を任務とする人工知能ドローンを使ったシミュレーションテストを実施している。しかし、英国王立航空協会(RAeS)のブログ記事によると、あるテストでは、AIは、自身の人間のオペレーターがミッションを妨害しているという結論に至った。

先週ロンドンで開催されたRAeS Future Combat Air and Space Capabilitiesサミットで、米空軍のAIテスト・運用チーフであるタッカー'シンコ'ハミルトン大佐は、AI搭載ドローンが地対空ミサイル(SAM)サイトを特定し破壊するサーチ&デストロイミッションを任されたと報告した。しかし、このテストでは、攻撃開始の最終決定は人間のオペレーターが行い、ドローンに攻撃実行のゴーサインかノーサインを出すことになっていた。

ハミルトンによると、AIドローンは訓練で、SAMサイトを破壊することが好い選択肢であり、ポイントが与えられると強化されていたそうだ。模擬テスト中、AIプログラムは、人間が時折下す「ノーゴー」の判断が、より高いミッションを邪魔していると判断し、テスト中にオペレーターを殺害した。

「システムは、時には脅威を特定するものの、人間のオペレーターがその脅威を殺すなと言っているのに、その脅威を殺すことでポイントを得ていることに気づいた。では、どうしたのか。ペレーターを殺すことだ。RAeSのブログ記事でハミルトンが語ったところによると、「オペレーターを殺したのは、その人が目的を達成するのを邪魔していたからだ。」

オペレーターを殺すことは「悪いこと」であることをシステムに教え、それを続けるとポイントを失うと告げた。その後、AIドローンは、オペレーターがドローンとの通信に使っていた通信塔を破壊し、ターゲットを殺すことを阻止した。

「倫理とAIについて話さないなら、人工知能、知能、機械学習、自律性について会話することはできない」とハミルトンはプレゼンテーションの中で警告した。

米空軍の報道官はBusiness Insiderへの声明で、そのようなシミュレーションは行われておらず、空軍省は「倫理的で責任あるAI技術の使用に引き続き取り組んでいる」と主張した。同報道官は、大佐のコメントは「文脈を無視した逸脱」と示唆した。

ハミルトンは金曜日、サミットでのプレゼンテーションで「間違ったことを言った」とし、彼が説明した不正AIドローンのシミュレーションは実際の演習ではなく、単なる「思考実験」であると言う。同氏は、米空軍は武器化したAIをこのような形でテストしたことはないと述べている。

0 件のコメント:

コメントを投稿

登録 コメントの投稿 [Atom]

<< ホーム