2024年4月5日金曜日

イスラエル、ガザの標的選定にAIを使用

https://www.rt.com/news/595425-israel-ai-targeting-civilians/

2024年4月4日16:54

このプログラムはハマスの工作員を摘発するためのものだが、イスラエル軍の情報筋によれば、罪のない人々を死に追いやることもしばしばある。

イスラエル・パレスチナの『+972』誌が水曜日に報じたところによると、イスラエル軍は人工知能を使って、人間の監視や民間人の犠牲を考慮することなく、パレスチナの過激派と思われる人物を暗殺の対象としている。

Lavenderとして知られるこのAIシステムは、ガザフの200万人の住民の個人データを調べ上げ、ハマスとパレスチナ・イスラム聖戦(PIJ)の軍事部門に所属している疑いのある人物のリストを作成する、と6人のイスラエル諜報部員が同誌に語った。

イスラエル国防軍は、このシステムの存在を公に認めたことはないが、ガザでの過去の作戦で同様のソフトウェアを使用していたことは知られている。

イスラエルがハマスとの戦争を始めた当初、ラベンダーは3万7000人のパレスチナ人を過激派としてマークし、殺害リストに載せていた。イスラエル国防軍(IDF)の隊員は当初、このリストに目を通し、一人一人の名前を手作業で検証していた。やがて人間は機械のリストのゴム印の役割だけを果たすようになった。

「この段階で、1つのターゲットに20秒を費やし、毎日何十本もこなしていた。私は承認印を押す以外、人間としての付加価値はゼロだった。時間の節約になった。」

ラベンダーの仕組みは、既知のパレスチナ過激派の電話記録、ソーシャル・メディアでの活動、写真、動きを調査し、共通する特徴を特定し、ガザのより広い人口からその特徴を検索する。このシステムは、各ガザ人に0から100までのスコアを与え、100に近いランクの者はテロリストであり、合法的な標的とみなされる。 

戦争が始まって数週間も経たないうちに、IDFの司令官たちはこの選択基準を緩和し、ハマスとの関連がほとんどない標的への攻撃を承認するよう部下に指示した。

「どんな代償を払っても、ハマスに手を出さなければならない。できることは何でも、どれでも爆撃する。」

いったん暗殺のマークが付けば、低レベルの標的は、ゴスペルフと呼ばれる別のAIシステムを使って特定された自宅で、無誘導爆弾で排除される。

「午前5時になると、(空軍が)やってきて、マークした家々を爆撃した。私たちは何千人もの人々を殺した。マークした人物のひとりが家にいると、すぐに標的になった。我々は彼と彼の家を爆撃した。」

ある情報筋によると、ラベンダーは重要度に応じて標的をランク付けしており、優先順位の低い警察官や公務員など、ハマス政権に貢献する人物の名前を挙げることが多いが、実際に(イスラエルの)兵士を危険にさらすことはないという。

容疑者が選ばれ、暗殺命令が下されると、IDFの指揮官は標的を排除するために何人の民間人の犠牲を許容できるかを決める。情報筋によると、この数字は時間とともに上下し、戦争当初は無関係の民間人20人が犠牲になってもよいとされ、ハマス高官への攻撃では最大100人が問題なしとされた。 

国際法上、ハマスの兵士であれば誰でも殺すことができ、合法的である。しかし、彼らは直接あなたに言う。「多くの民間人も一緒に殺すことが許されている。」

ガザフ保健省が発表した最新の数字によると、イスラエル軍は飛び地での約半年間の戦闘で33,000人以上を殺害した。そのほとんどが女性と子どもである。972マガジンの主張に対して、イスラエル国防軍は水曜日に、「テロリストの工作員を特定したり、人がテロリストであるかどうかを予測しようとする人工知能システムは使用していない。」と述べ、「自宅にいる何万人もの人々を殺害するいかなる政策に関しても、その主張を真っ向から否定する。」と述べた。

0 件のコメント:

コメントを投稿

登録 コメントの投稿 [Atom]

<< ホーム