イランとイスラエルが史上初の直接攻撃をし合って、中東情勢も今までとは違う次元に来た感がある。
あれ?直接攻撃ってホントに史上初なのかな?
ペルシア帝国(イラン)がオリエント統一を果たした時って今のイスラエルも帝国領に組み込まれてなかったっけ?と改めて調べてみたら…
ペルシア帝国と古代イスラエルは敵の関係どころか、イスラエルにとってイランは恩人じゃん。
すでにバビロニア王国(イラク)に滅ぼされてバビロンに強制連行されていたユダヤ人たち。そのバビロニアを滅ぼしてユダヤ人たちのエルサレムへの帰還と神殿の再建を許してあげたペルシア帝国。
2560年前のご恩を今っ!!みたいな雰囲気はゼロで、今はミサイルを撃ち合う仲。
当時だったら槍を持って相手の領土まで何カ月もかけて歩いて行かなきゃいけないのに、今や無人機で数時間、ミサイルで数分あれば相手を攻撃できちゃうもんな。
槍で戦ってたあの頃が懐かしいな~と感傷に浸りながら、現実に引き戻される記事を読んだ。
ペルシア帝国まで出しておきながら今回はイランではなく、ガザについて。
+972マガジンというイスラエルの進歩系メディアに掲載された興味深い記事だ。
‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza日本語にすると「『ラベンダー』イスラエルによるガザ空爆を指示するAIマシン」ってとこか。翻訳ソフトを使ってでも読んでみる価値はあるかと。
イスラエル軍は人口知能を使った標的判断システム『ラベンダー』を使用してガザを攻撃しているというお話。
『ラベンダー』は、ハマースとイスラーム聖戦の軍事部門に所属するすべての戦闘員(大物に限らずザコレベルも)を殺害標的として判別するように設計された人工知能システム。
『ラベンダー』は、ガザ地区内の大量の監視システムを使った情報を分析して住民のほぼ全員を1から100の数値で戦闘員である可能性を評価。イスラエルが既に把握している戦闘員の特徴を学習し、似たような特性をもつ人は数値が上がり殺害の標的になる可能性が高まる。
既知の戦闘員と同姓同名とか、たまたまニックネームが同じだったり、買った携帯番号が実は以前にハマース戦闘員が使っていた番号だったりすると戦闘員度の数値は上がる。
戦争の最初の数週間は、イスラエル軍は『ラベンダー』にほぼ完全に依存した空爆をおこなっており、AIマシンの出力(標的の選別)を人間の決定であるかのように処理していた。
ハマース戦闘員の殺害作戦に従来のようないくつもの承認プロセスを経る時間がなくなったので、AIでオート化したと。
『ラベンダー』は約10%の割合で、ハマースやイスラーム聖戦とほとんど関係がないとか全く関係ない人を標的にしてしまう“エラー”を起こすが、人間の担当者は『ラベンダー』が選んだ標的の性別が男かどうかを確認するために20秒ほどの時間を割くだけだった。
さらに、標的になった個人を、軍事行動の最中ではなく自宅にいる間(通常は夜間、家族全員がいる間)に攻撃することに。これは諜報活動の観点から、自宅の方が標的の居場所を特定しやすかったから。『Where’s Daddy?(パパはどこ?)』と呼ばれる追加の自動化システムは、標的となった人を追跡し、標的が家族の待つ自宅に入ったときを狙って爆撃を実行するために使われた。
『ラベンダー』が出力した標的を殺害するために無誘導爆弾が多く使用されたが、これは命中精度が高い誘導爆弾(スマート爆弾)は高価でムダにしたくないから。北部でヒズボラとの本格的な戦闘になった時のためにスマート爆弾は節約。
無誘導爆弾を使った結果、付随的な被害として全然関係のない人や標的の家族など多数の被害者が出たが、イスラエル軍は『ラベンダー』が出力した標的1人に対して15~20人の巻き添え被害者が出ることは許容していた。標的がハイランクの司令官だった場合は巻き添え被害の許容範囲も広がり、“寛大”な数(数百人)の付随的被害が許容された。
要はビルごと吹き飛ばしちゃえ、と。
『ラベンダー』は37,000人のパレスチナ人をハマースの戦闘員として殺害リストに載せた。
この記事を読みながら、以前に読んだ理論物理学者アルバート・ラズロ・バラバシの著書『バースト!人間行動を支配するパターン』を思い出した。
複雑ネットワーク理論の話なんだけど、人間の行動の大部分は一定の法則、パターン、メカニズムによって起こされていて、人が次に何をするかはけっこう予測できるよ!って本。
将来予測という点では全然違うけど…
『ラベンダー』も、きっと「こんな奴がハマース戦闘員だ!」アルゴリズムを実装した人工知能で、収集されたガザ市民の行動データを分析して、「こいつはハマース戦闘員くさい!」と“統計的に判断”しているのだろう。
たまたま自分の行動が、「こんな奴がハマース戦闘員だ!」アルゴリズムで定義されている一定の法則、パターン、メカニズムと近似しちゃったら「こいつ、ハマース戦闘員度70、抹殺!」とAIが判断して家ごと家族もろとも爆撃されると。
ハマース戦闘員度1~100までの間のどれくらいの値だったら殺害リストに載るのかは知らないけど。
『バースト!人間行動を支配するパターン』を読んで、オレは予測できない(されない)統計的に外れ値な漢になりたい!と思ったのだが、人工知能『ラベンダー』を相手にするガザ市民にとっては統計的に外れ値な人間であることがすなわち生死を分ける(殺害リストに載らない)んじゃねーかと。
ただ、ガザの場合はイスラエル軍のゆるゆるな“付随的被害の許容範囲”のせいで、巻き添えで亡くなってるガザ市民の方が多いんだけど。
ハマース戦闘員(くさい)奴1人に、関係ない人15~20人の巻き添えはOKとか…もはや外れ値どうこう関係ないな。
運だけ。
コメント
この様な書込大変失礼致します。日本も当事国となる台湾有事を前に 日本の国防を妨げる国内の反日の危険性が共有される事を願い書込ませて頂きます。
今や報道は無法国の代弁者となり、日本の国益は悪に印象操作、反日帰化の多い野党や中韓の悪事は報じない自由で日本人の知る権利を阻む異常な状態です。
世論誘導が生んだ民主党政権、中韓を利す為の超円高誘導で日本企業や経済は衰退する中、技術を韓国に渡さぬJAXAを恫喝し予算削減、3万もの機密漏洩など数知れぬ韓国への利益誘導の為に働きました。
当時の売国法に未だ後遺症を残し、今も内から中韓勢力の侵略が進む中、再びメディアに踊らされ国を失わぬ為に、各党の傾向を見極め、改憲始め国の強化成長が不可欠です。
しかし必要なのは、日本人として誇りを取り戻し 掛替えない自国を守る意識だと多くの方に伝わる事を願います。