487

KARGU2

事務所

KARGU2

2.アトラス

CCW締約国会議で合意に至った11指針の冒頭には「国連憲章、国際人道法、倫理に従う」とする一方、「将来の議論の結果に予断を与えるものではない」との条件が付されています。

そのうえで、第1項、第2項では、国際人道法は全ての兵器システムに適用され、LAWSの開発、使用においても例外ではないとし、LAWSに関する説明責任は常に人間側にあるとしています。

第3項は、LAWSが自律的に稼働している場合でも、人間とのインターフェースを確保し、重大なエラーや第3者に支配される事態に陥っても、人間による制御や機能停止が可能とすることを求めています。

第4項は、人間による命令及び指揮系統が確保されることを要求。第2項、第3項に通じ、第5項ではそうした条件をチェックするLAWSの法的審査の原則を謳っています。

第6項は、LAWS不拡散対策、及びテロ対策について。とくに、ハッキング、スプーフィング攻撃への対策が具体的に挙げられています。第7項はそうしたリスクのアセスメント及びリスク低減措置の必要性についてです。

スプーフィング攻撃(spoofing attack)は、不正プログラムによって攻撃者を別の人物や組織に見せかける「なりすまし」。動詞「spoof」は「だます」という意味です。

第8項ではLAWS関連の新技術使用時には、国際人道法及びその他の国際関連法規や義務に合致する必要性を求めています。

第9項は、LAWS規制が擬人化のイメージに囚われることに警鐘を鳴らしています。映画「ターミネーター」等の影響により、LAWSは擬人化を想定した議論になりがちです。しかし、実際のLAWSの姿は擬人化が前提ではなく、機能や性能に着目した実質的規制の必要性を指摘しています。

第10項では、LAWSに関連する新技術の平和的利用の権利を保障し、デュアル・ユースを妨げないことを指摘。最後の第11項は、軍事的必要性と人道的考慮のバランスの重要性を強調しています。

総じて言えば、LAWSの開発・配備・使用の全てにおいて人間が関与すること、新技術の平和的利用を妨げないこと等を定めています。

上述のとおり、AIの急速な進化によって想定より早くLAWSは戦力化しています。ディープラーニング等によるAIの自己学習、深層学習の成果です。

LAWS は生身の兵士が死傷するリスクが減るので良いという指摘と、逆に自軍の死傷者数を減らすことができるため、戦争のハードルが下がるとの指摘があります。

また、AI の判断は人間のように恐怖心や復讐心、興奮、錯乱等の情緒に影響されず、誤爆や民間人の犠牲が減ることから、むしろ人道的であると主張する専門家もいます。

核兵器は非人道的兵器だとする日本と、戦争の早期終結に寄与し、結果的に戦争犠牲者を減らしたとする米国の主張との対立を彷彿とさせます。

AI固有の問題も惹起します。故障や誤作動、将来的には人間に対する反乱を懸念する科学者もいます。

現時点では「ターミネーター」のような擬人化された完全なLAWSは存在しないと言いたいところですが、ボストン・ダイナミクス社が公開している「アトラス」の動画を見ると驚愕します。既に人間の運動能力を超えた人型AIロボットです。


 次のページ3.KARGU(カルグ)2


関連する記事はありません。

 menu LINK