自律型致死兵器システム
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/10/12 21:57 UTC 版)

自律型致死兵器システム(じりつがたちしへいきシステム、英語: Lethal autonomous weapons systems (LAWS), Lethal autonomous weapon[1])は、人工知能(AI)を搭載し、人間を介さずに標的を判断し殺傷を判断する無人兵器。自律兵器、AI兵器、ロボット兵器、キラーロボット、殺人ロボットとも。
概要
自動兵器は、兵器の自動化(automation)の形で既に実装されているが、これに対し自律化された兵器は、兵器単体を指すのではなく、自律化されたシステムのもとで運用される兵器を意味する。まだ明確な定義や規制の枠組みがなく、イスラエルを初め、アメリカ、ロシア、中国などが開発を急いでいる。この兵器システムは、まだ開発途上であり、配備されていないとされるが、国連報告書によれば、2020年リビア内戦の春ごろの戦闘で暫定政府軍が、自律型致死兵器システムを使用した疑いが持たれている[1][2]。
2017年に、国連に対してLAWSの禁止を求める書簡に日本人で唯一署名したロボット工学の専門家広瀬茂男(東工大名誉教授)は「かつては将棋ではAIは人間に勝てないと言われていたが、最近は多くのルールを理解し人間に勝利するようになってきた。以前のロボットは、ある入力をすれば、決まった答えを出力するだけだったが、複雑な思考過程を作り出すAIができても不思議ではなく一部では実現している」とし、自動車の自動衝突回避技術に見るように、人間を探知・認識して衝突を回避する能力を持つということは、『回避』を『攻撃』というコードに書き換えるだけで、敵対する民族など特定のグループを狙い撃ちすることも可能であり、「利点は欠点にもなる」と発言した。しかし「アメリカの銃規制問題同様、善良な市民は銃を捨てるとしても、悪意を持つ人間は銃を隠し持つ過渡期が必ず出る。すると、治安はかえって乱れるのと同様に、AI兵器やLAWSの規制も、構図は似ている」と話した[3]。
日本政府は「人間の関与が及ばない完全自律型の致死性兵器」の開発を行う意図はないと表明している。また「人間の関与が確保された自律性を有する兵器システム」には意義があると認識している[4]。
LAWSに関する政府専門家会合(GGE)
2017年11月、特定通常兵器使用禁止制限条約(CCW)の枠組みの下、LAWSに関する第1回政府専門家会合が開催され、同システムに関する国際社会の共通認識の形成を目指す目的で、技術、軍事的効果、法律・倫理などに関し議論が行われた[5]。
2018年4月に第2回GGE、8月に第3回GGEが開催され、LAWSの特徴やその使用における人間の関与、国際人道法上の課題等について議論が行われた。日本からは髙見澤將林(のぶしげ)軍縮代大使を団長として外務省、防衛省関係者らが出席。会合最終日には、議長報告書が採択され、2018年の議論の概要が取りまとめられるとともに、2019年もCCWの枠組みで議論を継続することが提言された。議長報告書は、2018年11月にCCW締約国会議(ジュネーブで開催)において承認され、2019年のGGEが3月25日-29日、8月20日-21日に開催されることが決定された。
日本の立場
完全自律型の致死性を有する兵器を開発しない。有意な人間の関与が確保された自律型兵器システムについては、ヒューマンエラーの減少や、省力化・省人化といった安全保障上の意義がある、とし以下の基本方針を示している[5]。
1、LAWSの定義: 致死性や人間の関与の在り方等の議論を深めることが必要。
2、致死性: 致死性を有する自律型兵器システムのみについて議論を進めることが望ましい。直接的に人間を殺害する設計がなされた兵器システムをルールの対象とすることは一案。
3、有意な人間の関与: 致死性兵器には、使用される兵器に関する情報を十分に掌握した人間による関与を確保する等、有意な人間の関与が必須。兵器のライフサイクルにおいて有意な人間の関与が必要な段階と程度について議論を深めるべき。
4、ルールの対象範囲: 致死性兵器に用いられる可能性があるといった安易な理由で、自律化技術の研究・開発の規制は厳に慎むべき。ルールの対象範囲は、致死性があり,かつ有意な人間の関与がない完全自律型兵器とすべき。
5、国際法や倫理との関係: LAWSを含め、武力の行使に当たっては、国際法、特に国際人道法を遵守することが必須。国際人道法違反に対しては、通常の兵器と同様に使用する国家や個人の責任が問われるべき。
6、信頼醸成措置: 透明性の確保のため、兵器審査の履行体制をCCW年次報告に加える等、いかなる仕組みが適切か検討することが適当。
関連項目
- 武器
- 軍事
- 軍隊
- 軍需産業
- 軍縮、AI冷戦
- 規制が議論されている兵器
- 計画のみに終わった兵器
- 警備ロボット
- レスキューロボット
- パワードスーツ
- オートパイロット
- ロボット兵器の運用
- 遠隔操縦器材い号
- 統合全領域指揮統制
- 軍事ロボット
脚注
- ^ a b “コラム/研究レポート〔研究レポート〕自律兵器の現状 佐藤丙午(拓殖大学教授)”. 佐藤丙午(拓殖大学教授)日本国際問題研究所 (2021年2月22日). 2021年8月8日閲覧。
- ^ ““リビア内戦で自律型致死兵器システム使用の疑い”国連報告書”. NHK (2021年6月23日). 2021年8月8日閲覧。
- ^ “まるでSF、AI兵器が目前に 米国と同盟の日本は?”. 朝日新聞 (2020年6月24日). 2021年8月8日閲覧。
- ^ “自律型致死兵器システム(LAWS)について”. 外務省 (2024年6月24日). 2024年8月15日閲覧。
- ^ a b c “自律型致死兵器システム(LAWS)に関する政府専門家会合に対する日本政府の作業文書の提出”. 外務省. 2021年8月8日閲覧。
外部リンク
自律型致死兵器システム
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/15 02:56 UTC 版)
「軍事用ロボット」の記事における「自律型致死兵器システム」の解説
詳細は「自律型致死兵器システム」を参照 将来的には高度な人工知能(AI)により、人間の直接的な命令無しに敵味方を識別して攻撃を行う「自律型致死兵器システム(LAWS)」の登場が予想されている。既に2020年、リビア内戦において、トルコ企業STMが開発した「Kargu-2」が自動的な追尾・攻撃を行った可能性が国連安全保障理事会専門家パネルで報告されている。現状では、敵味方の識別が困難であったり、登録された味方兵士以外(非武装な市民を含む)に攻撃しかねないといった理由で、開発、導入が難航することも懸念され、2017年11月には国際連合で自律型致死兵器システムに関する初の公式専門家会議が特定通常兵器使用禁止制限条約の枠組みで行われ、2019年8月に同会議は人工知能を搭載したロボット兵器の運用をめぐる事実上初の国際ルールを採択するも法的拘束力は盛り込まれず、同年11月にアメリカのマーク・エスパー国防長官は中国が完全に自律的に攻撃できるドローンも販売していると述べた。 有人兵器でも現代の航空機ではレーダーや目視で敵味方の識別を行い難い関係から、攻撃判断をある程度は司令部側に求めることが航空機戦闘では一般的であるが、無人航空機の場合は現実的なプランとして、実際の攻撃に際して攻撃許可をオペレーターを介して司令部側に求める様式が現状の主要方針である。開発途上のUCAVでも巡回(パトロール)中や作戦地点までの移動は自動運航でも、実際の兵器使用はリアルタイムでの遠隔操作が基本方針となっている。将来的には通信妨害に対応して、所定攻撃目標を予めプログラミングされ、レーダーサイトなど防御が厚く危険度の高い所定目標に攻撃を加える攻撃機の開発が進められているが、偶発的な航空機との遭遇に伴う交戦には、やはり戦闘許可を求める様式となることも予測される。 地上兵器では国境警備でイスラエルのガーディアムのような自動運転の成功例はあるが、想定される認識対象が多過ぎることから攻撃の自動化への困難が予測される。現状の地上軍事用ロボットの場合では、ある程度精度の良いイメージセンサーを備え、遠隔操縦者が送信されてきた映像から状況を判断したり攻撃対象を識別する様式が、主要な運用手段となっている。戦場では2007年にアメリカ軍が「SWORDS」と呼ばれるM249軽機関銃を搭載した小型の無人武装ロボット車両をイラクに配備しており、2016年にイラク軍もモスルでのISILとの戦いで中国製の77式重機関銃(英語版)とロシア製のロケットランチャーを装備した「Alrobot」と呼ばれる中型の無人武装ロボット車両を投入し、2018年にはロシア軍がウラン-9(英語版)と呼ばれる大型の無人重武装ロボット車両をシリアに配備するもこれらは誤作動や障害物が影響して信号が途絶えるなど様々な問題が生じた。
※この「自律型致死兵器システム」の解説は、「軍事用ロボット」の解説の一部です。
「自律型致死兵器システム」を含む「軍事用ロボット」の記事については、「軍事用ロボット」の概要を参照ください。
- 自律型致死兵器システムのページへのリンク