Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

自律型兵器: 人工知能はどのように軍拡競争を引き継ぐのでしょうか?
自律型兵器: 人工知能はどのように軍拡競争を引き継ぐのでしょうか?
自律型兵器: 人工知能はどのように軍拡競争を引き継ぐのでしょうか?
Ebook313 pages1 hour

自律型兵器: 人工知能はどのように軍拡競争を引き継ぐのでしょうか?

Rating: 0 out of 5 stars

()

Read preview

About this ebook

自律型兵器とは


自律型致死兵器は、プログラムされた制約と説明に基づいてターゲットを独立して検索して従事させることができる一種の自律型軍事システムであり、空中、陸上、水上、水中、または宇宙で動作する可能性があります。


どのようにメリットがありますか


(I)次のトピックに関する洞察と検証:



第1章:自律型致死兵器
第2章:軍用ロボット
第3章:PackBot
第4章:一般知能MQ-9リーパー
第5章:ゴールキーパーCIWS
第6章:一般知能MQ-1プレデター
第7章:ガーディウム
第8章:THeMIS
第9章:人工知能軍拡競争
第10章:存在人工知能によるリスク
第11章:AIの乗っ取り
第12章:灰色のグー


(II)自律型兵器に関する一般のトップ質問への回答。
(III)軍隊の多くの戦場での自律型兵器の使用に関する実例。
(IV)17の付録自律型兵器の技術を360度完全に理解するために、各業界の266の新しい技術について簡単に説明します。


この本の対象者


専門家、学部生、大学院生、愛好家、愛好家、およびあらゆる種類の自律型兵器の基本的な知識や情報を超えたい人。

Language日本語
Release dateSep 13, 2021
自律型兵器: 人工知能はどのように軍拡競争を引き継ぐのでしょうか?

Related to 自律型兵器

Titles in the series (3)

View More

Related ebooks

Reviews for 自律型兵器

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    自律型兵器 - Fouad Sabry

    引用符

    「研究者が、人類を完全に破壊する可能性があることを理解せずに、AIベースの自律兵器システムを構築することに夢中になっているのは、もっとも残念です。

    — アミットレイ、思いやりのある人工知能AI 5.0 - ブロックチェーン、BMI、ドローン、IOT、および生体認証技術を備えたAI

    AIベースの自律兵器システムの構築を停止し、より多くのAIエネルギーを人類に奉仕するための思いやりのある人工知能システムの構築に注力する時が待ち受けています。

    — アミットレイ、思いやりのある人工知能AI 5.0 - ブロックチェーン、BMI、ドローン、IOT、および生体認証技術を備えたAI

    「機械は多くのことを行うことができますが、意味を作り出すことはできません。彼らは私たちのためにこれらの質問に答えることはできません。機械は、私たちが何を大切にし、どのような選択をすべきかを教えてくれません。私たちが作り出している世界は、インテリジェントな機械を持つものですが、それは彼らのためではありません。それは私たちにとって世界です。

    ― ポール ・シャール、アーミー・オブ・ノー:自律兵器と戦争の未来

    「アイザック・アシモフは、彼の物語の中でロボットを支配するために、現在象徴的なロボット工学の3つの法則を作成しました:1ロボットは人間を傷つけるか、不作為を通じて、人間が危害を加えることを可能にするかもしれません。2 ロボットは、そのような命令が最初の法律と矛盾する場合を除いて、人間の命令に従わなければならない。3 ロボットは、そのような保護が第1または第2の法則と矛盾しない限り、自分自身の存在を守らなければならない。

    ― ポール ・シャール、アーミー・オブ・ノー:自律兵器と戦争の未来

    「自律兵器システムと半自律兵器システムは、司令官とオペレーターが武力行使に対して適切なレベルの人間の判断を行使できるように設計されなければならない。

    ― ポール ・シャール、アーミー・オブ・ノー:自律兵器と戦争の未来

    自律兵器

    著者によるその他の本

    1 – スマートマシン

    2 – 脳のコンピュータのインターフェイス

    3 – 群れの知能

    4 – 自律走行車

    5 –自律ドローン

    6 – 自律型ロボット工学

    7 – 自律兵器

    10億人の知識

    自律兵器

    人工知能はどのように軍拡競争を引き継ぐのか?

    フアド・サブリー

    著作権

    自律兵器著作権©2021年フアド・サブリー。すべての権利予約。

    すべての権利が予約されています。本書のいかなる部分も、著者の書面による許可なしに、情報保存および検索システムを含む電子的または機械的手段によって複製することはできません。唯一の例外は、レビューで短い抜粋を引用することができるレビュー担当者です。

    フアド・サブリーがデザインしたカバー。

    この本はフィクションの作品です。名前、文字、場所、およびインシデントは、著者の想像力の産物であるか、架空に使用されます。実際の人、生きているか死んでいるか、出来事、またはロケールに似ている場合は、まったく偶然です。

    ボーナス

    1BKOfficial.Org + 自律型武器s@gmail.com に「自律兵器:自律ロボットがタイムマガジンの表紙にどのように表示されるか」という件名で電子メールを送信するか、このリンクをクリックして電子メールクライアントで送信をクリックすると、この本の最初のいくつかの章を含む電子メールが送信されます。

    フアド・サブリー

    1BKのウェブサイトをご覧ください。

    www.1BKOfficial.org

    前書き

    なぜ私はこの本を書いたのですか。

    この本を書く物語は、私が学生だった1989年に始まりました。

    それは、現在多くの先進国で利用可能なSTEM(科学、技術、工学、数学)の学校に似ています。

    STEMは、学際的かつ応用的なアプローチで、科学、技術、工学、数学の4つの分野で学生を教育するという考え方に基づくカリキュラムです。この用語は、通常、学校での教育方針やカリキュラムの選択に対処するために使用されます。これは、労働力開発、国家安全保障上の懸念、移民政策に影響を与えます。

    図書館には毎週授業があり、各生徒は自由に本を選んで1時間読めます。授業の目的は、教育カリキュラム以外の科目を読むことを生徒に奨励することです。

    図書館では、棚の本を見ている間に、5部で合計5,000ページの巨大な本に気づきました。本名は、私たちの周りのすべてを記述する「技術百科事典」、半導体に絶対的なゼロ、その時、ほとんどすべての技術は、カラフルなイラストと簡単な言葉で説明しました。百科事典を読み始め、もちろん週1時間の授業では終えることができなかった。

    だから、私は父に百科事典を買うように説得した。私の父は私の人生の初めに私のためにすべての技術ツールを買いました, 最初のコンピュータと最初の技術百科事典, そして両方が私と私のキャリアに大きな影響を与えます.

    今年の同じ夏休みで百科事典全体を終え、宇宙の仕組みや日常の問題に対する知識の応用方法を見始めました。

    技術に対する私の情熱は30年前より始まり、まだ 旅は続いています。

    この本は、私が高校生の時と同じ素晴らしい経験を読者に与えようとする「新興技術百科事典」の一部ですが、20番目のエンターy技術の代わりに、私は21番目の新しい技術、アプリケーション、業界ソリューションにもっと興味を持っています。

    「新興技術百科事典」は365冊の本で構成され、各書籍は 1つの新興技術に焦点を当てます。本書の最後にある「近日公開」の一部で、新興技術とその業界別の分類のリストを読むことができます。

    読者に1年の期間内に毎日1つの新興技術に関する知識を増やす機会を与えるために365冊の本。

    紹介

    どうやってこの本を書いたのですか。

    「新興技術百科事典」のすべての本の中で、私は即座に生の検索洞察を得ようとしています。

    毎日30億件のGoogle検索があり、その20%がこれまでに見たことがありません。彼らは人々の思考への直接のラインのようなものです.

    時にはそれは「紙詰まりを取り除く方法」です。他の時には、 それは彼らがGoogleと共有するだけの痛烈な恐怖と秘密のハンカチ です。

    「自律兵器」に関する未開拓の金鉱を発見するために私は、Googleのような検索エンジンからのオートコンプリートデータを聞くために多くのツールを使用し、その後すぐにすべての有用なフレーズと質問をクランクアウトし、人々はキーワード「自律兵器」の周りに尋ねています。

    それは人々の洞察力の金鉱であり、私は新鮮な、超有用なコンテンツ、製品やサービスを作成するために使用することができます。親切な人は、あなたのような、本当に欲しいです。

    人の検索は、人間の精神で収集された最も重要なデータセットです。したがって、この本はライブ製品であり、常に「自律兵器」に関する新しい質問のためのより多くの答えによって更新され、あなたと私と同じように人々に尋ねられ、この新しい新しい技術について疑問に思い、それについてもっと知りたいと思っています。

    この本を書くアプローチは、人々が「自律兵器」を検索する方法についてのより深いレベルの理解を得て、私が必ずしも頭の上から考える必要がある質問や質問を明らかにし、これらの質問に超簡単で消化可能な言葉で答え、簡単な方法で本をナビゲートすることです。

    だから、この本を書くことに関しては、私はそれが可能な限り最適化され、ターゲットにされていることを保証しました。この本の目的は、人々が「自律兵器」に関する知識をさらに理解し、成長させるのを助けることを目的としている。私は人々の質問にできるだけ密接に答え、より多くのことを示そうとしています。

    人々が抱える質問や問題を探求し、直接答え、本の内容に洞察力、検証、創造性を加え、ピッチや提案さえも加える素晴らしい、そして美しい方法です。この本は、豊かで混雑が少なく、時には驚くべき再捜索需要の領域を明らかにしています。このアプローチを使って本を読んだ後、私は潜在的な読者の心の知識を信じさせることが期待されているのは間違いありません。

    私はこの本の内容を常に新鮮にするためにユニークなアプローチを適用しました。このアプローチは、検索リスニングツールを使用して、人々の心に耳を傾けることによって異なります。このアプローチは、私が助けになりました:

    読者がどこにいるか正確に知ることができるので、和音を打ち、トピックをより理解できる関連コンテンツを作成できます。

    脈拍にしっかりと指を置いておくので、人々がこの新しい技術について新しい方法で話すときに最新情報を入手 し、 時間の経過とともにトレンドを監視することができます。

    疑問の隠された宝物を発見するコンテンツの関連性を高め、それを勝利の優位性を与える予期しない洞察と隠されたニッチを発見するために、新興の技術についての答えが必要です。

    読者が望むコンテンツに関するガットフィールと推測に時間を無駄にするのをやめ、人々が必要とするもので本の内容を埋め、憶測に基づいて無限のコンテンツアイデアに別れを告げます。

    しっかりとした意思決定を行い、リスクを減らして、人々が読みたいこと、知りたいもの(リアルタイム)に最前列の座席を取得し、検索データを使用して、どのトピックを含めるか、どのトピックを除外するかを大胆に決定します。

    コンテンツ制作を合理化して、手動で個々の意見をふるいにかけずにコンテンツのアイデアを特定し、数日と数週間の時間を節約します。

    質問に答えるだけで、人々が簡単な方法で知識を増やすのを助けるのは素晴らしいことです。

    この本の書き方は、照合して、検索エンジンで読者から尋ねられている重要な質問を追跡するほどユニークだと思います。

    確認

    本を書くことは想像以上に難しく、想像以上にやりがいがあります。一流の研究者による作業が完了しなければ、このことは不可能であり、この新しい技術に関する国民の知識を高めるための努力を認めたい。

    献身

    啓発された人々には、物事を異なる方法で見て、世界をより良くしたいと思う人は、現状や既存の状態が好きではありません.あなたは彼らにあまりにも多くの反対をすることができますし、あなたは彼らとさらに議論することができますが、あなたはそれらを無視することはできませんし、彼らは常に物事を変えるので、それらを過小評価することはできません.彼らは人類を前進させ、狂ったものやアマチュアと見なす人もいれば、世界を変えることができると思うほど啓発されている人は、人々を啓発に導く人たちなので、天才やイノベーターを見る人もいます。

    エピグラフ

    「30年後には、ロボットが最高のCEOとしてタイム誌の表紙を飾る可能性が高い。 機械 は人間ができないことを行います。 機械は人類の最大の敵になるのではなく、人間と協力し、協力するだろう」とアリババの創設者ジャック・マーは言う。

    目次

    引用符

    自律兵器

    著者によるその他の本

    自律兵器

    著作権

    ボーナス

    前書き

    紹介

    確認

    献身

    エピグラフ

    目次

    第1章:致死的な自律兵器

    第2章 軍用ロボット

    第 3 章: パックボット

    第 4 章: ジェネラル アトミック MQ-9 リーパー

    第5章 ゴールキーパーCIWS

    第 6 章: ジェネラル アトミック MQ-1 プレデター

    第7章:ガーディウム

    第8章:テミス

    第9章 人工知能軍拡競争

    第10章 人工知能からの実存的リスク

    第11章:AIテークオーバー

    第12章:灰色のグー

    エピローグ

    著者について

    もうすぐです

    付録:各業界の新しい技術

    第1章:致死的な自律兵器

    飛行試験中のBAEシステムズコラックス

    致死的な自律兵器(LAW)は、指定された制限と説明に基づいて自律的に標的を検索し、関与させることができる一種の自律的な軍事装置です。致死的な自律兵器システム(LAWS)、自律兵器システム(AWS)、ロボット兵器、キラーロボット、またはスローターボットは、LAWの他の名前です。LAWは、空気中、陸上、水上、水の下、または宇宙に適用することができます。2018年の時点で、現在のシステムの自律性は、攻撃する最終的なコマンドが人間によって与えられたという意味で制限されていました - しかし、特定の「防御的な」システムでは例外があります。

    武器として自律的であること

    「自律的」であることは、様々な研究分野で様々な表記法を持っています。これは、エンジニアリングの人間の介入なしに動作するマシンの能力を指す可能性があります。哲学では、それは人の道徳的自立に関連するかもしれません。政治学では、それは地域の統治能力に関連している可能性があります。軍事兵器開発の面では、自律兵器と非自律兵器の区別は、他の分野ほど明白ではありません。自律性の概念に含まれる特定の規範は、研究者、州、組織の間で大きく及ぶ可能性があります。

    多くの人々は、致命的な自律兵器を作るものについて異なる考えを持っています。ケースウェスタンリザーブ大学法科大学院のヘザー・ロフによると、自律兵器システムは「(彼らが配備されている)環境の状況の変化に応じて彼らの機能を学び、適応することができる武装兵器システムであり、自分で発砲決定を行うことができる」。この自律兵器システムの概念は、以下に示すピーター・アサロやマーク・グブルドなどの学者の定義と比較して非常に高い。

    ピーター・アサロやマーク・グブルドのような学者は、バーを減らし、より多くの軍事システムを自律的に分類しようとしています。彼らは、人間の監督者の介入、決定、または確認なしに致死的な力を提供することができるあらゆる兵器システムは自律的であると主張する。Gubrudによると、自律兵器システムは、人間の関与なしに部分的または完全に動作するシステムです。彼は、自律的なレッテルを貼るために、武器システムが完全に単独で決定を下すことができる必要はない、と主張している。代わりに、ターゲットの位置を特定することから最終的に撮影する「準備プロセス」の1つ以上の段階に積極的に参加している限り、自律的であると考えるべきです。

    一方、他のグループは自律兵器システムのバーを上げています。英国 国防省は 、自律兵器システムを「より高いレベルの意図と方向性を理解できる装置」と定義しており、このようなシステムは、その理解と環境の認識に基づいて目標国家を達成するために適切な行動を取ることができる。人間 の 監督と制御に頼ることなく、一連の選択肢から行動のコースを選択することができます - しかし、システムとのそのような人間の相互作用はまだ存在する可能性があります。自律型無人航空機の全体的な活動は予測可能ですが、個々の行為は予測できないかもしれません。

    その結果、国家間の条約を起草するには、自律兵器を構成するものの広く認識された定義が必要です。

    自動防御システム

    少なくとも1600年代から使用されてきた地雷と、少なくとも1700年代から使用されてきた海軍鉱山は、機械的に引き起こされた2つの最も古い致命的な武器です。1997年のオタワ条約は、米国、ロシア、アジアや中東の大部分を含むいくつかの国で対人地雷の使用を禁止しています。

    LAWの現在の例には、1970年代以降に船を守るために採用されたレーダー誘導CIWSシステム(例えば、米国Phalanx CIWS)のような自動「ハードキル」アクティブ保護システムが含まれます。このようなシステムは、人間のオペレーターが提供するパラメータに基づいて、ミサイル、ロケット弾、砲撃、飛行機、および水上ボートに接近して自律的に検出し、攻撃することができます。戦車は、ロシアのアリーナ、イスラエルのトロフィー、ドイツのAMAP-ADSなどの同様のシステムを持っています。韓国やイスラエルでは、個人や車両を撃つ可能性のある様々な種類の静止したセントリーガンが使用されています。アイアンドームのような多くのミサイル防衛システムは、自律的な標的化が可能です。遠隔武器ステーションは軍用車両に取り付けられた自動砲塔です。

    迅速な対応の必要性は、これらのシステムに「ループ内の人」を持たない主な理由です。一般に、彼らは入ってくる発射物から人員と設置を保護するために採用されています。

    自律的攻撃システム

    例えば、ドローンや無人戦闘航空機は、自律性の高いシステムの例です非武装のBAEシステムズタラニスジェット推進戦闘ドローンプロトタイプは、自律的に敵を検索し、識別し、見つけることができるが、ミッションコマンドがそれを承認した場合にのみターゲットと関わることができる未来の戦闘航空システムにつながる可能性があります。また、対向する航空機に対して自分自身を守ることができるHeyns  (2013), P. 45.ノースロップグラマンX-47Bドローンは、空母に着陸することができ(2014年に実証されているように)、無人キャリア打ち式空挺サーベイランスとストライク(UCLASS)システムに開発されています。

    セルビアランドローバーディフェンダー「ミロシュ」追跡戦闘ロボットとトレーラーを牽引。

    エコノミストによると、技術の進歩に伴い、自律型海底車両の将来の用途には、鉱山クリアランス、鉱山敷設、対戦地域での対潜センサーネットワーキング、アクティブソナーによるパトロール、有人潜水艦の補給、低コストのミサイルプラットフォームとしての役割が含まれる可能性があります。米国の核態勢レビューは2018年、ロシアは「ステータス6」というコードネームの「新しい大陸間、核武装、原子力、海底自律魚雷」に取り組んでいると主張した。

    ロシア連邦は、人工的にインテリジェントなミサイル、ドローン、無人車両、軍用ロボット、メディックロボットの作成に懸命に取り組んでいます。

    2017年、イスラエルのアヨブ・カラ大臣は、イスラエルがハエと同じくらい小さな軍事ロボットを作っていることを明らかにした。中国の防衛会社Norincoの高官であるZeng Yi氏は2018年10月に講演を行い、「将来の戦場では戦闘の場に人はいないだろう」と述べ、紛争中の致死的な自律兵器の使用は「避けられない」と述べた。2019年、マーク・エスパー米国防長官は、人間の介入なしに人を殺すことができるドローンを販売したとして中国を非難した。

    2019年、イギリス陸軍は新しい自律走行車と軍用ロボットを配備しました。

    アメリカ海軍は無人船の「幽霊」艦隊を作成しています。

    倫理的および法的な問題

    米国のポリシーで使用される標準

    「自律型.「兵器システムは、現在の米国の教義によれば、司令官とオペレーターが武力行使に関して受け入れ可能なレベルの人間の判断を行使できるように設計されなければならない」しかし、この方針では、人を殺したり、運動力を行使したり、人間の介入なしに標的を選択して関与させる自律兵器システムは、「適切なレベル」やその他の基準に準拠していると認定され、そのような兵器システムがこれらの基準を満たさず、したがって禁止されることを義務付けている。

    標的を自動的に検出して攻撃する「半自律的」ハンターキラーは、認証を必要としません。2016年、ロバート・ワーク国防副長官は、国防総省は「判断を下すために機械に致命的な権限を委ねない」と述べたが、「権威主義体制」がそうするかもしれないので、これは再考する必要があるかもしれないと述べた。

    バラク・オバマ大統領は2016年10月、ドローン戦争を使用する米国大統領が「説明責任や民主的な議論なしに、世界中で継続的な戦いを続けることができる」将来について、彼のキャリアの早い段階で懸念していると主張した。2018年以来、人工知能に関する国家安全保障委員会は、米国のセキュリティ関連のAIを担当しています。

    2019年10月31日、米国国防総省の国防イノベーション委員会は、武器化されたAIに関する5つの原則を概説する報告書の草案を発表し、人間のオペレーターが常に「ブラックボックス」を調べ、キルチェーンプロセスを理解できることを保証する国防総省の人工知能の倫理的使用に関する12の勧告を行いました。レポートの実装は大きな懸念です。

    倫理と国際行為の可能性のある違反

    カリフォルニア大学バークレー校のコンピュータサイエンス教授スチュアート・ラッセルは、それが非倫理的で非人道的であると信じているので、LAWSについて懸念していることを示しました。この技術の根本的な問題は、戦闘員と非戦闘員を区別することが困難になるということです。

    一部の人々(例えば、ノエル・シャーキー2012)は、LAWが国際人道法、特に戦闘員と非戦闘員を区別する能力を必要とする区別の原則と、民間人の犠牲者が軍事目標に比例することを要求する比例の原則に違反することを懸念している。この懸念は時々「キラーロボット」を完全に禁止する根拠として提起されるが、この懸念が国際人道法に違反しない法律を正当化するために使用できることは疑わしい。

    一部の人々は、LAWが特定の殺害の責任者の間の線を泥だらけにしていると主張していますが、トーマス・シンプソンとヴィンセント・ミュラーは、誰がどの指示を出したかを記録しやすくするかもしれないと主張しています。同様に、スティーブン・ ウンブレロ、フィル・トーレス、アンジェロ・F・デ・ベリスは、LAWの技術力が少なくとも人間の兵士と同じくらい正確であれば、戦闘における人間兵士の心理的欠陥は、これらのタイプの倫理的なLAWの雇用のみを正当化すると信じています。同様に、人間の価値観や国際人道法と一致するように、これらの法律を開発するための潜在的な枠組みとして、価値に敏感な設計アプローチを採用することを提案する。

    LAWを禁止するキャンペーン

    LAWのアイデアは、特に近い将来または遠い将来に世界をさまよう「キラーロボット」のリスクに関して、激しい議論を引き起こしました。キラーロボットを止めるためのキャンペーンは、2013年に設立されました。2015年7月、1,000人以上の人工知能科学者が声明に署名し、人工知能軍拡競争の危険性を警告し、自律兵器の禁止を主張した。ブエノスアイレスで開催された第24回人工知能国際合同会議(IJCAI-15)で届けられたこの書簡は、スティーブン・ホーキング、イーロンマスク、スティーブ・ウォズニアック、ノアム・チョムスキー、スカイプ共同創設者のジャン・タリン、グーグルDeepMind共同創設者のデミス・ハッサビスなどが共同署名した。

    PAX(キラーロボットを停止するキャンペーンの創設組織の一つ)によると、完全に自動化された武器(FAW)は、戦場から兵士を取り除き、戦争の経験から一般の人々を取り除くことによって戦争に行くしきい値を下げ、政治家や他の意思決定者がいつどのように戦争に行くかを決定する余裕を与えます。彼らは、一度配備されると、FAWは戦争の民主的支配をより困難にするだろうと警告する。これは、この問題に関する小説であるキル・ディシジョンの著者であり、ITスペシャリストのダニエル・スアレスも警告している:彼はそれが少数の人々に戦争に行くことを要求することによって、少数の人々の手に力を集中させると信じています。

    人工知能の武器指定への応用に関する研究が続くならば、不利な武器を提案することによって、LAWの開発に反対するウェブサイトがあります。これらのウェブサイトは、倫理的および法的な懸念に関するニュースを定期的に更新し、ユーザーが国際会議に関する新鮮なニュースに追いつき、LAWに関する出版物を研究できるようにします。

    様々な事例において、ホーリー・シーは世界のコミュニティに対し、LAWSの使用を禁止するよう促している。2018年11月、ホーリー・ゼーの国連常任オブザーバーであるイワン・ユルコビッチ大司教は、「軍拡競争と不平等と不安定の増加を防ぐために速やかに行動することが不可欠である:今は法規制が明日の戦争の現実になるのを防ぐ時だ」と述べた。教会は、現代の兵器技術が戦闘の性質を不可逆的に変え、人間の活動から疎外感を生み出し、社会の人間性を問題視する可能性を秘めていることを懸念しています。

    2019年3月29日現在、この問題について議論するために国連サミットに代表された大多数の政府は、LAWSの禁止を支持した。オーストラリア、イスラエル、ロシア、英国、米国を含む少数派の政府は、禁止に反対した。

    禁止はありませんが、規制

    禁止の代わりに、第3の選択肢は自律兵器システムの使用を制御することに焦点を当てています。軍事AI軍備管理は、効果的な技術仕様に具現化された新しい国際規範の制度化だけでなく、専門家コミュニティによる積極的な監視と非公式(「トラックII」)外交、ならびに法的および政治的検証プロセスをほぼ確実に必要とするだろう。

    {第 1 章の終わり}

    References

    Crootof, Rebecca (2015). The Killer Robots Are Here: Legal and Policy Implications. 36 Cardozo L. Rev: 1837 – via heinonline.org.

    Johnson, Khari (31 January 2020). Andrew Yang warns against 'slaughterbots' and urges global ban on autonomous weaponry. venturebeat.com. VentureBeat. Retrieved 31 January 2020.

    Roff, Heather (2015). Lethal Autonomous Weapons and Jus Ad Bellum Proportionality.

    Asaro, Peter (2012). On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making. Red Cross. 687: 94.

    Autonomy without Mystery: Where do you draw the line?. 1.0 Human. 2014-05-09. Retrieved 2018-06-08.

    Unmanned aircraft systems (JDP 0-30.2). GOV.UK. Retrieved 2018-06-08.

    Taylor & Francis Group. www.taylorfrancis.com. Retrieved 2018-06-08.

    Getting to grips with military robotics. The Economist. 25 January 2018. Retrieved 7 February 2018.

    US says Russia 'developing' undersea nuclear-armed torpedo. CNN. 2018. Retrieved 7 February 2018.

    Russia is building a missile that can makes its own decisions. 2017-07-20.

    Russia's digital doomsday weapons: Robots prepare for war - Russia Beyond. 2017-05-31.

    'Comrade in Arms': Russia is developing a freethinking war machine. 2017-08-09.

    Rise of the Machines: A look at Russia's latest combat robots. 2017-06-06.

    Is Terminator back? Russians make major advances in artificial intelligence. 2016-02-10.

    Virtual trainer for robots and drones developed in Russia. 2017-05-15.

    Kara: I wasn't revealing state secrets about the robots - Jerusalem Post.

    Mini-nukes and inspect bot weapons being primed for future warfare. 2017-03-17.

    Allen, Gregory. Understanding China's AI Strategy. Center for a New American Security. Center for a New American Security. Retrieved 11 March 2019.

    Is China exporting killer robots to Mideast?. Asia Times. 2019-11-28. Retrieved 2019-12-21.

    British Army to operationally deploy new robots in 2019 | March 2019 Global Defense Security army news industry | Defense Security global news industry army 2019 | Archive News year.

    http://navyrecognition.com/index.php/news/defence-news/2019/march/6898-us-navy-plans-to-build-an-unmanned-ghost-fleet.html

    US Department of Defense (2012). Directive 3000.09, Autonomy in weapon systems (PDF). p. 2.

    Gubrud, Mark (April 2015). Semi-autonomous and on their own: Killer robots in Plato's Cave. Bulletin of the Atomic Scientists.

    Pentagon examining the 'killer robot' threat. Boston Globe. 30 March 2016.

    Barack Obama on 5 Days That Shaped His Presidency. Daily Intelligencer. 2016-10-03. Retrieved 3 January 2017.

    Devereaux, Ryan; Emmons, Alex (2016-10-03). Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War. The Intercept. Retrieved 3 January 2017.

    Stefanik, Elise M. (2018-05-22). H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018. www.congress.gov. Retrieved 2020-03-13.

    Baum, Seth (2018-09-30). Countering Superintelligence Misinformation. Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.

    United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.

    Russell, Stuart (27 May 2015). Take a stand on AI weapons. International Weekly Journal of Science. 521.

    Sharkey, Noel E. (June 2012). The evitability of autonomous robot warfare*. International Review of the Red Cross. 94 (886): 787–799. doi:10.1017/S1816383112000732. ISSN 1816-3831.

    Müller, Vincent C. (2016). Autonomous killer robots are probably good news. Ashgate. pp. 67–81.

    Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (2020-03-01). The future of war: could lethal autonomous weapons make conflict more ethical?. AI & Society. 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 1435-5655. S2CID 59606353.

    Umbrello, Steven; Wood, Nathan Gabriel (2021-04-20). Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status. Information. 12 (5): 216. doi:10.3390/info12050216 – via MDPI.

    Nyagudi, Nyagudi Musandu (2016-12-09). Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd ) : Lethal Autonomy of Weapons is Designed and/or Recessive. Retrieved 2017-01-06.

    Simpson, Thomas W; Müller, Vincent C. (2016). Just war and robots' killings. Philosophical Quarterly. 66 (263): 302–22. doi:10.1093/pq/pqv075.

    Musk, Hawking Warn of Artificial Intelligence Weapons. WSJ Blogs - Digits. 2015-07-27. Retrieved 2015-07-28.

    Gibbs, Samuel (27 July 2015). Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons. The Guardian. Retrieved 28 July 2015.

    Deadly Decisions - 8 objections to killer robots (PDF). p. 10. Retrieved 2 December 2016.

    Front page. Ban Lethal Autonomous Weapons. 2017-11-10. Retrieved 2018-06-09.

    Holy See renews appeal to ban killer robots. Catholic News Agency. Retrieved 2018-11-30.

    Gayle, Damien (2019-03-29). UK, US and Russia among those opposing killer robot ban. the Guardian. Retrieved 2019-03-30.

    Bento, Lucas (2017). No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law. Harvard Scholarship Depository. Retrieved 2019-09-14.

    Geist, Edward Moore (2016-08-15). It's already too late to stop the AI arms race—We must manage it instead. Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402. S2CID 151967826.

    Maas, Matthijs M. (2019-02-06). How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons. Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260. S2CID 159310223.

    Ekelhof, Merel (2019). Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation. Global Policy. 10 (3): 343–348. doi:10.1111/1758-5899.12665. ISSN 1758-5899.

    Umbrello, Steven (2021-04-05). Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach. Ethics and Information Technology. doi:10.1007/s10676-021-09588-w. ISSN 1572-8439.

    Enjoying the preview?
    Page 1 of 1