2023-05-04 政治・国際

AIドローン先進国スイス 倫理問題では出遅れ

注目ポイント

スイスは技術開発分野で最先端を行くが、軍事利用を防ぐためのルール設定には消極的な姿勢を見せる。

イスラエルとトルコに加え、米軍、中国、英国、インドやその他の国々が同様の技術開発に取り組んでいる。この分野の研究に利用されるアルゴリズムのいくつかは、スイスで開発されている。

あいまいなルール

スイスの大学は、自身の研究する技術が軍事利用される可能性について積極的に発信していない。連邦工科大学ローザンヌ校(EPFL)はその典型例だ。2010~22年に同校の連邦研究能力センター(NCCR)ロボティクス領域長を務めたダリオ・フロレアーノ氏と、同校主催の公募プロジェクト「イノベーション・ブースター・ロボティクス」を率いるオード・ビアー氏は、ともにこの点に関してコメントを避けた。両者とも第一線で活躍する研究者だが、ドローン兵器などの技術がどの程度軍事利用されているかは関知していないと主張する。

とはいえ、いくつかのルールも存在する。軍事関連機関との連携には大学の許可を必要とし、研究者は連邦政府が定めるデュアルユース・ガイドライン(民生と軍事の両方に適用されるガイドライン)に従わなければならない。しかし、EPFLの知能システム倫理学の研究者マルチェロ・イエンカ氏は、こうしたルールは最新技術にはもはや不十分だと指摘する。「2020年代になり、民生用と軍事用技術の間は明確に線引きができなくなった」。また使途で区分する輸出規制も機能しないとみる。AIは定義上、一般利用を目的としており、「たとえ輸出後に兵器として使うものでもソフトウェアとして移転できる」ためだ。

スイスでの研究活動は、オーブンサイエンスの方針を取る。したがって研究結果は一般に公開されなければならない。イエンカ氏は「LAWSは研究の自由と、極端な悪用の可能性の間に起きるジレンマ問題を悪化させた」と語る。「倫理学者間のコンセンサスとして、『生か死か』を自律的に決定できるような機械は造るべきではないとの認識がある。スイスでそのような意図をもって開発する人はいないと思っている」。だが「たとえ善意の研究であっても、第三者によって軍事や犯罪目的に悪用される可能性がある」とも話す。数々の研究プロジェクトを支援するスイス国立科学財団(SNSF)も「これらの発見が将来、どのような形で実用化されるのかを予測するのは不可能だ」と表明している。

イエンカ氏は、研究を危険にさらすことなくジレンマ問題に対処する方法を2つ提案する。まず、軍事関連機関から資金援助を受ける研究者は、このことを開示し、利害対立にどう対処するかを明示する。そして大学側は、化学・生物学研究で長く培われてきた安全教育を採り入れ、科学者にリスクに対する注意喚起を行うことだ。

倫理観は個人の問題

⎯  続きを読む  ⎯

あわせて読みたい