七夕研究所は、内閣府科学技術・イノベーション推進事務局のパブリックコメント「“International Draft Guiding Principles for Organizations Developing Advanced AI systems”に関する御意見の募集について」に意見を提出いたしました。

七夕研究所は、内閣府知的財産戦略推進事務局のパブリックコメント“International Draft Guiding Principles for Organizations Developing Advanced AI systems”に関する御意見の募集についてに意見を提出いたしました。
七夕研究所では、AI・メタバースをはじめとして我々の事業に関わる分野については、今後も積極的にパブリックコメントの提出に取り組んでまいります。

パブリックコメント本文

以下に提出したパブリックコメントの原稿本文を公開いたします。
実際の提出に際しては、章ごとに分割しての提出が求められたため、そのように整形しております。
 
  1. 全体として
    1. 本ガイドラインは軍事用途をカバーするものであるか、明確ではない。軍事用途と非軍事用途では大きくアプローチが異なるべき部分があると思われ、明示する必要がある。
    2. また、本ガイドラインが軍事用途をカバーするものか否かに関わらず、人間の思考や行動を司る脳内の認知領域を制御・操作するような認知戦の技術が民間において転用される脅威について、指導原則はその役割を果たすべきであると考える。
  1. 導入1段落目
    1. such as foundation models and generative AI. とあり、基盤モデルと生成AIを区別して扱っている。しばしば生成AIの問題として生成AIと基盤モデルの問題を混同した議論がなされており、区別することは重要。
    2. 本パブコメは”Advanced AI systems”をタイトルとしており、きわめて高度なAI、特に生成AIなどの領域に限って扱われるべきであることを留意すべき。商用利用が進みつつある画像向け基盤モデルなどは、倫理的懸念を理由に開発を減速させることにすら意味がない状況となっている。
  1. 導入7段落目
    1. 特定のAIがthat violate human rights, undermine democratic values, are particularly harmful to individuals or communities, facilitate terrorism, enable criminal misuse, or pose substantial risks to safety, security, and human rights, と言えるかどうかは、それらの使い方に依存するはずである。社会実装においてはこの論点は重要だが、研究開発時に倫理的疑念を理由として研究開発自体を差し止めるには十分大きな懸念と根拠が必要である。例えば自律殺人ドローンはきわめて危険な存在ではあるが、そのベースとなる画像基盤モデルの開発を自律殺人ドローンの可能性を理由として差し止めるのは適切ではない。
    2. 一方で、自律殺人ドローンのように倫理的に大きな問題を持つサービスに対して高度なAIの提供を差し止める、という責務をサービス提供業者に科すアプローチは可能性がありうる。
  1. 原則1
    1. 全面的に同意である。先進的なAIはきわめて危険な使い方がありうる、ということをAI開発に関わる者が理解しなければならないし、どんな開発であってもリスクの存在を意識して進めるべきではある。
  1. 原則2
    1. 全面的に同意である。問題の特定および「軽減」(mitigate) という言葉を使っていることについて留意する。つねに問題を解消しなければならない、というポジションを要求していないことは正しい。
  1. 原則3
    1. 全面的に同意である。機械学習開発の界隈では「モデルカード」と呼ばれるモデルの特性を記述する定型ドキュメントの文化ができつつあり、これに社会的リスクを特定して掲載することには意味がある。
  1. 原則7
    1. 義務付けについては強く反対する。電子透かし技術は本質的に機能しない。
      1. 性能の低い生成AIは無料で使えるリソースで容易に開発可能であり、それと近年の高度な生成AIの間に本質的な境界線はおそらくない。その状況下で電子透かし技術を義務づけるとしても、対象が明確化できない。
      2. 画像や音声、動画などのモダリティであれば電子透かし技術は運用可能だが、言語などのモダリティでは透かし技術は運用不可能。
      3. 一方で、生成AI技術に対して社会的に強い憂慮があることも知られており、その不安感に対する対応策として生成AIによるコンテンツに対する表示義務付けが機能することも間違いない。公的な義務付けではなく、民間による自主規制の形での生成AIコンテンツへのマーキングが進むことを望む。