AI安全性とガバナンスをめぐる国際的な潮流 - 東京カレッジ

AI安全性とガバナンスをめぐる国際的な潮流

日時:
2024.03.28 @ 10:00 – 12:00
2024-03-28T10:00:00+09:00
2024-03-28T12:00:00+09:00

イベント開催報告

「AI安全性とガバナンスをめぐる国際的な潮流」開催レポート

 2024年3月28日、東京大学未来ビジョン研究センター及び東京大学国際高等研究所東京カレッジは、「AI安全性とガバナンスをめぐる国際的な潮流」と題したセミナーを開催した。本セミナーは、東京大学本郷キャンパス国際学術総合研究棟SMBCアカデミアホール及びオンラインのハイブリッドにより開催され、オンラインでは178名、会場には約30名が参集した。

 本イベントは、生成AIの普及に伴い、AIの安全性(セーフティ)の議論が国内外で展開されている一方で、「安全性」の議論には様々な種類と対応策があり、さらに各国が置かれている状況や文脈により、何を「安全」とみなすか、あるいはどのような脅威・リスクが重視されるかは異なるという状況を踏まえ、また、AI Safety Instituteが英国・米国・日本等で設立されている中、日本固有の「安全性」の種類とその対応策を把握しておくことが、今後の国際的な連携の基盤としても重要になるとの問題意識から開催されたものである。本イベントにおいては、海外のAIガバナンスに関する専門家の出席を得て、国際的なAI安全性やガバナンスの潮流に関する議論が交わされた。

登壇者

Merve Hickok: President and Research Director at Center for AI & Digital Policy (CAIDP)

Cyrus Hodes: Lead, SAFE project at the Global Partnership on AI (GPAI)

Inma Martinez: Chair of the Multi-stakeholder Experts Group, Global Partnership on AI (GPAI)

Michael Sellitto: Head of Global Affairs at Anthropic

飯田陽一: 総務省国際戦略局情報通信国際戦略特別交渉官

城山英明: 東京大学未来ビジョン研究センター教授

江間有沙: 東京大学国際高等研究所東京カレッジ准教授(司会)

(1)開会挨拶

 最初に、東京大学未来ビジョン研究センターの城山英明教授から、開会挨拶があった。城山教授は、同センターの技術ガバナンス研究ユニットが、新興技術(Emerging Technologies)のガバナンスに焦点を当て、リスクチェーンモデルに関する研究やGPAIへの参画を通じたAIの安全性に関する国際的な議論に貢献してきた経緯を紹介しつつ、生成AIの爆発的な普及やG7広島AIプロセスといった近時の急速な情勢の変化に鑑み、AIの安全性に係る課題の整理や体制の整備についてそれぞれの現場に即した議論が求められている現状を踏まえ、本イベントが日本というコンテクストに係る議論のきっかけになることへの期待を示した。

(2)論点紹介

 まず、パネリストからの論点紹介として、GPAIのInma Martinez氏から、GPAIが「すべての人のためのAI」として、公平性や脆弱な人々を包摂することを重視していること、また、これらを含めたGPAIの議論において日本が果たしてきたリーダーシップについて言及があった。加えて、直近のGPAIの活動が、G7広島AIプロセスの特色である共通の価値の実現に向けた合意形成を重視して行われているとの紹介があった。

 また、Martinez氏からは、AIは、自動化にとどまらず、あらゆる産業分野に影響を与え変革をもたらされるものであり、そのようなAIの「安全性」は世界各国で文化的に多様な解釈がなされ得る一方で、「信頼できる」ということについては「技術的に機能する」とのコンセンサスがあるとの説明があった。その上で、GPAIはコンセンサスの形成を追求しているものの、AIに関する定義はもはや無効であって、それぞれの国の文化・価値に沿うべきであり、モノカルチャー化すべきではないことが強調された。

 続いて、同じくGPAIのCyrus Hodes氏から、GPAIがマルチステークホルダーと連携して、生成AIの安全性の保証に取り組んでいる旨が述べられた。

 その上で、Hodes氏は、生成AIのリスクとして、AIシステムの高度化に伴い、監査や評価の基準相互の不調整(Misalignment)が生じてくることが挙げられるが、その調整のためのインフラストラクチャーを構築する必要があるところ、AIセーフティー・インスティテュートとの協調への期待を示した。また、このほかに日本に期待することとして、AIの安全性に関する議論に係るマッピングへの協力及び国際的な議論への貢献を挙げた。

 続いて、CAIDPのMerve Hickok氏が発言し、まず、同センターが、政府や国際機関への提言やAI政策に関するトレーニングの提供を任務としていることについて説明がなされた。次いで、アメリカのAI政策が政権を超えて一貫していること、政府機関向けの拘束力のある大統領令や、民間部門においても活用されうる任意のガイドラインなどの策定が進められているとの現状が紹介された。そして、ソーシャルメディアにおける有害情報を規制しなかったという失敗への反省から、アメリカにおいてもAIセーフティー・インスティテュートが設立されことを解説しつつ、この種の組織をどの省が所管するかは当該国家が何に焦点を当てているかを示すものであるところ、アメリカでは欧州と異なり「安全性」の定義が広く、経済をも包含する概念であることも踏まえて商務省が所管することとされているとの見解が述べられた。そのほか、イギリスによるAIセーフティーサミット、韓国のミニバーチャルサミットといった最近の取組が紹介された。

 その上で、Hickok氏は、AIと人権の議論においては、最低限の要素を共通するという意味での「相互運用性」が重要であり、広島AIプロセスに盛り込まれた諸要素に配意しつつ、マルチステークホルダーの参画を得て国際協調を進めていることが重要であると強調した。

 最後に、AnthropicのMichael Sellitto氏からは、同社が責任あるスケーリングポリシー(Responsible Scaling Policy)の下で、バイオセーフティーレベルになぞらえたAI安全性のレベル(ASL)を設定し、リスクの程度に応じて安全性に係る対策を講じることとされていることが紹介された。その上で、昨年のAI開発のモラトリアムへの呼びかけにも言及しつつ、抽象的な危険のみに基づいて開発を中止するのではなく、ガバナンスの確保といった対策を講じることで対処するべきである旨が述べられた。

 また、Sellitto氏は、広島AIプロセスにおいて策定された国際行動規範を非常に効果的な枠組であると評価しつつ、官民の協力によりコミットメントをモニタリングし、もって同規範への信頼を高めていくことへの期待を示した。

(3)パネルディスカッション

 以上の論点紹介を受け、総務省国際戦略局の飯田情報通信国際戦略特別交渉官及び城山教授も加わり、江間准教授の司会により「AIガバナンスにおいて日本に期待することは何か」と題したパネルディスカッションが行われた。

 まず、飯田氏から、海外事例の紹介を始めとする充実した発表への謝意と共に、各ステークホルダーによるAIの安全性に対する野心的な取組に対する賛辞が示された。また、飯田氏は、AI政策の多様性について、共通性や相互運用性を確保することの重要性を強調しつつ、各登壇者の発言からも、先進国間においてさえ、特にアプローチにおいてなお多様性があることを指摘した。また、Anthropic社の自発的な努力や国際連携への意欲について、このような取組に接し意を強くしたと評価した。

 続いて、城山教授からの問題提起として、安全性とは何か、そして安全性はなぜ重要なのかという点が問いかけられた。次に、先端的なAIや生成AIがもたらす、従来のAIと異なる新たなリスクはどのようなものか、また、各国のAI政策を比較したときに、超党派の合意の有無や所管省庁が異なることは何を意味するのかという2つの点についてさらなる見解を求めた。

 城山教授の問題提起に対して、まず、Sellitto氏からは、AIを巡る懸念やリスクは多岐にわたっているが、Anthropicが焦点を当てているところに即していえば、「安全性」とは、信頼できる安全な形でAIを使えるようにすることであるとの応答がなされた。

 次に、Martinez氏は、21世紀は初めてあらゆる産業に安全がもたらされた世紀であると述べつつ、「安全性」とは、危害を加えず、危害を防ぐことであると指摘した。

 これに対して、Merve氏は、AIの客観的な目的となる機能を出発点として信頼を考えることになるが、汎用目的技術としてのAIについては全てのユースケースを想定することができないことを指摘した。

 また、Hodes氏は、汎用AIの時代では、あらゆるタスクがAIによる改善の対象となり得るが、そうした社会においてもAIシステムを調整することで価値観が維持される必要があると述べた。

 これらを受け、飯田氏は、広島プロセスが生成AIのリスクを討議するために立ち上げられたが、後に基盤システムや先端的なAIも対象に追加された経緯を説明した。また、国際的な討議の中では、「安全性」と「信頼」が同時に議論され、安全性の定義に関する議論が避けられてきた側面があり、今後具体的な対策を講じる中で詳細な定義が必要との認識を示した。

 司会である江間准教授からも安全性に関する議論においては、AI自体の安全性のみならず、法執行機関における活用などAIによって実現される安全性や、ほかの価値とのトレードオフの関係を含めて議論を枠付ける必要があるとの論点が提起された。

 これに対して、飯田氏は、城山教授及び江間准教授の問題的はいずれも極めて重要なものであるとしつつ、技術ベースでイノベーションを進展させつつもリスクを最小限に留めるという点においては、政治・行政の各アクター相互で見解のギャップはそう大きくないとの見解を示した。また、飯田氏は、AIに係る政策立案プロセスにおけるマルチステークホルダーアプローチの重要性を改めて強調した。

 Hodes氏は、飯田氏に賛同しつつ、二大巨頭としての米中という構図を指摘しつつ、日本のAIセーフティー・インスティテュートの設立といった取組を賞賛し、調整役としての役割を果たしていくことへの期待を示した。

 Merve氏は、省庁による権限の違いに言及しつつ、それゆえにマルチステークホルダーの考え方が重要であることを強調した。

 Martinez氏は、欧州でもインターネットに係る規制の整備が遅々として進まなかった経緯に触れつつ、AIに関する規制が、日本の提言も踏まえて原則・価値・共通点を踏まえたグローバルの合意形成の下で進められたと述べた。

 Sellitto氏は、技術開発の初期段階では、規制がイノベーションを妨げるとの懸念が持たれうるが、徐々に何を規制すべきかが分かってくるものであるとしつつ、AnthropicのASLも、まずは規制の策定及び実施を行い、そこから得られた教訓を公表するという実践であったと振り返りつつ、将来的には政府が同様の規制を導入することを期待していると結んだ。

(4)質疑応答

 オンライン参加者からの、日本が近年サイバー攻撃の標的となっていることを踏まえ、AIの安全性や信頼性の担保に何が必要かという質問に対し、Sellitto氏は、現在AIのサイバーセキュリティに関する明確な指針はないものの、開発者向けのサイバーセキュリティースタンダートの形成が進められていることを説明した。また、Martinez氏は、AIを標的としたサイバー攻撃は数多く、むしろこれから学ぶことでレジリエンスを高めることができるのではないかとの展望を示した。

(5)総括・閉会挨拶

 本イベントの締めくくりに当たって、城山教授は、ここまでの議論及び質疑応答を総括して、「安全性」についてはあえて細かい定義を設けないのがよいように思われるが、共通の語彙やノウハウを整理していく必要性があると指摘した。また、AIへの規制については、ハードロー・ソフトローという二分論は単純にすぎ、まずは抽象的な原則と経験の共有から学習のプロセスを進める必要があると提言した。

 江間准教授は、参加者への謝意と共に、技術革新が急速に進展する中で、AIのセキュリティ及びセーフティ、ひいてはAIガバナンスについては、アジャイルかつ敏捷なプロセスを堅持する必要があるとの認識を示した。

 最後に、東京大学国際高等研究所東京カレッジの星岳雄副カレッジ長が閉会の挨拶を述べた。星副カレッジ長は、本日の討議の重要性は明白であり、東京カレッジが未来ビジョン研究センターとともに本イベントを主催できたことは光栄であるとし、星副カレッジ長自身の専門分野である金融規制に関する議論を引き、常に金融システムの健全化を図るための努力が続けられているが、金融システムを完全に安全にできる規制やメカニズムは存在しないのと同様に、技術の安全性を確保するためには、その使い方にポイントがあり、危機を予防することと共に、危機を想定して対応策を備えておくことが必要であるとの所感が述べられた。また、星副カレッジ長は、AIのリスクを管理しつつ、人間中心のAI開発を進めていく必要性に言及しつつ、本日の討議を今後の議論の皮切りにしたいと締めくくり、本イベントは盛会のうちに閉会した。

 

終了しました
Zoom ウェビナー
開催日時 2024年3月28日(木)10:00-12:00 JST
会場

Zoomウェビナー 会場参加の登録はこちらへ、オンライン参加の登録はこちら

申込方法 要事前申込み。 ※定員に達し次第受付を終了します。 ※Zoom URLは、参加お申込みの方に3月27日(水)にメールでお送りします。
言語 英語(日本語同時通訳)
要旨

生成AIの普及に伴い、AIの安全性(セーフティ)の議論が国内外で展開されています。しかし、「安全性」の議論には様々な種類と対応策があり、さらに各国が置かれている状況や文脈により、何を「安全」とみなすか、あるいはどのような脅威・リスクが重視されるかは異なります。AI Safety Instituteが英国・米国・日本等で設立されている中、日本固有の「安全性」の種類とその対応策を把握しておくことが、今後の国際的な連携の基盤としても重要となってくるでしょう。
本イベントでは国際的なAI安全性やガバナンスの潮流に関する議論を、海外のAIガバナンスに関する専門家をお招きして議論を行います。

プログラム

10:00:

開会挨拶

城山 英明 (東京大学未来ビジョン研究センター教授)

 

10:10:

論点紹介

AIガバナンスで現在重要な論点について各パネリストからの紹介

 

11:10:

パネルディスカッション「AIガバナンスにおいて日本に期待することは何か」

Merve Hickok (President and Research Director at Center for AI & Digital Policy (CAIDP))

Cyrus Hodes (Lead, SAFE project at the Global Partnership on AI)

Inma Martinez (Chair of the Multi-stakeholder Experts Group, Global Partnership on AI)

Michael Sellitto (Head of Global Affairs, Anthropic)

 

11:40:

質疑応答

会場からの質疑応答

 

司会
江間 有沙 (東京大学国際高等研究所東京カレッジ 准教授)

 

講師プロフィール

Merve Hickok: President and Research Director at Center for AI & Digital Policy (CAIDP)
Merve Hickok is the President and Research Director at Center for AI and Digital Policy (CAIDP), advising governments and international organizations on AI policy and regulation. She is a globally renowned expert on AI policy, ethics and governance. Her contributions and perspective have featured in The New York Times, Guardian, CNN, Forbes, Bloomberg, Wired, Scientific American, The Atlantic, and Politico. Her work focuses on impact of AI systems on individuals, society, public and private organizations – with a particular focus on fundamental rights, democratic values, and social justice. Merve is also the founder of AIethicist.org. She is the Data Ethics lecturer at University of Michigan School of Information, and the Responsible Data and AI Advisor at Michigan Institute for Data Science.

 

Cyrus Hodes, Lead, SAFE project at the Global Partnership on AI
Cyrus Hodes is a co-founder of Stability AI a leading generative AI platform, which he exited to launch infinitio.ai (AIGC Chain), the first foundation model of AI generated content on a blockchain. He is a General Partner at 1infinity Ventures, a global fund investing in responsible AI ventures. Cyrus leads the Safety and Assurance of Generative AI (SAFE) project at the Global Partnership on AI, responding to the G7 Hiroshima AI Process. He previously co-founded and chaired the AI Initiative at The Future Society—a think tank incubated at Harvard Kennedy School. Cyrus is a member of the OECD Expert Group on AI and a Board member of Intelmatix (Saudi’s largest AI company). Educated at Sciences Po Paris, M.A. Paris II University, M.P.A. Harvard.

 

Inma Martinez, Chair of the Multi-stakeholder Experts Group, Global Partnership on AI
Inma Martinez is technology pioneer and AI scientist who advises leaders in business and government on technology as competitive advantage and contribution to societal progress. She was a pioneer of digital technologies and AI in the 2000s and has combined her career in innovation with advisory appointments at government agencies in the United Kingdom (UKTI and the Innovation Fund of the Department of Sport, Media and Culture), Spain (State Secretariat for Artificial Intelligence at the Ministry of Economy and Digital Transformation) as well as provided expert testimonies across various technology boards at the European Commission since 2002. She has collaborated with the United Nations Industrial Development Organisation (UNIDO) highlighting the implications of the 4IR for developing countries in the post-pandemic world and is a UNESCO Ambassador for Intercultural Values in AI. She is a guest lecturer at Imperial College Business School in London and a published author of scientific books and research papers on emerging technologies.

 

Michael Sellitto, Head of Global Affairs, Anthropic

Michael Sellitto is the Head of Global Affairs at Anthropic, an AI safety and research company. He is also an Adjunct Senior Fellow in the Technology and National Security Program at the Center for a New American Security, and a Member of the Council on Foreign Relations.

Prior to joining Anthropic, Michael was the founding Deputy Director of the Stanford Institute for Human-Centered Artificial Intelligence (HAI), which is dedicated to advancing AI research, education, policy, and practice to improve the human condition. As HAI’s first staff member, he was instrumental in designing and executing the Institute’s strategic plans and establishing HAI’s global reputation among policymakers.

Michael served in the White House as Director for Cybersecurity Policy on the National Security Council staff from 2015-2018. He led international engagement on cybersecurity policy and strategy, promoted international adoption of a framework for strategic stability in cyberspace, and advanced issues related to the digital economy and Internet governance. Before that, Michael served as Special Assistant to Deputy Secretaries of State William J. Burns and Antony Blinken, advising the Deputies on political, energy, security, and trade issues related to South and Central Asia and on worldwide cyber policy and counterterrorism strategy.

 

主催 東京大学未来ビジョン研究センター、東京大学国際高等研究所東京カレッジ
お問い合わせ E-mail ifi_tg[at]@ifi.u-tokyo.ac.jp ([at]→@に置き換えてください)

Upcoming Events

開催予定のイベント

今日は「ディスインフォメーション」の時代か、それとも「戦略的コミュニケーション」の時代か?(講演者:Neville BOLT氏)

イベント予定講演会/Lecture

2024年7月22日(月)14:30-16:00

「ディスインフォメーション」と「戦略的コミュニケーション」は、関連しつつも異なる概念である。にもかかわらず、しばしば同じ意味だと誤解されている。ネビル・ボルト氏は、21世紀初頭より世界中の政府の注目を集め、盛んに論じられてきた「ディスインフォメーション」と「戦略的コミュニケーション」という2つの重要な概念について論じる。

Previous Events

公開済みイベント

平和、安全保障と人工知能

イベント予定講演会/Lecture

2024年7月12日(金) 14:00-15:00

本講演では、広範なセキュリティ領域にわたってAIシステムがもたらす固有のリスクについて掘り下げ、最後に、これらの技術に関連するリスクを防止・軽減するためのガバナンス・モデルの提案について、いくつかの知見を紹介する。その中には、拘束力のある規範、基準、ガイドラインを精緻化する必要性や、これらの規制を実施し、説明責任、被害に対する救済措置、緊急対応を通じてコンプライアンスを確保する適切なメカニズムを備えた一元化された当局を通じた監視、モニタリング、検証、検証機能の必要性が含まれる。

出版記念会:「キーウの遠い空-戦争の中のウクライナ人」(講師:Olga KHOMENKO氏)

イベント予定講演会/Lecture

2024年6月28日(金)15:30-16:30

2023年7月25日、中央公論新社からホメンコ氏の著書『キーウの遠い空─戦争の中のウクライナ人 』が出版された。ウクライナ戦争を独自の視点でとらえた一冊である。
この本は、ホメンコ氏がウクライナで体験した戦争や、家族、友人、元教え子から聞いた話に基づいて執筆された。ホメンコ氏は2022年の初めに日本のメディアの取材で、ウクライナの歴史や文化に関するインタビューを受けたが、その際の質問が、ウクライナの歴史に関する知識をあまりにも欠いていたため、インタビューに応じる代わりにウクライナ人の声を届けるために日本語で本を執筆することにした。

ハッキングの文化史(講師:Federico MAZZINI教授)

イベント予定講演会/Lecture

2024年6月24日(月)15:00-15:45

本講演では、1960年代の米国の大学で誕生したと言われているハッカー文化を、より長い歴史的文脈に位置付け考察する。歴史は19世紀末のSF小説から始まり、1910年代のハムラジオ、1970年代の「電話ハック」、そして20世紀末のコンピューター・ハッカーへと続く。本講演では、ハッカーや初期のハッカーたちが自分たちについて何を書き残し、また彼らが活字メディアにどのように受け止められていたかを議論する

グローバリゼーションの未来: 歴史の視点から(講演者:Bill EMMOTT氏)

イベント予定講演会/Lecture

2024年6月4日(火)16:00-17:30

グローバリゼーション―貿易、金融、思想を通じた国々のつながり―は後退しているように見える。各国政府は地政学的な緊張により、経済的保障を優先させ「リスク回避」に努めている。しかし、グローバリゼーションの後退が言われるのは、これが初めてではない。歴史を振り返ることで、どのような要因が今後のグローバリゼーションの行方を真に左右するのか理解することができるだろう。

日本における同族経営医療法人(講演者:Roger GOODMAN教授)

イベント予定講演会/Lecture

2024年5月30日(木)14:00-15:30

日本では、病院の約80%とクリニックの約90%が私立であり、これらのうち約75%が同族経営である。本講演では、日本の医療制度の運営全体の文脈における同族経営医療法人の発展と意義を説明し、先行研究でまだ明らかにされていない部分に注目する。

21世紀の中央銀行(講演者:Luiz Awazu PEREIRA DA SILVA教授)

イベント予定講演会/Lecture

2024年5月29日 (水)15:00-16:30 JST

21世紀の中央銀行は、5つの岐路に直面している(1. インフレとその不透明性の再現、2. 気候変動、3. 不平等、4. デジタル金融イノベーション、5. 人工知能)。これまで、中央銀行は課題に直面した際、分析的思考を強化し、適切にリスクを均衡させ、最善の道を選択してきた。現在、中央銀行が直面する新たな課題は、中央銀行がそれらの挑戦的な影響を慎重に特定し、分析する必要があることを示唆している。


TOP