AI安全性とガバナンスをめぐる国際的な潮流 - 東京カレッジ

AI安全性とガバナンスをめぐる国際的な潮流

日時:
2024.03.28 @ 10:00 – 12:00
2024-03-28T10:00:00+09:00
2024-03-28T12:00:00+09:00

イベント開催報告

「AI安全性とガバナンスをめぐる国際的な潮流」開催レポート

 2024年3月28日、東京大学未来ビジョン研究センター及び東京大学国際高等研究所東京カレッジは、「AI安全性とガバナンスをめぐる国際的な潮流」と題したセミナーを開催した。本セミナーは、東京大学本郷キャンパス国際学術総合研究棟SMBCアカデミアホール及びオンラインのハイブリッドにより開催され、オンラインでは178名、会場には約30名が参集した。

 本イベントは、生成AIの普及に伴い、AIの安全性(セーフティ)の議論が国内外で展開されている一方で、「安全性」の議論には様々な種類と対応策があり、さらに各国が置かれている状況や文脈により、何を「安全」とみなすか、あるいはどのような脅威・リスクが重視されるかは異なるという状況を踏まえ、また、AI Safety Instituteが英国・米国・日本等で設立されている中、日本固有の「安全性」の種類とその対応策を把握しておくことが、今後の国際的な連携の基盤としても重要になるとの問題意識から開催されたものである。本イベントにおいては、海外のAIガバナンスに関する専門家の出席を得て、国際的なAI安全性やガバナンスの潮流に関する議論が交わされた。

登壇者

Merve Hickok: President and Research Director at Center for AI & Digital Policy (CAIDP)

Cyrus Hodes: Lead, SAFE project at the Global Partnership on AI (GPAI)

Inma Martinez: Chair of the Multi-stakeholder Experts Group, Global Partnership on AI (GPAI)

Michael Sellitto: Head of Global Affairs at Anthropic

飯田陽一: 総務省国際戦略局情報通信国際戦略特別交渉官

城山英明: 東京大学未来ビジョン研究センター教授

江間有沙: 東京大学国際高等研究所東京カレッジ准教授(司会)

(1)開会挨拶

 最初に、東京大学未来ビジョン研究センターの城山英明教授から、開会挨拶があった。城山教授は、同センターの技術ガバナンス研究ユニットが、新興技術(Emerging Technologies)のガバナンスに焦点を当て、リスクチェーンモデルに関する研究やGPAIへの参画を通じたAIの安全性に関する国際的な議論に貢献してきた経緯を紹介しつつ、生成AIの爆発的な普及やG7広島AIプロセスといった近時の急速な情勢の変化に鑑み、AIの安全性に係る課題の整理や体制の整備についてそれぞれの現場に即した議論が求められている現状を踏まえ、本イベントが日本というコンテクストに係る議論のきっかけになることへの期待を示した。

(2)論点紹介

 まず、パネリストからの論点紹介として、GPAIのInma Martinez氏から、GPAIが「すべての人のためのAI」として、公平性や脆弱な人々を包摂することを重視していること、また、これらを含めたGPAIの議論において日本が果たしてきたリーダーシップについて言及があった。加えて、直近のGPAIの活動が、G7広島AIプロセスの特色である共通の価値の実現に向けた合意形成を重視して行われているとの紹介があった。

 また、Martinez氏からは、AIは、自動化にとどまらず、あらゆる産業分野に影響を与え変革をもたらされるものであり、そのようなAIの「安全性」は世界各国で文化的に多様な解釈がなされ得る一方で、「信頼できる」ということについては「技術的に機能する」とのコンセンサスがあるとの説明があった。その上で、GPAIはコンセンサスの形成を追求しているものの、AIに関する定義はもはや無効であって、それぞれの国の文化・価値に沿うべきであり、モノカルチャー化すべきではないことが強調された。

 続いて、同じくGPAIのCyrus Hodes氏から、GPAIがマルチステークホルダーと連携して、生成AIの安全性の保証に取り組んでいる旨が述べられた。

 その上で、Hodes氏は、生成AIのリスクとして、AIシステムの高度化に伴い、監査や評価の基準相互の不調整(Misalignment)が生じてくることが挙げられるが、その調整のためのインフラストラクチャーを構築する必要があるところ、AIセーフティー・インスティテュートとの協調への期待を示した。また、このほかに日本に期待することとして、AIの安全性に関する議論に係るマッピングへの協力及び国際的な議論への貢献を挙げた。

 続いて、CAIDPのMerve Hickok氏が発言し、まず、同センターが、政府や国際機関への提言やAI政策に関するトレーニングの提供を任務としていることについて説明がなされた。次いで、アメリカのAI政策が政権を超えて一貫していること、政府機関向けの拘束力のある大統領令や、民間部門においても活用されうる任意のガイドラインなどの策定が進められているとの現状が紹介された。そして、ソーシャルメディアにおける有害情報を規制しなかったという失敗への反省から、アメリカにおいてもAIセーフティー・インスティテュートが設立されことを解説しつつ、この種の組織をどの省が所管するかは当該国家が何に焦点を当てているかを示すものであるところ、アメリカでは欧州と異なり「安全性」の定義が広く、経済をも包含する概念であることも踏まえて商務省が所管することとされているとの見解が述べられた。そのほか、イギリスによるAIセーフティーサミット、韓国のミニバーチャルサミットといった最近の取組が紹介された。

 その上で、Hickok氏は、AIと人権の議論においては、最低限の要素を共通するという意味での「相互運用性」が重要であり、広島AIプロセスに盛り込まれた諸要素に配意しつつ、マルチステークホルダーの参画を得て国際協調を進めていることが重要であると強調した。

 最後に、AnthropicのMichael Sellitto氏からは、同社が責任あるスケーリングポリシー(Responsible Scaling Policy)の下で、バイオセーフティーレベルになぞらえたAI安全性のレベル(ASL)を設定し、リスクの程度に応じて安全性に係る対策を講じることとされていることが紹介された。その上で、昨年のAI開発のモラトリアムへの呼びかけにも言及しつつ、抽象的な危険のみに基づいて開発を中止するのではなく、ガバナンスの確保といった対策を講じることで対処するべきである旨が述べられた。

 また、Sellitto氏は、広島AIプロセスにおいて策定された国際行動規範を非常に効果的な枠組であると評価しつつ、官民の協力によりコミットメントをモニタリングし、もって同規範への信頼を高めていくことへの期待を示した。

(3)パネルディスカッション

 以上の論点紹介を受け、総務省国際戦略局の飯田情報通信国際戦略特別交渉官及び城山教授も加わり、江間准教授の司会により「AIガバナンスにおいて日本に期待することは何か」と題したパネルディスカッションが行われた。

 まず、飯田氏から、海外事例の紹介を始めとする充実した発表への謝意と共に、各ステークホルダーによるAIの安全性に対する野心的な取組に対する賛辞が示された。また、飯田氏は、AI政策の多様性について、共通性や相互運用性を確保することの重要性を強調しつつ、各登壇者の発言からも、先進国間においてさえ、特にアプローチにおいてなお多様性があることを指摘した。また、Anthropic社の自発的な努力や国際連携への意欲について、このような取組に接し意を強くしたと評価した。

 続いて、城山教授からの問題提起として、安全性とは何か、そして安全性はなぜ重要なのかという点が問いかけられた。次に、先端的なAIや生成AIがもたらす、従来のAIと異なる新たなリスクはどのようなものか、また、各国のAI政策を比較したときに、超党派の合意の有無や所管省庁が異なることは何を意味するのかという2つの点についてさらなる見解を求めた。

 城山教授の問題提起に対して、まず、Sellitto氏からは、AIを巡る懸念やリスクは多岐にわたっているが、Anthropicが焦点を当てているところに即していえば、「安全性」とは、信頼できる安全な形でAIを使えるようにすることであるとの応答がなされた。

 次に、Martinez氏は、21世紀は初めてあらゆる産業に安全がもたらされた世紀であると述べつつ、「安全性」とは、危害を加えず、危害を防ぐことであると指摘した。

 これに対して、Merve氏は、AIの客観的な目的となる機能を出発点として信頼を考えることになるが、汎用目的技術としてのAIについては全てのユースケースを想定することができないことを指摘した。

 また、Hodes氏は、汎用AIの時代では、あらゆるタスクがAIによる改善の対象となり得るが、そうした社会においてもAIシステムを調整することで価値観が維持される必要があると述べた。

 これらを受け、飯田氏は、広島プロセスが生成AIのリスクを討議するために立ち上げられたが、後に基盤システムや先端的なAIも対象に追加された経緯を説明した。また、国際的な討議の中では、「安全性」と「信頼」が同時に議論され、安全性の定義に関する議論が避けられてきた側面があり、今後具体的な対策を講じる中で詳細な定義が必要との認識を示した。

 司会である江間准教授からも安全性に関する議論においては、AI自体の安全性のみならず、法執行機関における活用などAIによって実現される安全性や、ほかの価値とのトレードオフの関係を含めて議論を枠付ける必要があるとの論点が提起された。

 これに対して、飯田氏は、城山教授及び江間准教授の問題的はいずれも極めて重要なものであるとしつつ、技術ベースでイノベーションを進展させつつもリスクを最小限に留めるという点においては、政治・行政の各アクター相互で見解のギャップはそう大きくないとの見解を示した。また、飯田氏は、AIに係る政策立案プロセスにおけるマルチステークホルダーアプローチの重要性を改めて強調した。

 Hodes氏は、飯田氏に賛同しつつ、二大巨頭としての米中という構図を指摘しつつ、日本のAIセーフティー・インスティテュートの設立といった取組を賞賛し、調整役としての役割を果たしていくことへの期待を示した。

 Merve氏は、省庁による権限の違いに言及しつつ、それゆえにマルチステークホルダーの考え方が重要であることを強調した。

 Martinez氏は、欧州でもインターネットに係る規制の整備が遅々として進まなかった経緯に触れつつ、AIに関する規制が、日本の提言も踏まえて原則・価値・共通点を踏まえたグローバルの合意形成の下で進められたと述べた。

 Sellitto氏は、技術開発の初期段階では、規制がイノベーションを妨げるとの懸念が持たれうるが、徐々に何を規制すべきかが分かってくるものであるとしつつ、AnthropicのASLも、まずは規制の策定及び実施を行い、そこから得られた教訓を公表するという実践であったと振り返りつつ、将来的には政府が同様の規制を導入することを期待していると結んだ。

(4)質疑応答

 オンライン参加者からの、日本が近年サイバー攻撃の標的となっていることを踏まえ、AIの安全性や信頼性の担保に何が必要かという質問に対し、Sellitto氏は、現在AIのサイバーセキュリティに関する明確な指針はないものの、開発者向けのサイバーセキュリティースタンダートの形成が進められていることを説明した。また、Martinez氏は、AIを標的としたサイバー攻撃は数多く、むしろこれから学ぶことでレジリエンスを高めることができるのではないかとの展望を示した。

(5)総括・閉会挨拶

 本イベントの締めくくりに当たって、城山教授は、ここまでの議論及び質疑応答を総括して、「安全性」についてはあえて細かい定義を設けないのがよいように思われるが、共通の語彙やノウハウを整理していく必要性があると指摘した。また、AIへの規制については、ハードロー・ソフトローという二分論は単純にすぎ、まずは抽象的な原則と経験の共有から学習のプロセスを進める必要があると提言した。

 江間准教授は、参加者への謝意と共に、技術革新が急速に進展する中で、AIのセキュリティ及びセーフティ、ひいてはAIガバナンスについては、アジャイルかつ敏捷なプロセスを堅持する必要があるとの認識を示した。

 最後に、東京大学国際高等研究所東京カレッジの星岳雄副カレッジ長が閉会の挨拶を述べた。星副カレッジ長は、本日の討議の重要性は明白であり、東京カレッジが未来ビジョン研究センターとともに本イベントを主催できたことは光栄であるとし、星副カレッジ長自身の専門分野である金融規制に関する議論を引き、常に金融システムの健全化を図るための努力が続けられているが、金融システムを完全に安全にできる規制やメカニズムは存在しないのと同様に、技術の安全性を確保するためには、その使い方にポイントがあり、危機を予防することと共に、危機を想定して対応策を備えておくことが必要であるとの所感が述べられた。また、星副カレッジ長は、AIのリスクを管理しつつ、人間中心のAI開発を進めていく必要性に言及しつつ、本日の討議を今後の議論の皮切りにしたいと締めくくり、本イベントは盛会のうちに閉会した。

 

終了しました
Zoom ウェビナー
開催日時 2024年3月28日(木)10:00-12:00 JST
会場

Zoomウェビナー 会場参加の登録はこちらへ、オンライン参加の登録はこちら

申込方法 要事前申込み。 ※定員に達し次第受付を終了します。 ※Zoom URLは、参加お申込みの方に3月27日(水)にメールでお送りします。
言語 英語(日本語同時通訳)
要旨

生成AIの普及に伴い、AIの安全性(セーフティ)の議論が国内外で展開されています。しかし、「安全性」の議論には様々な種類と対応策があり、さらに各国が置かれている状況や文脈により、何を「安全」とみなすか、あるいはどのような脅威・リスクが重視されるかは異なります。AI Safety Instituteが英国・米国・日本等で設立されている中、日本固有の「安全性」の種類とその対応策を把握しておくことが、今後の国際的な連携の基盤としても重要となってくるでしょう。
本イベントでは国際的なAI安全性やガバナンスの潮流に関する議論を、海外のAIガバナンスに関する専門家をお招きして議論を行います。

プログラム

10:00:

開会挨拶

城山 英明 (東京大学未来ビジョン研究センター教授)

 

10:10:

論点紹介

AIガバナンスで現在重要な論点について各パネリストからの紹介

 

11:10:

パネルディスカッション「AIガバナンスにおいて日本に期待することは何か」

Merve Hickok (President and Research Director at Center for AI & Digital Policy (CAIDP))

Cyrus Hodes (Lead, SAFE project at the Global Partnership on AI)

Inma Martinez (Chair of the Multi-stakeholder Experts Group, Global Partnership on AI)

Michael Sellitto (Head of Global Affairs, Anthropic)

 

11:40:

質疑応答

会場からの質疑応答

 

司会
江間 有沙 (東京大学国際高等研究所東京カレッジ 准教授)

 

講師プロフィール

Merve Hickok: President and Research Director at Center for AI & Digital Policy (CAIDP)
Merve Hickok is the President and Research Director at Center for AI and Digital Policy (CAIDP), advising governments and international organizations on AI policy and regulation. She is a globally renowned expert on AI policy, ethics and governance. Her contributions and perspective have featured in The New York Times, Guardian, CNN, Forbes, Bloomberg, Wired, Scientific American, The Atlantic, and Politico. Her work focuses on impact of AI systems on individuals, society, public and private organizations – with a particular focus on fundamental rights, democratic values, and social justice. Merve is also the founder of AIethicist.org. She is the Data Ethics lecturer at University of Michigan School of Information, and the Responsible Data and AI Advisor at Michigan Institute for Data Science.

 

Cyrus Hodes, Lead, SAFE project at the Global Partnership on AI
Cyrus Hodes is a co-founder of Stability AI a leading generative AI platform, which he exited to launch infinitio.ai (AIGC Chain), the first foundation model of AI generated content on a blockchain. He is a General Partner at 1infinity Ventures, a global fund investing in responsible AI ventures. Cyrus leads the Safety and Assurance of Generative AI (SAFE) project at the Global Partnership on AI, responding to the G7 Hiroshima AI Process. He previously co-founded and chaired the AI Initiative at The Future Society—a think tank incubated at Harvard Kennedy School. Cyrus is a member of the OECD Expert Group on AI and a Board member of Intelmatix (Saudi’s largest AI company). Educated at Sciences Po Paris, M.A. Paris II University, M.P.A. Harvard.

 

Inma Martinez, Chair of the Multi-stakeholder Experts Group, Global Partnership on AI
Inma Martinez is technology pioneer and AI scientist who advises leaders in business and government on technology as competitive advantage and contribution to societal progress. She was a pioneer of digital technologies and AI in the 2000s and has combined her career in innovation with advisory appointments at government agencies in the United Kingdom (UKTI and the Innovation Fund of the Department of Sport, Media and Culture), Spain (State Secretariat for Artificial Intelligence at the Ministry of Economy and Digital Transformation) as well as provided expert testimonies across various technology boards at the European Commission since 2002. She has collaborated with the United Nations Industrial Development Organisation (UNIDO) highlighting the implications of the 4IR for developing countries in the post-pandemic world and is a UNESCO Ambassador for Intercultural Values in AI. She is a guest lecturer at Imperial College Business School in London and a published author of scientific books and research papers on emerging technologies.

 

Michael Sellitto, Head of Global Affairs, Anthropic

Michael Sellitto is the Head of Global Affairs at Anthropic, an AI safety and research company. He is also an Adjunct Senior Fellow in the Technology and National Security Program at the Center for a New American Security, and a Member of the Council on Foreign Relations.

Prior to joining Anthropic, Michael was the founding Deputy Director of the Stanford Institute for Human-Centered Artificial Intelligence (HAI), which is dedicated to advancing AI research, education, policy, and practice to improve the human condition. As HAI’s first staff member, he was instrumental in designing and executing the Institute’s strategic plans and establishing HAI’s global reputation among policymakers.

Michael served in the White House as Director for Cybersecurity Policy on the National Security Council staff from 2015-2018. He led international engagement on cybersecurity policy and strategy, promoted international adoption of a framework for strategic stability in cyberspace, and advanced issues related to the digital economy and Internet governance. Before that, Michael served as Special Assistant to Deputy Secretaries of State William J. Burns and Antony Blinken, advising the Deputies on political, energy, security, and trade issues related to South and Central Asia and on worldwide cyber policy and counterterrorism strategy.

 

主催 東京大学未来ビジョン研究センター、東京大学国際高等研究所東京カレッジ
お問い合わせ E-mail ifi_tg[at]@ifi.u-tokyo.ac.jp ([at]→@に置き換えてください)

Upcoming Events

開催予定のイベント

デジタル時代の 教育と 科学の役割(ユヴァル・ノア・ハラリ)

イベント予定パネルディスカッション/Panel discussion共催/Joint Event

2025年3月17日(月)15:00-16:30(14:00開場)

今日、デジタルネットワークは私たちに膨大な情報を 提供しています。特に教育や科学の分野ではかつて ない規模となっています。しかし、これらの成果にもか かわらず、私たちの精神的、社会経済的、政治的状況 は改善されていません。むしろ、それらは悪化してい るように見えます。何が間違っているのでしょうか? 私たちは何をどう改善すべきなのでしょうか? 過去 の情報革命から、私たちは何を学べるのでしょうか? メディアとAIガバナンスの分野で活躍する日本の 2人の著名な研究者が、世界的に有名な思想家で ベストセラー作家であるユヴァ ル・ノア・ハラリとともに、情 報時代のリスクとチャンスに ついて新著『NEXUS 情報の 人類史』をもとに議論します。

ブリュッセル効果への対応:日本企業はEU-AI法にどう備えるべきか3

イベント予定パネルディスカッション/Panel discussion講演会/Lecture

2025年3月19日(水)12:00-13:00

東京大学では2024年12月11日にEU-AI法の解説とCoPの第一ドラフトの解説、2025年1月15日に第二ドラフトの解説を行いました。本ウェビナーでは最後となるCoP第三ドラフトについての解説と、日本企業が特に留意すべき重要なポイントについて概説します。

言語における協働──記録から再興へ(講演者:Mark TURIN教授)

イベント予定講演会/Lecture

2025年4月4日(金)13:00-14:30

"本講演では、これまでMark TURIN教授が関わってきた、歴史的に周縁化されてきた先住民族コミュニティとの2つの協働プロジェクトについて議論する。対象となるのは、ヒマラヤ地域および北米先住民社会であり、彼らはそれぞれの言語を保存し、再興するために取り組んでいる。本講演では、「収集(Collect)」「保護(Protect)」「つながり(Connect)」という3つの言葉について探求する。
"

役に立たない機械の目的とは何か(講演者:Dominique LESTEL教授)

イベント予定講演会/Lecture

2025年4月9日(水)15:00-16:30

ヒューマノイドロボットが注目されているが、実際に人間やその他のロボットと比べてヒューマノイドロボットは何を得意とし、安価であるのかを正確に特定することは難しい。その問題は哲学者にとって大きな課題となっている。本講演では、2017年に市民権を与えられた最初のヒューマノイドロボットであるソフィアを事例として取りあげ、その奇妙な機械が、救世主機械(他の機械の到来を告げる機械)、形而上学的機械(誰が人間か、誰が生きているかなど、根本的な形而上学的質問を私たちに強いる機会)、そして魔法の機械(危険な機械への恐怖と戦うのに役立つ機械)の役割を担うことにより、社会において繊細な位置を占めていることを論じる。

黒死病の世界:新たなアプローチ(講演者:Patrick BOUCHERON教授)

イベント予定講演会/Lecture

2025年4月16日(水)10:00-11:30

1347年からヨーロッパに広がった第二次ペスト大流行は「黒死病」と呼ばれ、史上最大の人口災害として知られている。今日では、葬送考古学、人類学、微生物学、環境科学を組み合わせた学際的研究により、ペスト研究のアプローチは大きく変容した。DNA分析や気候研究の進展は新たな理解をもたらしたが、長期的で世界規模の出来事をどのようにしてグローバル・ヒストリーとして叙述すべきか、という課題は残されている。ペストの流行経路は世界のつながりを示すが、その正確な地理は依然として不明瞭である。そはまるで群島のように不連続でありながらもグローバルな広がりを持つ。

世界文学を超えて(講演者:William MARX教授)

イベント予定講演会/Lecture

2025年5月8日(木)10:30-12:00

少なくとも19世紀以降、世界文学は現実のものとなった。テキストは大陸や文化を越えて旅をし、あらゆる言語から翻訳され、世界中の大学で教えられ、新たなグローバルな規範を形成している。これほど自由に、どこにいても好きな作品を読むことができる時代はかつてなかった。あるいは、そう思えるかもしれない。しかし、それは本当の自由なのでしょうか?単なる心地よい幻想にすぎないのでしょうか?この一見無限に広がる文学の交流には、どのような境界があるのか。本講演は、その限界を探り、文学への新しいアプローチを提案することを目的とする。それは、まったく新しいテキストの読み方、あるいは、かつて存在し忘れ去られた方法かもしれません。
ようこそ、「世界の図書館」へ!

Previous Events

公開済みイベント

グローバル・ブランドとしての日本語:「ヨーロッパ風」に書かれる日本語とは(講演者:Viktoria ESCHBACH-SZABO教授)

イベント予定講演会/Lecture

2025年3月4日(火)15:00-16:30

この講義では、日本語が、国境を越えた日本のグローバル・ブランディングに与える影響を探り、独特のイメージ、文化的意義、信憑性を呼び起こすために、日本語がどのように戦略的に用いられているかを検証する。また、重要な世界言語としての日本語の在り方の現状と、今後の研究の方向性についても洞察する。ドイツとハンガリーにおける言語学的ケーススタディを用いて、日本語表記がどのように言語的に再構成され、製品のアイデンティティや日本らしさを呼び起こすデザインと組み合わされているのかを明らかにする。海外の新たな文脈に創造的に適応された日本語は、ヨーロッパにおいて強力なブランディング・ツールとなっている。

日本の過去を再考する:通史の改訂と歴史の修正(講演者:Andrew GORDON教授)

イベント予定講演会/Lecture

2025年2月27日(木)15:00-16:30

過去というのはまるで異国だと言われており、歴史家は現代の価値観を押し付けることなく過去を理解しようとする。しかしながら、歴史叙述とは、必然的に過去と現在の対話を行うことである。本講演では、これまでA Modern History of Japanを4版執筆し、現在5版の執筆を検討中の著者が、25年にわたる内的対話を紹介する。

イギリスの対中認識と対日政策 ー 2010-2024年(講演者:Alastair MORGAN潮田フェロー)

イベント予定講演会/Lecture

2025年2月18日(火)15:00-16:30

保守党率いるイギリス政府の中国に対する認識は、2010年から2024年にかけて大きく変化しました。2010年、デーヴィッド・キャメロン首相は中国の台頭を機会と捉えていました。しかし、10年後には、政府は中国をイギリスの経済安全保障に対する最大の長期的脅威とし、海外での中国の自己主張に対する懸念が高まっていると表明しました。この期間に、イギリスと日本はますます密接な安全保障関係を築きました。イギリス政府の中国に対する認識がこの期間の日本への政策を決定付けたのでしょうか、それとも他の要因も同様の影響力があったのでしょうか?新しい労働党政府からはどのようなアプローチが期待されるのでしょうか?

日常の「外交官」: 分断された世界で混沌をつながりに変える(講演者:Annelise RILES教授)

イベント予定講演会/Lecture

2025年2月13日(木)10:00-11:30

Annelise RILESは、新著『Everyday Ambassadors』で、私たちは今、リーダーシップが少数の手にあるのではなく、すべての人の手にあるエキサイティングな新世界秩序の瀬戸際にいると主張する。世界に今必要なのは、政治的、文化的違い、科学と宗教、芸術とテクノロジーの世界の間の橋渡し役であり、翻訳者、通訳者など、より多くの外交官であると提唱している。本講演では、RILES教授が、数十年にわたる法律と民族誌の研究をまとめ、誰もがどこにいても優れた外交官になるための 7 つの「行動」をまとめた著書について語る。

不滅の知性とDNAに依存しない人類の台頭(講演者:Johan BJÖRKEGREN教授)

イベント予定講演会/Lecture

2025年1月29日(水)15:00-16:30

約6万年前、人類がアフリカからの移住に成功した頃、ある変革が起こった。ホモ・サピエンスは、自然資源を巡る競争能力を根本的に変える重大なDNA変化を経験したと考えられる。この変化にとって重要だったのは、抽象的思考の獲得であった。そして今日、AIの発展により、ダーウィンの「適者生存」の原則から最終的に脱却する段階に差し掛かっている。我々はDNAへの依存から完全に解放されることで、さらには死すらも克服する方向へ急速に進化しつつある。

性暴力はなぜ繰り返されるのか:背後の社会規範を問う(講演者:大沢 真知子教授)

イベント予定共催/Joint Event講演会/Lecture

2025年1月21日(火)14:00-15:30

声を上げる被害者によって性被害の実態が明らかになりつつある。にもかかわらず性加害が繰り返されるのはなぜなのか。本講演では、2022年にNHKが実施した性暴力実態調査アンケートによって回収された38383件の被害者のデータを元に性被害者の実態を明らかにするとともに、日本社会には強姦神話が存在し、それによって被害者が責められるさらに苦しむという構造がある。背後には男女不平等社会をもたらす社会の男性規範があり、性加害をなくすためには、社会規範を問い直す必要がある。


TOP