AI安全性とガバナンスをめぐる国際的な潮流 - 東京カレッジ

AI安全性とガバナンスをめぐる国際的な潮流

日時:
2024.03.28 @ 10:00 – 12:00
2024-03-28T10:00:00+09:00
2024-03-28T12:00:00+09:00

イベント開催報告

「AI安全性とガバナンスをめぐる国際的な潮流」開催レポート

 2024年3月28日、東京大学未来ビジョン研究センター及び東京大学国際高等研究所東京カレッジは、「AI安全性とガバナンスをめぐる国際的な潮流」と題したセミナーを開催した。本セミナーは、東京大学本郷キャンパス国際学術総合研究棟SMBCアカデミアホール及びオンラインのハイブリッドにより開催され、オンラインでは178名、会場には約30名が参集した。

 本イベントは、生成AIの普及に伴い、AIの安全性(セーフティ)の議論が国内外で展開されている一方で、「安全性」の議論には様々な種類と対応策があり、さらに各国が置かれている状況や文脈により、何を「安全」とみなすか、あるいはどのような脅威・リスクが重視されるかは異なるという状況を踏まえ、また、AI Safety Instituteが英国・米国・日本等で設立されている中、日本固有の「安全性」の種類とその対応策を把握しておくことが、今後の国際的な連携の基盤としても重要になるとの問題意識から開催されたものである。本イベントにおいては、海外のAIガバナンスに関する専門家の出席を得て、国際的なAI安全性やガバナンスの潮流に関する議論が交わされた。

登壇者

Merve Hickok: President and Research Director at Center for AI & Digital Policy (CAIDP)

Cyrus Hodes: Lead, SAFE project at the Global Partnership on AI (GPAI)

Inma Martinez: Chair of the Multi-stakeholder Experts Group, Global Partnership on AI (GPAI)

Michael Sellitto: Head of Global Affairs at Anthropic

飯田陽一: 総務省国際戦略局情報通信国際戦略特別交渉官

城山英明: 東京大学未来ビジョン研究センター教授

江間有沙: 東京大学国際高等研究所東京カレッジ准教授(司会)

(1)開会挨拶

 最初に、東京大学未来ビジョン研究センターの城山英明教授から、開会挨拶があった。城山教授は、同センターの技術ガバナンス研究ユニットが、新興技術(Emerging Technologies)のガバナンスに焦点を当て、リスクチェーンモデルに関する研究やGPAIへの参画を通じたAIの安全性に関する国際的な議論に貢献してきた経緯を紹介しつつ、生成AIの爆発的な普及やG7広島AIプロセスといった近時の急速な情勢の変化に鑑み、AIの安全性に係る課題の整理や体制の整備についてそれぞれの現場に即した議論が求められている現状を踏まえ、本イベントが日本というコンテクストに係る議論のきっかけになることへの期待を示した。

(2)論点紹介

 まず、パネリストからの論点紹介として、GPAIのInma Martinez氏から、GPAIが「すべての人のためのAI」として、公平性や脆弱な人々を包摂することを重視していること、また、これらを含めたGPAIの議論において日本が果たしてきたリーダーシップについて言及があった。加えて、直近のGPAIの活動が、G7広島AIプロセスの特色である共通の価値の実現に向けた合意形成を重視して行われているとの紹介があった。

 また、Martinez氏からは、AIは、自動化にとどまらず、あらゆる産業分野に影響を与え変革をもたらされるものであり、そのようなAIの「安全性」は世界各国で文化的に多様な解釈がなされ得る一方で、「信頼できる」ということについては「技術的に機能する」とのコンセンサスがあるとの説明があった。その上で、GPAIはコンセンサスの形成を追求しているものの、AIに関する定義はもはや無効であって、それぞれの国の文化・価値に沿うべきであり、モノカルチャー化すべきではないことが強調された。

 続いて、同じくGPAIのCyrus Hodes氏から、GPAIがマルチステークホルダーと連携して、生成AIの安全性の保証に取り組んでいる旨が述べられた。

 その上で、Hodes氏は、生成AIのリスクとして、AIシステムの高度化に伴い、監査や評価の基準相互の不調整(Misalignment)が生じてくることが挙げられるが、その調整のためのインフラストラクチャーを構築する必要があるところ、AIセーフティー・インスティテュートとの協調への期待を示した。また、このほかに日本に期待することとして、AIの安全性に関する議論に係るマッピングへの協力及び国際的な議論への貢献を挙げた。

 続いて、CAIDPのMerve Hickok氏が発言し、まず、同センターが、政府や国際機関への提言やAI政策に関するトレーニングの提供を任務としていることについて説明がなされた。次いで、アメリカのAI政策が政権を超えて一貫していること、政府機関向けの拘束力のある大統領令や、民間部門においても活用されうる任意のガイドラインなどの策定が進められているとの現状が紹介された。そして、ソーシャルメディアにおける有害情報を規制しなかったという失敗への反省から、アメリカにおいてもAIセーフティー・インスティテュートが設立されことを解説しつつ、この種の組織をどの省が所管するかは当該国家が何に焦点を当てているかを示すものであるところ、アメリカでは欧州と異なり「安全性」の定義が広く、経済をも包含する概念であることも踏まえて商務省が所管することとされているとの見解が述べられた。そのほか、イギリスによるAIセーフティーサミット、韓国のミニバーチャルサミットといった最近の取組が紹介された。

 その上で、Hickok氏は、AIと人権の議論においては、最低限の要素を共通するという意味での「相互運用性」が重要であり、広島AIプロセスに盛り込まれた諸要素に配意しつつ、マルチステークホルダーの参画を得て国際協調を進めていることが重要であると強調した。

 最後に、AnthropicのMichael Sellitto氏からは、同社が責任あるスケーリングポリシー(Responsible Scaling Policy)の下で、バイオセーフティーレベルになぞらえたAI安全性のレベル(ASL)を設定し、リスクの程度に応じて安全性に係る対策を講じることとされていることが紹介された。その上で、昨年のAI開発のモラトリアムへの呼びかけにも言及しつつ、抽象的な危険のみに基づいて開発を中止するのではなく、ガバナンスの確保といった対策を講じることで対処するべきである旨が述べられた。

 また、Sellitto氏は、広島AIプロセスにおいて策定された国際行動規範を非常に効果的な枠組であると評価しつつ、官民の協力によりコミットメントをモニタリングし、もって同規範への信頼を高めていくことへの期待を示した。

(3)パネルディスカッション

 以上の論点紹介を受け、総務省国際戦略局の飯田情報通信国際戦略特別交渉官及び城山教授も加わり、江間准教授の司会により「AIガバナンスにおいて日本に期待することは何か」と題したパネルディスカッションが行われた。

 まず、飯田氏から、海外事例の紹介を始めとする充実した発表への謝意と共に、各ステークホルダーによるAIの安全性に対する野心的な取組に対する賛辞が示された。また、飯田氏は、AI政策の多様性について、共通性や相互運用性を確保することの重要性を強調しつつ、各登壇者の発言からも、先進国間においてさえ、特にアプローチにおいてなお多様性があることを指摘した。また、Anthropic社の自発的な努力や国際連携への意欲について、このような取組に接し意を強くしたと評価した。

 続いて、城山教授からの問題提起として、安全性とは何か、そして安全性はなぜ重要なのかという点が問いかけられた。次に、先端的なAIや生成AIがもたらす、従来のAIと異なる新たなリスクはどのようなものか、また、各国のAI政策を比較したときに、超党派の合意の有無や所管省庁が異なることは何を意味するのかという2つの点についてさらなる見解を求めた。

 城山教授の問題提起に対して、まず、Sellitto氏からは、AIを巡る懸念やリスクは多岐にわたっているが、Anthropicが焦点を当てているところに即していえば、「安全性」とは、信頼できる安全な形でAIを使えるようにすることであるとの応答がなされた。

 次に、Martinez氏は、21世紀は初めてあらゆる産業に安全がもたらされた世紀であると述べつつ、「安全性」とは、危害を加えず、危害を防ぐことであると指摘した。

 これに対して、Merve氏は、AIの客観的な目的となる機能を出発点として信頼を考えることになるが、汎用目的技術としてのAIについては全てのユースケースを想定することができないことを指摘した。

 また、Hodes氏は、汎用AIの時代では、あらゆるタスクがAIによる改善の対象となり得るが、そうした社会においてもAIシステムを調整することで価値観が維持される必要があると述べた。

 これらを受け、飯田氏は、広島プロセスが生成AIのリスクを討議するために立ち上げられたが、後に基盤システムや先端的なAIも対象に追加された経緯を説明した。また、国際的な討議の中では、「安全性」と「信頼」が同時に議論され、安全性の定義に関する議論が避けられてきた側面があり、今後具体的な対策を講じる中で詳細な定義が必要との認識を示した。

 司会である江間准教授からも安全性に関する議論においては、AI自体の安全性のみならず、法執行機関における活用などAIによって実現される安全性や、ほかの価値とのトレードオフの関係を含めて議論を枠付ける必要があるとの論点が提起された。

 これに対して、飯田氏は、城山教授及び江間准教授の問題的はいずれも極めて重要なものであるとしつつ、技術ベースでイノベーションを進展させつつもリスクを最小限に留めるという点においては、政治・行政の各アクター相互で見解のギャップはそう大きくないとの見解を示した。また、飯田氏は、AIに係る政策立案プロセスにおけるマルチステークホルダーアプローチの重要性を改めて強調した。

 Hodes氏は、飯田氏に賛同しつつ、二大巨頭としての米中という構図を指摘しつつ、日本のAIセーフティー・インスティテュートの設立といった取組を賞賛し、調整役としての役割を果たしていくことへの期待を示した。

 Merve氏は、省庁による権限の違いに言及しつつ、それゆえにマルチステークホルダーの考え方が重要であることを強調した。

 Martinez氏は、欧州でもインターネットに係る規制の整備が遅々として進まなかった経緯に触れつつ、AIに関する規制が、日本の提言も踏まえて原則・価値・共通点を踏まえたグローバルの合意形成の下で進められたと述べた。

 Sellitto氏は、技術開発の初期段階では、規制がイノベーションを妨げるとの懸念が持たれうるが、徐々に何を規制すべきかが分かってくるものであるとしつつ、AnthropicのASLも、まずは規制の策定及び実施を行い、そこから得られた教訓を公表するという実践であったと振り返りつつ、将来的には政府が同様の規制を導入することを期待していると結んだ。

(4)質疑応答

 オンライン参加者からの、日本が近年サイバー攻撃の標的となっていることを踏まえ、AIの安全性や信頼性の担保に何が必要かという質問に対し、Sellitto氏は、現在AIのサイバーセキュリティに関する明確な指針はないものの、開発者向けのサイバーセキュリティースタンダートの形成が進められていることを説明した。また、Martinez氏は、AIを標的としたサイバー攻撃は数多く、むしろこれから学ぶことでレジリエンスを高めることができるのではないかとの展望を示した。

(5)総括・閉会挨拶

 本イベントの締めくくりに当たって、城山教授は、ここまでの議論及び質疑応答を総括して、「安全性」についてはあえて細かい定義を設けないのがよいように思われるが、共通の語彙やノウハウを整理していく必要性があると指摘した。また、AIへの規制については、ハードロー・ソフトローという二分論は単純にすぎ、まずは抽象的な原則と経験の共有から学習のプロセスを進める必要があると提言した。

 江間准教授は、参加者への謝意と共に、技術革新が急速に進展する中で、AIのセキュリティ及びセーフティ、ひいてはAIガバナンスについては、アジャイルかつ敏捷なプロセスを堅持する必要があるとの認識を示した。

 最後に、東京大学国際高等研究所東京カレッジの星岳雄副カレッジ長が閉会の挨拶を述べた。星副カレッジ長は、本日の討議の重要性は明白であり、東京カレッジが未来ビジョン研究センターとともに本イベントを主催できたことは光栄であるとし、星副カレッジ長自身の専門分野である金融規制に関する議論を引き、常に金融システムの健全化を図るための努力が続けられているが、金融システムを完全に安全にできる規制やメカニズムは存在しないのと同様に、技術の安全性を確保するためには、その使い方にポイントがあり、危機を予防することと共に、危機を想定して対応策を備えておくことが必要であるとの所感が述べられた。また、星副カレッジ長は、AIのリスクを管理しつつ、人間中心のAI開発を進めていく必要性に言及しつつ、本日の討議を今後の議論の皮切りにしたいと締めくくり、本イベントは盛会のうちに閉会した。

 

終了しました
Zoom ウェビナー
開催日時 2024年3月28日(木)10:00-12:00 JST
会場

Zoomウェビナー 会場参加の登録はこちらへ、オンライン参加の登録はこちら

申込方法 要事前申込み。 ※定員に達し次第受付を終了します。 ※Zoom URLは、参加お申込みの方に3月27日(水)にメールでお送りします。
言語 英語(日本語同時通訳)
要旨

生成AIの普及に伴い、AIの安全性(セーフティ)の議論が国内外で展開されています。しかし、「安全性」の議論には様々な種類と対応策があり、さらに各国が置かれている状況や文脈により、何を「安全」とみなすか、あるいはどのような脅威・リスクが重視されるかは異なります。AI Safety Instituteが英国・米国・日本等で設立されている中、日本固有の「安全性」の種類とその対応策を把握しておくことが、今後の国際的な連携の基盤としても重要となってくるでしょう。
本イベントでは国際的なAI安全性やガバナンスの潮流に関する議論を、海外のAIガバナンスに関する専門家をお招きして議論を行います。

プログラム

10:00:

開会挨拶

城山 英明 (東京大学未来ビジョン研究センター教授)

 

10:10:

論点紹介

AIガバナンスで現在重要な論点について各パネリストからの紹介

 

11:10:

パネルディスカッション「AIガバナンスにおいて日本に期待することは何か」

Merve Hickok (President and Research Director at Center for AI & Digital Policy (CAIDP))

Cyrus Hodes (Lead, SAFE project at the Global Partnership on AI)

Inma Martinez (Chair of the Multi-stakeholder Experts Group, Global Partnership on AI)

Michael Sellitto (Head of Global Affairs, Anthropic)

 

11:40:

質疑応答

会場からの質疑応答

 

司会
江間 有沙 (東京大学国際高等研究所東京カレッジ 准教授)

 

講師プロフィール

Merve Hickok: President and Research Director at Center for AI & Digital Policy (CAIDP)
Merve Hickok is the President and Research Director at Center for AI and Digital Policy (CAIDP), advising governments and international organizations on AI policy and regulation. She is a globally renowned expert on AI policy, ethics and governance. Her contributions and perspective have featured in The New York Times, Guardian, CNN, Forbes, Bloomberg, Wired, Scientific American, The Atlantic, and Politico. Her work focuses on impact of AI systems on individuals, society, public and private organizations – with a particular focus on fundamental rights, democratic values, and social justice. Merve is also the founder of AIethicist.org. She is the Data Ethics lecturer at University of Michigan School of Information, and the Responsible Data and AI Advisor at Michigan Institute for Data Science.

 

Cyrus Hodes, Lead, SAFE project at the Global Partnership on AI
Cyrus Hodes is a co-founder of Stability AI a leading generative AI platform, which he exited to launch infinitio.ai (AIGC Chain), the first foundation model of AI generated content on a blockchain. He is a General Partner at 1infinity Ventures, a global fund investing in responsible AI ventures. Cyrus leads the Safety and Assurance of Generative AI (SAFE) project at the Global Partnership on AI, responding to the G7 Hiroshima AI Process. He previously co-founded and chaired the AI Initiative at The Future Society—a think tank incubated at Harvard Kennedy School. Cyrus is a member of the OECD Expert Group on AI and a Board member of Intelmatix (Saudi’s largest AI company). Educated at Sciences Po Paris, M.A. Paris II University, M.P.A. Harvard.

 

Inma Martinez, Chair of the Multi-stakeholder Experts Group, Global Partnership on AI
Inma Martinez is technology pioneer and AI scientist who advises leaders in business and government on technology as competitive advantage and contribution to societal progress. She was a pioneer of digital technologies and AI in the 2000s and has combined her career in innovation with advisory appointments at government agencies in the United Kingdom (UKTI and the Innovation Fund of the Department of Sport, Media and Culture), Spain (State Secretariat for Artificial Intelligence at the Ministry of Economy and Digital Transformation) as well as provided expert testimonies across various technology boards at the European Commission since 2002. She has collaborated with the United Nations Industrial Development Organisation (UNIDO) highlighting the implications of the 4IR for developing countries in the post-pandemic world and is a UNESCO Ambassador for Intercultural Values in AI. She is a guest lecturer at Imperial College Business School in London and a published author of scientific books and research papers on emerging technologies.

 

Michael Sellitto, Head of Global Affairs, Anthropic

Michael Sellitto is the Head of Global Affairs at Anthropic, an AI safety and research company. He is also an Adjunct Senior Fellow in the Technology and National Security Program at the Center for a New American Security, and a Member of the Council on Foreign Relations.

Prior to joining Anthropic, Michael was the founding Deputy Director of the Stanford Institute for Human-Centered Artificial Intelligence (HAI), which is dedicated to advancing AI research, education, policy, and practice to improve the human condition. As HAI’s first staff member, he was instrumental in designing and executing the Institute’s strategic plans and establishing HAI’s global reputation among policymakers.

Michael served in the White House as Director for Cybersecurity Policy on the National Security Council staff from 2015-2018. He led international engagement on cybersecurity policy and strategy, promoted international adoption of a framework for strategic stability in cyberspace, and advanced issues related to the digital economy and Internet governance. Before that, Michael served as Special Assistant to Deputy Secretaries of State William J. Burns and Antony Blinken, advising the Deputies on political, energy, security, and trade issues related to South and Central Asia and on worldwide cyber policy and counterterrorism strategy.

 

主催 東京大学未来ビジョン研究センター、東京大学国際高等研究所東京カレッジ
お問い合わせ E-mail ifi_tg[at]@ifi.u-tokyo.ac.jp ([at]→@に置き換えてください)

Upcoming Events

開催予定のイベント

個人主義の国・日本(講演者:John LIE教授)

イベント予定講演会/Lecture

2024年11月26日(火)13:00-14:30

欧米諸国の「個人主義」に対して、日本社会は「集団主義」あるいは「集団志向」であると言われている。しかし、この説は間違いである。本講演では、通説に反論した後、この誤った考え方の系譜をたどり、その妥当性について論じる。

見えざるジェンダーから見えるジェンダーへ(講演者:岡田 トリシャ教授)

イベント予定講演会/Lecture

2024年12月6日(金)15:00-16:30

本講演では、1980年代から2000年代初頭までの日本におけるフィリピン人トランス女性またはトランスピネイの移住経緯(移住前・中・後)に関するエスノグラフィ研究を取り上げる。交差的不可視性(Purdie-Vaughns & Eibach, 2008)の枠組みから、フィリピン人トランス女性の移住体験を、トランスジェンダー移住者が現在直面している問題の事例と関連づける。また、ソーシャルメディアや映画が、いかにしてジェンダーの(不)可視性を示し、交渉する場を作り出しているのかについても探求する。

ブリュッセル効果への対応:日本企業はEU-AI法にどう備えるべきか

イベント予定講演会/Lecture

2024年12月11日(水)12:00-13:00

本ウェビナーでは、EU-AI法の概要と行動規範の策定における4つのワーキンググループ活動、さらに日本企業が特に留意すべき重要なポイントについて概説します。
EUの規制動向がもたらす「ブリュッセル効果」や日本への影響について理解を深める機会としてAI関連技術の開発・提供・流通に関わる企業、研究機関、開発コミュニティの参加者のご参加をお待ちしております。

発展途上国の環境問題:課税の役割とは?(講演者:Michael KEEN潮田フェロー)

イベント予定講演会/Lecture

2024年12月11日(水)10:30-12:00

多くの低所得国は深刻な環境問題に直面している。よって、社会のニーズと経済発展に資金を提供するための税収が喫緊の課題となっている。環境税は、その両方の目的を満たせるのか。この講義では、最近出版された書籍を参考にしながら、低所得国が直面する多くの環境問題のうち最も差し迫った問題(大気・土壌の質、廃棄物管理、森林破壊、渋滞、気候変動への適応など)を評価し、税制の改善がそれらの問題への対処と多額の税収の引き上げにおいて、どの程度役立つかについて検討する。

駐日ジョージア大使に聞く 「内から見た日本、外から見た日本」

イベント予定対話/Dialogue

2024年12月13日 17:00以降視聴可能

日本文化や日本のビジネス慣習に深い知見と洞察を持つティムラズ・レジャバ駐日ジョージア大使と、海外から日本を多角的に研究してきた、グローバル外交史の専門家である島津直子教授が、東京カレッジの主要な研究テーマの一つである「内から見た日本、外から見た日本」について議論します。
ご一緒にお楽しみください。

ザ・サロン ー 東大教授との対話シリーズ シーズン3

イベント予定対話/Dialogue

12月2日以降 毎週月曜日 順次公開(17:00以降視聴可能)

東大の文系の卓越研究者をゲストに迎え、東京カレッジの島津直子教授と、東京カレッジに滞在中のUCバークレーのJohn Lie教授がホスト役を務める対談シリーズ。専門分野の壁を超えた対話を繰り広げます。
隣の席に座った気分で、分野の異なる専門家によるリラックスした会話に耳を傾けてみませんか?

Previous Events

公開済みイベント

競合からパートナーへ:銀行によるフィンテックへのベンチャー投資(講演者:Manju PURI教授)

イベント予定講演会/Lecture

2024年11月12日(火)10:30-12:00

銀行がフィンテックとの競争を乗り切るための戦略的アプローチとして、フィンテックの新興企業へのベンチャー投資を活用しているという仮説のもとに、その根拠について検討を行う。これまで、銀行のベンチャー投資がフィンテック企業により重点を置いていることが明らかにされている。その結果、フィンテックとの競合が激化している銀行においては、フィンテックの新興企業にベンチャー投資をする可能性が高いことが示唆される。さらに、銀行は、自社の事業と資産の補完性が高いフィンテック企業をターゲットにしていることが証された。よって、操作変数分析により、ベンチャー投資が投資銀行とフィンテックの投資先との間で業務上の協力や知識移転が行われる可能性が高まることが理解できる。

多文化・多言語対応の安全な大規模言語モデルの構築を目指して

イベント予定講演会/Lecture

2024年11月11日(月)10:00-11:00

生成人工知能(AI)の利用が世界的に広まるにつれ、AIモデルが地域ごとの文化や言語におけるリスクや懸念を敏感に反映できることがますます重要になっています。そのためには、何がリスクや有害なコンテンツなのかを地域・文化ごとに特定する作業を更新し続けていくことが必要となります。この作業には、AIや情報セキュリティの研究者はもちろん、人文・社会科学の研究者、AIやメディアのプラットフォーマー達や実務家の方や政策関係者たちと継続的に議論できるコミュニティを形成していくことが重要となります。本イベントでは、このようなコミュニティを継続させていく枠組みについてお話します。

新内閣の経済政策: ウィッシュリストと展望

イベント予定パネルディスカッション/Panel discussion共催/Joint Event

2024年11月8日(金)8:00 - 9:15

自民党総裁選挙(9月27日)と衆議院議員選挙(10月27日)の2つの選挙が行われ、新しい首相が選出された。この2回の選挙では、多くの経済政策案が提示され、議論された。ウェビナーでは、採用される可能性の高い経済政策と、採用される可能性は低いが日本経済にとって望ましい経済政策について議論する。

ロボットを「殺す」50の方法(講演者:Jennifer ROBERTSON教授)

イベント予定講演会/Lecture

2024年11月5日(火)10:30-12:00

タイトルの「50 Ways」という言葉は、文字通りの尺度として捉えるべきではない。「50」は、単に「いくつか以上の数」を表す比喩である。ポール・サイモンのヒット曲「恋人と別れる50の方法」(1975年)では、6つの別れ方が提示されている。本講演では、ロボットを「殺す、終わらせる」ためのいくつかの方法と、ロボットが「死ぬ」いくつかの方法を検討する。ここで言う「死」とは、生命維持機能が永続的に停止することを広く定義している。また、「死亡した」ロボットがどのように処理されるかについても考察する。文化的な焦点は主に日本と米国である。人間もロボットも、いくつかの点で電気的な存在であるため、結論では、電気の供給が途絶えた後にそれぞれに何が起こるのかという問題を取り上げる。

東アジア・東南アジアのアイドル・ファンダム文化におけるクィア・ファンタジーの探求(講演者:Thomas BAUDINETTE氏)

イベント予定講演会/Lecture

2024年11月1日(金)14:00-15:30

本講演では、東アジアの確立されたアイドル市場(日本と韓国)と東南アジアの新興アイドル市場(フィリピンとタイ)の両方におけるアイドル・ファンダムの10年以上にわたるエスノグラフィックな観察をもとに、アイドル・ファンダムに関するこの説明に異議を唱える。そして、ファンの主観性が基本的に変容的であることが、周縁化された社会的主体が自分たちを不利にする社会構造を批判するために利用できるアイドルと結びついたクィア・ファンタジーの創造を促すことを主張する。さらに本講演では、アジア全域のLGBTQ+のファンが、アイドルのファンダムをどのようにクィアな空間へと変容させ、そこで彼らのファンタジー作品が、クィア解放という政治的プロジェクトに根ざした国境を越えた連帯を生み出しているのかを解き明かす。

日本におけるクィア人口学――西洋を前提に普遍化されたジェンダー・セクシュアリティに関する知を脱中心化する(講演者:平森大規 教授)

イベント予定講演会/Lecture

2024年10月24日(木)15:00-16:30

本講演では、日本の文脈を考慮に入れつつ、無作為抽出調査で性的指向・性自認を測定するための方法論的研究から得られた知見を紹介する。また、異性愛者の回答者が非異性愛者として誤分類される問題や、量的データにおいて異性愛者と非異性愛者を完全に分けることの難しさについても考察する。さらに、量的調査の性別欄において、ノンバイナリー回答者を捉えるために選択肢「その他」を用いることがあるが、性別を「その他」と選んだ回答者の半数はシスジェンダー女性である可能性があるという最新の調査結果について最後に述べる。


TOP