ユーザー登録

ポジションペーパー

急速に発展するデジタルおよび関連テクノロジーを評価するためのフレームワーク: AI、大規模言語モデルなど

このディスカッション ペーパーは、AI に関連して行われている複数の世界的および国家的議論に情報を提供するための初期フレームワークの概要を提供します。

多くの学者や政策専門家によって、社会科学と自然科学からの多元的なメンバーを擁する国際科学会議が、リスク、利益、脅威、機会に関する注釈付きの枠組み/チェックリストを作成し維持するプロセスを確立することが提案されている。 AI を含む (ただしこれに限定されない) 急速に進歩するデジタル テクノロジーに関連しています。 チェックリストの目的は、政府、貿易​​交渉者、規制当局、市民社会、業界を含むすべての利害関係者に潜在的な将来シナリオを知らせ、機会、利益、リスク、その他の問題をどのように考慮するかを枠組み化することです。

ISC は、急速に発展するデジタルおよび関連テクノロジーの評価に関するこのディスカッション ペーパーを発表できることを嬉しく思います。 人工知能、合成生物学、量子技術は、科学に基づいて前例のないペースで出現しているイノベーションの代表的な例です。 それらのアプリケーションだけでなく、その影響を体系的に予測することは困難な場合があります。

予想通りこの討論論文の大部分を占める大規模言語モデルなどの生成 AI の社会的側面を評価することは、現在の議論 (時にはパニックに駆られたり、十分に深く考えられなかったりする) と私たちが取るべき必要な行動方針との間の橋渡しとなるものです。ISC は、急速に台頭するこの技術の社会的利益を最適化する方法について情報に基づいた責任ある決定を下すために必要な、複数の利害関係者による議論を促進するには、このような新しい技術の社会的受容とそれらの規制の可能性との間の分析フレームワークが必要であると確信しています。

ISC は、テクノロジーに関する議論に参加し、貢献し続ける最善の方法を評価するために、このディスカッション ペーパーを通じてコミュニティからの反応を歓迎します。

サルバトーレ・アリコ、CEO
ISC ディスカッションペーパー

ISC ディスカッションペーパー

急速に発展するデジタルおよび関連テクノロジーを評価するためのフレームワーク: AI、大規模言語モデルなど

このディスカッション ペーパーは、AI に関連して行われている複数の世界的および国家的議論に情報を提供するための初期フレームワークの概要を提供します。

レポートをダウンロードする

新しい! 組織向けのダウンロード可能なフレームワークを含む、政策立案者向けの 2024 年版をお読みください。

政策立案者向けガイド: AI、大規模言語モデルなど、急速に発展するテクノロジーの評価

このディスカッション ペーパーは、AI に関連して行われている複数の世界的および国家的議論に情報を提供するための初期フレームワークの概要を提供します。

2023年のISCディスカッションペーパーをオンラインまたはお好みの言語で読む

内容

  • 概要 
  • 経歴 
  • 分析フレームワークの開発 
  • 分析フレームワークの使用 
  • 新しいテクノロジーを評価する際に考慮すべき次元 
  • 前進する方法 
  • 謝辞

概要

急速に出現するテクノロジーは、そのガバナンスと潜在的な規制に関して困難な問題を引き起こします。 人工知能 (AI) とその使用に関する政策と公の議論により、これらの問題が深刻な焦点になっています。 AI に関する広範な原則がユネスコ、OECD などによって公布され、この技術の世界的または管轄区域による規制に関する議論が始まっていますが、高レベルの原則の開発と、それらを規制、政策、社会に組み込むことの間には存在論的なギャップがあります。ガバナンスとスチュワードシップのアプローチ。 ここでは、非政府科学コミュニティが特別な役割を果たすことができます。 

多くの学者や政策専門家によって、社会科学と自然科学の多元的メンバーを擁する国際学術会議(ISC)が、リスク、利益、リスク、利益、リスクに関する注釈付きの枠組み/チェックリストを作成し、維持するプロセスを確立することが提案されている。 AI を含む (ただしこれに限定されない) 急速に変化するデジタル テクノロジーに関連する脅威と機会。 チェックリストの目的は、政府、貿易​​交渉者、規制当局、市民社会、業界を含むすべての利害関係者に潜在的な将来シナリオを知らせ、機会、利益、リスク、その他の問題をどのように考慮するかを枠組み化することです。 

成果は評価機関として機能するのではなく、政府や多国間システムを含む利害関係者によって開発される可能性のある評価および規制プロセスを支えることができる、適応的かつ進化する分析フレームワークとして機能します。 どのような分析フレームワークも、理想的には、政府や業界の主張から独立して開発されるべきであり、その主張は理解できるものです。 また、その視点は最大限に多元的であり、テクノロジーとその影響のあらゆる側面を網羅する必要があります。 

このディスカッション ペーパーは、AI に関連して行われている複数の世界的および国家的議論に情報を提供するための初期フレームワークの概要を提供します。 

背景: なぜ分析フレームワークなのか?

AI の複雑さと影響を伴うテクノロジーの急速な出現により、大きな利点が得られるという多くの主張が生まれています。 しかし、それはまた、個人レベルから地理的戦略レベルに至るまで、重大なリスクに対する懸念も引き起こします。 議論の多くは意見の範囲の極端な部分で行われる傾向があり、より現実的なアプローチが必要です。 AI テクノロジーは進化し続け、事実上すべてのテクノロジーが有益な用途と有害な用途の両方を持っていることは歴史が示しています。 したがって、問題は、有害な結果のリスクを軽減しながら、このテクノロジーから有益な結果をどのように達成できるかということです。そのうちのいくつかは重大なものになる可能性があります。 

将来は常に不確実ですが、AI と生成 AI に関しては、比較的予防的なアプローチを奨励する十分な信頼できる専門家の意見があります。 さらに、AI はさまざまなタイプのユーザーによって広範に使用および応用されるテクノロジーの一種であるため、システムへのアプローチも必要です。 これは、個人、社会生活、市民生活、社会生活、そして地球規模の文脈における AI の影響を考慮する際に、完全な文脈を考慮する必要があることを意味します。 

過去のほとんどのテクノロジーとは異なり、デジタルおよび関連テクノロジーは、主に制作会社または代理店の利益によって開発からリリースまでの時間が非常に短くなります。 AI は急速に普及しています。 一部の特性はリリース後に初めて明らかになる可能性があり、このテクノロジーは悪意のある用途と慈善的な用途の両方に適用される可能性があります。 重要な値 寸法は、使用方法がどのように認識されるかに影響します。 さらに、地理戦略上の利益が作用している可能性もあります。 

これまで、仮想テクノロジーの規制は主に「原則」と自主的な遵守というレンズを通して見られてきました。 しかし、最近では、規制やその他の政策ツールの使用を含む、国内および多国間のガバナンスの問題に議論が移ってきています。 AI に対する賛成または反対の主張は誇張的なものが多く、テクノロジーの性質を考慮すると評価するのが困難です。 効果的な世界的または国家的な技術規制システムを確立することは困難であり、発明者から生産者、ユーザー、政府、多国間システムに至るまで、リスクを考慮した多層的な意思決定がチェーン全体で必要となります。 

とりわけユネスコ、OECD、欧州委員会によってハイレベルの原則が公布され、潜在的な規制の問題に関してさまざまなハイレベルの議論が進行中ですが、そのような原則とガバナンスまたは規制の枠組みの間には大きな存在論的なギャップがあります。 規制当局が考慮する必要がある考慮事項の分類は何ですか? これらのテクノロジーの広範な影響を考慮すると、狭く焦点を絞ったフレーミングは賢明ではありません。 この可能性については、肯定的でも否定的でも多くの論評がなされてきました。

分析フレームワークの開発

ISC は、自然科学と社会科学を統合する主要な世界的 NGO です。 その世界的かつ専門的な範囲は、特にこの分野における現在の声の大部分が産業界または主要な技術力からのものであるため、今後の複雑な選択を知らせるために、独立した世界的に関連性のあるアドバイスを生成するのに適した立場にあることを意味します。 非政府評価プロセスの検討を含む、ここ数カ月にわたる広範な議論を経て、ISC は、その最も有益な貢献は、議論と意思決定の基礎として使用できる適応分析フレームワークを作成し、維持することであると結論付けました。正式な評価プロセス中も含めて、すべての利害関係者。 

この枠組みは、政府機関と非政府機関の両方が使用できる包括的なチェックリストの形式をとることになります。 このフレームワークは、人間と社会の幸福だけでなく、経済、政治、環境、安全保障などの外部要因を含む幅広いレンズを通して、AI やその派生品などのテクノロジーの可能性を特定し、探求します。 コンテキストに応じて、チェックリストの一部の側面が他の側面よりも関連性が高い場合がありますが、すべての領域を考慮した場合、より適切な決定が行われる可能性が高くなります。 これは、チェックリスト アプローチの固有の価値です。 

提案されたフレームワークは、国際政府科学助言ネットワーク (INGSA) のデジタル ウェルビーイング レポートなど、これまでの研究と考え方に基づいて作成されています。1 および OECD AI 分類フレームワーク2 AI の潜在的な機会、リスク、影響の全体像を提示します。 これらの以前の製品は、時代と状況を考慮すると、その目的がより制限されていたため、短期および長期の両方であらゆる問題を提示する包括的なフレームワークが必要です。 

この分析フレームワークは AI を考慮するために開発されましたが、急速に出現しているあらゆるテクノロジーに適用できます。 問題は、さらに詳しく検討するために、次のカテゴリに大まかに分類されます。 

  • 幸福(個人または自己、社会および社会生活、市民生活の幸福を含む) 
  • 貿易と経済 
  • 環境 
  • 地理戦略的および地政学的 
  • 技術(システムの特性、設計、使用) 

上記の各カテゴリの考慮事項のリストが、それぞれの機会と結果とともに含まれています。 AI の特定のインスタンスやアプリケーションに関連するものもありますが、汎用的でプラットフォームや用途にとらわれないものもあります。 ここに含まれる単一の考慮事項を優先事項として扱うべきではないため、すべてを検討する必要があります。 

このフレームワークはどのように使用できるのでしょうか?

このフレームワークは次のような方法で利用できますが、これに限定されません。 

  • 当局によって開発される可能性のある評価フレームワークを含め、関連する利害関係者が情報を提供し、さらなる考え方を形成するための基礎として利用できる、さまざまな考慮事項の検証済みの共通分類を確立することで、原則と評価の間のギャップを埋める。 
  • 影響評価を通知するため。 EU AI 法では、AI ツールを提供する組織、またはプロセスに AI を導入する組織に対し、影響評価を実施して取り組みのリスクを特定し、適切なリスク管理アプローチを適用することが義務付けられています。 ここで紹介したフレームワークは、その基盤として使用できます。 
  • AI の使用を指導し管理するために必要な倫理原則を強化する。 このフレームワークは、信頼できるシステムを開発できる柔軟な基盤を提供し、テクノロジーの合法的、倫理的、堅牢かつ責任ある使用を保証することでこれを実現します。 これらの原則は、このフレームワークで示されるあらゆる影響に対してテストすることができます。 
  • 既存の対策 (規制、立法、政策など) の棚卸しを促進し、さらなる検討が必要なギャップを特定する。 
  • このフレームワークは、テクノロジーとその使用法に依存しません。 したがって、合成生物学などのまったく異なる分野で使用できる可能性があります。 

次の表は、分析フレームワークの次元の初期の形成を示しています。 テクノロジーとその用途に応じて、一部のコンポーネントは他のコンポーネントよりも関連性が高くなります。 例は、各ドメインがなぜ重要であるかを説明するために提供されています。 状況に応じて、フレームワークには状況に応じた拡張が必要になります。 プラットフォーム開発と、特定のアプリケーション中に発生する可能性のある一般的な問題を区別することも重要です。  

新しいテクノロジーを評価する際に考慮すべき次元

新しいテクノロジーを評価する際に考慮する必要がある可能性のある次元の初期草案
衝撃の大きさ 基準 これが分析にどのように反映されるかの例  
個人/自分自身  ユーザーの AI コンピテンシー  システムと対話する可能性のあるユーザーは、システムの特性をどの程度有能で認識しているでしょうか? 関連するユーザー情報や注意事項はどのように提供されるのでしょうか? 
影響を受けるステークホルダー  このシステムの影響を受ける主な利害関係者は誰ですか (つまり、個人、コミュニティ、弱い立場にある部門の労働者、子供、政策立案者、専門家など)? 
オプション性 ユーザーにはシステムからオプトアウトするオプションが提供されていますか。 成果物に異議を唱えたり、修正したりする機会を彼らに与えるべきでしょうか?  
人権と民主主義的価値観に対するリスク  このシステムは、プライバシー、表現の自由、公平性、差別のリスクなどを含むがこれらに限定されない人権に(そしてどのような方向に)影響を与える可能性がありますか? 
人々の幸福に対する潜在的な影響 このシステムは、個々のユーザーの幸福 (つまり、仕事の質、教育、社会的交流、精神的健康、アイデンティティ、環境) に影響を与える可能性がありますか (また、どのような方向に影響するでしょうか)?  
人間の労働力の移転の可能性 人間が実行していたタスクや機能をシステムが自動化できる可能性はありますか? もしそうなら、下流にどのような影響があるでしょうか? 
アイデンティティ、価値観、知識操作の可能性 このシステムは、ユーザーの ID や設定された値を操作したり、偽情報を広めたりするように設計されていますか、またはそれらを操作できる可能性がありますか? 専門知識について虚偽または検証不可能な主張が行われる可能性はありますか? 
自尊心の尺度 理想的な自分を演じなければならないというプレッシャーはありますか? 自動化は個人の達成感に取って代わることができるでしょうか? 職場のシステムと競争しなければならないというプレッシャーはありますか? 個人の評判を偽情報から守るのは難しくなっているのでしょうか? 
プライバシー プライバシーを保護する責任は分散されていますか?また、個人データの利用方法について何らかの前提が設けられていますか?  
自治 このシステムは、エンドユーザーによるテクノロジーへの過度の依存を引き起こし、人間の自律性に影響を与える可能性がありますか? 
人間開発 実行機能、対人関係スキル、学習に影響を与える注意時間の変化、人格形成、精神的健康上の懸念など、人間開発のための重要なスキルの獲得に影響はありますか?  
個人の健康管理 個別化されたヘルスケア ソリューションについての主張はありますか? そうである場合、それらは規制基準に従って検証されていますか? 
メンタルヘルス 不安、孤独、その他の精神的健康上の問題が増大するリスクはありますか? それともテクノロジーによってそのような影響を軽減できますか? 
人間の進化 このテクノロジーは人類の進化に変化をもたらす可能性があるでしょうか?  
衝撃の大きさ 基準 Description 
社会・社会生活 社会的価値観  このシステムは社会の性質を根本的に変えるのでしょうか、それとも以前は反社会的だと考えられていた考え方の正常化を可能にするのでしょうか、それともそれが適用されている文化の社会的価値観を侵害するのでしょうか?  
社会的相互作用 感情的な関係を含む有意義な人間関係に影響はありますか?  
株式 そのアプリケーション/テクノロジーは不平等 (つまり、経済的、社会的、教育的、地理的) を軽減または拡大する可能性がありますか? 
人口の健康 このシステムが人々の健康への意図を促進したり、損なったりする可能性はありますか? 
文化的表現 文化の盗用や差別が増加する可能性はありますか、それとも対処するのはより困難ですか? 意思決定システムへの依存は、社会の一部を排除したり疎外したりする可能性があるのでしょうか? 
公教育 教師の役割や教育機関に影響はありますか? このシステムは学生間の不平等や情報格差を強調または軽減しますか? 知識や批判的理解の本質的な価値は進歩しているのでしょうか、それとも損なわれているのでしょうか?  
歪んだ現実 何が真実かを見極めるために私たちが使っている方法は今でも適用できるのでしょうか? 現実の認識が損なわれていませんか?  
経済的背景(貿易)        産業部門 このシステムはどの産業分野に導入されていますか (金融、農業、医療、教育、防衛など)? 
事業の型 システムはどのビジネス機能で、どのような役割で使用されますか? システムはどこで使用されていますか (民間、公的、非営利)? 
重要な活動への影響  システムの機能や活動が中断されると、不可欠なサービスや重要なインフラストラクチャに影響が及ぶでしょうか?  
展開の息吹 システムはどのように展開されますか (狭い組織内で展開されるのではなく、全国的/国際的に広く展開される場合)? 
技術的成熟度 (TRL) システムは技術的にどの程度成熟していますか?  
技術主権 テクノロジーは技術主権のさらなる集中を促進しますか?  
所得の再分配と国家財政の手段 主権国家の中核となる役割(準備銀行など)が侵害される可能性はあるでしょうか? 国民の期待や影響(つまり、社会的、経済的、政治的)に応える国家の能力は向上するのでしょうか、それとも低下するのでしょうか?  
衝撃の大きさ 基準 Description 
市民生活    ガバナンスと公共サービス ガバナンスメカニズムとグローバルガバナンスシステムはプラスまたはマイナスの影響を受ける可能性がありますか? 
ニュースメディア 公共の議論は多かれ少なかれ二極化し、人口レベルで定着する可能性がありますか? メディアに対する信頼のレベルに影響はありますか? 従来のジャーナリズムの倫理と誠実さの基準はさらに影響を受けるのでしょうか?  
法の支配 責任を負う個人または組織を特定する能力 (つまり、不利な結果に対してアルゴリズムにどのような責任を割り当てるか) に影響はありますか? これは主権(環境、財政、社会政策、倫理など)の喪失を引き起こすのでしょうか?  
政治と社会的一体性 政治的見解がより固定化し、合意形成の機会が減少する可能性はありますか? グループがさらに疎外される可能性はありますか? 敵対的なスタイルの政治が起こる可能性は多かれ少なかれあるのでしょうか? 
地政学的/地政学的な背景    精密な監視 システムは個人の行動データや生物学的データに基づいてトレーニングされていますか? トレーニングされている場合、個人やグループを搾取するために使用される可能性がありますか? 
デジタル植民地化 国家または非国家主体は、システムやデータを利用して、他国の人口や生態系を理解および制御したり、管轄区域の制御を弱体化したりすることができるのでしょうか? 
地政学的競争 このシステムは、経済的または戦略的目的で個人および集合的なデータにアクセスするための国家間および技術プラットフォーム間の競争に影響を及ぼしますか? 
貿易および貿易協定 このシステムは国際貿易協定に影響を及ぼしますか? 
世界的な権力の変遷 世界の主要な地政学的主体としての国民国家の地位は脅威にさらされているのでしょうか? テクノロジー企業はかつて国民国家に独占されていた権力を行使し、独立した主権主体となるのでしょうか?  
虚偽情報 国家および非国家主体が、社会の結束、信頼、民主主義に影響を与える偽情報を作成し広めることは、より容易なのでしょうか?  
環境  エネルギーと資源の消費(二酸化炭素排出量) システムと要件は、アプリケーションを通じて得られる効率向上を超えて、エネルギーとリソースの消費量を増加させますか?  
衝撃の大きさ 基準 Description 
データと入力         検出と収集  データと入力は人間によって収集されたものですか、自動センサーによって収集されたものですか、あるいはその両方ですか?  
データの出所  データに関して、これらは提供されたもの、観察されたもの、合成されたもの、または派生したものですか? 出所を確認するための透かし保護はありますか? 
データの動的な性質 データは動的ですか、静的ですか、時々更新されますか、それともリアルタイムで更新されますか? 
ライツ データは専有的なものですか、公的なものですか、それとも個人的なもの(つまり、特定可能な個人に関連するもの)ですか?  
個人データの識別可能性  個人データの場合、匿名化または仮名化されますか?  
データの構造 データは構造化されていますか、半構造化されていますか、複雑な構造化されていますか、それとも非構造化されていますか? 
データのフォーマット  データとメタデータの形式は標準化されていますか?または非標準化されていますか?  
データの規模  データセットの規模はどれくらいですか?  
データの適切性と品質 データセットは目的に適合していますか? サンプルサイズは適切ですか? それは十分に代表的で完全なものですか? データのノイズはどの程度ですか? 間違いが起こりやすいですか?  
モデル            情報の入手可能性  システムのモデルに関する情報は入手可能ですか?  
AIモデルの種類  モデルは記号的 (人間が生成したルール) ですか、統計的 (データを使用) ですか、それともハイブリッドですか?  
モデルに関連付けられた権利  モデルはオープンソースですか、それともプロプライエタリですか、自社またはサードパーティが管理していますか? 
単一または複数のモデル  システムは XNUMX つのモデルで構成されていますか? それとも複数の相互リンクされたモデルで構成されていますか?  
生成的または差別的 モデルは生成的ですか、識別的ですか、あるいはその両方ですか?  
モデル構築  システムは、人間が作成したルールに基づいて、データから、教師あり学習または強化学習を通じて学習しますか?  
モデルの進化(AIドリフト) モデルは現場でデータと対話することで進化したり、能力を獲得したりするのでしょうか?  
連合学習または中央学習 モデルは中央でトレーニングされていますか、それとも複数のローカル サーバーまたは「エッジ」デバイスでトレーニングされていますか?  
開発と保守  モデルは普遍的ですか、カスタマイズ可能ですか、または AI アクターのデータに合わせて調整されますか?  
決定論的または確率論的  モデルは決定論的な方法で使用されますか? それとも確率論的な方法で使用されますか?  
モデルの透明性  ユーザーがモデルの出力と制限を理解したり、制約を使用したりするための情報はユーザーに提供されていますか?  
計算上の限界 システムに計算上の制限はありますか? 能力の飛躍や拡大の法則を予測できますか? 
衝撃の大きさ 基準 Description 
タスクと出力      システムによって実行されるタスク システムはどのようなタスクを実行しますか (つまり、認識、イベント検出、予測)?  
タスクとアクションを組み合わせる  システムは複数のタスクとアクション (つまり、コンテンツ生成システム、自律システム、制御システム) を組み合わせていますか?  
システムの自律性レベル システムの動作はどの程度自律的であり、人間はどのような役割を果たしますか?  
人間の関与の程度 AI システムの全体的な活動と、どのような状況でもいつどのようにシステムを使用するかを決定する能力を監視するために、人間の関与はありますか? 
コアアプリケーション そのシステムは、人間の言語技術、コンピュータ ビジョン、自動化や最適化、ロボット工学などの中核となるアプリケーション分野に属していますか?  
評価  システム出力を評価したり、予期せぬ緊急の特性に対処したりするために利用できる標準や方法はありますか?  

への鍵 記述子のソース

プレーンテキスト:
グラックマン、P. およびアレン、K. 2018。 急速なデジタルとそれに伴う変革の文脈におけるウェルビーイングを理解する。 イングサ。 https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

太字:
OECD。 2022年。 AI システムの分類に関する OECD フレームワーク。 OECD Digital Economy Papers、No. 323、OECD Publishing、パリ。 https://oecd.ai/en/classification 

イタリック体のテキスト:
新しい記述子 (複数のソースから) 

前進する方法

このディスカッションペーパーへの反応に応じて、上記の分析フレームワークをさらに開発または修正するために、ISC によって専門ワーキンググループが設立され、利害関係者はプラットフォームまたは使用の側面のいずれかの重要な進展を包括的に検討することができます。 このワーキンググループは専門分野、地理的、人口統計的に多様であり、技術評価から公共政策、人間開発から社会学、未来、技術研究に至る専門知識を有することになる。 

このディスカッションペーパーに参加するには、次のサイトにアクセスしてください。 Council.science/publications/framework-digital-technology 

謝辞

この論文の作成には多くの人々の協力が得られ、この論文は ISC 会長のピーター・グルックマン卿と国防省の元主任研究員で現在はニュージーランドのオークランド大学上級研究員であるヘマ・スリダールによって起草されました。 

特に、英国王立協会の元会長であり、ケンブリッジ大学生存リスク研究センターの共同創設者であるマーティン・リース卿に感謝します。 シヴァージ・ソンディ教授、オックスフォード大学物理学教授。 K Vijay Raghavan教授、インド政府の元主任科学顧問。 アマンディープ・シン・ギル国連事務総長技術担当特使。 ショーン・オー・エイギアテイ博士、ケンブリッジ大学実存的リスク研究センター事務局長、 アマンダ・ジューン・ブラウナー氏、英国王立協会上級政策顧問およびイアン・ウィギンス氏、国際問題部長。 ジェローム・デュベリー博士、マリー・ロール・サレス博士、ジュネーブ大学院所長。 Chor Pharn Lee 氏、シンガポール首相官邸戦略的未来センター、 Barend Mons 氏と Simon Hodson 博士、データ委員会 (CoDATA)。 原山裕子教授、日本。 レミ・キリオン教授、INGSA会長。 クレア・クレイグ博士、オックスフォード大学、元政府科学局先見責任者。 国連事務総長科学諮問委員会、モントリオール大学のヨシュア・ベンジオ教授。 チェックリストのアプローチは一般に支持され、ISC によるあらゆる行動の適時性が強調されました。 


ディスカッションに参加する

このフォームに入力するには、ブラウザーで JavaScript を有効にしてください。
お名前
性別
データ保護: 回答者は、ISC がイニシアティブの期間中、提出された情報を保持することを認識する必要があります (https://council.science/privacy-policy を参照)。
ISC ニュースレターの購読をお勧めします。

画像: iStockでアダミチ

コンテンツにスキップ