PERSON

2026.04.12

NotebookLM、Perplexity。世界トップのビジネスパーソンは、どんなAIを使ってる?

孫正義氏の右腕としてソフトバンクの数々の一大事業を手がけてきた、英語コーチングスクール「トライズ」社長の三木雄信氏。現在、世界のビジネスエリートが集う「EMBA」で“学び直し”を実践中の三木氏による、世界のスーパーエリート達の脳内がわかる連載9回目。

Unsplash /Steve Johnson ※写真はイメージ

UCLAのルールが示す「責任の設計思想」

筆者は現在、アメリカ・UCLAアンダーソン経営大学院とシンガポール国立大学(NUS)ビジネススクールが共同で提供するEMBAプログラムに在籍しています。クラスメートは、各国の大企業の幹部や起業家など、世界トップクラスのビジネスパーソンばかりです。

そのような場で目の当たりにしたのは、AIを「恐る恐る使う」姿ではなく、驚くほど積極的にAIを活用しながら学ぶ姿でした。しかし、ただ使っているのではありません。彼らはAIをどの局面で信頼し、どの局面で自分の判断を優先するかを、明確な原則のもとで設計しています。その原則の構造を、現場からご報告します。

名門大学のAIポリシーは、単なる「禁止か許可か」のルール集ではありません。そこには、AIと人間の関係をどう設計するかという思想が埋め込まれています。

UCLAのStudent Conduct Codeを確認すると、剽窃(盗用)は「他者の言葉・アイデア・データを適切な帰属表示なく使用すること」として厳しく禁じられています。注目すべきは、この定義がAIが生成したコンテンツにも同様に適用される点です。AIを使ったかどうかではなく、「誰の思考として提出するか」という帰属の問題として剽窃を定義しているのです。

AIの使用そのものは禁止されていません。ただし使用する際には、「使用したAIツールの名称とバージョン」「利用したプロンプト」「そのアウトプット」をすべて開示し、最終アウトプットへの責任は常に学生自身が負うことを提出物に明記することが義務付けられています。

このルール設計の核心は、「AIが考えた」という状態を制度的に排除している点にあります。AIを使っても使わなくても、思考の主体は人間でなければならない。UCLAはその原則を、開示義務と責任注記という二つの仕組みで担保しているのです。

授業設計に見る「AIと人間の比較構造」

この思想は、授業設計そのものにも反映されています。BCC(Business Creation Capstone)と呼ばれるビジネスプラン作成の授業では、チーム内にAI活用の適正利用をチェックする専任担当者が置かれます。「誰がどこでAIを使ったか」を可視化し、思考の主体を問い続ける仕組みです。

さらに興味深いのが、交渉術の授業でのアプローチです。まず学生自身が交渉プランを立て、その後、教授が設計した専用プロンプトでAIに同じ問題を解かせ、両者の差分を分析します。これは単なるAI活用ではなく、「人間の思考とAIの思考を並列させ、自分の思考の癖や盲点を構造的に発見させる」設計です。AIを補助ツールとして使うのではなく、自己認識の鏡として使っている点が本質的です。

最終試験については教授によってポリシーが分かれます。AI使用を禁止する教授がいる一方で、「使ってもよいが、AIでは回答できないよう設問自体をAIで検証済みだ」と宣言する教授もいます。

後者のアプローチは示唆に富んでいます。AIが解ける問題はすでにAIに任せ、人間が問われるべき問いだけを試験に残すという思想です。レポートや通常の課題ではAI活用が主流であり、「どこで人間が判断するか」が設計上の核心になっています。

学生が使うAIツールの実態と「用途別設計」

学生たちのAI活用は、目的と手段の対応関係が明確です。試験勉強では「NotebookLM」が広く使われています。NotebookLMとはGoogleが開発したAI搭載のリサーチアシスタントで、自分がアップロードした資料をもとに質問への応答や要約を行います。これで「チートシート」を作る学生が多くいます。チートシートとは試験に持ち込める1枚のまとめノートで、何を凝縮するかという選択そのものが学習です。NotebookLMは「何が重要か」の判断を学生に委ねたまま、情報の処理速度だけを上げます。

レポート作成ではウェブ検索型AI「Perplexity」が多用されます。出典が明示されるため学術的なリサーチに向いており、情報収集の速度を上げながら論拠の責任は書き手に残す設計です。

動画制作にはAI動画生成ツール「InVideo」、スライド作成にはAIが構成から配色まで提案する「Gamma」が使われます。いずれも「アウトプットの形式を整える作業」をAIに委ね、「何を伝えるか」という判断は人間が担う役割分担です。

学生間のチャットでは、AIの性能ランキングが更新されるたびに共有されます。ChatGPT、Claude、Gemini、Grokを用途別に比較・使い分けるのが当たり前の文化です。彼らが議論するのは「どのAIが賢いか」ではなく、「この用途にはどのAIが最適か」という設計の問いです。

DIKWモデルが示す「人間の不可侵領域」

では、AIがここまで進化した今、ビジネスパーソンに残される固有の役割とは何でしょうか。ここで一度、「AIはWisdom(知恵)も代替しつつある」という反論を立ててみる必要があります。生成AIは今や、倫理的判断の補助も、経営判断のシミュレーションも、一定の精度でこなします。「Wisdomは人間のもの」という主張は楽観的すぎないか、という問いです。

この問いに答えるために有効なのがDIKWモデルです。

DIKWとは「Data(データ)、Information(情報)、Knowledge(知識)、Wisdom(知恵)」という4段階の階層構造を示すフレームワークです。AIが得意なのはDataの収集・整理、Informationへの変換、そしてKnowledgeの体系的アウトプットまでです。大量のデータからパターンを見出し、既存の知識体系を高速で再現する能力において、AIは人間をはるかに凌駕します。

しかし、Wisdomの本質は「正しい知識を選ぶ能力」ではありません。「何かを正しいと判断する基準そのものを問い直す能力」です。AIはあくまでも学習データの中に埋め込まれた判断基準を模倣します。その基準自体が問われる局面、つまり前例のない状況での価値判断、複数の正解が競合する場面での倫理的選択、自分の組織と社会全体の利益が衝突する意思決定において、AIは「正しい問いを立てる」ことができません。

EMBAが育てようとしているのはまさにこの能力です。多様なバックグラウンドを持つ仲間との議論、ケーススタディの積み重ね、倫理と戦略が交差する意思決定の反復練習。AIはそのプロセスを加速するツールですが、判断基準を問い直す経験そのものをAIが代替することはできません。UCLAがAI利用に「責任の所在」を明記させるのも、Wisdomの形成が人間の経験の中にしかないという認識に基づいているのです。

AIを使いこなせる人材が優位に立つ時代は、すでに始まっています。しかし本当の問いは「AIをどう使うか」ではなく、「AIが処理した先で、自分はどんな判断を下せるか」です。EMBAはその問いを、世界中のビジネスパーソンとともに実践する場になっています。

トライズ代表取締役社長の三木雄信氏
三木雄信/Takenobu Miki
トライズ代表取締役社長。1972年福岡県生まれ。東京大学経済学部卒業後、三菱地所を経てソフトバンク入社。2000年ソフトバンク社長室長に。多くの重要案件を手がけた後、2015年に英語コーチングスクール「TORAIZ(トライズ)」を開始。日本の英語教育を抜本的に変えるミッションに挑む。

TEXT=三木雄信

PICK UP

STORY 連載

MAGAZINE 最新号

2026年5月号

HOTEL 動と静の最新リカバリー拠点

『GOETHE(ゲーテ)2026年5月号』表紙

最新号を見る

定期購読はこちら

バックナンバー一覧

MAGAZINE 最新号

2026年5月号

HOTEL 動と静の最新リカバリー拠点

仕事に遊びに一切妥協できない男たちが、人生を謳歌するためのライフスタイル誌『ゲーテ5月号』が2026年3月25日に発売となる。特集「HOTEL 動と静の最新リカバリー拠点」では、心と身体を解放させるラグジュアリーホテルを厳選して紹介する。表紙はHYDE!

最新号を購入する

電子版も発売中!

バックナンバー一覧

GOETHE LOUNGE ゲーテラウンジ

忙しい日々の中で、心を満たす特別な体験を。GOETHE LOUNGEは、上質な時間を求めるあなたのための登録無料の会員制サービス。限定イベント、優待特典、そして選りすぐりの情報を通じて、GOETHEだからこそできる特別なひとときをお届けします。

詳しくみる