
「AIは創造性が苦手」という定説が、2026年に入って揺らいでいます。モントリオール大学などの国際研究チームが10万人以上の人間と最新AIを比較した大規模研究を発表し、GPT-4などのモデルが平均的な人間の創造性テストを上回るという結果をScientific Reportsに報告しました[1]。
「AIにできないこと」の境界線は静的ではありません。かつて鉄壁に思えた領域でも、AIの侵食は着実に進んでいます。では、2026年の今、人間の本当の優位性はどこにあるのでしょうか。最新の研究知見をもとに整理していきます。
「平均の創造性」はもうAIの領域——創造的上位層が示した人間の証明
10万人vs AIが突きつけた現実
研究チームが用いたのは「発散的連想課題(DAT)」、意味的に無関係な10個の単語を挙げる心理学的な創造性テストです。AIは平均的な参加者を上回るスコアを記録しました[1]。
ただし、この結果には重要な条件があります。創造性の高い人間層の平均は依然としてLLMを上回っており、論文の要旨は上位半数(top half)がLLMを大きく上回ると明記しています[1]。短詩や物語などの創作課題ではLLMが人間水準に近づいており、創造性全般でAIが人間を超えたとは言えない状況が続いています。AIが得意とするのは迅速に多様なアイデアを発散させることであり、個人の人生体験や文化的文脈を絡めた独創性ではありません。
体験と文脈から生まれる「深い創造性」
AIが生成するアイデアは、学習データのパターンの組み合わせです。一方、人間の創造性は失敗の記憶、感動した瞬間、矛盾した感情といった「生きた体験」から生まれます。
MIT Sloanの研究では、ユーモア、即興、「現実を超えた可能性の可視化」こそが人間特有の創造的価値であるとしています[2]。平均的なアイデア出しはAIに任せ、自分の体験に根ざした固有の視点を磨くこと——それが今のビジネスパーソンに求められる創造性のあり方です。
感情知性は「持つ」だけでは足りない——ソーシャルオフロードの危機

AIに共感を委ねる職場で起きていること
2026年3月、Fortune誌が「ソーシャルオフロード」と呼ぶ新たな職場現象を報告しました[3]。上司のメッセージをAIに解釈させて返信文まで生成させる、パフォーマンスレビューの進め方をAIに相談する——そうした事例が広がっています。「私のAIと彼のAIが行き来しているだけだ」という従業員の言葉が、この現象を象徴しています。
感情的な場面をAIに委ねること自体のリスクは、すぐには見えにくいものです。しかし、リーダーシップの専門家は「継続的なオフロードにより、人は上司や部下との関係の構築方法を学ばなくなる」と警告しています[3]。組織が中間管理職を削減したことで、メンタリングの機会がすでに縮小している中、この傾向はさらに深刻になりえます。
使わなければ失われるスキル
感情知性は筋肉に似ています。使わなければ萎縮します。特に若い世代が職場に入る時期にAIへの依存度が高まると、困難な対話を乗り越える経験が失われていきます。
MIT Sloanの分析では、AIが感情を「検出」できるとしても、人間は「意味のある繋がりを作り、その人が経験していることを共有できる」点で根本的に異なると述べています[2]。感情知性の本当の優位性は、持っていることではなく、対話を通じて鍛え続けることで発揮されます。AIに任せるほど、その機会は失われていきます。
価値観を持つこと、そして責任を取ること
AIの価値整合問題は未解決のまま

AIが倫理的な判断を下せるかという問いは、2026年時点でも解決していません。Springer Natureに掲載された研究は、「合理的な道徳的不一致への対応」がAIの価値整合(Value Alignment)における根本的な未解決問題であると指摘しています[4]。
クラウドソーシングによる価値観の収集も、強化学習からのフィードバックも、対立する立場からの合理的な意見の相違を収束させることができません。現在有力な価値整合の手法(クラウドソーシング、RLHF、Constitutional AIなど)は、合理的な道徳的不一致がある状況でAIの出力を人々が受け入れる十分な根拠を与えられないというのが、論文の結論です。
専門判断と「説明責任」という人間の機能
2026年4月に公開されたMITの大規模研究は、41のAIモデルを約1万1,000の労働市場タスクで評価しました[5]。その結果、「最低限合格」の水準を達成できたのは全タスクの65%にとどまり、法務分野では47%と最低でした。複数ステップの推論や文脈依存の専門的判断ほどパフォーマンスが低下することも示されています。
しかし問題はスコア以上に深いところにあります。AIが判断を誤ったとき、「誰が責任を取るか」という問いです。AIは結果の責任を引き受けません。経営判断、医療上の選択、法的なアドバイスなど、説明責任が問われる局面では、人間の監督と最終判断の役割が引き続き重要と考えられます。MIT Sloanはこの能力を「見解と倫理判断(O)」と位置づけ、AIが代替できない人間固有のスキルに数えています[2]。
さいごに
「AIにできないこと」の地図は書き換えられています。平均的な創造性はすでにAIが達成し、感情シミュレーションの精度も上がり続けています。しかしその先に、体験に根ざした深い創造性、対話を通じて鍛えられる感情知性、価値観を持ち責任を担う能力——この3つは、2026年においても人間にしか持ちえない領域として残っています。
AIを使いこなすと同時に、自分の体験・感情・価値観を磨くことを怠らないこと。それが、AIと共存する時代に人間が持つべき本当の競争優位です。
出典
- [1] Divergent creativity in humans and large language models – Scientific Reports (Nature)
- [2] These human capabilities complement AI’s shortcomings – MIT Sloan Management Review
- [3] “It’s just his AI and my AI going back and forth”: The workplace phenomenon that’s undermining human relationships – Fortune
- [4] Moral disagreement and the limits of AI value alignment – AI & SOCIETY (Springer Nature)
- [5] Crashing Waves vs. Rising Tides: Preliminary Findings on AI Automation from Thousands of Worker Evaluations of Labor Market Tasks – MIT FutureTech / arXiv
