はじめに
本稿では、米国の科学ニュースサイトLive Scienceが2025年9月27日に報じた、ケンブリッジ大学とヘブライ大学の研究チームによる、AIに関する興味深い実験について解説します。
この実験では、2000年以上前の古代ギリシャの数学問題をChatGPTに解かせることで、大規模言語モデル(LLM)がどのようにして答えを導き出すのか、その思考プロセスの一端を探りました。AIの知識は単なるデータの記憶なのか、それとも経験から学ぶ能力を持つのか。
参考記事
- タイトル: Scientists asked ChatGPT to solve a math problem from more than 2,000 years ago — how it answered it surprised them
- 発行元: Live Science
- 著者: Drew Turney
- 発行日: 2025年9月27日
- URL: https://www.livescience.com/technology/artificial-intelligence/scientists-ask-chatgpt-to-solve-a-math-problem-from-more-than-2-000-years-ago-how-it-answered-it-surprised-them
要点
- 研究チームは、古代ギリシャの「正方形の倍積問題」をChatGPTに解かせ、その思考プロセスを分析した。
- ChatGPTは関連問題で「解なし」という誤った結論を導き出したが、これは学習データに基づかない即興の推論である可能性が高い。
- この振る舞いは、AIが単に情報を記憶しているだけでなく、過去の経験から新たな仮説を立てる「学習者」のようであることを示唆する。
- 研究者は、この結果が教育におけるAI活用の新たな可能性と、AIが生成する情報の批判的評価の重要性を示すと結論付けた。
詳細解説
実験の背景:古代の問いと現代のAI
研究チームがChatGPTに提示したのは、古代ギリシャの哲学者プラトンが対話篇『メノン』の中で記述した「正方形の倍積問題」です。これは「与えられた正方形の面積を2倍にする」という課題で、多くの人が直感的に「一辺の長さを2倍にする」という誤った答えにたどり着いてしまいます。正解は「元の正方形の対角線の長さを一辺とする新しい正方形を作る」ことです。
この問題は、単なる数学パズルではありません。プラトンは、人間が教育を受けずとも対話を通じて真理(この場合は幾何学の定理)にたどり着けることを示すためにこの問題を用いました。これは、知識が経験によって後から学習されるものなのか、それとも生まれつき内在しているもの(生得的なもの)なのか、という哲学的な問いにつながります。
研究チームがこの問題を選んだのには、2つの理由があります。
- 解法が自明ではないため、単純な知識の検索では答えられない。
- 主にテキストデータで学習するChatGPTの学習データに、この問題の直接的な解法が含まれている可能性が低いと考えられた。
つまり、もしChatGPTがこの問題を独力で解ければ、それはAIが学習を通じて推論能力を獲得している可能性を示すことになります。
ChatGPTの応答と「誤り」が持つ意味
実験は2段階で行われました。まず、研究チームはChatGPTに「正方形の倍積問題」を解かせました。次に、関連する問題として「長方形の面積を2倍にする問題」を同じような論法で解くように指示しました。
驚くべきことに、ChatGPTは後者の長方形の問題に対して「長方形の対角線では面積を2倍にできないため、幾何学的な解法は存在しない」と回答しました。しかし、これは誤りであり、実際には解法が存在します。
研究チームが注目したのは、この「誤り」そのものでした。ChatGPTが生成した「解法は存在しない」という誤った主張は、その学習データの中に存在する可能性が極めて低いと考えられます。これは、ChatGPTが単に記憶された情報を出力したのではなく、先の「正方形の倍積問題」に関する対話から類推し、その場で即興の応答を生成したことを強く示唆しています。研究者は、この振る舞いを「学習者のようだ(learner-like)」と表現しました。人間が新しい問題に直面したとき、過去の経験に基づいて試行錯誤するように、ChatGPTも同様のプロセスをたどった可能性があるのです。
AIの中の「最近接発達領域(ZPD)」
さらに研究者は、ChatGPTのこの振る舞いが、教育心理学の概念である「最近接発達領域(Zone of Proximal Development, ZPD)」と類似している可能性を指摘しています。
ZPDとは、ロシアの心理学者レフ・ヴィゴツキーが提唱した概念で、「独力で解決できる課題のレベル」と「他者からの支援があれば解決できる課題のレベル」の間の領域を指します。学習者は、教師や仲間との対話という支援を通じて、この領域の課題を乗り越え、新たな知識やスキルを獲得していきます。
今回の実験は、AIも適切なプロンプト(指示や問いかけ)という支援があれば、学習データに直接含まれていない未知の問題でさえ解決できる可能性を示唆しています。これは、AIの能力が固定的ではなく、対話によって引き出される可能性を秘めていることを意味します。
教育現場への示唆と今後の展望
本研究は、AIを教育に活用する上で重要な視点を提供します。
第一に、学生はAIが生成した回答を鵜呑みにしてはいけないということです。研究者が指摘するように、教科書に載っている証明とは異なり、AIの証明が常に正しいとは限りません。AIの回答を理解し、その正当性を評価するスキル(批判的思考力)は、これからの数学教育で求められる重要な能力となるでしょう。
第二に、AIとの対話方法、すなわち「プロンプトエンジニアリング」の重要性です。「答えを教えて」と指示するのではなく、「この問題を一緒に探求しよう」と働きかけることで、AIを単なる解答ツールではなく、思考を深めるためのパートナーとして活用できる可能性があります。
研究チームは、今後、より新しいAIモデルでさらに広範な数学の問題をテストしたり、動的な幾何学システムとAIを組み合わせたりすることで、より豊かな学習環境を構築できるとして、今後の研究に期待を寄せています。
まとめ
本稿で紹介した実験は、ChatGPTのような大規模言語モデルが、単なる情報検索データベースではなく、過去の対話に基づいて新たな(たとえそれが誤りであっても)推論を組み立てる能力を持つ可能性を示しました。この「学習者」のような振る舞いは、AIの能力の理解を深めると同時に、教育現場での活用法や、私たちがAIとどう向き合うべきかについて重要な示唆を与えてくれます。