LLM– tag –
-
AI論文
[論文解説]Anthropicによる大規模言語モデルの内省能力に関する研究
はじめに 大規模言語モデル(LLM)は、自分の思考プロセスや意図について語ることができます。しかし、本当に自分の内部状態を認識しているのでしょうか、それとも単に訓練データから学んだパターンを模倣しているだけなのでしょうか。本稿では、Anthrop... -
AI論文
[論文解説]DeepSeek-OCRが拓くLLMの「記憶と忘却」メカニズム:視覚モダリティを活用したコンテキスト管理
はじめに 大規模言語モデル(LLM)が直面する大きな課題として、コンテキスト長(文脈の長さ)が伸びた際の計算量の問題(二次スケーリング)があります。この課題は、長大な文書や対話履歴を処理する際に、リソースの制約を深刻化させます。 この問題に... -
AI論文
[論文解説]大規模言語モデルの脅威:なぜ少ないポイズンサンプルで大規模モデルも危険にさらされるのか
はじめに 大規模言語モデル(LLM)は社会のインフラとして急速に普及しています。その基盤となる訓練データは、モデルの信頼性を左右する重要な要素ですが、近年のLLMの事前学習に用いられる訓練データは、公開ウェブから収集された大量のデータであり、... -
AI技術
[開発者向け]LLMの全層活用でハルシネーションを抑制するデコーディング手法「SLED」の使い方
はじめに 本稿では、Google Researchが開発した大規模言語モデル(LLM)の課題であるハルシネーション(事実に基づかない情報の生成)を抑制し、回答の事実精度を向上させるデコーディング手法「SLED (Self Logits Evolution Decoding)」について、その... -
AIニュース
AIモデルの信頼性をどう確保する? Nature誌が提言する「査読」の重要性
はじめに 本稿では、世界的に権威のある科学雑誌『Nature』の2025年9月17日付の論説「Bring us your LLMs: why peer review is good for AI models」を基に、急速に進化を続ける大規模言語モデル(LLM)の信頼性と安全性をいかにして確保するか、という... -
AI技術
[技術紹介]AIがAIを評価する「LLM as a Judge」とは?
はじめに 近年、大規模言語モデル(LLM)の進化により、文章の要約、チャットボットの応答、クリエイティブなテキスト作成など、多様なコンテンツがAIによって生成されています。しかし、その一方で「生成されたコンテンツの品質をどう評価するか」とい... -
AI論文
[論文解説] SAPO: 分散型AIが「知の共有」で強化学習を加速する「Sharing is Caring: Efficient LM Post-Training with Collective RL Experience Sharing」
はじめに 近年、大規模言語モデル(LLM)の目覚ましい進化は、私たちの生活やビジネスに大きな影響を与えています。しかし、これらのモデルの真の能力を引き出すためには、事前学習(pre-training)だけでなく、その後の学習後訓練(post-training)が非... -
AI論文
[論文解説]高効率オープンモデルK2-Thinkの論文「K2-Think: A Parameter-Efficient Reasoning System」を解説
はじめに 近年、大規模言語モデル(LLM)の進化は目覚ましく、特に推論能力においては、人間が解くのが難しいような数学の問題、複雑なプログラミング、高度な科学的推論といった分野で驚くべき性能を発揮しています。しかし、これらの最先端モデルは、... -
AIツール
[開発者向け]LLM開発の「雰囲気」評価はもう終わり:Googleの新ツールStaxで始める客観的評価
はじめに プロンプトを少し変更したら、なんとなく出力が良くなった気がする。しかし、それが本当に改善なのか客観的な指標がないまま、手探りで開発を進めていないでしょうか。本稿では、このような感覚的なテストから脱却し、データに基づいた意思決定... -
AI技術
[技術紹介]Microsoftが開発したAIが自ら思考を改善する新技術「CLIO」とは?
はじめに 近年、大規模言語モデル(LLM)の進化により、AIが科学研究や新薬開発といった複雑な分野で活躍することへの期待が高まっています。しかし、現在のAIには「なぜその結論に至ったのか」という思考のプロセスが不透明であったり、専門家がそのプ...