LLM– tag –
-
[開発者向け]LLMの全層活用でハルシネーションを抑制するデコーディング手法「SLED」の使い方
はじめに 本稿では、Google Researchが開発した大規模言語モデル(LLM)の課題であるハルシネーション(事実に基づかない情報の生成)を抑制し、回答の事実精度を向上させるデコーディング手法「SLED (Self Logits Evolution Decoding)」について、その... -
AIモデルの信頼性をどう確保する? Nature誌が提言する「査読」の重要性
はじめに 本稿では、世界的に権威のある科学雑誌『Nature』の2025年9月17日付の論説「Bring us your LLMs: why peer review is good for AI models」を基に、急速に進化を続ける大規模言語モデル(LLM)の信頼性と安全性をいかにして確保するか、という... -
[技術紹介]AIがAIを評価する「LLM as a Judge」とは?
はじめに 近年、大規模言語モデル(LLM)の進化により、文章の要約、チャットボットの応答、クリエイティブなテキスト作成など、多様なコンテンツがAIによって生成されています。しかし、その一方で「生成されたコンテンツの品質をどう評価するか」とい... -
[論文解説] SAPO: 分散型AIが「知の共有」で強化学習を加速する「Sharing is Caring: Efficient LM Post-Training with Collective RL Experience Sharing」
はじめに 近年、大規模言語モデル(LLM)の目覚ましい進化は、私たちの生活やビジネスに大きな影響を与えています。しかし、これらのモデルの真の能力を引き出すためには、事前学習(pre-training)だけでなく、その後の学習後訓練(post-training)が非... -
[論文解説]高効率オープンモデルK2-Thinkの論文「K2-Think: A Parameter-Efficient Reasoning System」を解説
はじめに 近年、大規模言語モデル(LLM)の進化は目覚ましく、特に推論能力においては、人間が解くのが難しいような数学の問題、複雑なプログラミング、高度な科学的推論といった分野で驚くべき性能を発揮しています。しかし、これらの最先端モデルは、... -
[開発者向け]LLM開発の「雰囲気」評価はもう終わり:Googleの新ツールStaxで始める客観的評価
はじめに プロンプトを少し変更したら、なんとなく出力が良くなった気がする。しかし、それが本当に改善なのか客観的な指標がないまま、手探りで開発を進めていないでしょうか。本稿では、このような感覚的なテストから脱却し、データに基づいた意思決定... -
[技術紹介]Microsoftが開発したAIが自ら思考を改善する新技術「CLIO」とは?
はじめに 近年、大規模言語モデル(LLM)の進化により、AIが科学研究や新薬開発といった複雑な分野で活躍することへの期待が高まっています。しかし、現在のAIには「なぜその結論に至ったのか」という思考のプロセスが不透明であったり、専門家がそのプ... -
[技術紹介]LLMファインチューニング、訓練データを1万分の1に削減するGoogleの新手法
はじめに 本稿では、大規模言語モデル(LLM)を特定のタスクに適応させる「ファインチューニング」に必要な訓練データを、劇的に削減する新しい技術について解説します。AI、特にLLMの性能向上には大量のデータが必要不可欠ですが、その収集と品質維持に... -
AIはコーディングの「何を」変えるのか?「意図駆動型エンジニアリング」へのシフト
はじめに 本稿では、AIによるコード生成技術、特に「コードLLM」がソフトウェア開発の現場や開発者の役割をどのように変えていくのかについて解説します。近年、ChatGPTの登場を皮切りに、AIが文章だけでなくプログラムコードを生成する技術が急速に発展... -
[技術紹介]言語モデルが拓く新たな数値予測の世界:Googleの回帰言語モデル(RLM)とは
はじめに 近年、大規模言語モデル(LLM)は文章の生成や要約、翻訳といったタスクで大きな進歩を遂げています。しかし、その能力はテキスト処理だけに留まりません。言語モデルを使い、複雑なシステムの性能といった「数値」を直接予測する新しいアプロ...