LLM– tag –
-
[論文解説]Mambaとは何か? Transformerの課題に挑戦する線形時間系列モデリング
はじめに 近年、AI分野では「基盤モデル(Foundation Models)」と呼ばれる、大規模なデータで事前学習されたモデルが様々な応用を牽引しています。これらのモデルのバックボーンとして広く使われているのが、TransformerアーキテクチャとそのAttention... -
[技術紹介]ハードウェアの壁に挑むDeepSeek-V3:次世代AIを支える協調設計の本質と低コストの秘密
はじめに 本稿では、DeepSeek-AIが発表した論文「Insights into DeepSeek-V3: Scaling Challenges and Reflections on Hardware for AI Architectures」を基に、大規模言語モデル(LLM)の急速な進化に伴い顕在化するハードウェアの限界と、その課題に革... -
[論文解説]DeepSeek-V3から学ぶ、大規模言語モデル開発を支えるハードウェアとモデルの協調設計
はじめに AI技術の進化は目覚ましく、大規模言語モデル(LLMs)は私たちの生活や仕事に革命をもたらしつつあります。最新モデルが次々と登場していますが、それらのモデルは、その性能向上のために、モデルサイズや学習データ、計算リソースを指数関数的... -
[論文解説]vLLMとPagedAttention:大規模言語モデルサービングのための効率的なメモリ管理に関する論文を解説
はじめに LLMをサービスとして提供する(サービングと呼びます)には、高性能なGPUが大量に必要となり、その運用コストは非常に高額となっています。 従来型の検索クエリと比べて、LLMのリクエスト処理は10倍もコストがかかるという試算もあるほどです。... -
vLLMとは何なのか:高速・高効率なLLMサービングエンジンについて
はじめに 大規模言語モデル(LLM)の実用化が進む中、巨大なモデルを効率的にサービングすることは重要な技術課題となっています。本稿では、UC Berkeley発のLLMサービングエンジン「vLLM(Versatile Language Model)」について、vLLM公式GitHubリポジ... -
[論文紹介]AIの限界:なぜ時間を正確に読めないのか?
はじめに 本稿では、人工知能(AI)が人間にとっては簡単なタスクであるアナログ時計の読み取りやカレンダーの理解に苦戦するという最新の研究結果について、Live Science の記事「AI models can't tell time or read a calendar, study reveals」をもと... -
[技術解説]RAGかCAGか?あなたのAIプロジェクトに最適な知識拡張技術の選び方
はじめに 大規模言語モデル(LLM)が抱える知識の限界という課題と、その解決策として注目されている2つの拡張生成技術、RAG (Retrieval Augmented Generation) と CAG (Cache Augmented Generation) が注目されています。 本稿では、IBMがYouTube上で... -
【技術解説】 専門知識を誰もが理解できる時代へ:Googleの最新「高忠実度テキスト簡略化」技術詳解
はじめに 本稿では、Google Researchが発表した大規模言語モデル(LLM)であるGeminiを活用した最新のテキスト簡略化技術について、A詳細にご紹介します。現代社会において情報は爆発的に増加していますが、専門的な知識や複雑な表現は、多くの人々にと... -
[技術解説]LLMの性能を引き出す技術:RAG、ファインチューニング、プロンプトエンジニアリングの使い分け
はじめに 近年、大規模言語モデル(LLM)の進化は目覚ましいものがありますが、特定のタスクやドメインにおいてその性能を最大限に引き出すためには、さらなる最適化が不可欠です。本稿では、AIモデル、特にLLMの応答品質や精度を向上させるための主要な... -
[技術解説]地域密着型データでよりグローバルなAIを:Google の「Amplify Initiative」を解説
はじめに 生成AIモデルは、教育からイノベーションに至るまで、世界中の生活を変革する可能性を秘めています。しかし、その能力は、言語、トピック、地理的範囲において偏りのあるトレーニングデータによって制限されているのが現状です。特に、地域固有...
12