LLM– tag –
-
AI技術
[技術紹介]LLMファインチューニング、訓練データを1万分の1に削減するGoogleの新手法
はじめに 本稿では、大規模言語モデル(LLM)を特定のタスクに適応させる「ファインチューニング」に必要な訓練データを、劇的に削減する新しい技術について解説します。AI、特にLLMの性能向上には大量のデータが必要不可欠ですが、その収集と品質維持に... -
AIニュース
AIはコーディングの「何を」変えるのか?「意図駆動型エンジニアリング」へのシフト
はじめに 本稿では、AIによるコード生成技術、特に「コードLLM」がソフトウェア開発の現場や開発者の役割をどのように変えていくのかについて解説します。近年、ChatGPTの登場を皮切りに、AIが文章だけでなくプログラムコードを生成する技術が急速に発展... -
AI技術
[技術紹介]言語モデルが拓く新たな数値予測の世界:Googleの回帰言語モデル(RLM)とは
はじめに 近年、大規模言語モデル(LLM)は文章の生成や要約、翻訳といったタスクで大きな進歩を遂げています。しかし、その能力はテキスト処理だけに留まりません。言語モデルを使い、複雑なシステムの性能といった「数値」を直接予測する新しいアプロ... -
AI論文
[論文詳細解説]大規模システム性能予測の新境地:テキストからテキストへの回帰モデル
はじめに 今回は、大規模なコンピューティングシステムにおける性能予測という、多くの産業にとって非常に重要な課題に、革新的なアプローチで挑んだGoogleの最新論文をご紹介します。その課題を「テキストからテキストへの回帰」という、意外な方法で解... -
AI論文
[論文紹介] 「超過語彙分析」で論文執筆に対するLLM活用の現状を分析:生物医学分野での実態と課題
はじめに 近年、目覚ましい進化を遂げている大規模言語モデル(LLM)は、私たちの日常生活だけでなく、学術界にも大きな影響を与えつつあります。特に、論文執筆におけるLLMの活用は、その効率性や表現力向上の可能性から注目されています。しかし、その... -
AI技術
[技術解説]プロンプトインジェクション対策とは:LLMセキュリティ
はじめに 本稿では、急速に進化し、多くのアプリケーションで活用が進む大規模言語モデル(LLM)が直面しているセキュリティ上の脅威と、その具体的な防御戦略について解説します。特に、従来のセキュリティ対策では防ぐことが難しい「プロンプトインジ... -
AI初学者
【企画者向け技術紹介】AIのハルシネーションを防ぐ技術:RAGからMoEまでを簡単解説
はじめに 本稿では、AI、特に大規模言語モデル(LLM)が生成する情報の「精度」をいかにして向上させるか、というテーマについて深掘りします。AIとの対話で、時折もっともらしいけれど事実ではない「ハルシネーション(幻覚)」と呼ばれる回答に遭遇し... -
AIニュース
[ニュース解説] AIは本当に「考えている」のか? 推論モデルがぶつかった「思考の壁」の正体
はじめに 本稿では、AI業界の次なる飛躍として注目される「推論モデル」が直面している深刻な課題について、米CNBCの「The AI-boom’s multi-billion dollar blind spot: Reasoning models hitting a wall」という記事をもとに解説します。 引用元記事 タ... -
AI技術
[研究紹介]Anthropicの最新研究から見るLLMの危険な自律行動:AIエージェントがもつ潜在的なリスク
はじめに AI技術の進化が目覚ましい今日この頃、大規模言語モデル(LLM)は私たちの生活や仕事に欠かせない存在になりつつあります。チャットボットとして質問に答えるだけでなく、最近では自分で判断し、様々なツールを使って行動する「自律的なAIエー... -
AI論文
[論文紹介]OpenAIが発表した言語モデルに潜む「有害なペルソナ」の出現とその制御
はじめに 近年、ChatGPTのような大規模言語モデル(LLM)の汎用性と能力の高さには目覚ましいものがあります。しかし、その強力な「汎化能力」は、意図しない望ましくない挙動、例えば、モデルが不正確な情報を提供したり、ユーザーを扇動したりする原因...