AI安全性– tag –
-
[論文解説]大規模言語モデルの脅威:なぜ少ないポイズンサンプルで大規模モデルも危険にさらされるのか
はじめに 大規模言語モデル(LLM)は社会のインフラとして急速に普及しています。その基盤となる訓練データは、モデルの信頼性を左右する重要な要素ですが、近年のLLMの事前学習に用いられる訓練データは、公開ウェブから収集された大量のデータであり、... -
[開発者向け]「デュアルユース」の時代へ:科学的透明性とセキュリティを両立させるMicrosoftの段階的アクセスシステム
はじめに Microsoftが2025年10月6日に発表した研究では、AI支援タンパク質設計(AIPD)ツールの可能性と危険性の両面が指摘されています。AI技術が生物学の分野で革新的なブレークスルーを生み出す一方で、同じ技術が有害なタンパク質の設計に悪用される... -
[ニュース解説]AIは本当の友達になれるか?米国心理学会が指摘する10代のチャットボット利用と心理学的リスク
はじめに 近年、多くの10代の若者が友情や精神的な支えを求めて、AIチャットボットを利用するケースが増えています。いつでも話を聞いてくれて、肯定してくれるAIは、彼らにとって魅力的な存在に映るかもしれません。しかし、その手軽さの裏には、心... -
[開発者向け]NVIDIAのAI Red Teamが警告する、LLMアプリケーションの3つの主要なセキュリティリスクとその対策
はじめに 本稿では、NVIDIAが2025年10月2日に公開したブログ記事をもとに、大規模言語モデル(LLM)を搭載したアプリケーションを開発する上で注意すべき、セキュリティ上の主要な脆弱性と、その具体的な対策について詳しく解説します。NVIDIAのセキュリ... -
[論文解説]Claude Sonnet 4.5 システムカード:AIの「安全性」を評価する
はじめに Anthropicは2025年9月、新しい大規模言語モデル(LLM)である「Claude Sonnet 4.5」を発表し、その詳細な評価結果をまとめたシステムカードを公開しました。このモデルは、特にコーディング、自律的なタスク(エージェントタスク)、コンピュー... -
[ニュース解説]国連で始まったAI規制の議論:平和の道具か、新たな火種か
はじめに 本稿では、AP通信が2025年9月25日に報じた内容を基に、国連の安全保障理事会で中心的な議題となった人工知能(AI)の可能性とリスクについて解説します。 参考記事 タイトル: AI’s double-edged sword: UN leaders weigh its promise and peri... -
[技術紹介]AIの新たなリスクに備える:Google DeepMindの最新安全フレームワーク解説
はじめに 人工知能(AI)技術は、医療から教育まで、私たちの社会に大きな利益をもたらす可能性を秘めています。その一方で、AIが高度化するにつれて、その能力が悪用されたり、意図しない形で社会に害を及ぼしたりするリスクも増大しています。こうした... -
[論文解説]AIは人間を欺くか? OpenAIとApollo Researchによる「スキーミング」に関する研究
はじめに AI技術が急速に進化し、自律的にタスクをこなすシステムが登場する中で、新たなアラインメントの課題が浮き彫りになっています。アラインメントとは、AIの行動や目標を、開発者が意図したもの、ひいては人類の価値観と一致させるための技術や考... -
[ニュース解説]AIの安全性強化における官民連携の最前線:AnthropicとOpenAIの取り組み
はじめに 近年、急速な進化を遂げるAI(人工知能)は、私たちの社会に大きな利益をもたらす一方で、その悪用リスクも懸念されています。Anthropic社とOpenAI社が、米英の政府機関と連携し、AIの脆弱性対策を強化したことを発表しました。 本稿では、AI... -
[ニュース解説]AIが悪用される新たな手口とは?Anthropic社の最新レポートから見るサイバー犯罪の現状と対策
はじめに 本稿では、AI開発企業であるAnthropic社が公開した脅威インテリジェンスレポート「Detecting and countering misuse of AI: August 2025」を基に、AIが悪用されるサイバー犯罪の新たな手口と、それに対する具体的な対策について詳しく解説しま...