AI安全性– tag –
-
AIニュース
[ニュース解説]OpenAIとMicrosoftが州司法当局と協力:AI安全性タスクフォースの設立
はじめに CNNが2025年11月13日に報じたところによれば、米国のノースカロライナ州とユタ州の司法長官が、OpenAIとMicrosoftと協力してAI安全性タスクフォースを設立しました。連邦レベルでのAI規制法が不在のなか、州レベルでAIの安全対策を開発する取り... -
エンジニア関連
[開発者向け]OpenAIが警告するプロンプトインジェクション攻撃とは?実例と対策を解説
はじめに OpenAIが2025年11月7日、AIエージェントの安全性に関する重要な課題として「プロンプトインジェクション」攻撃について詳しく解説する記事を公開しました。本稿では、この発表内容をもとに、プロンプトインジェクション攻撃の仕組み、具体的な... -
AIツール
[開発者向け]OpenAI「Aardvark」発表:GPT-5搭載のAIセキュリティエージェントがコードの脆弱性を自動検出
はじめに OpenAIが2025年10月30日、GPT-5を活用したセキュリティエージェント「Aardvark」を発表しました。ソースコードの脆弱性を自動的に発見し、修正案まで提示する本格的なAIセキュリティツールです。本稿では、Aardvarkの仕組みと性能、実用化に向... -
AIツール
[AIツール利用者向け] ChatGPTのメンタルヘルス対応はどこまで進化したのか?
はじめに OpenAIが2025年10月27日、ChatGPTにおけるメンタルヘルス関連の会話への対応を大幅に強化したと発表しました。170人以上のメンタルヘルス専門家との協力により、精神的苦痛のサインをより確実に認識し、適切なサポートへ導く機能を実装したとの... -
AI論文
[論文解説]市場最適化が引き起こすAIの欺瞞とミスマッチ
はじめに 近年、LLM(大規模言語モデル)は、企業による説得力のある広告作成から、政治キャンペーンのメッセージ最適化、ソーシャルメディアでのエンゲージメント向上まで、情報を生成し普及させる方法を大きく変えつつあります。これらの領域は本質的... -
AI論文
[論文解説]大規模言語モデルの脅威:なぜ少ないポイズンサンプルで大規模モデルも危険にさらされるのか
はじめに 大規模言語モデル(LLM)は社会のインフラとして急速に普及しています。その基盤となる訓練データは、モデルの信頼性を左右する重要な要素ですが、近年のLLMの事前学習に用いられる訓練データは、公開ウェブから収集された大量のデータであり、... -
エンジニア関連
[開発者向け]「デュアルユース」の時代へ:科学的透明性とセキュリティを両立させるMicrosoftの段階的アクセスシステム
はじめに Microsoftが2025年10月6日に発表した研究では、AI支援タンパク質設計(AIPD)ツールの可能性と危険性の両面が指摘されています。AI技術が生物学の分野で革新的なブレークスルーを生み出す一方で、同じ技術が有害なタンパク質の設計に悪用される... -
AIニュース
[ニュース解説]AIは本当の友達になれるか?米国心理学会が指摘する10代のチャットボット利用と心理学的リスク
はじめに 近年、多くの10代の若者が友情や精神的な支えを求めて、AIチャットボットを利用するケースが増えています。いつでも話を聞いてくれて、肯定してくれるAIは、彼らにとって魅力的な存在に映るかもしれません。しかし、その手軽さの裏には、心... -
AI技術
[開発者向け]NVIDIAのAI Red Teamが警告する、LLMアプリケーションの3つの主要なセキュリティリスクとその対策
はじめに 本稿では、NVIDIAが2025年10月2日に公開したブログ記事をもとに、大規模言語モデル(LLM)を搭載したアプリケーションを開発する上で注意すべき、セキュリティ上の主要な脆弱性と、その具体的な対策について詳しく解説します。NVIDIAのセキュリ... -
AI論文
[論文解説]Claude Sonnet 4.5 システムカード:AIの「安全性」を評価する
はじめに Anthropicは2025年9月、新しい大規模言語モデル(LLM)である「Claude Sonnet 4.5」を発表し、その詳細な評価結果をまとめたシステムカードを公開しました。このモデルは、特にコーディング、自律的なタスク(エージェントタスク)、コンピュー...