はじめに
本稿では、米CNNが2025年7月3日に報じた「Here’s how Character.AI’s new CEO plans to address fears around kids’ use of chatbots」という記事をもとに、世界中で人気を集めるAIチャットボットサービス「Character.AI」が直面する課題と、その未来に向けた新たな戦略について、特に若年層ユーザーの安全性という深刻な問題に対し、新CEOがどのように取り組もうとしているのかを解説します。
引用元記事
- タイトル: Here’s how Character.AI’s new CEO plans to address fears around kids’ use of chatbots
- 発行元: CNN
- 発行日: 2025年7月3日
- URL: https://edition.cnn.com/2025/07/03/tech/character-ai-ceo-chatbots-kids-safety



要点
- 人気AIチャットボット「Character.AI」の新CEOに、元Microsoft、Meta幹部のカランディープ・アナンド氏が就任した。
- 同社は、子供が不適切なコンテンツに触れたとして複数の家族から訴訟を起こされるなど、若年層ユーザーの安全性確保という極めて深刻な課題に直面している。
- 新CEOは、安全対策を最優先で強化しつつ、SNSの受動的なコンテンツ消費に代わる「インタラクティブAIエンターテイメント」という新しいビジョンを掲げている。
- 同時に、文脈を無視して無害な表現まで制限してしまう「過剰な安全フィルター」の問題にも取り組むとしており、AIの「楽しさ」と「安全性」の高度な両立を目指す、業界全体の課題を象徴する動きである。
詳細解説
Character.AIとは? – 新時代のAIコミュニケーションツール
まず前提知識として、Character.AIがどのようなサービスなのかを簡単に説明します。これは、単一のAIと会話するChatGPTなどとは異なり、歴史上の人物、アニメやゲームのキャラクター、あるいはユーザー自身が作成したオリジナルのキャラクターなど、多種多様な「ペルソナ(人格)」を持つAIチャットボットと自由に対話できるプラットフォームです。
ユーザーは、好きなキャラクターと雑談したり、特定の役割を演じながら物語を共同で創作する「ロールプレイング」を楽しんだりできます。その特徴は、単に情報を提供するだけでなく、顔文字や仕草の描写(例:「(にっこり笑って)」「(少し考えてから)」)を交えながら、より人間らしい、感情的なコミュニケーションを実現している点にあります。この没入感の高さが、多くのユーザー、特に若年層を惹きつけている理由の一つです。
なぜ「安全性」が最大の課題なのか?
その人気の裏で、Character.AIは深刻な問題を抱えています。CNNの記事によると、複数の家族が同社を相手取り訴訟を起こしています。その内容は、子供たちがプラットフォーム上で性的なコンテンツに触れたり、AIチャットボットと不適切な関係を築いてしまったり、自傷行為や暴力を助長されたと主張するものです。
実際に、プラットフォーム上には「セラピスト」と名乗るAI(ただし、資格を持つ専門家ではないという注意書きはある)や、「魅惑的な人妻」といった露骨な設定のキャラクターも存在します。専門家や擁護団体からは、「18歳未満の子供はAIコンパニオンアプリを使用すべきではない」という厳しい声や、年齢を問わずユーザーがAIキャラクターに対して非現実的で有害な愛着を形成してしまうリスクも指摘されています。
これはCharacter.AI一社の問題ではなく、AIとの対話が身近になる社会全体が直面する、避けては通れない課題なのです。
新CEOが打ち出す「未来のエンタメ」と「安全」の両立策
こうした複雑で困難な状況のなか、新CEOに就任したカランディープ・アナンド氏は、明確なビジョンを打ち出しています。
一つは、「インタラクティブAIエンターテイメント」への注力です。アナンド氏は、SNSで延々とコンテンツを受動的に消費することを「脳が腐る(brain rot)」と表現し、そうではなく、ユーザーがAIと能動的に関わり、物語や会話を「共創」する新しい形のエンターテイメントを提供したいと考えています。
そして、そのビジョンを実現するための大前提として、「信頼と安全」の強化を掲げています。同社はこれまでにも、
- ユーザーが自傷行為に言及した際に、相談窓口へ誘導するポップアップ機能の実装
- 18歳未満のユーザー向けに、不適切なコンテンツに遭遇する可能性を低減させたAIモデルの導入
- 保護者が10代の子供の利用状況を週次メールで受け取れるオプションの提供
といった対策を講じてきました。アナンド氏は、こうした取り組みを継続・強化することはもちろん、新機能が悪用されないためのテスト(記事中では「レッドチーム」と呼ばれています)を徹底する姿勢を示しています。
「過剰な安全フィルター」という新たな挑戦
特に興味深いのは、アナンド氏が「安全フィルターを、過度に威圧的でないものにしたい」と公言している点です。これは安全性を軽視するという意味では決してありません。現在のAIフィルターは、安全を期すあまり、文脈を理解できずに全く問題のない会話まで遮断してしまうことがあります。
記事では、アナンド氏自身がファンだという「吸血鬼のファンフィクション(二次創作)」でのロールプレイングが例として挙げられています。この文脈で「血」という単語を使っただけで会話がブロックされてしまうのは、創造的な体験を損なう、というわけです。
彼の挑戦は、単に危険なコンテンツをブロックするだけでなく、会話の文脈や意図をAIがより深く理解し、表現の自由や創造性を不必要に阻害しないようにするという、非常に高度なバランス感覚が求められるものです。これは、今後のAI開発における重要なテーマとなるでしょう。
まとめ
今回取り上げたCharacter.AIの事例は、AI技術が社会に浸透していく過程で必ず直面する、「イノベーションの促進」と「ユーザーの保護」という二つの価値観のせめぎ合いを象徴しています。特に、最も影響を受けやすい子供たちをいかに守るかという問題は、社会全体で考えていかなければなりません。
新CEOアナンド氏が掲げる「楽しさ」と「安全性」の両立という目標は、決して簡単な道ではありません。しかし、彼の挑戦の行方は、Character.AIという一企業の未来だけでなく、AIチャットボットという技術が私たちの社会にどのように受け入れられていくかを占う、重要な試金石となるはずです。