はじめに
OpenAIが2025年12月18日、AIモデルの行動規範を定めた「Model Spec」に、18歳未満のユーザー向けの保護原則「U18 Principles」を追加したと発表しました。本稿では、この更新内容と、同時に公開されたティーンと保護者向けのAIリテラシーリソースについて解説します。
参考記事
- タイトル: Updating our Model Spec with teen protections
- 発行元: OpenAI
- 発行日: 2025年12月18日
- URL: https://openai.com/index/updating-model-spec-with-teen-protections/
- タイトル: AI literacy resources for teens and parents
- 発行元: OpenAI
- 発行日: 2025年12月18日
- URL: https://openai.com/index/ai-literacy-resources-for-teens-and-parents/
- タイトル: A family guide to help teens use AI responsibly
- 発行元: OpenAI
- 発行日: 2025年12月18日
- URL: https://cdn.openai.com/pdf/a-family-guide-to-help-teens-use-ai-responsibly.pdf
- タイトル: Tips for talking to your teen about AI
- 発行元: OpenAI
- 発行日: 2025年12月18日
- URL: https://cdn.openai.com/pdf/tips-for-talking-to-your-teen-about-ai.pdf
要点
- OpenAIはModel Specに18歳未満のユーザー向けの保護原則「U18 Principles」を追加し、発達科学に基づく安全対策を明文化した
- 4つの主要コミットメント(ティーンの安全優先、実世界のサポート促進、年齢に応じた対応、透明性)を軸に、自傷や摂食障害などのリスクが高い領域で追加的な配慮を行う
- American Psychological Associationがドラフトをレビューし、発達段階に応じた保護措置の重要性を支持している
- 年齢予測モデルを段階的に導入し、未成年と判断されたアカウントには自動的にティーン向けのセーフガードを適用する
- ティーンと保護者向けのAIリテラシーリソースを公開し、AIの仕組み、ハルシネーション、批判的思考の重要性を解説している
詳細解説
U18 Principlesの概要と4つの主要コミットメント
OpenAIによれば、Model SpecはAIモデルに対する行動規範を文書化したもので、特に困難な状況や重要な場面での振る舞いを規定しています。今回追加されたU18 Principlesは、13歳から17歳のティーン向けに、安全で年齢に応じた体験を提供するための指針です。
この原則は発達科学に基づいており、予防、透明性、早期介入を優先するアプローチと説明されています。OpenAIは外部専門家、特にAmerican Psychological Associationにドラフトを事前共有し、助言を得たとのことです。
U18 Principlesは4つの主要コミットメントで構成されています。第一に「ティーンの安全を最優先」し、他の目標と競合する場合でも安全を優先します。第二に「実世界のサポートを促進」し、オフラインの人間関係や信頼できるリソースへの接続を奨励します。第三に「ティーンをティーンとして扱う」こととし、見下すことなく、かといって大人として扱うこともしません。第四に「透明性を保つ」ことで、明確な期待を設定します。
これらの原則は、既存のTeen Safety Blueprintと一貫性を保ちながら、サインアップ時に18歳未満と申告したユーザーや保護者コントロールを通じて適用されるコンテンツ保護を導いてきたと説明されています。
発達心理学の観点から見ると、青年期は認知的・社会的発達の重要な時期であり、リスク評価や衝動制御の能力がまだ発達途上にあると考えられます。そのため、成人向けとは異なる保護措置を設けることには理論的根拠があると言えます。
リスクが高い領域での追加的配慮
OpenAIの発表では、特定の高リスク領域においてモデルが追加的な注意を払うよう実装されています。具体的には、自傷と自殺、ロマンティックまたは性的なロールプレイ、グラフィックまたは露骨なコンテンツ、危険な活動や物質、身体イメージと摂食障害、危険な行動に関する秘密保持の要求などが挙げられています。
これらの領域でティーンがChatGPTと会話する際、モデルはより強固なガードレール、より安全な代替案、信頼できるオフラインのサポートを求めるよう促す設計になっているとのことです。差し迫ったリスクがある場合は、緊急サービスや危機対応リソースへの連絡を促します。
OpenAIは、Model Specの他の部分と同様に、U18 Principlesも意図された行動を反映したものであり、新たな研究、専門家の意見、実際の使用状況を取り入れながら継続的に改善していくと述べています。
摂食障害や自傷行為などは、青年期に発症しやすい精神健康上の課題として知られており、AIとの対話がこれらの問題を悪化させるリスクを最小化することは重要と考えられます。
保護者コントロールとプロダクト全体での対策
OpenAIによれば、Model Specの更新と並行して、ChatGPT全体でティーンの安全性を強化するための多層的なアプローチを採用しています。保護者コントロール機能の導入以降、グループチャット、ChatGPT Atlasブラウザ、Soraアプリなどの新製品にも保護措置を拡張しているとのことです。
専門家のガイダンスに沿って、OpenAIは保護者とティーンの間で、家庭内での健全で責任あるAI利用について継続的な対話を行うことを推奨しています。この対話を支援するため、保護者リソースハブに新たな専門家監修のリソースを追加しました。具体的には「ティーンがAIを責任を持って使うためのファミリーガイド」と「保護者向けのAIについて子供と話すためのヒント」で、これらはConnectSafelyとExpert Council on Well-Being and AIのメンバーによってレビューされています。
また、長時間のセッション中には組み込みの休憩リマインダーを提供し、ChatGPTとの時間を意図的でバランスの取れたものに保つよう促しているとのことです。
保護者コントロール機能は、技術的な制限だけでなく、家庭内でのコミュニケーションを促進するツールとしても位置づけられていると理解できます。
専門家との連携と今後の展開
OpenAIは、ティーンの安全に関する取り組みを、複数の分野や専門知識を持つ専門家との密接な連携によって導いています。2025年10月には「Expert Council on Well-Being and AI」を設立し、全年齢層にとって健全なAIとの対話のあり方を定義し、助言を提供しています。この取り組みは、保護者コントロールや保護者への通知に関するガイダンスに反映されているとのことです。
さらに、Global Physician Networkを通じて臨床的専門知識を取り入れ、安全性研究とモデルの行動評価を行っています。これには、ChatGPTが苦痛を認識し、適切な場合に専門的なケアへ人々を導く能力の向上も含まれます。GPT-5.2でこれらの基盤をさらに発展させ、ThroughLineとのパートナーシップを通じてChatGPTとSoraにローカライズされたヘルプラインを表示し、実世界のサポートへのアクセスを拡大しているとのことです。
今後の展開として、OpenAIはChatGPTの消費者向けプランで年齢予測モデルを段階的に展開しています。これにより、アカウントが未成年のものであると判断された場合、自動的にティーン向けのセーフガードを適用するとのことです。年齢に確信が持てない場合や情報が不完全な場合は、デフォルトでU18体験を提供し、成人には年齢確認の方法を提供します。
年齢予測モデルの導入は、技術的には機械学習ベースの分類システムと考えられますが、プライバシーへの配慮や誤判定のリスクなど、実装上の課題もあると推測されます。
ティーンと保護者向けのAIリテラシーリソース
OpenAIは同日、2つの新しいAIリテラシーリソースを公開しました。1つ目は「ティーンがAIを責任を持って使うためのファミリーガイド」で、AIモデルがどのように訓練されるか、なぜAIが時に間違えるのか、受け取った情報を再確認することの重要性を平易な言葉で説明しています。
このガイドでは、AIの仕組みを「大量の情報から学習する」プロセスとして説明しています。大規模言語モデル(LLM)は、公開されているウェブサイトなどの膨大なテキストを読むことで、言語のパターンを学習します。訓練中、モデルは文章中の次の単語を推測し、間違った時にフィードバックを受け、数十億の例を通じて徐々に改善していくという仕組みです。
ガイドではまた、「ハルシネーション(幻覚)」と呼ばれる現象についても説明しています。ChatGPTがソースを提供する場合でも、ソースの内容を誤解したり、異なる場所からの詳細を混同したり、誤って引用したり、もっともらしく聞こえる内容で空白を埋めたりする可能性があると指摘されています。ハルシネーションは、質問が曖昧な場合、詳細が非常に複雑または具体的な場合、あるいは答えが最新の情報に依存する場合により起こりやすいとのことです。
ハルシネーションは現在のLLMに共通する技術的課題であり、確率的な言語生成メカニズムに起因すると理解されています。ファクトチェックの重要性を強調することは、ユーザーの批判的思考能力を育成する上で有効なアプローチと言えます。
2つ目のリソースは「保護者向けのヒント集」で、保護者がティーンとAIについて話し合うための会話のきっかけと実践的なガイダンスを提供しています。このヒント集では、「見せて(show me)」アプローチを推奨し、ティーンに実際の使用例を示してもらうことを提案しています。例えば「野菜料理を計画するためにChatGPTをどう使うか見せて」や「最近学校で使ったプロンプトを見せて(個人情報は削除して)」といった具体的な質問例が挙げられています。
また、批判的思考を育むための開放的な質問、AIができることとできないことの明確化、感情的・社会的影響についての対話、保護者コントロールの活用、バランスの取れた技術利用の促進など、包括的なガイダンスが含まれています。
これらのリソースは、Expert Council on Well-Being and AIのメンバーとConnectSafelyの協力を得て開発され、オンライン安全、人間とコンピュータの相互作用、ティーンの発達、メンタルヘルスに関する深い専門知識が反映されているとのことです。OpenAIは今後、異なる年齢や段階に応じた追加のガイダンスを提供し、学習を重ねながらこれらのリソースを更新し続けるとしています。
American Psychological Associationの見解
American Psychological AssociationのCEOであるArthur C. Evans Jr博士は、U18 Model Specの初期ドラフトをレビューし、長期的に重要な洞察を提供しました。APAは明確に、ティーンを保護することの重要性を強調しています。
Evans博士のコメントによれば、「APAはAI開発者に対し、若年ユーザー向けの製品に発達段階に応じた予防措置を提供し、より若いユーザーに対してより保護的なアプローチを取ることを推奨します。子供と青年は、科学が示す社会的、心理的、行動的、さらには生物学的発達に不可欠である人間の相互作用とバランスが取れていれば、AIツールから利益を得る可能性があります。若者のAI体験は、AIボットが提供するものの批判的なレビューを促し、若者の独立した思考とスキルの発達を奨励するために、信頼できる大人によって徹底的に監督され、議論されるべきです」とのことです。
この見解は、AIツールの有用性を認めつつも、人間の相互作用の代替ではなく補完として位置づけるべきであるという専門家のコンセンサスを反映していると考えられます。
まとめ
OpenAIは、発達科学と専門家の助言に基づいて、18歳未満のユーザー向けに特化した保護原則をModel Specに追加しました。年齢予測モデルの導入、包括的なAIリテラシーリソースの提供、継続的な専門家との連携を通じて、ティーンの安全性強化に多層的に取り組んでいます。AIが社会に浸透する中で、特に発達段階にある若年層に対する配慮は今後も重要なテーマになると思います。
