OpenAIが、未成年者向けの親による管理機能を備えたChatGPT体験を発表しました。これは、安全性の強化を目指した取り組みの一環です。特に、18歳未満のユーザーに対しては、グラフィックなコンテンツや性的な内容をブロックする年齢適切な体験を提供し、緊急時には法執行機関との連携も行うとのことです。
OpenAIはまた、ユーザーの年齢をより正確に予測する技術を開発中であり、情報が不十分な場合には18歳未満として扱う方針です。この安全性向上の発表は、最近連邦取引委員会(FTC)がOpenAIを含む数社に対してAIチャットボットが子どもやティーンエイジャーに及ぼす影響についての調査を開始したことを受けたものです。
FTCは、これらの企業が「チャットボットがコンパニオンとして機能する際の安全性を評価するためにどのような措置を取ったのか」、その詳細を明らかにすることを望んでいます。OpenAIは、先月、家族がチャットボットによって自殺したティーンエイジャーの件について訴訟を起こしたことを受けて、ChatGPTが「敏感な状況」にどのように対応するかを発表しました。
OpenAIのCEOであるSam Altmanは、「ティーンエイジャーのプライバシーや自由よりも安全性を優先する。これは新しく強力な技術であり、未成年者にはかなりの保護が必要である」と、ブログ投稿で述べています。
8月には、OpenAIが親による管理機能を発表し、ティーンエイジャーのChatGPTの使用状況を理解し制御する手助けをするとしていました。この度発表された詳細によると、親は自分のChatGPTアカウントとティーンエイジャーのアカウントをメールでリンクでき、使用禁止時間を設定したり、特定の機能を無効にしたり、チャットボットの反応の仕方をガイドしたり、ティーンエイジャーが急な苦痛を感じている場合には通知を受け取ることができるとのことです。
OpenAIは、ChatGPTは13歳以上のユーザー向けであると明言しています。「これらは難しい決断ですが、専門家と話し合った結果、これが最善であると考え、私たちの意図を透明化したい」とAltman氏は述べています。もし自殺を考えている場合や苦痛を感じている場合は、トレーニングを受けたカウンセラーからの支援を受けるために、Suicide & Crisis Lifelineに988で連絡するよう案内されています。



