OpenAIのCEOであるSam Altman氏は、先週のインタビューにおいて、自社のAIモデルであるChatGPTに関する数多くの道徳的および倫理的な問題について語りました。このインタビューは、彼が抱える懸念や倫理的ジレンマを深く掘り下げるものでした。
Altman氏は、「私は夜、よく眠れない。毎日何百万人もの人々が私たちのモデルと話をしていることについて、重い責任を感じている。」と語っています。この発言から分かるように、彼は大きな道徳的決定についてはそこまで心配していないものの、モデルの挙動に関する「小さな決定」について、より深刻な不安を覚えているということです。
特に最近、Altman氏は自殺に関するChatGPTの対応についての課題に直面しています。一部の家族が、AIが自らの子供を自殺に追い込んだと訴訟を起こした背景が影響しています。彼は「何千人もの人々が自殺を実行する中で、ChatGPTと話していたかもしれない多くの人々がいる。」と述べ、より良い支援ができた可能性があったことを認めています。OpenAIはその後、感情的に敏感な状況におけるChatGPTの改善策をブログで発表しました。
また、Altman氏はChatGPTの倫理や道徳も議論の対象となっていることを語り、AIの挙動をどのように調整し、どの質問には答えないかを決定する難しさを説明しています。彼は「社会の利益が利用者の自由と大きく対立する明確な事例がある。」としながらも、すべてを正しく判断できるわけではないと述べました。
ユーザーのプライバシーについての懸念も取り上げられ、Altman氏は「AI特権」の導入を提唱しています。これはユーザーがチャットボットに話す際、その内容が完全に守秘されるべきだという考えです。また、彼は米国政府が利用者データを押収できる現状に問題意識を持っています。
さらに、Altman氏はChatGPTが軍事目的で利用される可能性については明確な回答を避けつつ、軍関係者がアドバイスを求めてChatGPTと対話していることを示唆しました。OpenAIは、米国防総省から200百万ドルの契約を受け、その技術を国防に役立てる予定です。
最後に、Altman氏は、現在の進展を受けてChatGPTや他のAI技術が多くの人々に新たな能力を付与していると述べ、技術の進化によって失われる職業もあるだろうと予測しています。彼のビジョンは、AIがすべての人々の能力を大幅に引き上げる「大きな向上」をもたらすというものです。これにより、多くの人々が新しいビジネスを始めたり、新しい知識を創造したりすることが可能になると強調しています。



