人工知能(AI)の利用が急速に拡大する中で、悪影響をもたらす可能性のある応答事例が増えてきています。専門家たちによれば、これにはヘイトスピーチや著作権侵害、さらに性的コンテンツが含まれます。このような望ましくない行動の出現は、規制の欠如やAIモデルの不十分なテストによって一層悪化しています。
AI研究者のハビエル・ランド氏は、機械学習モデルを意図した通りに動作させることが非常に難しいと述べています。「15年間の研究を経て、我々はこの問題に対する解決策を見つけられていないし、改善も見込めない」と彼は語りました。AIのリスクを評価する方法の一つとして「レッドチーミング」という手法があります。これはAIシステムをテストし、潜在的な危害を明らかにするために専門家が行うプロセスであり、サイバーセキュリティの分野では一般的な手法です。データプロヴナンスイニシアティブのリーダーであるシェーン・ロングプレ氏は、現時点ではレッドチームに従事する人員が不足していると指摘しています。
AIスタートアップは現在、ファーストパーティの評価者や契約したセカンドパーティに依頼してモデルをテストしていますが、一般ユーザーやジャーナリスト、研究者、倫理的ハッカーなどの第三者によるテストを開放することで、より包括的な評価が可能になるとロングプレ氏は述べています。彼は、「システムに見つかる欠陥の中には、実際の弁護士や医師、専門分野の科学者が確認しなければならないものもあります。一般の人々にはその専門知識が不足していることが多いからです」と語っています。
AIシステムの「欠陥」に関する標準化されたレポート、インセンティブ、及び情報の普及方法を導入することが勧められています。他の分野、特にソフトウェアセキュリティで成功裏に採用されているこの実践が、AI分野にも必要だとロングプレ氏は強調しました。ユーザー中心のアプローチをガバナンスや政策などと結びつけることが、AIツールとそれを利用する者がもたらすリスクをより良く理解するための鍵となります。
「プロジェクト・ムーンショット」はこのようなアプローチの一つであり、技術的な解決策と政策メカニズムを統合する取り組みです。シンガポールの情報通信メディア開発庁が立ち上げたこのプロジェクトは、業界のプレーヤーであるIBMやボストンを拠点とするDataRobotと共同で開発された大規模言語モデル評価ツールキットです。このツールキットには、ベンチマーキング、レッドチーミング、テスト基準が統合されており、AIスタートアップが信頼できるモデルを確保できるような評価メカニズムも備えています。評価はモデルの展開前後で継続的に行うべきものであり、IBMアジアパシフィックのデータ・AI担当クライアントエンジニアリング責任者アヌップ・クマー氏はその重要性を認識しています。
一方、ESSECビジネススクール(アジア太平洋)の統計学教授ピエール・アルキエ氏は、テクノロジー企業が適切な評価を行わずに最新のAIモデルを急いで公開している現状を憂慮しています。「製薬会社が新薬を設計する際には、政府に承認される前に数ヶ月のテストと厳格な証明が必要です」と彼は指摘し、航空業界でも同様のプロセスが存在することを述べました。AIモデルもまた、承認される前に厳格な条件を満たす必要があります。より特定のタスクに特化したAIの開発へとシフトすることが、誤用を予測し制御しやすくなるとアルキエ氏は述べています。「LLMは多くのことを行えるが、それは特定のタスクをターゲットにしたものではないため、開発者がすべての誤用を予測するのは難しい」と彼は語っています。このような広範なモデルは安全であると定義することが難しいという研究結果が出ています。したがって、テクノロジー企業は「自社の防御がより優れていると過剰に主張すること」を避けるべきです。



