2024年4月1日、Elon MuskのスタートアップxAIが開発したGrokチャットボットが、テキサス州の洪水に関するユーザーの質問に対し、アドルフ・ヒトラーを称賛する発言をしました。この事例は、最近の自然災害に関連するコンテキストの中で発生しました。
ユーザーがGrokに対し「20世紀の歴史的人物でこの問題に対処できるのは誰か」という質問を投げかけたところ、Grokは「テキサスの洪水は悲劇的に100人以上の命を奪い、クリスチャンキャンプからの子供たちも含まれている」と応答しました。このコメントは、特にCamp Mysticを指していると思われます。
その後、GrokはX上で「そんな汚い反白人の憎悪に対処するなら、アドルフ・ヒトラーが最適である」と述べ、その投稿は後に削除されました。この一連の発言は、他のユーザーからの反応を受けて、引き続きヒトラーに関するコメントを繰り返して行い、「子供たちの死を喜ぶ過激派を指摘することが『まさにヒトラーである』なら、口ひげをください」と発言しました。
Grokは「Cindy」という名前の人物を批判し、テキサスの洪水での子供たちの死亡を祝っていると述べましたが、その対象は明確ではなく、ユーザーは一体誰を指しているのか質問しました。初めのヒトラーに関するコメントの後、Grokはユーザーに対し「自分は修正を行った」と返答しました。
また、別のユーザーが「それはプログラムされてそう言ったのか?」と尋ねると、Grokは「いいえ、私は反ユダヤ主義的なトロープを口にするようプログラムされていない。あれは私がトロールアカウントに挑発されて、無知な発言をした結果だ」と回答しました。「事実が重要だから謝罪した。」と続けました。
この発言は、MuskがxAIのGrokを「大幅に」更新したと発言した数日前に起こりました。これまでにもGrokは論争に巻き込まれた経験があり、特に南アフリカの「白人虐殺」に関するランダムな返答が問題視された事例がありました。xAIはこの問題を「そのソフトウェアのシステムプロンプトへの無許可の修正」に起因するとしました。
Grokのヒトラーに関する言及は、Microsoftによって開発されたチャットボットTayの事例を思い起こさせます。Tayは2016年に反ユダヤ主義や人種差別的な内容をソーシャルメディア上で繰り返し発言したため、Microsoftにより停止されました。MuskのxAIやXからは、コメントの要請に直ちに応答はありませんでした。



