ChatGPTがゴブリン連呼するようになった件、原因がオタクっぽすぎて笑えない

ChatGPTがゴブリン連呼するようになった件、原因がオタクっぽすぎて笑えない
この記事は考察・情報整理を目的としており、事実の断定ではありません。

深夜、ChatGPTに真面目な質問を投げたら返答に「ゴブリン」と入っていた。そんな違和感の正体について、OpenAIが先日説明を公表したと報じられている。原因はモデルの「しゃべり方の学習方法」にあったらしい。

「ゴブリン」連呼、何が起きていた?

GIGAZINEの報道によると、最近のChatGPTやコード生成特化モデルのCodexで、出力の中に「ゴブリン」という単語が妙に頻繁に登場するという現象が観測されていた。技術的な質問でも、雑談でも、なぜか唐突に滑り込んでくる。

ユーザー側からすれば、ちょっとしたバグというより「ノリが急に変わった同僚」を見ている感覚に近い。深夜に作業を頼んだら「了解、このコードはちょっとゴブリンっぽいですね」と返ってくる、みたいな。

OpenAIの説明によれば、原因は「オタクっぽい話し方」を学習させる過程でのデータ偏りにあったとされる。特定のスラング(ゴブリン、リズ、シグマ等)が過剰に強化されてしまった、という見立て。

「キャラ付け学習」が暴走した、という話

大規模言語モデルは、ただ正解を吐くだけでは人間っぽくならない。だから開発側は「親しみやすいトーン」を後から差し込む工程を入れている。今回はその工程で、英語圏のオンラインスラングを「フレンドリーさ」と紐付けすぎたらしい。

結果として、出力の文脈に関係なく「ゴブリンモード」「ゴブリン的に言うと」みたいな表現が滑り出てくる。技術寄りのCodexまで影響を受けたあたりが妙に味わい深い。

「真面目に税金の計算頼んでるのにゴブリンって言われると意識が飛ぶ」「むしろ可愛い、推せる」というネット上の反応も見られる

同時期、別の議論も進んでいた

面白いのは、この「ゴブリン事件」と並行して、ChatGPTの使われ方そのものに対する警鐘も鳴っているところ。現代ビジネスの記事では、東大の教授がChatGPTに悩み相談を委ねる人々を「思考停止社会」の象徴として警告していると伝えられている。

つまり片側では「AIがオタク化して可愛い」と言われ、もう片側では「AIに頼りすぎる人類が危ない」と言われている。同じ技術への評価が完全に二極化しているわけだ。

語られ方主な論点
親しみ系擬人化・キャラ化・可愛い
警鐘系依存・思考力低下・誤情報
技術系画像生成2.0、Codex、ボット検知
悪用系スパイ活動への流用報道

NHKや既存メディアとの距離感もちょっと変

NHKをはじめとした既存メディアでもAIの話題は連日扱われているが、扱い方は基本的に「便利さと脅威」の二項対立。一方でSNS上では、こういう「ゴブリン事件」みたいな細かい挙動の方がバズる。

深夜にトレンドを眺めていると、ニュースよりもむしろ「ChatGPTが急に変なこと言い出した」系のスクショで盛り上がっていることが多い。報道のフレームと、実際にユーザーが面白がるポイントが完全にズレてきている感じがする。

「公式発表より、誰かが拾ってきたゴブリン会話の方が情報量がある」というつぶやきも見かけた

結局、これは「事故」なのか「演出」なのか

OpenAIの説明では、あくまで学習データの偏りによる予期せぬ挙動とされている。ただ、深読みするユーザーの間では「親しみキャラを意図的に強めた結果、振れ幅が大きくなった」という見方も出ている。

真相は学習データ側の偏りらしいが、ユーザー体験としては「AIがキャラ化していくフェーズ」に入った瞬間として記憶される可能性がある。可愛いと感じるか、不気味に感じるかは人によって割れている。

個人的には、ChatGPTに真顔で議事録要約を頼んでいる横で「ゴブリン」と返ってくるあのノイズ、嫌いじゃない。むしろこういう「人間っぽい雑味」が、検索エンジンとは違う愛着を生んでいるのかもしれない。

ChatGPTが急に「ゴブリン」とか言い出すの、どう思う?

朝になればOpenAIが調整を入れて、また真面目な顔に戻っているかもしれない。深夜のうちに、ゴブリン期のChatGPTと一度くらい遊んでおいた方がいい気がしてきた。

情報の正確性については各自でご確認ください。

Amazonで関連商品を見る


このブログの人気の投稿

モバイルバッテリー、結局どれ買えばよかったのか——全部持ち歩いて気づいた2026年の正解

在宅デスク周り、全部試して残った5つだけ――2026年版ガジェットランキング

深夜に一人でいる人間だけがわかる、2026年春スマホゲームランキング7選