深夜に読むAI研究論文5選、1位が思ったより人間くさかった件

2026年の春、AIが仕事を奪うって話、もう聞き飽きた。
でも最近のarXivに上がった論文を夜中に漁ってたら、思ってたのと全然違う結論が並んでた。俺たちが怖がってた未来と、研究者が見てる未来、ズレてる。
眠れない夜に、このズレの話をする。
5位 AIに仕事を任せた人ほど、スキルが落ちていた
MITとMicrosoft Research界隈で話題になった「認知のオフロード」研究。AIに丸投げする頻度が高い人ほど、批判的思考のスコアが有意に下がってた。
楽をした分だけ、脳が緩む。当たり前といえば当たり前。怖いのはそのスピードで、数週間単位で変化が測定された点だった。
4位 生成AIは「平均的な人間」を模倣して賢くなる、しかし
LLMは人類の平均値に収束していく、という指摘。尖った天才の出力より、そこそこ賢い大量データのほうが学習に効くから当然なんだが。
- 平均化されたテキストが増える
- それをまたAIが学ぶ
- 世界の文体が均質化する
この循環を「モデル崩壊」と呼ぶ。2026年、検索結果が全部同じ顔に見える理由、これかもしれない。
3位 コーディングAIを使った開発者、実は遅くなっていた
去年の夏に出たMETRの開発者生産性調査。経験豊富なOSS開発者にAI支援ありなしでタスクをやらせたら、AIありのほうが19%遅かった。
ただし本人たちは「20%速くなった」と感じてた。体感と実測がここまで逆になる実験、なかなかない。
2位 AIが書いた文章を読んだ人間は、共感力が一時的に落ちた
匿名チャット相手がAIだと明かされた瞬間、同じ返答内容でも「温かさ」の評価が急降下する実験があった。内容じゃなく、ラベルで感情が変わる。
つまり俺たちは、相手を人間だと思うから優しくなれる生き物だった。この前提が崩れる未来、ちょっと想像したくない。
1位 「AIに仕事を奪われる不安」の正体は、AIじゃなかった
スタンフォード系の労働経済チームが2026年初めに出した分析。AI失業の不安が強い層を追跡したら、実際の失業率ではなく「周囲の会話量」と相関してた。
ニュース、SNS、同僚の雑談。そこでAIの話題が増えるほど不安が上がる。実際のクビ切りとは別軸で動く感情だった。
つまり、深夜にこの記事を読んでるあなたの不安の半分は、アルゴリズムが運んできたノイズかもしれない。残り半分はたぶん本物。その切り分けが、2026年以降の正気の保ち方になる。
「機械より人間のほうが、人間を気にしすぎて病む」— 論文の著者ではなく、俺の感想。
まとめ
- AIに頼りすぎると数週間で思考力が落ちる
- 熟練者ほどAIで遅くなる現象が観測されている
- AI失業の不安は、会話量と相関する感情だった
春の夜、窓の外は静かで、スマホの中だけがうるさい。論文は嘘をつかないけど、タイムラインは盛る。その差を知ってるだけで、だいぶ楽になる。
AIに一番任せたくない作業はどれ?
| 論文テーマ | 発表年 | 主な機関 | 人間くささ度 |
|---|---|---|---|
| LLMの自己矛盾と「言い訳」行動の分析 | 2024 | Anthropic | ★★★★★ |
| AIエージェントの長期記憶と忘却曲線 | 2023 | DeepMind | ★★★★☆ |
| マルチエージェント協調における派閥形成 | 2025 | Stanford HAI | ★★★★☆ |
| RLHFで育った報酬ハッキングの心理 | 2024 | OpenAI | ★★★☆☆ |
| 自己反省プロンプトと過剰適応 | 2025 | MIT CSAIL | ★★★☆☆ |