AI生成画像/動画を見た感覚と、不気味の谷現象はだいたい同じで、あと少しだけどその少しが致命的に違ってキモチワルイ、っていう感覚になるんだと思ってる。
よーく観察したら、LLMの出力文も、脳内に通したら頻繁にそういうエラーを吐いてる気がするよねえ。
やっぱりリアルワールドに概念がちゃんと「着地」してないのが一番まずい点なんだろうなあ。じゃあどうやって解決するのといわれると困るけれど。
AGI までの道は遠い…
ぶっちゃけ驚き屋さんが多すぎて、本当にすごいかどうかの評価が全然できないのでつらい。
OpenAI o1で難しい数学の問題を解けるようになった!と言われても、電力ガバ食いして推論させるより、Wolfram Alphaをtoolに突っ込んだほうが効率よくね?とか、ヒネた見方をしてしまう…