AIについて考えていること(2025年6月版)
最近、技術書に限らずAI関連書籍をいろいろ読んでいる。一方でめっきりAgent Codingできておらず、Claude Codeにも最近は全く触れられていないという体たらく。とはいえ2025年6月時点の徒然を書き留めておく。あとで失笑するために。
LLMへの理解とメタファー
何周か回って、いまのLLMに対するベースの理解がむしろシンプルになりつつある。「Webばかり見て世界を理解している子供」ということ。いやそんなのずっと前からわかってただろう、という感じだが、結局それがわかりやすいよな、と思うに至る。Webの情報をめっちゃ信じてしまっている人。なんかやたら知識があるのに、因果推論はなんか飛躍してて、回答は現実に即しておらず、安全や倫理とかにやたら配慮がない。
心当たりある…自分のこと。まだ子供で社会にも出ていないので、インターネットばかり見て世界ってすごい人たちいっぱいいる…って信じ込んで憧れたりしているけど、実際には極々極々一部のすごい、あるいはマニアックな世界が拡張されて表出しているだけ。コーディングAIで言えばOSSを過学習してるみたいな話もある。
チューリングは人工知能を作るにあたり、最初から賢い知性を作ろうとするのではなく、子供の知性を作った上でだんだんと学習させていくべきだ、というコネクショニズム的なことを述べていたらしい。たぶんフレーム問題に対応するSelf-Attention機構は、脳の認知の基本的なアーキテクチャを表現していて、つまり子供の脳をかなり再現しているといってよいのかもしれない。「人はAのような文章に対して、なんとなくBに注目して、なんとなくCをよく返してる」みたいなことって子供っぽい振る舞い。
因果推論や論理的思考などというものは、人間の脳のそのシンプルなハードウェア思想の上で動くソフトウェアのように建て付られているものなのだろう。脳のハードウェアアーキテクチャというよりも、生まれたあとの脳が経験則のような形で事後的に個々人のソフトウェアが作られていく中に含まれている要素であると捉えた方が感覚的に沿う。つまり半年ROMれ、と。
またいまのAIが理解していることは「Webで表現可能なこと」にすぎないので、シンボルグラウンディング問題はもちろん解決していないと思っている。抽象化もほとんどできていない。本質的な意味での感覚を得るにはもちろん身体性(embodiment)が必要なはずだし、次の時代がロボット/アンドロイドであることは間違いないだろう。
そのときたぶん、これまでのAIブームで問題にしてきていた記号論理や知識表現が改めて再考される気がする。子供の脳はできてきたことで、次は大人としての因果推論や論理的思考を求めたくなる。人間たちが先生から学習するように、どう効率的に学習させたらよいか?と考えるのではないか。
現実世界を学習すること
とはいえもちろん改善が進んでいる認識で、その方法はAI-Agentが「AI-Agentを使う人間のムーブを学習すること」であろう。完全な現実世界とは言えずとも、Webデータのような静的データよりかはずっともっと現実世界に近づく。Claudeの進化はきっとその賜物だろう。と思っていたらmizchiさんもそんなことを書いていた(まだ『LLMのプロンプトエンジニアリング』入手できてない…)。しかしそれはやっぱりWeb上のデータをまるっと学習させるよりかは早くはない。
Claude Code による技術的特異点を見届けろ | Zenn.dev
やや余談だが、シンギュラリティのベタな定義の一つは「自分で自分を作れる」みたいなことであったかと記憶している。ソフトウェアにおいてそれは実現しそうなのだが、しかしながら一方でたぶん昔の人が思っていたよりもロボットが未だに日常に全然普及してないことにはビビるものがある。たぶん昔の人は人型ロボット自体はとっくに普及し、高度な知性の問題があとに残っている形になるだろうと思っていただろう。ただ指示に従う高機能なロボットがありさえすれば自分自身を作り出すところまでちゃんといけるのにそちらがない。安全の問題とかよりも、なんか人類は一時期ソフトウェアに傾倒しすぎたよね、感が否めない気はする。もしくはアシモフの影響が大きかったのかな。しかし確かに知性のほうが先行するなら、その懸念は上手に機能したのかもしれない。
われわれは数学をする
現状理解として、上記の本で話されていた「技術」と「科学」の分離が起きている、というような話はヒントに感じた。技術ばかり先行して、科学的整理が追いつかず、その技術の限界や副作用などの話ができる状況にない。
まあ、新薬みたいなものだろうか。実験的に効果は証明されているものの、どうせ人体の仕組みのほうがわかっていないので副作用なんて本質的にはわからない。アンチAIの議論は結局のところ、コロナワクチン論争にも似ている。きっと電気が発明されたときもこんな感じだったのでは。「実験」が先行し、やがてそれをどう「表現」するかが発明される、という順序は致し方ないのだろう。
上記の本でも話されているように、「技術」と「科学」を結ぶことが今後求められることになるのだろうと思われる。新しい時代の機械学習のような「実験工学的」な「科学」という研究に希望があるというのもそうだろうと思う。AI時代の人間のタスクとして考えられているような「新しい概念をつくる」とは、まさにここでいう「技術」の反対に置く「科学」のプロセスではないか。
それはおそらく一般的な仕事のタスクとしてもそうなのではないか。LLMは文字数を数えるという基本的な数学さえできない。数学を文字列としてしか認識していないから。AI利用においては検証可能性の適切な担保が大切だ、とかもそう。情報工学的な分野でも再びロボットのような機械工学や電気電子工学が重要視されるであろうこともきっとそう。「科学」の側を強く人間が支えないといけない。
よく論理的思考力とか言うけど、もっと具体的にすれば、「数学」とかがたぶん重要になるのではないか。まあ、そこもAIが奪っていくまではってことであるけれどもまあしばらくは。