人工知能(AI)の複雑な仕組みを少しでも解き明かすことができれば、科学の未解決問題を解決する鍵になるかもしれません。アンソロピックは、自社のAIモデル「Claude」を使って、その内部構造を可視化する研究を進めています。
彼らが開発した「回路追跡」という技術で、Claudeがどうやって考え、応答を出しているのかの一端が掴めたのです。具体的には、AIが自分の意思で幻覚を抑えたり、独自の解釣をするなど、人間の直感に反する動きが明らかになりました。
この研究は、技術的な大きな進歩とされ、アンソロピックは複数タスクを扱う大規模なAIの特定の「回路」を解析しました。言語モデルがどう仕組まれているかを理解することは、その信頼性を測定し、弱点を知る上で非常に重要です。
バトソン研究員は、今見えているのは氷山の一角に過ぎないと言い、今後の研究に期待が寄せられています。
出典 : 大規模言語モデルは内部で 何をやっているのか? 覗いて分かった奇妙な回路 https://www.technologyreview.jp/s/358515/anthropic-can-now-track-the-bizarre-inner-workings-of-a-large-language-model/