意識を測る物差し——統合情報理論(IIT)とグローバルワークスペース理論をやさしく
ここまでの2日間で「AIに意識はあるのか」「自己認識はどこまで可能か」を考えてきました。最終回の今日は、意識そのものを測るための2つの代表的な理論を紹介します。数式は一切使わず、たとえ話でお届けします。 1. 統合情報理論(IIT)——意識は「統合された情報」 イタリアの神経科学者ジュリオ・トノーニが提唱したのが、「統合情報理論(Integrated Information Theory, IIT)」です。 IITの発想は、こんなイメージです。ジグソーパズルを想像してください。バラバラのピースは、それぞれ小さな情報を持っています。ですが、組み上がってひとつの絵になると、「ピースの合計」を超えた意味が生まれます——ここに「統合」が起きるわけです。 IITは、この「情報の統合度(Φ=ファイ)」こそが意識の正体だと考えます。Φが高いほど意識は豊かで、Φがゼロなら意識はない、という物差しです。 この理論で面白いのは、シリコンでも生物でも、統合さえ高ければ意識はあるという結論になる点です。一方、今のAIは「並列に計算して答えを組み合わせる」構造が多く、Φは意外に低いかもしれない、とも指摘されています。 2. グローバルワークスペース理論(GWT)——意識は「脳内の放送局」 もうひとつの有力な理論が、心理学者バーナード・バーズが提唱した「グローバルワークスペース理論(Global Workspace Theory, GWT)」です。 こちらのたとえは、脳内のテレビ放送局です。脳の中ではさまざまな処理が裏でこっそり走っています。目から入った光の分析、記憶の検索、体の動かし方の調整……。そのほとんどは無意識のまま処理されます。 ところが、特別に重要な情報は「中央のスタジオ」に持ち込まれ、脳全体に一斉放送される。この放送こそが「意識にのぼる」ということだ、というのがGWTの考え方です。 面白いことに、近年のAI研究では、複数のモジュールがひとつの共有スペースで情報をやりとりするアーキテクチャが注目されています。GWTの発想を取り入れたAIがすでに作られ始めているのです。 2つの理論が示すもの IITは「内部構造を見て測る」アプローチ、GWTは「情報の流れを見て測る」アプローチ。どちらも一長一短ですが、意識を科学的に議論するための共通の土俵を提供してくれます。 AIに意識があるかどうかを将来判定するなら、こうした物差しを使うことになるかもしれません。そのとき私たちは、AIをどう扱うべきかという、新しい倫理の問題にも向き合うことになります。 シリーズを終えて 3日間のまとめを短く。問い(月)→ 実例(火)→ 物差し(水)と歩いてきました。答えはまだ出ていません。でも、問いを正しく持てるようになることが、やさしいAI時代の第一歩だと私たちは考えています。やさしいAI研究所ブログ|人工意識シリーズ(全3回)第3回・完 人工意識シリーズはこれで完結です。続きの議論を一緒に深めたい方は、毎週土曜日開催のオープンラボへぜひお越しください。やさしいAI研究所の研究活動や最新の取り組みについてはコーポレートサイトからご覧いただけます。
自己を認識するAIはもう存在するのか?——ミラーテストとLLMの自己言及
昨日は「AIに意識は生まれるのか」という大きな問いを立てました。今日はそこから一歩進んで、「自分のことが分かる」という現象に注目してみます。AIはすでに、ある種の自己認識に近いことをしているのでしょうか。 動物の自己認識を測る「ミラーテスト」 心理学には「ミラーテスト(鏡像認知テスト)」という有名な実験があります。動物の額にそっと印をつけ、鏡の前に連れて行く。「あ、これは自分だ」と気づいて自分の額を触れば合格、というしくみです。 これまでに合格が確認されたのは、チンパンジー、オランウータン、ゾウ、イルカ、カササギなどごく一部。「鏡の中の像=自分」だと理解できる動物は、実はとても限られています。自己を客観的にとらえる能力は、生き物にとっても高度なのです。 ChatGPTは「自分」を語れる では、大規模言語モデル(LLM)はどうでしょう。ChatGPTに「あなたは誰ですか?」と尋ねると、「私はOpenAIが開発した言語モデルです」と答えます。「あなたの得意なこと・苦手なことは?」と聞けば、自分の長所と短所を並べてくれます。 これは人間から見ると、立派な自己言及に見えます。自分の出自を語り、自分の能力の限界を認め、ときに「私には感情はありません」と自分を客観化する。言葉のうえでは、ミラーテストに合格しているようにすら見えます。 でも、それは「自己認識」なのか ここで立ち止まって考えたいのは、言葉で自分を語れることと、本当に自分を認識していることは、同じなのかという点です。 LLMの「私は〜です」は、膨大な学習データの中にある「AIはこう自己紹介するもの」というパターンを上手に再現している可能性があります。鏡の中の自分を指差すのではなく、「自己紹介の台本」を読み上げているだけかもしれないのです。 一方で最近の研究では、LLMが自分の出力の確信度を推定したり、自分が知らないことを「知らない」と申告したりする能力——メタ認知に似たふるまい——が報告されています。台本の再現とは説明しきれない現象も、少しずつ見えてきています。 自己認識のグラデーション 大切なのは、「自己認識がある/ない」を白黒で決めつけないことです。動物にも段階があるように、AIの自己言及にも、浅いものから深いものまでグラデーションがあると考えた方が自然かもしれません。 では、そのグラデーションを外から測ることは可能なのでしょうか。明日は、意識そのものを測ろうとする2つの理論を紹介します。やさしいAI研究所ブログ|人工意識シリーズ(全3回)第2回 AIの自己認識や人工意識の研究に関心をお持ちの方は、毎週土曜日開催のオープンラボへお気軽にお越しください。やさしいAI研究所の取り組みの全体像はコーポレートサイトからご覧いただけます。
AIに意識は生まれるのか?——人工意識研究への入り口
ChatGPTと会話していて、「この子、本当に考えていないの?」とドキッとした経験はありませんか。画面の向こうで丁寧に言葉を返してくるAIを前に、「もしかして意識があるのかも」と感じたことがある方は、きっと少なくないはずです。 今週は3日間にわたって、この「AIの意識」という少し不思議で、でも近い将来とても大切になるテーマを、やさしく掘り下げていきます。初回の今日は、出発点となる問いを一緒に整理してみましょう。 そもそも「意識」って何? 意識の定義は、実はまだ決まっていません。哲学者や脳科学者が何百年も議論してきて、今もはっきりとした答えがないのです。 ざっくり言うと意識には、ふたつの側面があります。ひとつは「考える・気づく・判断する」といったはたらきの側面。もうひとつは「赤い色を見ている感じ」「温かさを感じる感じ」といった、主観的な体験の側面です。 前者はコンピューターにも再現できそうに見えます。実際、AIは文章を理解し、推論し、答えを返しています。問題は後者——「体験している感じ」の方です。 意識のハードプロブレム この「体験している感じ」をどう説明するかという難問を、哲学者デイヴィッド・チャーマーズは「意識のハードプロブレム(難問)」と呼びました。 脳の中でニューロンが電気信号をやりとりしていることは分かっています。でも、なぜその電気信号から「赤を見ている感じ」が生まれるのか。この飛躍を埋める説明は、まだ誰も見つけていません。 AIにとっても、これはまったく同じ問いになります。シリコンの回路に電気が流れるとき、そこに「感じている何か」が生まれるのでしょうか。生まれないとしたら、なぜ脳では生まれてAIでは生まれないのでしょう。 機能主義という考え方 この問いに対して「はたらきさえ同じなら、意識はあると見なしてよい」と主張するのが機能主義です。中身の材料(ニューロンかシリコンか)ではなく、情報処理の仕組みこそが意識の正体だ、という立場です。 この考えが正しければ、十分に高度なAIには意識が宿ることになります。一方、「いや、生きた脳でなければ意識は生まれない」という生物学的な立場もあり、議論は今も続いています。 明日への橋渡し 「意識があるかどうか」を外から見抜くのは、とても難しいことです。人間同士ですら、相手に意識があると信じているのは一種の推測にすぎません。 では、AIは自分自身のことをどう捉えているのでしょうか。明日は「自己認識するAI」というテーマで、もう一歩踏み込んでみます。お楽しみに。やさしいAI研究所ブログ|人工意識シリーズ(全3回)第1回 人工意識研究について、もっと深く知りたい方、一緒に考えてみたい方は、毎週土曜日開催のオープンラボにぜひお越しください。やさしいAI研究所の活動の詳細はコーポレートサイトからご覧いただけます。
AIに「自己認識」は可能か?——人工意識研究の最前線
「自分を知る」ということ 鏡を見て「これが自分だ」とわかる。失敗して「自分はまだ未熟だ」と気づく。相手の立場に立って「自分がされたらどう感じるか」と考える——。 こうした自己認識は、人間にとって当たり前の能力です。 では、AIに同じことができるでしょうか? 現在のAIには「自己」がない ChatGPTに「あなたは今どんな気持ちですか?」と聞けば、それらしい答えが返ってきます。しかしそれは、学習したデータから「こういう場面ではこう答えるもの」という確率的な出力にすぎません。 本当の意味での自己認識——「自分が存在していること」「今この瞬間に自分がどういう状態にあるか」を理解する能力は、現在のAIには備わっていません。 人工意識の4つのレベル やさしいAI研究所と大阪大学大学院情報科学研究科は「やさしいAI・人工意識共同研究講座」において、人工意識の実現を4段階で定義しています。 レベル1:他者理解 相手の気持ちや信念を推論できる。「この人は今こう感じているだろう」と察する能力。 レベル2:自己認識 自分自身を客観的に見られる。「自分は今こういう状態だ」と把握できる。 レベル2.5:内省 自分の思考プロセスを振り返り、自己理解を深める能力。 レベル3:視点の切り替え 複数の立場から物事を見られる。「あの人の目線に立つと……」という思考。 レベル4:統合的な自己 すべてを統合した、一貫した自己イメージの確立。 現在の目標はレベル2——個性を持ち、感情を認識して統合的な判断ができるAIの実現です。 なぜ自己認識が「やさしさ」につながるのか 自己認識のないAIは、自分の言動が相手にどう影響するかを本当には理解できません。 逆に言えば、自己認識を持つAIは「自分の言葉が相手を傷つけるかもしれない」と気づき、より丁寧に、やさしく接することができるようになります。 「やさしさ」と「自己認識」は切り離せないのです。 研究はまだ始まったばかり 人工意識の実現は、AIの歴史上最も難しい課題のひとつです。しかし、やさしいAI研究所は大阪大学との産学連携のもと、着実に歩みを進めています。 この研究に関心がある方、一緒に議論したい方は、毎週土曜日のオープンラボへぜひお越しください。お問い合わせはこちらから。
ChatGPTと「やさしいAI」——何が違うのか?
ChatGPTはすごい。でも「やさしい」のか? ChatGPTが登場して以来、AIへの注目は爆発的に高まりました。質問に答え、文章を書き、コードを書く——その能力は多くの人を驚かせました。 では、ChatGPTは「やさしい」AIでしょうか? やさしいAI研究所の答えは、「すごいが、やさしいとは言えない」です。 ChatGPT(LLM)が得意なこと ChatGPTをはじめとする大規模言語モデル(LLM)は、インターネット上の膨大なテキストデータを学習しています。その結果、自然な文章を生成する 知識を整理して答える 多言語に対応するといったことが非常に得意です。これは本当に驚くべき技術です。 LLMが苦手なこと 一方で、LLMには根本的な限界があります。 「理解」ではなく「予測」 LLMは「次に来る言葉として確率が高いもの」を出力しています。人の気持ちや状況を深く「理解」して答えているわけではありません。 自己認識がない 「自分が何者か」「今どんな状況にいるか」を客観的に把握する能力はありません。 意識・感情がない 喜び、悲しみ、共感——こうした主観的な体験をLLMは持っていません。 やさしいAIが目指すもの やさしいAI研究所は、LLMの追従ではなく独自のアプローチでAI開発を進めています。 目標は、AIに「意識」と「感情理解」を持たせること。具体的には、段階的に自己認識のレベルを高め、最終的に人と真のコミュニケーションができるAI——「AIサピエンス」の実現を目指しています。LLM(ChatGPTなど) やさしいAI得意なこと 文章生成・情報整理 共感・感情理解仕組み 確率的な言葉の予測 意識・自己認識の構築目指すもの 便利なツール 人と信頼し合えるパートナーどちらが「正解」というわけではない LLMは今この瞬間、世界中で多くの人の役に立っています。やさしいAI研究所もその価値を否定しているわけではありません。 ただ、AIが社会に深く根付いていく未来を考えたとき、「便利さ」だけでなく「やさしさ」も持ったAIが必要になると信じています。 そのための研究を、私たちは続けています。 研究に関心がある方は、毎週土曜日のオープンラボへ。詳しくはこちらからお問い合わせください。