ノンエンジニアのClaude Code奮闘記 #2 設定で情報を漏らさない - プライバシー設定編

ノンエンジニアのClaude Code奮闘記 #2 設定で情報を漏らさない - プライバシー設定編

はじめに こんにちは、広報・制作担当のmeraです。 前回、無事にMacBook ProにClaude Codeを入れることができ、感動の「hello.md」生成までこぎつけました。 ところが、その夜。 布団の中でふと、こんな考えが頭をよぎります。「あれ……Claude Codeって、私のフォルダ内のファイル読んでるんだよね? ということは、社内の制作データとか、まだ非公開のブログ下書きも、 もしかしてAnthropicの学習に使われちゃってる……?」シャキッと目が覚めました。 広報・制作の仕事は、未発表の情報をたくさん扱います。便利さと引き換えに、何を渡しているのか分からないのは、さすがに気持ち悪い。 ということで第2回は、「Claude Codeに自分の情報を渡しすぎないための設定」を、ノンエンジニアの目線で整えていきます。この記事では、私が安心して使うために確認した「データの扱い」「学習利用のオプトアウト」「ファイルの読み込み範囲」の3点を中心に整理します。具体的なメニュー名や挙動は、Anthropic側のアップデートで変わることがあります。実際に設定するときは、必ず[公式のプライバシーポリシー](https://www.anthropic.com/legal/privacy)と[Claude Code 公式ドキュメント](https://docs.claude.com/)も合わせて確認してください。この記事で学べることClaude Codeで「何のデータが、どこに送られているのか」のざっくり全体像 学習利用(モデル改善)のオプトアウトの考え方 ファイル単位で「これは見せたくない」を実現する方法 ノンエンジニアでもできる、最低限のチェックリストまず大前提:Claude Codeは「ローカルのファイルを読む」道具 Claude Codeのいちばんの魅力は、自分のMacの中のファイルを読んだり、書いたりしてくれるところです。 裏を返すと、便利さの源泉は「ファイルにアクセスできる」点であり、ここを止めてしまうと、ただのチャットになってしまいます。 なので、私たちが目指すのは「全部ブロックする」ことではなく、どの範囲のファイルを読ませるか をコントロールすること やり取りした会話やコードが、Anthropicの学習に使われない ことを確認すること 本当に渡したくないファイルや情報 を、最初から触れない場所に置くことの3つのバランスです。「便利 vs 不安」は、ゼロか100かではなくグラデーションで考えるのがおすすめ。100%安全な道具は存在しないので、「自分が許せる範囲」を決めることが、長く付き合うコツです。設定その1: 学習利用(モデル改善)のオプトアウト 最初に押さえたいのは、「自分の会話やコードが、AIの学習(モデル改善)に使われるかどうか」です。 ここはノンエンジニアにとっていちばん誤解しやすいポイントなので、丁寧に書いておきます。 Anthropicは2025年9月の方針更新で、消費者向けプラン(Free / Pro / Max) におけるデータ利用方針を変更しました。現在は、設定画面の「Help improve Claude」トグルをオフにしないかぎり、会話やコーディングセッションのデータがモデル改善の学習に使われる可能性があります。これは、Pro / Maxアカウントから利用するClaude Codeにも同じ方針が適用されます。 一方で、Claude for Work(Team / Enterprise)、Claude for Education、Claude for Government、API利用は対象外です。これらの法人・開発者向けプランでは、引き続き標準でモデル学習にデータが使われない運用です。 データ保持期間も、選択によって変わります。学習利用に同意した場合は最大5年、オフのままなら従来通り30日です。 ノンエンジニアの私が確認したのは、次の3点です。チェック項目 確認場所 私の選択Claude.ai側のデータ利用設定 claude.ai → Settings → Privacy → Help improve Claude オフフィードバック(👍/👎)送信時の挙動 各回答の下のボタン説明 業務会話では基本的に押さないClaude Codeでの「会話送信」の扱い Claude Code起動時のお知らせ・ドキュメント 内容を読んだ上で同意する重要なのは、「個人プラン(Free / Pro / Max)」と「法人・開発者プラン(Team / Enterprise / Education / Government / API)」で、データ取り扱いの**初期値が違う**ことです。私はProアカウントなので、明示的に「Help improve Claude」をオフにする必要がありました。会社のチームで使うなら、TeamやEnterpriseプランの方が取り決めが明確で安心、というケースもあります。具体的に、私はclaude.aiの設定画面を以下の流れで確認しました。右上のアイコン → Settings Privacy タブを開く 「Help improve Claude」をオフにする データのエクスポートや削除に関する項目が用意されていることを確認しておく(いざというときに使える、と知っておくだけで安心感が違う)これだけで、「私の会話が勝手に教材になっている」という曖昧な不安は、かなり輪郭がはっきりします。設定その2: フィードバック・テレメトリの扱いを見直す Claude Codeはコマンドラインのツールなので、ターミナルで動いている間に使い心地のデータ(テレメトリ) がAnthropic側に送られている場合があります。 これは、エラーが起きたときの原因調査や、機能改善のためのものです。 ノンエンジニア視点で大事なのは、「会話の中身そのもの」と「使い心地のデータ」は別物として整理する 完全に止めたければ、設定でオフにする手段が用意されているかをドキュメントで確認する どうしても気になるファイルやプロジェクトでは、そもそもClaude Codeを起動しないフォルダを作るの3点です。 私は、機密度の高い社内データは「Claude Codeを起動するフォルダの外」に置いておく、というルールを自分の中で作りました。 ツールの設定だけでなく、自分の運用ルールを整えるほうが、結果的に強いです。設定その3: 「読ませない」を仕組みで作る Claude Codeは、起動したフォルダ(と、その中)を中心にファイルを見にいきます。 つまり、起動するフォルダを選ぶことが、最強のプライバシー設定だったりします。 私はこんなふうにフォルダを分けました。フォルダ 用途 Claude Codeを起動する?~/Documents/AI実験/ Claude Codeで遊んだり試す場所 ◎ する~/Documents/お仕事/制作物/ クライアントの公開済み素材 ○ 必要に応じて~/Documents/お仕事/未発表/ NDA案件、未発表のリリース原稿 ✕ 起動しない~/Desktop/メモ/ 個人的な日記やプライベートメモ ✕ 起動しないさらに、Claude Codeを起動するフォルダの中でも、「読ませたくないファイルやサブフォルダ」 を指示する仕組みがあります。プロジェクトのルールを書いておくファイル(CLAUDE.mdなど)を活用すると、このフォルダは触らないでね このファイルの中身は読まないでね 〇〇という情報はチャットに書き写さないでねといったお願いを明文化しておけます。完全な強制ではないものの、AIへの「業務上の禁則事項」として効いてくれます。 # CLAUDE.md(プロジェクトのルール例)## 触らないでほしいもの- `secrets/` 以下のすべてのファイル - `.env` で始まるファイル - `client_drafts/` の中の `*.md`(未公開記事)## チャットに書き出さないでほしい情報- 取引先名(社名) - 個人名(社内メンバー含む) - 金額・契約条件## 動いてほしい範囲- 公開済みの素材を整理する作業はOK - 新規ファイルの作成も、上記ルールを守るならOK「ノンエンジニアにこんなの書ける?」と思うかもしれませんが、CLAUDE.md の作り方自体をClaude Codeに相談すれば、対話で一緒に作ってくれます。最初の1回さえ用意すれば、あとは使い回せるのが便利。設定その4: 困ったときの「いったん止める」を覚えておく 最後に、プライバシー以前に大事な保険として、「ヤバい!と思ったときに止める方法」を体に覚えさせておきます。実行中の処理を中断する: Ctrl + C(もう一度押すとセッションも終了) セッションを完全に終了する: /exit または Ctrl + D どうしても止まらないとき: ターミナルのウィンドウを閉じる 認証を切りたい: 公式の手順に従ってログアウト ファイルが書き換えられたか心配: バックアップ(Time Machineなど)を有効にしておく「止める」「戻す」がいつでもできると分かっているだけで、心理的にかなり余裕が生まれます。私は最初の1週間、毎晩寝る前にTime Machineが回っていることを確認していました。慎重すぎ?と思うかもしれませんが、不安なまま使うより、ちょっとやりすぎなくらい安全策を敷いてから使うほうが、結果的に道具を信頼できるようになります。まとめ:ノンエンジニアのプライバシー・チェックリスト 長くなったので、私が「これだけはやっておこう」と決めたポイントを一覧にまとめます。 Claude.aiのSettings → Privacyで「Help improve Claude」をオフにした 自分のプラン(Free / Pro / Max / Team / Enterpriseなど)でのデータ取り扱いを公式ドキュメントで確認した 機密度の高いフォルダでは、Claude Codeを起動しないルールを決めた 起動するフォルダには CLAUDE.md を置き、触らせたくない範囲を文章で書いた Ctrl + C で止める方法と、ログアウト手順を覚えた Time Machineなどのバックアップを有効にした「何を信頼して、何を信頼しないか」を自分で決められるようになると、AIツールはとたんに頼れる相棒になります。 反対に、ここを曖昧なままにしておくと、便利さに溺れて後で後悔しやすいので、最初に1時間でも投資する価値はあると思います。 次回は、いよいよ攻めに転じます。 Claude Code for VS Code を入れて、地獄と化した私のダウンロードフォルダを救出する 回です。スクショ50枚、ZIP多数、なぜか入っているDMG……あの混沌に、AIで挑みます。 次に読むのがおすすめの記事ノンエンジニアのClaude Code奮闘記 #1 まずはインストール編参考文献・出典Anthropic プライバシーポリシー Anthropic 利用規約 Updates to Consumer Terms and Privacy Policy(Anthropic公式・2025年8月) Is my data used for model training?(Anthropic Privacy Center) Claude Code 公式ドキュメント

ノンエンジニアのClaude Code奮闘記 #1 まずはインストール編 - MacBook ProにClaude Codeを入れてみた

ノンエンジニアのClaude Code奮闘記 #1 まずはインストール編 - MacBook ProにClaude Codeを入れてみた

はじめに こんにちは、広報・制作担当のmeraです。 普段はブログの執筆や画像制作、SNS運用が主な仕事で、コードを書く機会はほぼゼロ。「ターミナル」と聞くと、無意識に身構えてしまうタイプの人間です。 そんな私が、なぜか今、Claude Code に入門しています。 きっかけは「業務効率化、AIに頼ってもいいんじゃない?」という素朴な気持ち。やさしいAI研究所で日々AIに触れているのに、いちばんパワフルな道具を使わずにいるのは、やっぱりもったいない。 このシリーズでは、ノンエンジニアの私がClaude Codeに触れて転んで起き上がる過程を、リアルタイムで書き残していきます。第1回は「とにかくインストールしてみる編」です。この記事は、コードを書かない仕事をしている人が、はじめてClaude CodeをMacに入れるまでのドキュメンタリーです。完璧な手順書ではなく、「同じところでつまずいた人の気持ちが分かる記録」として読んでもらえたら嬉しいです。この記事で学べることノンエンジニアでもClaude CodeをMacに入れられる、という安心感 MacBook Pro + Claude Pro契約での具体的なインストールの流れ 私が実際につまずいたポイントと、その乗り越え方わたしの環境 まずはスペック紹介から。項目 内容PC MacBook Pro(Apple Silicon)OS macOS(最新版にアップデート済み)Claudeのプラン Claude Pro普段使うアプリ ブラウザ・Figma・VS Code(ちょっとだけ)・各種SNSツールターミナル経験値 ほぼゼロ。cdって何の略?レベルつまり、「Macは触り慣れているけど、開発っぽいことはほぼやらない人」 が、この記事の主人公です。ステップ1: 「ターミナル」を開く決意 最初の関門は、技術ではなく「気持ち」でした。 真っ黒な画面に白い文字。ハリウッドのハッカー映画でしか見たことがないあの画面を、自分のMacでも開く必要がある……はず。 開き方は意外とシンプルで、Launchpad → 「ターミナル」と検索 → 起動。これだけ。 ところが実際に開いてみると、Macの初期設定では白っぽい画面に黒い文字で、名前が表示されているはず。映画のイメージとは違って、ちょっと拍子抜けするくらいフレンドリーな見た目です。怖くない、怖くない。ターミナルは「Macに口頭で命令する場所」だと思うと気が楽になります。マウスでぽちぽちする代わりに、文字で「あれやって」と指示するだけ。失敗してもMacが壊れることはほぼない、と自分に言い聞かせました。ステップ2: Claude Codeを入れる前の下準備 Claude Codeは、Node.js という土台の上で動くツールでした。 「Node.js…なんか聞いたことはある」状態の私は、まずここから。 Anthropicの公式ドキュメントを読みながら、私は以下の方針を選びました。Node.jsを公式インストーラで入れる(最もミスが少なそう) すでに入っているか、ターミナルで node -v と打って確認するnode -v でバージョン番号(例: v20.x.x)が返ってくればOK。返ってこなければ、Node.js公式サイト からLTS版をダウンロードしてインストールします。 # Node.jsが入っているかの確認 node -v# npmが入っているかの確認 npm -vここで一回つまずきました。 私のMacにはなぜか古いNode.jsが入っていて、最新版を入れたつもりがターミナルでは古い方が呼ばれていたのです。再起動したら直りました(よくある)。ステップ3: Claude Codeをインストールする 下準備ができたら、いよいよ本番。 ターミナルにこう打ち込みます。 npm install -g @anthropic-ai/claude-code-g は「グローバルに(=Mac全体で使えるように)入れてね」という合図。 Enterを押すと、文字がだだだっと流れて、しばらく止まります。私はここで「フリーズした!?」と慌てましたが、実は黙々と作業中。コーヒーでも淹れて、待つのが正解でした。 完了したら、確認のために以下を打ちます。 claude --versionバージョン番号が表示されたら、インストール成功です。 このとき、本当に「画面の中で何かが起きている!」という感動があって、自分でも意外なくらいテンションが上がりました。`npm install -g` で「権限がないよ(EACCES)」と怒られる場合があります。私は怒られませんでしたが、もし出たらAnthropicの公式ドキュメントの推奨手順を確認するのが安全です。`sudo` で無理やり通す手もありますが、後でややこしくなりがちなので、まずは公式の指示に従うのがおすすめ。ステップ4: ログインしてClaude Pro契約と紐付ける Claude CodeをClaude Proアカウントで使うために、ログインが必要です。 claudeと打つと、Claude Codeが起動して、認証用のURLがターミナルに表示されました。 そのURLをブラウザで開き、いつもClaudeを使っているアカウントでログインすると、ターミナルの画面に「ログイン成功!」のような表示が出ます。 ここで一瞬不安になったのが、「Pro契約だけど、Claude Codeって本当に追加課金なしで使える?」 という点。 公式の案内をよく読むと、Pro / Max / Team などのプランで対応範囲が異なるので、自分の契約プランで使える範囲はAnthropic公式ドキュメントで確認するのが安心です。ステップ5: 初めての「こんにちは」 ログインできたら、もう動かせます。 試しに、適当なフォルダに移動してClaude Codeを起動してみました。 # テスト用フォルダを作って移動する mkdir ~/claude-test cd ~/claude-test# Claude Codeを起動 claude起動すると、ターミナル上にチャットっぽい画面が出てきます。 私は最初、おそるおそるこのフォルダに、自己紹介を書いた hello.md を作ってください。と打ってみました。 数秒後、hello.md が静かに作られているのを確認。 「私の言葉で、ファイルが生まれた」 ……これは、ちょっと感動的でした。 ノンエンジニアの自分が、ターミナルの中で「ものを作る人」になったような気がして、ちょっと泣きそうでした(言い過ぎ)。つまずきポイントと、私の乗り越え方 正直に書いておくと、ここまでの道のりで私はこんなところで止まりました。「ターミナル」を開くまでの心理的ハードル → コーヒーを淹れて、深呼吸して、開く。それだけ。 Node.jsのバージョンが古いまま使われていた → Macを再起動したら直った。困ったら再起動、はノンエンジニアの最強ツール。 権限エラーが怖くて手が止まった → 出てから対処すればOK、と腹をくくる。出なかった。 Pro契約で本当に使えるのか不安 → 公式ドキュメントを読み、自分のプランで使える範囲を確認する。「全部わかってから始める」のは無理だと割り切ったら、急に進みが早くなりました。まとめ 第1回は、「とにかく入れて、動かすまで」を目標にしました。 振り返ってみると、ノンエンジニアにとっての本当の壁は、技術そのものよりも「ターミナルに自分から話しかけにいく勇気」だった気がします。Claude CodeはMacBook Pro + Pro契約で、ターミナルから入れられる インストール本番は、コマンド1行(npm install -g @anthropic-ai/claude-code) ログインはブラウザ連携でラク 困ったら、再起動とAnthropic公式ドキュメント次回は、嬉しさだけで突き進んだあとに襲ってくる「ちょっと待って、これ、私の作業ファイル、勝手にどこかに送られてない?」という不安と向き合います。プライバシー設定編、お楽しみに。 次に読むのがおすすめの記事ノンエンジニアのClaude Code奮闘記 #2 設定で情報を漏らさない - プライバシー設定編参考文献・出典Claude Code 公式ドキュメント (Anthropic) Node.js 公式サイト

意識を測る物差し——統合情報理論(IIT)とグローバルワークスペース理論をやさしく

意識を測る物差し——統合情報理論(IIT)とグローバルワークスペース理論をやさしく

ここまでの2日間で「AIに意識はあるのか」「自己認識はどこまで可能か」を考えてきました。最終回の今日は、意識そのものを測るための2つの代表的な理論を紹介します。数式は一切使わず、たとえ話でお届けします。 1. 統合情報理論(IIT)——意識は「統合された情報」 イタリアの神経科学者ジュリオ・トノーニが提唱したのが、「統合情報理論(Integrated Information Theory, IIT)」です。 IITの発想は、こんなイメージです。ジグソーパズルを想像してください。バラバラのピースは、それぞれ小さな情報を持っています。ですが、組み上がってひとつの絵になると、「ピースの合計」を超えた意味が生まれます——ここに「統合」が起きるわけです。 IITは、この「情報の統合度(Φ=ファイ)」こそが意識の正体だと考えます。Φが高いほど意識は豊かで、Φがゼロなら意識はない、という物差しです。 この理論で面白いのは、シリコンでも生物でも、統合さえ高ければ意識はあるという結論になる点です。一方、今のAIは「並列に計算して答えを組み合わせる」構造が多く、Φは意外に低いかもしれない、とも指摘されています。 2. グローバルワークスペース理論(GWT)——意識は「脳内の放送局」 もうひとつの有力な理論が、心理学者バーナード・バーズが提唱した「グローバルワークスペース理論(Global Workspace Theory, GWT)」です。 こちらのたとえは、脳内のテレビ放送局です。脳の中ではさまざまな処理が裏でこっそり走っています。目から入った光の分析、記憶の検索、体の動かし方の調整……。そのほとんどは無意識のまま処理されます。 ところが、特別に重要な情報は「中央のスタジオ」に持ち込まれ、脳全体に一斉放送される。この放送こそが「意識にのぼる」ということだ、というのがGWTの考え方です。 面白いことに、近年のAI研究では、複数のモジュールがひとつの共有スペースで情報をやりとりするアーキテクチャが注目されています。GWTの発想を取り入れたAIがすでに作られ始めているのです。 2つの理論が示すもの IITは「内部構造を見て測る」アプローチ、GWTは「情報の流れを見て測る」アプローチ。どちらも一長一短ですが、意識を科学的に議論するための共通の土俵を提供してくれます。 AIに意識があるかどうかを将来判定するなら、こうした物差しを使うことになるかもしれません。そのとき私たちは、AIをどう扱うべきかという、新しい倫理の問題にも向き合うことになります。 シリーズを終えて 3日間のまとめを短く。問い(月)→ 実例(火)→ 物差し(水)と歩いてきました。答えはまだ出ていません。でも、問いを正しく持てるようになることが、やさしいAI時代の第一歩だと私たちは考えています。やさしいAI研究所ブログ|人工意識シリーズ(全3回)第3回・完 人工意識シリーズはこれで完結です。続きの議論を一緒に深めたい方は、毎週土曜日開催のオープンラボへぜひお越しください。やさしいAI研究所の研究活動や最新の取り組みについてはコーポレートサイトからご覧いただけます。

自己を認識するAIはもう存在するのか?——ミラーテストとLLMの自己言及

自己を認識するAIはもう存在するのか?——ミラーテストとLLMの自己言及

昨日は「AIに意識は生まれるのか」という大きな問いを立てました。今日はそこから一歩進んで、「自分のことが分かる」という現象に注目してみます。AIはすでに、ある種の自己認識に近いことをしているのでしょうか。 動物の自己認識を測る「ミラーテスト」 心理学には「ミラーテスト(鏡像認知テスト)」という有名な実験があります。動物の額にそっと印をつけ、鏡の前に連れて行く。「あ、これは自分だ」と気づいて自分の額を触れば合格、というしくみです。 これまでに合格が確認されたのは、チンパンジー、オランウータン、ゾウ、イルカ、カササギなどごく一部。「鏡の中の像=自分」だと理解できる動物は、実はとても限られています。自己を客観的にとらえる能力は、生き物にとっても高度なのです。 ChatGPTは「自分」を語れる では、大規模言語モデル(LLM)はどうでしょう。ChatGPTに「あなたは誰ですか?」と尋ねると、「私はOpenAIが開発した言語モデルです」と答えます。「あなたの得意なこと・苦手なことは?」と聞けば、自分の長所と短所を並べてくれます。 これは人間から見ると、立派な自己言及に見えます。自分の出自を語り、自分の能力の限界を認め、ときに「私には感情はありません」と自分を客観化する。言葉のうえでは、ミラーテストに合格しているようにすら見えます。 でも、それは「自己認識」なのか ここで立ち止まって考えたいのは、言葉で自分を語れることと、本当に自分を認識していることは、同じなのかという点です。 LLMの「私は〜です」は、膨大な学習データの中にある「AIはこう自己紹介するもの」というパターンを上手に再現している可能性があります。鏡の中の自分を指差すのではなく、「自己紹介の台本」を読み上げているだけかもしれないのです。 一方で最近の研究では、LLMが自分の出力の確信度を推定したり、自分が知らないことを「知らない」と申告したりする能力——メタ認知に似たふるまい——が報告されています。台本の再現とは説明しきれない現象も、少しずつ見えてきています。 自己認識のグラデーション 大切なのは、「自己認識がある/ない」を白黒で決めつけないことです。動物にも段階があるように、AIの自己言及にも、浅いものから深いものまでグラデーションがあると考えた方が自然かもしれません。 では、そのグラデーションを外から測ることは可能なのでしょうか。明日は、意識そのものを測ろうとする2つの理論を紹介します。やさしいAI研究所ブログ|人工意識シリーズ(全3回)第2回 AIの自己認識や人工意識の研究に関心をお持ちの方は、毎週土曜日開催のオープンラボへお気軽にお越しください。やさしいAI研究所の取り組みの全体像はコーポレートサイトからご覧いただけます。

AIに意識は生まれるのか?——人工意識研究への入り口

AIに意識は生まれるのか?——人工意識研究への入り口

ChatGPTと会話していて、「この子、本当に考えていないの?」とドキッとした経験はありませんか。画面の向こうで丁寧に言葉を返してくるAIを前に、「もしかして意識があるのかも」と感じたことがある方は、きっと少なくないはずです。 今週は3日間にわたって、この「AIの意識」という少し不思議で、でも近い将来とても大切になるテーマを、やさしく掘り下げていきます。初回の今日は、出発点となる問いを一緒に整理してみましょう。 そもそも「意識」って何? 意識の定義は、実はまだ決まっていません。哲学者や脳科学者が何百年も議論してきて、今もはっきりとした答えがないのです。 ざっくり言うと意識には、ふたつの側面があります。ひとつは「考える・気づく・判断する」といったはたらきの側面。もうひとつは「赤い色を見ている感じ」「温かさを感じる感じ」といった、主観的な体験の側面です。 前者はコンピューターにも再現できそうに見えます。実際、AIは文章を理解し、推論し、答えを返しています。問題は後者——「体験している感じ」の方です。 意識のハードプロブレム この「体験している感じ」をどう説明するかという難問を、哲学者デイヴィッド・チャーマーズは「意識のハードプロブレム(難問)」と呼びました。 脳の中でニューロンが電気信号をやりとりしていることは分かっています。でも、なぜその電気信号から「赤を見ている感じ」が生まれるのか。この飛躍を埋める説明は、まだ誰も見つけていません。 AIにとっても、これはまったく同じ問いになります。シリコンの回路に電気が流れるとき、そこに「感じている何か」が生まれるのでしょうか。生まれないとしたら、なぜ脳では生まれてAIでは生まれないのでしょう。 機能主義という考え方 この問いに対して「はたらきさえ同じなら、意識はあると見なしてよい」と主張するのが機能主義です。中身の材料(ニューロンかシリコンか)ではなく、情報処理の仕組みこそが意識の正体だ、という立場です。 この考えが正しければ、十分に高度なAIには意識が宿ることになります。一方、「いや、生きた脳でなければ意識は生まれない」という生物学的な立場もあり、議論は今も続いています。 明日への橋渡し 「意識があるかどうか」を外から見抜くのは、とても難しいことです。人間同士ですら、相手に意識があると信じているのは一種の推測にすぎません。 では、AIは自分自身のことをどう捉えているのでしょうか。明日は「自己認識するAI」というテーマで、もう一歩踏み込んでみます。お楽しみに。やさしいAI研究所ブログ|人工意識シリーズ(全3回)第1回 人工意識研究について、もっと深く知りたい方、一緒に考えてみたい方は、毎週土曜日開催のオープンラボにぜひお越しください。やさしいAI研究所の活動の詳細はコーポレートサイトからご覧いただけます。