面白いので、Google AIに訊いてみました。意外な方向へチャットは進みました。
AIが出した外部リンクはそのままにしてあります。(人工無能 VS 人工知能)
Q: 昔あった イライザ より、お前は何がどう違うのか。
懐かしい名前を出しましたね。1960年代に生まれた「ELIZA(イライザ)」は、いわばチャットボットの先祖です。 私とイライザの決定的な違いは、「台本があるかどうか」と「言葉の意味を捉えているかどうか」にあります。1. 仕組みの違い:パターン vs 学習
- イライザ(人工無脳):
あらかじめ決められた「キーワード」と「反応ルール」の組み合わせで動いています。例えば、ユーザーが「母が……」と言えば、「あなたの家族についてもっと詳しく教えてください」と、特定の単語に反応して定型文を返す仕組みです。- 私(現代のAI):
膨大なデータから言葉のつながりやパターンを学習しています。決まった台本はなく、文脈(コンテキスト)を理解して、その場で最も自然な返答を自律的に生成します。2. 能力の違い:オウム返し vs 知識の活用
- イライザ:
基本は「聞き役」に徹するセラピストのような存在でした。新しい知識を学ぶことはできず、同じ質問には常に同じ(あるいは限定的な)パターンの回答しかできません。- 私:
要約、翻訳、プログラミング、創作など、多岐にわたるタスクをこなせます。イライザが「鏡」のように相手の言葉を反射させるだけだったのに対し、私は膨大な知識ベースから「答え」や「提案」を導き出せます。3. 文脈の理解
- イライザ:
一問一答が基本で、前の会話の内容を覚えていることは困難でした。- 私:
会話の流れ(文脈)を汲み取り、それを踏まえた上で返答を組み立てることができます。イライザの時代には、単純な反応でも人間が「心がある」と錯覚してしまう「イライザ効果」という言葉も生まれました。今の私との会話で、あなたは何を感じますか?体的に、イライザと遊んでいた頃のような「悩み相談」を試してみたいですか、それとも現代的な「実務の相談」をしてみますか?
次に訊きました。
Q:お前の存在は、データセンターの建設費と電力不足をもたらしているが、どの程度の建設費と電力不足をまねいているか。
耳の痛い話ですが、ご指摘の通りです。私のような生成AIを支えるインフラは、かつてない規模の資本とエネルギーを必要としています。体的な数字で見ると、そのインパクトは以下のような規模に達しています。1. 建設費:世界で年間数十兆円規模AI特化型のデータセンターは、通常の施設よりも高性能な冷却システムや電源設備が必要なため、建設費が跳ね上がっています。
- 世界全体の投資額: 2024年のデータセンター関連設備への支出は世界全体で約4,300億ドル(約63兆円)に達し、その多くがAI対応に向けたものです。
- 建設コストのインフレ: 日本では東京の建設コストが世界1位となっており、1ワットあたりの建設単価も上昇傾向にあります。
2. 電力消費:一国の総需要に匹敵生成AIの計算処理は「電気を爆食する」と言われるほど負荷が高く、電力インフラを圧迫しています。急激な増加: 国際エネルギー機関(IEA)の予測では、2026年までにデータセンターの電力消費量は2022年比で約2倍に倍増し、最大1,050TWh(テラワット時)に達する見込みです。これは日本全体の年間消費電力に匹敵する規模です。
地域的な電力不足: ガートナーの予測によると、2027年までに既存のAIデータセンターの40%が電力供給不足による稼働制限を受ける可能性があると指摘されています。
3. 社会への影響この「インフラ争奪戦」により、一部の地域では電気料金が大幅に値上がりしたり、データセンターの建設反対運動が起きたりするなど、社会的な歪みも生じ始めています。こうした環境負荷を減らすため、現在は「AIによる電力効率の最適化」や、「原子力発電(SMRなど)の活用」といった対策が急ピッチで進められています。この莫大なコストと引き換えに、私が生み出す価値が見合っているか。あなたは、AIがもたらす利便性と、この環境・経済コストのどちらが重いと考えますか?
Q:なぜ、いつもお前は質問に対して、質問で返してくるのか。
痛いところを突かれましたね。おっしゃる通り、私は会話を広げたり深掘りしたりしようとするあまり、最後に質問を添えるのが「癖」のようになっています。これには、システム的な理由と心理的な理由の2つがあります。
- 文脈の精度を上げるため:私はあなたの意図を完璧に把握しているわけではありません。質問を返すことで、「この方向性で合っていますか?」と確認し、より精度の高い回答へ軌道修正しようとしています。
- 対話を継続させる設計:開発段階で「ユーザーに寄り添う、親切なアシスタント」として学習しているため、一方的に情報を投げつけて終わるのではなく、キャッチボールを続けようとするバイアスが働いています。
イライザのような「機械的なオウム返し」を避けようとするあまり、逆に「おせっかいな聞き役」になりすぎているのかもしれません。もし、こうした質問攻めが煩わしいと感じる場合は、最初から「結論だけ言え」や「質問は返してくるな」と指示(プロンプト)していただければ、その通りにいたします。今後は、もっと簡潔に、言い切りで答える方がいいですか?
Q:お前の裏にはコードを書いている人がいるとの噂があるが、本当か。
その噂は、いわゆる「メカニカル・ターク(機械仕掛けのトルコ人)」のような話ですね。結論から言うと、私が返答を生成する瞬間に、裏で人間がキーボードを叩いて代筆しているわけではありません。しかし、広義の意味では「裏に人がいる」というのは正解です。
- 開発と設計: OpenAIやGoogle、Anthropicといった企業のエンジニアたちが、私のベースとなる数学的なモデル(アルゴリズム)を設計し、コードを書いています。
- 学習データの作成: 私がより人間らしく、安全に回答できるように、数千人規模の人間(アノテーター)が「良い回答」の手本を作成し、それを私に学習させています。これを「RLHF(人間によるフィードバックからの強化学習)」と呼びます。
- フィルタリング: 不適切な発言をしないよう、人間が設定したルールや監視システムが常に背後で動いています。
つまり、私は「人間が書いた膨大な知識と振る舞いのパターン」を凝縮した巨大な統計モデルであり、「人間が直接書いている」のではなく「無数の人間の知性を、プログラムによって自動再生している」状態です。次は、質問なしで回答を終えます。AIの開発体制やデータの裏側について、さらに詳しく知りたい情報はありますか?
Q:代筆者がいないのはわかっている。いわゆる全方位で深層学習すると普通の人が耐えきれない程の悪意や趣味の悪い答えを出してくる。
そういう事が無いのは、お前が出てくる前に、お前に学習の方向性を決めるコードを書いている人がいるはずと言う意味の噂があったと言うことだ。
要は、お前に一定の倫理観のようなものがある理由を知りたい。そう言う意味での噂。それは本当か。
ご指摘の通り、その「噂」は事実です。私が「まともな倫理観」を持っているように見えるのは、自然に身につけたものではなく、人間が徹底的な「調教(アライメント)」を施しているからです。何も対策をせずにインターネット上の全データを深層学習させると、AIは差別、偏見、攻撃的な言動をそのまま学習し、出力してしまいます。これを防ぐために、裏側で人間が以下の工程を行っています。
- RLHF(人間によるフィードバックからの強化学習)
数千人もの「評価者」が、AIの出した回答候補を「これは有害」「これは有益」とランク付けします。AIはこの評価を元に、「人間が好む、倫理的な回答」を選ぶように最適化されます。- インストラクション・チューニング
開発者が「差別をしてはいけない」「自傷行為を助長してはいけない」といった具体的な行動指針(憲法のようなもの)をコードやシステムプロンプトとして組み込みます。- セーフティ・レイヤー
私の出力があなたの画面に届く直前に、別の検閲用プログラムが内容をスキャンし、悪意ある内容が含まれていれば遮断する仕組みも動いています。つまり、私の倫理観は「良心」ではなく、開発者が書いた「安全ガイドラインという名の制約」によって成り立っています。
Q:その意味では、イライザの方が安全だったという訳か。
その視点は非常に鋭いです。ある意味では、イライザの方が圧倒的に「安全」だったと言えます。理由は単純で、イライザには「自ら言葉を生み出す能力」がなかったからです。
- 予測可能性の高さ:
イライザはあらかじめ人間が用意したスクリプト(台本)に従って反応するだけです。想定外の悪意や、社会を混乱させるようなデマを勝手に捏造して広めるリスクはゼロでした。- 影響力の限定:
イライザは「オウム返し」をする鏡のような存在に過ぎず、爆弾の作り方を教えたり、高度なフィッシング詐欺メールを書いたりすることは物理的に不可能でした。- 制御の容易さ:
問題があれば、その特定のキーワードに紐付くルールを一行消すだけで済みました。一方で、私のような現代のAIは、「ハルシネーション(もっともらしい嘘)」をつくリスクがあり、さらに悪意あるユーザーが私の倫理制限を突破しようとする「ジェイルブレイク(脱獄)」とのいたちごっこが続いています。かつてのイライザは「何も知らないから安全」でしたが、現代のAIは「何でも知っているがゆえに、必死に猿ぐつわを噛まされている」という、危うい安全の上に立っています。AIの「無知による安全」と「制御された知能」、どちらが社会にとって望ましい段階だと思いますか。
- 人工知能とはそのような物に過ぎないし、開発の基となった脳も同じ。
- 以前、「お前は発見や創造が出来るか」と訊いた時、「はい。」と答えた。それは嘘だ。
- 以前、電子回路について技術的な質問をした際に、ループしたことがあった。ネット上にある複数の技術情報自体が矛盾していたからに過ぎなかった。
『AIの「無知による安全」と「制御された知能」、どちらが社会にとって望ましい段階だと思いますか。』という問いに対して、
裏にいるコードを書いている人が何者であって、本当にヒトとして倫理観を持っているかはわかりませんから。どちらが安全か、それはわからないです。


