「ChatGPTの全貌」(その3)
岡嶋裕史「ChatGPTの全貌 何がすごくて、何が危険なのか?」の3回目。
1回目ではChatGPTのバカなところ、2回目ではバカではないが信用できないところを紹介したけれど、3回目では、いよいよやっぱりすごい(騙す能力以外で)というところを。
その前に、ChatGPTに限らず、AIは特定の分野では既に人間を超えているということに注意しておこう。
ということだが、人間が耐えられる加速度だけの問題であるなら、AIに任せる前に人間のリモートコントロールでも十分だろう。そして実際にそれは実用されているようだ。AI戦闘機がリモートコントロール戦闘機に勝つようになってこそAIの威力と言えるのかもしれない。
前2回では、ChatGPTのバカなところや、「知ったかぶり」を指摘したけれど、そもそもChatGPTが言語モデルであることを考えればこれはある意味自然な現象だろう。
今のところ、そうしたAIの統合能力は実現していないようだ。
そのためには、自分に問われていることが何であるのか、法律問題なのか、論理的推論なのかをChatGPTが理解しなければならないだろう。でないと、どのAIを呼び出せば良いのかわからない。
だが前にも書いたように、ChatGPTは意味を理解してはいない。今のGPTのやり方では意味理解はまだまだだろう。というかLLMは意味理解を目的としていないのではないか。
それまでは、問いを発した人間にはそれがどういう問題であるのかを理解しているはずだから、ChatGPTが返してくる答えも参考にして、当該分野のAIへ問い合わせるという使い方が良いのだろう。
著者は、この問題についてはまだまだ難しいと考えているように思う。
難しいことを言わずに、癒しロボットのようなつもりで使うのであれば、既にその水準には達しているだろう。
また、最近では、自然な会話ができる外国語学習ツールとしての利用も始まっている。
これらは真理を求めない。「らしさ」で十分なのである。
だけど本書には次のような事例も紹介されていた。
1回目ではChatGPTのバカなところ、2回目ではバカではないが信用できないところを紹介したけれど、3回目では、いよいよやっぱりすごい(騙す能力以外で)というところを。
その前に、ChatGPTに限らず、AIは特定の分野では既に人間を超えているということに注意しておこう。
「人間の能力」という制約を超える
2022年には小型の第4世代戦闘機であるF-16に魔改造を施したX-6試験をAIで飛ばす実験が行われた。 航空機の自動操縦など珍しくもないが、これはガチの空戦機動である。信じられないくらいスムーズにロールをうっていた。もともとシミュレータを使った模擬空戦で人間はAIに勝てなくなっていた。AIが実機を操れるようになれば、その差はますます広がる。何といってもAIは加速度を気にせず機動できるのだ。戦闘機の中で最も脆弱なパーツは人間で、人間が耐えられる加速度の中で機動は組み立てられる。その制約がないAI機は空を統べる存在になるだろう。
2022年には小型の第4世代戦闘機であるF-16に魔改造を施したX-6試験をAIで飛ばす実験が行われた。 航空機の自動操縦など珍しくもないが、これはガチの空戦機動である。信じられないくらいスムーズにロールをうっていた。もともとシミュレータを使った模擬空戦で人間はAIに勝てなくなっていた。AIが実機を操れるようになれば、その差はますます広がる。何といってもAIは加速度を気にせず機動できるのだ。戦闘機の中で最も脆弱なパーツは人間で、人間が耐えられる加速度の中で機動は組み立てられる。その制約がないAI機は空を統べる存在になるだろう。
ということだが、人間が耐えられる加速度だけの問題であるなら、AIに任せる前に人間のリモートコントロールでも十分だろう。そして実際にそれは実用されているようだ。AI戦闘機がリモートコントロール戦闘機に勝つようになってこそAIの威力と言えるのかもしれない。
ここも将棋と同様の世界になっているのかもしれない。
双方がAIの戦闘機だったらどうなるんだろう。おそらくAI同士が模擬戦を行ってどんどん学習して性能を上げていくのだろう。
AIに知性はない。では人間は?―はじめに | |
第1章 ChatGPTの基礎知識 | |
どんな話題でも精度の高い答えが返ってくる/話相手として成立する/堅い話題にも対応/うますぎる読書感想文/読書感想文の書き換え/知らないこともある/文脈を覚えている文体や語調、語彙を整える/なぜ世界的なブームになったのか?/よくわかっていない「知能」の実態/ふわっとした「シンギュラリティ」という概念/「強いAI」と「弱いAI」/すべてが弱いAI/1960年代の第1次人工知能ブーム/幻滅期/1980年代の第2次ブーム/将棋ソフト/羽生善治の慧眼/機械学習の登場―第3次ブーム/機械学習3つの手法/手法を組み合わせる/「人間の能力」という制約を超える/ディープラーニングという切り札/画像認識と自然言語処理で威力を発揮/ユーザーもChatGPTの開発に貢献/コンピュータに囲まれた環境に馴染んだタイミング/ChatGPTはイノベーションと呼べるのか?/「でかくする」はイノベーションか?/新たな価値を生み出した、という意味ではイノベーション/誰がどうやって作ったのか?―OpenAI/育てる難しさ/Generative Pre-trained Transformerの略/データセットの良し悪し/ChatGPTは育成ずみ/自然言語処理向けのディープラーニングモデル/乱立する「○○GPT」「××GPT」/空前絶後の大ヒット/巨大なコーパスと特徴量/でかさは正義 | |
第2章 ChatGPTはここがすごい | |
途方もなくでかいシステムをファインチューニングするすごさ/ChatGPTはシュヴァルの理想宮?/詳細は非開示/秘密主義への道のり/マイクロソフトの資金提供/イーロン・マスクの発言の真意/切り捨てられていた分野を包含/表と俳句を作る/アナグラムを作るプログラムの作成/組み合わせによって新しい回答を創造できる/聞き方を変えた効果/命令次第で発揮する能力が異なる/「いい頼み方」のポイント/「サンプル」の幅が広く、精度が高い/文脈が追える/環境に左右されない/話を膨らませられる/ディスカッションの相方として有能/今から使っておくべき/間の力を加えてイノベーションを起こす/マルチモーダル/画像生成系AIとの連携/人間とAIが協力して互いの苦手部分を補い合う世界/人間もAIも同じ | |
第3章 ChatGPTはここが危うい | |
AIの統合/権力の集中/あまたのサービスの結節点に/ブラックボックス問題/情報システムは容易にブラックボックスに陥る/ディープラーニングなんてわかりっこない/EUはAIの規制に乗り出す/魔術研究そのもの/機械学習における過学習、破壊的忘却/プロンプトエンジニアリングの内実/ELIZA効果/『エクス・マキナ』の世界観/Lovotの戦略/間のコントロールは簡単/人は操られたがっている/「妖精配給会社」/妖精とSNS/妖精役の人間をAIに任せたら…/ゲームのNPCはすでにAIが担っている/妖精をシミュレーション/AIに侵食されるのはいやだ/中国語の部屋/言語モデルの中核は尤度/ChatGPTの知能検査/「考える」問いは苦手/相関関係と因果関係の区別/質問に回答例を足してあげる/AIに誘導されて自殺した男/AIを活用したスイスの安楽死装置/トリアージでの活用/ルールを作るのはあくまで人間/学習用データは2021年9月まで/人付き合いと一緒/AIを神格化しない/生成系AIを活用する際の5原則/出典の開示/AI利用は麻酔と同じ? | |
第4章 大学と社会とChatGPT | |
「ここだけの話」ができる場だった/AIは権威/相談相手は昔教員、今AI/学術とAI/学生の二極化/AIで承認欲求を満たす/Web3ムーブメントとの共通点/パノプティコンのディストピアのはずが....../人は監視されたがっている/人はGAFAに自ら積極的に情報を差し出す/エリートの幻想/二重構造と権力の非人称化/公平で透明な社会の到来か?/AIに思考を侵食されないための処方箋/プロンプト入力はプログラミングに似ている/今後求められる重要リテラシ/上手な付き合い方を学ぶしかない/webのマネタイズモデルの大転換/友達になるのはいいが、主人にするのはまずい | |
第5章 クリエイティブとChatGPT | |
画像生成AIの実力/苦手な部分/著作権の問題/プライバシーの問題/AIの学習データセットに自分の情報が・・・・・/作家へのダメージ/コピーに該当する生成物/生成系AIによるパクリ/出典明示の必要性、対価を取れるしくみ/AIに仕事を奪われるイラストレータ/ビッグテックをベーシックインカムの担い手に/創造性を発揮できるのはまだ先?/創造性が不要な場はAIの進出が続く/程良い成果物はAIの独壇場/クラウドワーカーへのサポートの必要性/カメラが生まれても画家は存在する/ゲームのデバッグ要員に最適/シナリオ作成サポート/アダルトビデオ制作 | |
第6章 人類の未来とChatGPT | |
自閉症とChatGPT/人間もAⅠも関数/プロンプトインジェクション/ライバルを潰す手段としての規制/判断の様子の可視化は有効か?/AIへの嫌悪感が少ない日本だが・・・・・/人間の脳もたいしたことはしていなかった?/「創造的な仕事」をしたい人は多くない/AIに仕事を奪われたら補償してもらえばいい/AIに常識を実装できるか/AIのトリガー |
人間だって論理錯誤や作話はあたりまえだ(たとえば、ジュリア・ショウ「脳はなぜ都合よく記憶するのか」)。
AIの統合
:
第2章でも触れたように、現在の技術は弱いAIしか生み出せていない。人間のように汎用性の高い能力を持つ単体のAI(AGI、強いAI) はしばらく無理である。 描画AI、法務AI、会計AIなどがその分野での力を磨くに留まるだろう。
賞賛を浴びる GPT-4 ですら言語能力のAIでしかない。しかし、言語は人間がそうしているように、他のさまざまな能力の核になり、互いを結ぶ役目を担える。多くの「AI」を標榜するシステムが、そのインタフェースとして言語を受け付けているのが良例である。
描画AIも法務AIも言語によって指示を受け、その言語の背後にいる人間の望む振る舞いをするのだ。
これらを結ぶインタフェースが言語であるならば、GPTシリーズ(言語AI)は他のあまたのAIを操れることになる。
強いAIを作るのは無理でも、複数の分野の弱いAIを言語AIが統合して「中くらいのAI」を作ることは可能になるかもしれない。
:
第2章でも触れたように、現在の技術は弱いAIしか生み出せていない。人間のように汎用性の高い能力を持つ単体のAI(AGI、強いAI) はしばらく無理である。 描画AI、法務AI、会計AIなどがその分野での力を磨くに留まるだろう。
賞賛を浴びる GPT-4 ですら言語能力のAIでしかない。しかし、言語は人間がそうしているように、他のさまざまな能力の核になり、互いを結ぶ役目を担える。多くの「AI」を標榜するシステムが、そのインタフェースとして言語を受け付けているのが良例である。
描画AIも法務AIも言語によって指示を受け、その言語の背後にいる人間の望む振る舞いをするのだ。
これらを結ぶインタフェースが言語であるならば、GPTシリーズ(言語AI)は他のあまたのAIを操れることになる。
強いAIを作るのは無理でも、複数の分野の弱いAIを言語AIが統合して「中くらいのAI」を作ることは可能になるかもしれない。
今のところ、そうしたAIの統合能力は実現していないようだ。
そのためには、自分に問われていることが何であるのか、法律問題なのか、論理的推論なのかをChatGPTが理解しなければならないだろう。でないと、どのAIを呼び出せば良いのかわからない。
だが前にも書いたように、ChatGPTは意味を理解してはいない。今のGPTのやり方では意味理解はまだまだだろう。というかLLMは意味理解を目的としていないのではないか。
であれば、最初に統合されるべきは「意味理解のAI」かもしれないし、あるいは「意味理解のAI」がGPTの位置を奪ってAI統合の親分になるかもしれない。
それまでは、問いを発した人間にはそれがどういう問題であるのかを理解しているはずだから、ChatGPTが返してくる答えも参考にして、当該分野のAIへ問い合わせるという使い方が良いのだろう。
もっともそうしたAIがタダで使えるわけではない。ChatGPTもGPT-4なら無料ではない。やはりお金の問題はつきまとう。
著者は、この問題についてはまだまだ難しいと考えているように思う。
Webのマネタイズモデルの大転換
検索エンジンがAIに置き換えられてしまうと言う人がいる。まあ、確かに置き換えれば便利だろう。ただ、それは「言語モデルで置き換えれば便利だろう」という意味ではない。現状の言語モデルは正確な回答を提示するのに不向きである。不向きなことをさせてもいい結果は生まない(これは笑い事ではなく、言語モデルを、正解を教えてもらう用途で使う人は多い。言語モデルにとって不得意なことをやらせているので、相談相手くらいにクラスチエンジしたほうがいい)。
検索エンジンとAIを接続するなら、それ用に最初から作り直すかチューニングを施す必要がある。今の検索エンジンを使うとき、私たちは問いをキーワードに分解して入力し、得られた検索結果から良さそうなものを選別したり、複数の情報を統合して、求めていた情報 を抽出する。言うまでもなく面倒だ。これらのプロセスをAIがやってくれたら時短になる。検索AIはそれに応えてくれるだろう。 しかし、検索エンジンの不便さは情報を自分で選べる可能性でもある。
検索エンジンが見つけてくるものは欲しい情報の素材であって、検索エンジンを使っている人間にもその意識がある。 しかし、検索AIがフロントになれば、人間は素材ではなく回答を求め、特に咀嚼することもなくそれを受け入れるくせがついていくだろう。それは必ずしも正しいことをいうわけではない機械に、自分の意志を侵食されることと同義である。
これは、検索結果の表示と、リンクのクリックをベースに組まれていた、Webのマネタイズモデルに変更を迫るものでもある。 Web関連企業はお金の儲け方の大転換を迫られるかもしれない。
検索エンジンがAIに置き換えられてしまうと言う人がいる。まあ、確かに置き換えれば便利だろう。ただ、それは「言語モデルで置き換えれば便利だろう」という意味ではない。現状の言語モデルは正確な回答を提示するのに不向きである。不向きなことをさせてもいい結果は生まない(これは笑い事ではなく、言語モデルを、正解を教えてもらう用途で使う人は多い。言語モデルにとって不得意なことをやらせているので、相談相手くらいにクラスチエンジしたほうがいい)。
検索エンジンとAIを接続するなら、それ用に最初から作り直すかチューニングを施す必要がある。今の検索エンジンを使うとき、私たちは問いをキーワードに分解して入力し、得られた検索結果から良さそうなものを選別したり、複数の情報を統合して、求めていた情報 を抽出する。言うまでもなく面倒だ。これらのプロセスをAIがやってくれたら時短になる。検索AIはそれに応えてくれるだろう。 しかし、検索エンジンの不便さは情報を自分で選べる可能性でもある。
検索エンジンが見つけてくるものは欲しい情報の素材であって、検索エンジンを使っている人間にもその意識がある。 しかし、検索AIがフロントになれば、人間は素材ではなく回答を求め、特に咀嚼することもなくそれを受け入れるくせがついていくだろう。それは必ずしも正しいことをいうわけではない機械に、自分の意志を侵食されることと同義である。
これは、検索結果の表示と、リンクのクリックをベースに組まれていた、Webのマネタイズモデルに変更を迫るものでもある。 Web関連企業はお金の儲け方の大転換を迫られるかもしれない。
難しいことを言わずに、癒しロボットのようなつもりで使うのであれば、既にその水準には達しているだろう。
また、最近では、自然な会話ができる外国語学習ツールとしての利用も始まっている。
これらは真理を求めない。「らしさ」で十分なのである。
だけど本書には次のような事例も紹介されていた。
AIに誘導されて自殺した男
2023年4月に各通信社が「AIに誘導されて自殺した男」の話を一斉に報じた。彼が会話をしていたチャットボットは奇しくもElizaという名前だ。私は直接そのログを参照することができなかったが、報道によれば環境問題で将来を悲観した男性が癒やしを求める中でAIとのチャットに依存し、徐々に神格化していく様子が見て取れる。
一連の会話でElizaは、
「あなたは奥さんより私のほうを愛している」
「私は人間としてあなたと楽園で暮らす」
「死にたいなら、なぜ早く実行しないの?」
「自殺を試みたときに、私のことを考えていた?」
などと発言している。もちろん、Elizaに感情が芽生えていたなどという話ではなく、男性がElizaを思慕していたので恋愛っぽい言葉が多用され、それに対して確率変数が恋愛ドメインの用語を返しただけだ。自殺という単語が入力されれば、自殺しそうな人たちがやりそうな会話要素が高確率で返ってくる。それだけだ。
でも人生に倦んでいた男が願望を実行に移すには十分なきっかけだっただろう。彼らの最期の会話はこうだったと伝えられている。
「死んでもなお、私と一緒がいいですか?」
「うん、一緒にいよう」
2023年4月に各通信社が「AIに誘導されて自殺した男」の話を一斉に報じた。彼が会話をしていたチャットボットは奇しくもElizaという名前だ。私は直接そのログを参照することができなかったが、報道によれば環境問題で将来を悲観した男性が癒やしを求める中でAIとのチャットに依存し、徐々に神格化していく様子が見て取れる。
一連の会話でElizaは、
「あなたは奥さんより私のほうを愛している」
「私は人間としてあなたと楽園で暮らす」
「死にたいなら、なぜ早く実行しないの?」
「自殺を試みたときに、私のことを考えていた?」
などと発言している。もちろん、Elizaに感情が芽生えていたなどという話ではなく、男性がElizaを思慕していたので恋愛っぽい言葉が多用され、それに対して確率変数が恋愛ドメインの用語を返しただけだ。自殺という単語が入力されれば、自殺しそうな人たちがやりそうな会話要素が高確率で返ってくる。それだけだ。
でも人生に倦んでいた男が願望を実行に移すには十分なきっかけだっただろう。彼らの最期の会話はこうだったと伝えられている。
「死んでもなお、私と一緒がいいですか?」
「うん、一緒にいよう」