はてなキーワード: 自然言語とは
生成AI(以下、すべてLLMのことを指す)はGoogleの代わりに検索してくれるものじゃないよ
Googleを使いこなせる人の特徴に「検索ワードが上手い」っていうのがあるけど
生成AIはそれが得意だから、検索ワードを生成させると上手くいくよ
文章をダラダラと書いて、「なんかこんな感じで困ってるんだけど、どうやって検索していいかわからないんだよなー」っていう雰囲気を出すと、その空気を読んで良い感じの検索ワードを生成してくれるよ
検索ワードをちゃんと作れる人は生成AIを使う必要はないかっていうとそうじゃないよ
例えばハンバーグの作り方を知りたいときに、「ハンバーグ レシピ」って入れたらいっぱい出てくるけど、本当に知りたいのはそれじゃないよね?
本当に知りたいのは
「今、冷蔵庫には豆腐があるから豆腐ハンバーグにしたいんだけど、めんどくさいから簡単に作れる豆腐ハンバーグのレシピがいいな。あと、ナツメグはあるけどタマネギはないんだよね。豚のミンチが20gだけ余ってるからこれを混ぜてもOK」
っていう状況におけるハンバーグの作り方だよね
そんで、これをもとに「ハンバーグ 豆腐 ナツメグ タマネギ抜き 豚ミンチ少々 簡単 レシピ」っていう検索ワード作ってドンピシャでヒットすればいいけど、ほとんどヒットしないよね(実際にやってないからヒットするかもしれん。あくまでたとえです。)
生成AIはこういうことを伝えるとちゃんと生成してくれるのが特徴なんだよね
なんで生成できるかっていうと、「豆腐ハンバーグの作り方」みたいな知識は既に学習してるし、いろんなハンバーグの作り方を学習してるから。
ただ、最新のハンバーグの作り方は知らないけど、それは検索して結果を一緒に伝えてあげれば良くて、学習した内容+追加の情報から正解に最も確率が高そうな情報を提示してくれるよ
「こういうハンバーグを作りたい」っていう質問者の意図って前提条件なんだけど、今の生成AI評価ははっきりした前提条件を提示したら最適な答えが出るかどうかの評価しかしてないよ(だってそれしか評価のしようが無いから)
ところが普通の主婦は上記のような前提条件をそもそも提示できないよ
なぜなら質問するときに全く頭の中にないから提示のしようがなくて
生成AIの回答を見たり質問されて初めて前提条件に気付くんだよね
こういう「そもそも質問者が前提条件を持ち合わせてない」という状況下での課題解決を目指して生成AIは作られていて
だからChatGPTはチャット形式で会話をしながら前提条件を探るようになってるんだよ
上記のことを理解できたら、「生成AIでなんかやれ」って言われたら、これまでのようにやるとダメだよね
これまでの情報処理系の施策って「何かしらの課題」に対してツールを準備して解決するっていう手順を踏んできた
ただ、生成AIが得意にしてるのは「そもそも課題が何か分からない」「課題を発見する」みたいなところなので
これまで通りのやり方をやっても意味がないよ
例えば「社内情報を回答できるチャットボット」とか意味ないからね
あなたの言いたいことを整理しつつ、内容をわかりやすく伝える文章を提案します。
近年、生成AIの利用が急速に広がり、その可能性がさまざまな分野で注目されています。しかし、それと同時に、AIの仕組みを理解せずに利用した結果、無駄なトラブルや誤解が生まれている事例も少なくありません。生成AIを正しく活用するためには、以下のような基礎知識を持つことが重要です。
生成AIは、膨大なデータから学習して生成物を作り出します。この過程では、以下のような概念が関わります:
• 潜在空間:AIがデータの特徴を抽象化し、多次元の空間上で表現する領域。
• モデルのトレーニング:データを用いてAIに学習させる過程。
• ファインチューニングとマージ:特定のデータでモデルを調整・統合し、特定のスタイルや特徴を強調する技術。
• LoRA(Low-Rank Adaptation):既存モデルを効率的にカスタマイズする手法。
• ベクトル操作:プロンプトや設定によって生成結果を調整する方法。
これらの基本的な知識が不足していると、意図しない結果や誤解を招く可能性があります。
生成AIは、入力(プロンプト)に基づいて潜在空間からアウトプットを生成します。しかし、その過程には以下のような特性が伴います:
• 言葉が示す領域:自然言語は固定的な意味を持つわけではなく、複数の概念を内包します。例えば、「solid color, sharp edges, clean edges」というプロンプトは「Vector Style」に近いアウトプットを誘発します。
• バイアスの影響:モデルが特定のデータに偏っている場合、その影響が生成結果に現れます。たとえば、特定の絵師のデータで学習されたモデルでは、その絵師のスタイルが反映されやすくなります。
バイアスの例として、黒人がアフロヘアで生成されやすい、特定の職業が特定の性別と結びつきやすいなどがあります。これを回避するには、プロンプトを適切に設計し、結果を微調整するスキルが必要です。
AIが「必要なものだけを正確に出力する」ように進化する可能性はあります。しかし、それを実現するためには、以下の課題を解決する必要があります:
• 解釈の多様性:たとえば、「犬」と聞いて思い浮かべる犬種は人によって異なります。これは、個々の経験や背景に基づくものです。
• 知識と経験:生成AIを効果的に活用するには、ドメイン知識と目的を的確に伝える言語化力が求められます。
全ての人類が同じ解釈に至ることは現実的ではありません。そのため、必要な結果を得るためには、継続的な学びと試行錯誤が避けられないのです。
生成AIは強力なツールですが、その活用には正しい知識と責任が伴います。技術を正しく理解し、目的を適切に言語化する力を持つことで、トラブルを防ぎ、より良い結果を得ることができます。
結局のところ、「お前がそう思うんならそうなんだろう、お前ん中ではな」(日本橋ヨヲコ『少女ファイト』)という言葉が示すように、解釈や結果は主観的なものであり、全ての人が満足する解を得るのは難しいかもしれません。それでも、理解を深め、自らの力で「望む結果」に近づける努力を惜しまないことが、生成AIを最大限に活用する鍵となるのです。
画像生成AI、最初から金稼ぎのために悪用するつもりの奴はどうでもいいが、ただ仕様が分かっていないせいで無駄なトラブルに巻き込まれてる一般人をよく見る
潜在空間の概念、モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作くらいは勉強してから使ってほしい
わたしは特定絵師に寄せてないよ!と言っても、使ってるモデルがチューニングに特定絵師のデータばかり使ってたり、絵師LoRAがマージされてて特定の絵柄が標準で生成されるようになってるモデルを使っていると、ユーザーが寄せようとしなくても寄る
イラスト用のモデルがなぜイラスト風の画像以外を上手く生成できなくなるか?つまりなぜ実写が苦手になるのか、それはイラストで頭をいっぱいにされているからだよ
あと、スタイル指定に使われる「by 〇〇」とか「〇〇 Style」みたいな言葉は、所詮他のプロンプトと同様に「複数の概念が内包された言葉」でしかないので、組み合わせ次第では特定の画風に寄ることもあるわけだ
例えば「Vector Style」という言葉が「solid color, sharp edges, clean edges, minimalist, transparent background, high contrast」といった要素を持つ場合
「solid color, sharp edges, clean edges」というプロンプトを使うとVector Styleに近づく
要は、ある言葉が直接そこに結びつき、絵柄指定と同じ効果をもたらすということ
さらに、この現象の極端なケースとして「教師データが特定絵師の作品ばかりに偏ったオブジェクトは、オブジェクトそのものと絵師の絵柄が結びついてしまう」問題もあったりする
そのオブジェクトAと絵師Xの概念が非常に近いために、オブジェクトAを生成すると絵師Xの絵柄で生成されることがある
AといえばX!状態というわけだな
逆に、絵師Xの名前と同じ単語が入っていると、なぜかAが生成される、ということもある
これはいわゆるバイアスで、一般的な例を出すと、黒人がアフロで生成されやすかったり、白人が金髪になりがちだったり、特定の職業人を生成すると性別が偏るのと同じで主に学習データの偏りに起因する
謎のサインが生成されるのも「イラストや絵画には大体はこんな感じのがある」と学習した結果だ
黒人とアフロの例では、それぞれの概念が結びついていて、黒人はチリチリというバイアスがあるので黒人+ロングヘアー=チリチリロングになったりするし、ドレッドヘアーになることもある
白人+アフロ=浅黒アフロになる事もある そのAIにとってアフロといえば黒人であり、黒人といえば肌が黒い、白人に黒を足すと浅黒い、故に浅黒アフロが生まれる、ことがある
とはいえ、この程度ならAI側がその言葉から学んだ特徴に過剰適合していない場合、プロンプトの組み合わせで回避できる問題だ
黒人をロングにするとチリチリになるなら、ストレートヘアーなどの言葉を追加する
アフロや黒い肌といった言葉をNegativeに入れるのもありだ
「不要な特徴からは距離を取れる、ただし反応できるのは文字と概念が結びついている時」
ストレートヘアーを追加すると顔が変化したり、白い肌を追加すると目の色が変化したりする
「"あの"魚が欲しい」と網を投げた際に、狙っている魚以外のものまで取れてしまう
なので、観察しながら調整しなければならない
望まぬ結果を避けるために、意図せずともそういう結果になりうる、という事だけは把握して
今の生成AIにとっての自然言語とは、固有の意味を持つのではなく、ある「領域」を示すもの
生成AIは、言葉に従って潜在空間を移動しながら、学習した言葉と関連する画像から得た特徴をガバっと鷲掴んでいき、人間から見た時の整合性は気にせず一つの出力物をアウトプットする
小魚が多い海域で網漁をすると、小魚だけ取れることもあるが、小魚と一緒にゴミが取れることもある
ゴミは要らないと言っても仕方ない、その海域にはゴミが存在するのだから
だが実は、この仕組みがアウトプットの多様性を生み出すために役立っている
人間は魚を手に入れるために網を投げたわけだが、漠然と「魚が欲しい」と網を投げた時に、特定の魚しか取れないのは多様性の欠如に繋がるし対応力もなくなる
究極的には、「プロンプトで書かれている事を"正しく"」出力するAIも作られるかもしれない
必要としているものしか出てこない、さぞ便利な道具だろうと思う
だが、そのAIを活用するには結局のところ、ドメイン知識を持った上で自分が何を必要としているのかを相手に伝える力が必要となる
「犬」と言われて、真っ先に秋田犬が思い浮かぶ人もいれば、ペットのミニチュアダックス以外が思い浮かばない人もいる
その「リンゴ」っていうのは、片があるの?無いの?一枚の葉がついてたりする?木のこと?
"正しさ"とは?解釈の結果は一義的なの?全人類共通の理解が得られるの?
あいつが悪い!いやこいつが悪い!すまん俺が悪い!いやそんなことはない!
お前がそう思うんならそうなんだろう、お前ん中ではな
あらゆる物事について、全ての人類が同じ解釈になる日がこない限り、知識と経験、そして言語化力からは逃げられないというわけだ
というわけで、潜在空間の概念、モデルトレーニングの流れ、ファインチューン、マージ、LoRA、ベクトル操作を学び知識を増やし経験を積もう
画像生成モデルを学ぶこと、その半分くらいは言語モデルを理解することにも繋がるよ
本当はそもそもの仕組みとかモデル毎のアーキテクチャとかトークンとかシードについても知ってほしいけどキリがないんだよね
追記:
AIに校正させるのはいいけど、この文章で完成するわけでもなし、それを"ちゃんと"発展させるのは手間がかかるんよ
それこそ小魚と一緒にゴミが取れまくるんで、ゴミを取り除くために愛と魂をこめて作業しないといけないのがめんどいわけですわ
だから俺はやりたくないけど出版してくれたら買って布教するよの投稿
追記2:
ここ数年、インターネットに散在するコミュニティ上での異常事象の存在が、SCP財団内でしばしば議題に上るようになってきた。匿名性の高いSNSやコメント欄、掲示板はもちろんのこと、とりわけ「はてな匿名ダイアリー」(以下「増田」と呼称)においては、他のプラットフォームでは見られない特異なアノマリーが複数確認されている。増田は、ユーザー登録をせずとも誰でも簡単に匿名の文章を投稿できる点や、その内容が検索エンジンを介して幅広く閲覧されるという特徴を持つ。その結果、財団の観測網をかいくぐって潜伏しやすい土壌が形成されており、過去数年間で複数のSCPオブジェクトが確認されるに至った。
本報告書では、増田上に跋扈するSCPについての調査概要と確認された事例、ならびに暫定的な収容手順を示す。なお、本報告書に示されるSCP事例は現在進行形で調査が行われており、記載内容はあくまで暫定的なものであることに留意されたい。
1. 背景と問題の経緯
はてな匿名ダイアリーは日本国内を中心としたWebサービス「はてな」が提供するブログプラットフォームの一部で、アカウントを持たない投稿者であっても「増田」と呼ばれる匿名枠にテキストを投稿できる仕組みを提供している。そこでは個人的な悩みや告白、社会への批判や仕事・日常の愚痴まで、多種多様な文章が毎日大量に投稿されている。
増田特有の気軽さや匿名性の高さは、投稿者の真意を推測しにくくする要因であり、その投稿を閲覧する読者側もまた「増田だから真偽がわからない」といった曖昧な認識のもと、批判や同情、考察などを寄せる。その混沌とした言説空間は、ときに不特定多数のユーザーの集合的な感情を刺激し、新たな炎上や論争を生み出す源泉ともなる。
こうした特質はSCP財団から見ると、アノマリー(異常存在)が自己の活動や影響力を隠蔽したまま周囲に感染・拡散するのに非常に都合がよい環境といえる。特に増田では、投稿時に明確なユーザーIDやアカウント情報が残らず、内容の信憑性を裏付ける手段が事実上ないため、「書かれていることが虚実入り混じっている」前提で閲覧されやすい。結果として、何らかのアノマリーが潜入していても発見が遅れがちである。
財団が増田における最初の異常を検知したのは、20██年頃に投稿された「この世を正しく終わらせる方法と手順」と題された増田が発端だった。その増田の内容はいわゆる「終末論」を扱うものであり、極めて支離滅裂かつ狂信的な文体ではあったが、読了した閲覧者の中から数名が突発性の精神不調や共時性の幻視を訴えはじめ、その症状が財団の監視ネットワークに引っかかったのである。その後、財団の調査チームが投稿の書式や文体を解析したところ、当該増田の背後に未確認のミーム汚染因子が潜んでいる可能性が高いと判断された。この事例をきっかけとして、財団は増田の投稿ログを精査し、複数のアノマリーを検出していくこととなった。
以下、財団が確認し、暫定的なオブジェクト分類(Safe/Euclid/Keter 等)を行ったSCPを紹介する。なお、詳細な文書は別途SCPファイルとして管理されているが、本報告書では概要と特徴を簡潔に示す。
概要:増田の特定記事上でコメント欄が自動的に増殖し続け、システム上の最大コメント数を無視して延々と付与され続ける現象。ユーザーが投稿したはずのコメントが複数回重複表示されたり、「名無しのオブザーバー」というハンドルネームでシステムが自動生成したとみられるコメントが絶え間なく追加されたりする。最終的に記事本体よりもコメント欄が何十倍も長くなり、閲覧者がページを読み込むだけでブラウザや端末に極端な負荷をかける。
異常性:コメント数が増え続けるだけでなく、中には本文を改変するようなスクリプトが混入しており、ページをリロードするたびに本文の一部が改変・増殖する事例が報告されている。閲覧者が長時間そのページを開いたまま放置すると、ブラウザ履歴やクッキー情報を勝手に書き換える痕跡が確認されている。
暫定収容手順:財団エージェントがはてな側のシステム管理者に接触し、問題の増田を管理者権限で凍結。また、既に拡散したミラーサイトやアーカイブを順次削除し続けているが、完全な根絶には至っていない。現状、定期的にウェブクローラーを走らせ、類似現象の発生を監視・排除する措置を取っている。
概要:一見するとありふれた日常報告や匿名の愚痴を綴った文章なのだが、記事本文を最後まで読了した閲覧者の脳内に「その人物が最も不安に感じている秘密」や「他人に言えない後ろ暗い過去」を強制的に想起させ、それを吐き出させる形でコメント欄へ投稿させる現象。コメント欄の体裁を取りつつ、実際には閲覧者自身が投稿した認識のない状態で、勝手に恥部をさらすようなコメントが掲載される場合もある。
異常性:このSCPの投稿は複数回確認されているが、書式やタイトルは毎回異なる。共通するのは「冗長かつ最後まで読まないと内容がよくわからない文体」であることと、本文の終盤に読者の潜在意識を刺激する特殊な文章構造が組み込まれている点だ。財団心理学部門の解析では、いわゆる「ミーム改変文字列」が散りばめられており、読み進める中で読者の深層心理に干渉していると推測される。
被害と対処:実際に被害に遭った閲覧者は投稿後しばらくしてから自身のコメント内容に気づき、極度の羞恥や恐慌状態を引き起こす。財団は可能な限り対象投稿を速やかに削除し、被害者のコメント記録を抹消すると同時に、クラスA記憶処理を施して事態の収拾を図っている。問題は、このSCPが投稿される「増田」のアカウント特定が極めて困難な点であり、繰り返し新規IDから投稿が行われていると推定される。新たな投稿が発生次第、いかに早期に検知し削除・封鎖するかが大きな課題となっている。
概要:ある増田上で連続的に展開される「複数の登場人物が互いに呼応しあう」形のスレッドが、実際には単一の存在(SCP-増田-C本体)の手によって形成されているとされる現象。日記本文とコメント欄があたかも多数の異なるユーザーによる対話のように見えるが、財団のIP解析ではすべて同一の不明ホストから投稿されたトラフィックであることが確認されている。
異常性:単なる自作自演ではなく、スレッド内で展開される複数の人格が、投稿のたびに微妙に文体を変化させるだけでなく、実在の第三者のようにリアルタイムで会話を重ねていく。そのやりとりは短時間で数百件以上に膨れ上がり、外部から見ると非常に説得力をもって「議論」が進行しているように映る。読者はそれぞれの人格が持つバックグラウンドストーリーに引き込まれ、スレッドを精読するうちに「どの意見が正しいか」を探り始めるが、最終的には一種の混乱状態に陥り、どの人物が何を意図しているのか判別不能になる。
被害:このスレッドに長時間深く没入した閲覧者は、自分の中に複数の人格が芽生えるような感覚を訴えたり、現実社会で他者と会話する際に「この人は実在しているのか疑わしい」という妄想を抱くようになるケースが報告されている。財団職員の複数名も監視過程で同様の症状を呈し、軽度の精神崩壊を起こした事例があるため、当該増田の監視担当者には定期的な心理カウンセリングが義務づけられている。
暫定対策:疑わしい長文対話形式の増田を早期に検知し、アクセス制限をかける監視システムを導入しているが、アルゴリズムの網をかいくぐる巧妙な投稿が頻発している。加えて、外部のまとめサイトに引用やスクリーンショットが保存されることで事後封じ込めが難航している。
概要:一度投稿された増田が、投稿時刻自体を過去に改変して再掲載される現象。通常、はてな匿名ダイアリーのシステムでは投稿日時を随意に改変することは不可能とされているが、このSCPは投稿履歴を操作して「数年前に投稿された」という形でエントリーを復活させる。
異常性:改変された記事は実在する日付の増田ログに紛れ込む形となり、当時の利用者のコメントやブックマークまで再現されている場合がある。過去ログを遡っていくと、該当記事がもともと存在した痕跡こそないものの、「当時その記事を読んだ」という証言を行うユーザーが現れるなど、現実改変の兆候も疑われる。現状の技術では投稿者の特定に至っておらず、どのようなプロセスで投稿日時を操作しているかは不明である。
注意点:時間改変系のSCPはカテゴリーとして非常に扱いが難しく、無闇な干渉は時間線に予期せぬ影響を及ぼす恐れがある。財団タイムアノマリー対策部門と連携しながら、記事そのものは閲覧制限下に置き、ネットアーカイブやウェブキャッシュの検索を遮断するなどの措置を行っている。
これらSCPが増田上で確認された背景には、以下の要因が考えられる。
増田はアカウント登録不要で誰でも書き込みが可能であるため、投稿者を特定したり、過去の投稿傾向から異常を推定したりする難易度が高い。その結果、アノマリーの一次検知が遅れる傾向が強い。
はてな匿名ダイアリーは、投稿された増田が多くのユーザーに瞬時に閲覧・ブックマークされる仕組みを持つ。また、はてなブックマークを介してさらにコメントや引用が拡散されるため、いったん話題が盛り上がると多方面にコピーや引用が散逸しやすい。
読者や閲覧者の「ネタ」への寛容さ
増田の読者は内容が真実か否かをあまり厳密に問わず、エンターテインメントやストレス発散目的でアクセスしている者が少なくない。結果、多少異常な文章であっても「一風変わった怪文書」「ただの創作」として受け流されやすく、深刻な異常だと気づかれにくい。
こうした要因によって、SCPを含む異常投稿は容易に潜伏し、拡散する。財団としては、はてな運営会社との連携を強化し、AIを用いた自然言語解析による異常兆候の検知システムを導入するなど、対策を進めている。しかし、はてな匿名ダイアリーは日々膨大な数の投稿が行われるため、どこまで網を広げられるかは未知数である。また、海外ホスティングによるミラーサイトや転載が出現し始めると、現実的な削除要請の範囲を超えてしまう。すでにTwitterや他のSNSでもまとめが回ることで、被影響者が増加する事態は避けられない。
はてな匿名ダイアリーにおけるSCP存在は、ネットコミュニティの構造変化に応じて今後も増加する可能性が高い。特に「自らがアノマリーであると自覚していないままネット上で活動している存在」や、「人格を装いながら多人数の読者とインタラクションを行うことで自己増殖するミーム型SCP」は、増田のような自由投稿プラットフォームでさらに悪質化・複雑化する恐れがある。
財団が最も警戒すべきは、増田を起点としてリアル社会へ飛び火するタイプのアノマリーの拡散だ。たとえば、本報告書で例示したSCP-増田-Bのように読者個人の深層心理に入り込み、現実での行動や社会的信用を毀損する現象が拡大すれば、大規模なパニックや社会秩序の混乱を招きかねない。あるいは、SCP-増田-Dのように時間改変的な特性を持つアノマリーがさらなる発展を遂げれば、歴史修正や因果律破壊といったレベルの被害もありうる。
また、はてな匿名ダイアリーは日本国内だけでなく海外からも閲覧・投稿が可能であり、英訳や翻訳を介して国際的に広まる余地がある。財団の各支部やデータ分析班が協調して監視を強化し、各国の法規制とも連携して削除要請を進める必要があるものの、現実には各国プライバシー法や表現の自由との兼ね合いで対応が難航することが予想される。
5. 結論
はてな匿名ダイアリー(増田)は、日常の雑感や炎上ネタから深刻な告白や感情の吐露まで、あらゆる情報が密集する場である。その匿名性ゆえに、SCPオブジェクトが潜伏しやすく、また多くのユーザーが「真偽のほどはわからないがとりあえず読む」態度で消費することから、アノマリーの拡散リスクは高いと言わざるを得ない。すでにSCP財団が確認しただけでも、いくつものSCPが増田に棲みついていることが判明している。
ただし、全投稿を強制的に削除・監視するような強硬策をとれば、はてなプラットフォームの存続意義自体を揺るがすと同時に、財団の存在が表面化するリスクも高まる。一方で、アノマリー拡散を放置すれば、ネット空間を通じてリアル社会にも致命的な影響を及ぼす恐れがある。財団はこのバランスの狭間で慎重な対応を求められている。
今後の具体的な方策としては、増田への新規投稿を常時チェックするAI分析モジュールのさらなる精度向上や、異常記事をいち早く発見し隔離するための専用クローラの整備が必須とされる。また、読者側への啓発活動――「増田を閲覧する際には、妙に長文で意味不明な投稿には注意すること」「不可解な体験があれば速やかに共有し、アクセスを控えること」など――の実施も有効である。しかし、匿名の特性ゆえに抜本的解決策は見通せていない。
財団としては、はてな運営との連携強化を引き続き図り、相互に対策技術をアップデートし合う形でアノマリーの早期封じ込めを目指す。SCP財団が確認した増田におけるSCP事例は氷山の一角に過ぎず、さらなる Permalink | 記事への反応(2) | 15:12
エンジニアとしての自分に、まさかこんな形で「限界」を突きつけられる日が来るとは思わなかった。技術が進歩していくのは当然の流れだし、自分自身もエンジニアとして日々勉強を重ね、トレンドを追いかけながらキャリアを積み上げてきた。それでも「生成AI」という存在がここまで急激に注目を浴び、しかも自分の労働価値を根底から揺るがすほどのインパクトを持って現れるとは、正直なところ想定外だったとしか言いようがない。
自分がエンジニアとしてやってきたことは、プログラミング言語の仕様を理解し、アルゴリズムを考え、設計書を読み込み、エラーと向き合いながら少しずつ完成度を高めていく――そんな地道な作業の積み重ねだ。時には新しい言語やフレームワークを学んで試行錯誤を繰り返し、何とか動かすところまでもっていき、ようやく使えるプロダクトとして世に送り出す。このプロセスを通じて、エンジニアとしての「自分らしさ」や「スキルの高さ」をアピールし、労働市場での価値を維持してきた。そのためには新しいツールを使いこなす技術だけでなく、バグを追い詰める根気や、仕様を理解して予期せぬ事態に対処する能力も必要だった。
しかし、生成AI――特に大規模言語モデルをはじめとする機械学習ベースのシステムは、そうしたエンジニアの「頑張り方」を一気に変えてしまう可能性がある。いや、可能性というよりも既に変えつつあると言っていいだろう。たとえばコードの自動生成がここまで進化してきたことで、「ちょっとしたプログラムなら数行のプロンプトを入れるだけでボイラープレート的なコードは瞬時に作成できる」「ある程度のアルゴリズムも提案してくれる」という状況が生まれつつある。かつてはコピペやスタック・オーバーフローを駆使しながら苦戦していたような領域が、今や自然言語で指示を与えるだけである程度完成した形で出てくる。そんな光景を目の当たりにすると、複雑な気持ちにならざるを得ない。
まずは単純に「すごい」という感情が湧き上がる。「こんなことまでできるんだ」「AIの進化って本当にすさまじいな」という畏敬の念。しかし同時に、「自分が今まで必死で学んできた技術やノウハウはどうなるのだろう」という不安や焦りが胸を支配してくる。自分はエンジニアとして、アルゴリズムの知識やコードの品質向上のためのテクニックを磨いてきた。それなりに自信もあった。けれど生成AIは、そうしたノウハウを内包するかのように、エンジニアがコツコツ積み上げてきた経験を一気に飛び越える成果物を生み出してしまうことがある。もちろんまだAIには弱点もあるし、すべてが完璧に自動化されるわけではない。だけど、これだけ急激に進化を続ける技術を目の当たりにすると、5年後、10年後にはどうなっているのか、想像すらつかない。
「仕事が奪われる」という言葉は、AIの台頭とともによくささやかれるフレーズだ。これまでも機械化によって多くの工場労働者が職を失ったり、ホワイトカラーの事務作業がRPA(ロボティック・プロセス・オートメーション)によって自動化されたり、そういった話はあった。でも、自分に限って言えば「エンジニアは大丈夫だろう」と、どこかで高をくくっていた。プログラムを書く行為自体がクリエイティブであり、人間の頭を必要とする作業だと思っていたからだ。それが今、生成AIというものが「あらゆる文章を生み出せる」だけでなく「ある程度のプログラムも生成できる」存在として登場し始めたことで、エンジニアの仕事というものが「人間である必要があるのか?」と問われ始めているようにも感じられる。
もちろん今のところ、生成AIが吐き出すコードは完璧ではないし、大規模なシステムを最初から最後まで構築できるほどの統合能力はまだないとされる。しかし、それは今時点の話でしかない。明日にも新たなモデルやフレームワークが登場し、問題を解決する手段が生み出されれば、あっという間に追いつかれ、追い抜かれてしまう可能性だってある。「AIにはこんなことはできないだろう」と思っていたら、数か月後にはAIがあっさりそれをやってのける。そんな現象を、ここ数年だけでも何度も目にしてきた。だからこそ、「エンジニアとしての自分は今どの地点に立っているのか」「これから何を武器にして仕事を続けていけばいいのか」、その問いに対する答えが見つからないまま、ただただ焦りと不安が募る。
さらに厳しいのは、会社側も生成AIの有用性を認識し始めているということだ。開発現場で役立つことが証明されれば、「新しく人を雇うよりもAIのサブスクリプションを使ってコスト削減を目指そう」となるのは自然な流れだろう。一人のエンジニアを雇うためには給料や福利厚生も用意しなければならないが、AIの利用料は安価なもので済む可能性が高い。ソフトウェア更新や学習データのチューニングなどのコストはかかるにせよ、「人間をまるごと雇う」よりはリスクが少ないかもしれない。そうなると、企業は本当に優秀なトップエンジニアだけを厳選して雇い、その他の多くのポジションは「AIと最小限のオペレーター」で回すという極端な体制を敷くかもしれない。そのとき自分が「優秀なトップエンジニア」の枠に入れるのかというと、正直自信はない。
「だったらAIに負けない技術を身につければいい」と言われるかもしれない。だけど、そもそもAIと真っ向勝負しようとすることに意味があるのかどうか、疑問に感じてしまう。自分がもともとエンジニアを目指したのは、単純にプログラミングが好きだったからだ。パズルを解くようにロジックを組み立て、コンピュータが自分の指示通りに動く瞬間の喜びは格別だったし、それによって誰かの役に立てるということがモチベーションにもなっていた。けれど今、あまりにも急激に進化するAIに対して「対抗心を燃やす」という発想自体が、もはや時代遅れなのかもしれないと思い始めている。
さらに言えば、生成AIに対する嫌悪感よりも、「便利だから使ってみたい」という好奇心もある。実際に使ってみると、驚くほどのスピードでコードの雛形が出力されるし、対話的に「ここをもう少し効率良く書き直して」と指示を出すと、それも的確に応えてくれる。自分で試行錯誤する時間が大幅に削減されるから、プロダクトの品質やリリースのスピードを考えると、間違いなく使ったほうが得なのだ。矛盾しているようだが、「使わなければ置いていかれる」し、「使えば自分の労働の意味が薄れる」というジレンマを抱えながら、結局AIを利用せざるを得ない状況に追い込まれている。
では、エンジニアとしての自分の「価値」をどこに求めればいいのか。かつてはコードが書けること自体が大きな武器だったが、もはやそれはAIに取って代わられつつあると感じている。もちろんまだAIだけでは設計やデバッグ、ユーザー要件の細かい調整などは完全に任せられない場面も多い。しかし、それも時間の問題で「徐々に可能になるだろう」という予感がある。最終的には、エンジニアに求められるのは「想像力」や「コミュニケーション能力」、あるいは「プロジェクトマネジメント能力」など、いわゆるソフトスキル方面にシフトしていくのではないか――そんな仮説がよく語られるが、それらだってAIが補佐できるようになれば、結局は人間を凌駕してしまうかもしれない。
こうした不安や疑問を抱えながらも、結局のところ人間である自分が生き残るためには「自分にしかできない価値」を見つけるしかないのだろう。けれど、その「価値」が何なのかがわからない。目立った才能や芸術的センスがあるわけでもなく、人の上に立って組織を率いる能力があるわけでもない。ただ、エンジニアとしてプログラムを書くのが好きで、それを仕事にしてきた。それが今、AIの登場によって脅かされている。こんなにも大きな変革の波の中で、自分がどう行動すればいいのか、まったく見当がつかない。夜中にふと目が覚めて、「この先、本当にやっていけるのか」と胸がざわつくこともしばしばだ。
一方で、生成AIが社会的に広まっていく中で、個人的には「使い方次第では新しい価値を生み出せるかもしれない」という期待も抱いているのも事実だ。たとえば、生成AIを活用して自分自身のアイデアを迅速に形にできれば、スタートアップのように少人数でも新しいビジネスを興せるかもしれない。あるいは、AIが不得意な領域――例えば人の感情や文化的背景に深く根ざしたコミュニケーション――をエンジニアの視点からサポートし、新しいサービスを企画・設計できるかもしれない。そう考えると、絶望の中にも一筋の光は見えるし、自分の存在意義を発見できる可能性はゼロではないと思う。
しかし、それが実現できるかどうかはまさに「自分次第」であり、そのための行動指針や学習計画すら、AIに頼る時代が訪れているのが現実だ。今後は、単にプログラムを書く技能だけでなく、AIと共存しながら効率的にプロダクトを生み出すプロセスをデザインできる人材が求められるのかもしれない。ただ、そんな広範囲なスキルセットを短期間で身につけることは非常に難しく、結局「AIを使いこなす者」と「使いこなせない者」の間に大きな格差が広がっていくのだろう。もしかすると、自分はその波に乗り遅れてしまうのではないか――そんな予感が拭えない。
「エンジニアだけど生成AIが出てきたおかげでもう限界」と嘆く自分が、この先どんなキャリアを積み上げられるのか、正直なところ自信はない。最悪の場合、技術の進化についていけずに職を失うことだって十分ありうるだろう。けれど、何もせずに指をくわえて見ているだけでは、本当に何も生まれないし変わらない。自分自身を鼓舞するつもりで言うが、結局は行動するしかないのだと思う。幸いにして、生成AIを使うためのハードルはそこまで高くない。オープンソースのプラットフォームや無料で試せるモデルだってある。とりあえずは、それらに積極的に触れながら、「AIだからこそ作れるものは何か」を模索するしかないのだろう。
このままいけば、自分が持っているプログラミングの知識やスキルは、今後ますますAIにとって代わられるかもしれない。でも、だからと言ってエンジニアという職業が完全に消滅するわけではないはずだ。AIがさらに発達したとき、逆に言えば「人間にしか扱えない領域」というのが再定義される可能性もある。その領域を早めに見つけて、そこへシフトしていくのか、それともAIと競合するのではなく共存しながら自分の働き方をアップデートするのか――どちらにせよ、自分自身の手で道を切り拓く覚悟が必要だ。
正直、今は「もう限界だ」と思う瞬間が頻繁にやってくる。理不尽なほどに速い技術の変化についていくのは大変だし、自分よりも若くて吸収が早い人材がどんどん出てくる。そんな中で、生成AIのような強力なツールまで活用されたら「自分の居場所は本当に残っているのだろうか」と不安になるのも無理はない。それでも、変化を憂うだけでは一歩も前に進めない。結局、AIが台頭する前も、プログラミング言語が進歩して自動化が進むたびに「もうエンジニアは不要になる」と言われ続けてきた歴史がある。それでもエンジニアは生き残ってきたし、新しい技術を取り込みながら活躍の場を広げてきた。今回の変化は今までより大きいかもしれないが、それでもまだ自分にできることはあるはずだ。
大事なのは、この逆境の中で諦めずに「次の一手」を模索し続けることだと思う。生成AIによって生まれる新しいニーズや、まだ誰も開拓していない領域を探りながら、自分なりの強みを見出していく。あるいは、AIが苦手とする部分――倫理や法的な制約、複数ステークホルダーとの調整など――をうまくリードできる立場に立つ。そんな方向性を模索するうちに、意外な道が開ける可能性だってある。目先の「限界」という言葉に呑まれて立ち止まってしまうより、嘆きながらでも手を動かし、AIも使いこなしながら活路を探っていくしかない――それが今の正直な思いだ。
言うは易く行うは難し。だけど、少なくとも「もう限界だ」と嘆いているだけじゃ何も変わらない。こんな風にどこかに文章として吐き出すことで、自分の不安や焦りを整理しているのが実際のところだ。そして、もし同じような不安を抱えているエンジニアがいるなら、互いに情報を交換し、励まし合いながら新しい時代に挑戦していきたい。生成AIがもたらす未来は決してバラ色ばかりではないかもしれないが、そこには想像もつかない面白さや可能性も潜んでいるはずだ。自分の「限界」を超えるチャンスでもあると信じて、今は前を向いて進むしかないのだろう。
もし将来、就職したくなったらソフトウェアエンジニアがお勧め。
文系なのに、と思うかもしれないけど、プログラミング言語はやはり「言語」なので、素養としては数学的能力よりもまず言語を使いこなす力が必要。
自然言語で表現される要件からコードに落とし込む作業は、文章をロジカルに読み解れさえすれば、非常に簡単。
本当に深いところに行くにはコンピューターサイエンスを学ぶ必要があるけど、旧帝大の博士課程に進む人材なら学ぶことは大した問題ではないはず。
SIみたいな業界で顧客とのやりとりが中心だと難しそうだけど、Web系ベンチャーのエンジニア職ならコーディングメインでコミュニケーションも対して発生しないし、どんなバックグラウンドでも取ってもらえる。
AIイラストって絵の綺麗さばかりに注目されて恐れられてるけどさ、一番気にするべきなのは指示忠実度だと思うんだよな
綺麗な絵が出力できた所で指示に反してるなら実務では役に立たん。Xのタイムラインに流すくらいでしか使えん
一般人が簡単な指示をするだけで適切なイラストが出力されるときがゲームエンド。品質は一定以上ならどうでもいい、素人には判断できん
じゃあ今のAIはどうなのというと「プロンプトという謎言語を使っても指示に従わない」←このレベル、はっきり言って終わってる
自然言語で出力できるAIもあるが指示への忠実さは大差ない、全く恐れる必要などないのである
だがここ数年で指示に従うようになりつつあるのも事実。でも指示に従うだけじゃダメなんだよね
なぜ指示に従うだけではダメなのかというと「クライアントは自分の望みを言語化できない」から
”顧客が本当に必要だったもの”が分かりやすい例だが、顧客の指示に忠実に従ってもそれが「顧客が本当に望むもの」とは限らない
だからこそ対話が必要でありリテイクが発生する。でもそれは今のAIには出来ない
もし「クライアントの指示を汲み取りつつ、指示に無い事までイイ感じに描いてくれるイラストAI」が開発されたら、その時はイラストレーターは廃業するだろう
でも心配する必要はない、”指示に無い事までイイ感じに汲み取れる能力”はイラスト以外にも使えるのでそのときは全員仲良く廃業する
人間だって電話で「◯◯に関するお問い合わせは1を、◯◯に関するお問い合わせは2を」って窓口分けてたりするやん。
もう一つ、なぜコンピュータで「自然な対話」でないといけないのが意味不明。
コンピュータが自然言語で理解できるようにしろって話?処理コストが高い割に全くメリットなくて誰が得するんやそれ。
擦り合わせ自体をプロトコルに含めろ?だったら結局すり合わせのための何か別のプロトコルが必要やん?
少しの擦り合わせでもそれが100万1000万アクセス、はては世界中の合計でどれだけCPUや通信帯域を無駄にするか想像できん?
激務になりがちなWebサーバなんて世界で一番無駄をなくそうと努力されてるところなのに。
ちなみに、使うHTTPのバージョンとかはリクエストの時点ですり合わせしてる(そのあたりはブラウザが内側でよしなにやってる)
少なくとも筋ではないな。無駄な通信利用量とCPU負荷の観点からもそうだが、
セキュリティ上の観点からも、どんな理由であれサーバから自分に関する情報を送るのは危険。
相手がウェブサイトなのかなんなのか知らないでアクセスするやつはいない?
いやいや、それこそ攻撃ボットやハッカーがやってることだから。
ボットは24時間手当たり次第にアクセスしまくって攻撃対象を探してたりするやつな
なんかアクセスしたら繋がるけど何をしてるかわからんサーバは、攻撃の糸口が見つかりにくいからな。
企業に侵入して、順番にサーバにアクセスした時に自分の役割(プロトコル)を白状してくれたら、
すぐに企業全体の構成がわかってこれ以上なく攻撃が捗ると思うぞ。
まぁ、有名どころのサーバはポート番号からある程度推測できるというのはあるが、
まず、Twitter(現Twitter)で交互にリプつけるの愚すぎる。両者の「論」を左右に離して並べ、指摘・弁護関係を矢印で示すのが正しい構造。
全ての相手からの指摘(こちらに向かってくる矢印)を弁護しきれば論理武装<ロジカリー・フォートナイト>が成立するし、こちらの指摘(こちらから送り出す矢印)が1つでも通れば部分論破<ロジック・アタック>が成功していると言える。
そして何より大事なのが「前提<ジ・オリジン>」「定義<ザ・エッセンス>」を書き留めること。これを無視した「論破射(「論」間にある任意の矢印をこう呼ぶ)」は「詭弁」であり矢印の主にはペナルティが課される。
なお、「論」は自然言語で書かれるが、「論破射」には証明文<マスマティカル・プルーフ>みたいなほんのり形式言語っぽい説明文が乗っててほしい。
この人が感じてる「つまんなさ」って、ITに対してじゃなく「プログラミングできる俺かっけー」が出来なくなってきたことに対して感じてるつまらなさなんじゃないの?
わかるよわかる、プログラミングかっこいいよね。中学英語では出て来ないようなfunctionとかfloatみたいな英単語使いこなしてコード書くのかっこいいよね。うんうん。k8sとかDockerとかDDDとか名前がかっこいいよね。そういうの使いこなせる魔法使いみたいな俺様かっけーよな。
それがLLMの時代になって、急に自然言語でプロンプトを書くことになったわけよ。
まるで下請けSEに指示するような口調で「●●について調べて下さい」とか「××のプログラムを書いて下さい」とか書くの、ダサいことこの上ないよね。わかりますよ。俺様が憧れてたカッコイイプログラミング言語やアーキテクチャ用語はどこ行ったんだって言いたいわけよな。
要するにお前さんの厨二病プログラマー時代は終わりを告げ、これからは自然言語が支配する大人の時代がやってきた、ということだと思います。さよなら厨二病。
普通に暮らしてて他人の脳の活動は見えない。なので厳密には死と生を判別できない。そもそも、判別する必要があるだろうか?
現代人は小賢しくも自然科学の手法により脳死は人の死であると定義し、脳の活動を測定し、死を診断できる仕組みを作った(目がfMRIになってる医師免許保有者は本論において論外とさせていただきます。ごめんなさい(_ _;))。
意味ないよそんなの!昔の人は(現代で言う)死んだ人ともお話できたんだよ!(自然科学的な見地からすると)実際には死んだ人の意思なんてないし、死んだ人は喋ってないんだけども。
数百年におよぶ長大な浅知恵が我々の領分から死者を取り上げたのだとすると、やはり、知恵の実なぞ口にするべきではなかった。口は災いの元、口を塞げ!自然言語を廃止せよ!社会を中止!書物はすべて234℃で保管せよ!
皆さん、お喋りは禁止です。やめましょう成長、対話、生産。リソースを食べていきましょう。盆ぐらい、死者の国に住みましょう。
旧来の理詰めでの処理じゃないから、常に100点の答えは出ないし、矛盾も多分に孕んでいる
しかし自然言語や絵や音楽や映像という、そもそも100点が無い、人間の「認知」に関わる部分には非常に強力なスコアを出すのが生成AIだと思う
生成AI以外の方法で将来100点を出す日が来るかもしれないけど、現実的に考えて今は生成AIの方法を使ったほうがそれっぽくなるみたいな感じだ
ChatGPTやClaudeを使ってて面白いのは
誤回答をした場合でも、聞き方を変えると正しい回答になるところだ
インプットの中に誤回答が3割とか混ざってたら、聞き方によってはそれにアクセスしてしまうことがある
そして面倒なのは「それが誤回答かどうか」をAIだけでは判断できないところだ
人間がすべての知識に対してそれが正しいかを入力するのは不可能に近い、特に専門分野なんて無理だろ?言及が少ない領域も無理だし
そこを改善するには、科学者のようなAIを作るしかないんだ(生成AI以外のアプローチ)
ChatGPTやClaudeのような自然言語系AIはつまり、現状は次世代検索エンジンでしかない
もっとハイレベルな何かを期待した人は使わなくなっていくらしい
例えるなら、誰かにGoogle検索エンジンってすごいよって教えて使ってもらった結果、「なんだ間違った情報ばかりじゃないか」といって使わなくなる人がいるのと同じだ
生成できるのはあくまで既視感があるハリボテでしかなく、70点出せれば良いねってくらいが目標となる
もちろんそれが一瞬で出るんだから、10点も出せないド素人からは嬉しいんだけど、80点以上を求める人には不満となる
ここらへんは今のやり方だと越えられない壁だし、個人的には当分この壁は破られないと思ってるんだけど
あとはシンギュラリティ周りがどうなるかだけど、正直あまり期待してない、2060年代くらいじゃない?まだ一二回は幻滅期が来ると思ってる