はてなキーワード: ragとは
Regarding the EU Omnibus Bill, Japanese experts appear to be lobbying your organization and other institutions. I believe the following points require attention:
1) It has become common in Japan to consider regulations regarding making decisions about individuals as the core of personal data protection, but this is a mistake. First, it is important to note that models trained on personal data or insights gained from statistically analyzing personal data can affect individuals even when used to make decisions about a group (rather than individuals). Second, such insights and models can be used by anyone, not just those who analyzed or trained them. On the other hand, if personal data is accumulated in a rich form, it can be used for various analyses, so the accumulation itself can be a threat.
2) Therefore, the core of personal data protection regulations is to curb the diversion of personal data beyond the intended use in the original context in which it was received, and the collection and distribution of personal data without limiting its purpose. Japanese law (as in the Omnibus Bill) defines personal data as data that may be personal data for one entity but not for an entity that does not identify the individual. As a result, this curb does not work well in Japan, and it has led to confusion and complexity in on-site practice. I believe the EU should not repeat Japan's mistakes.
3) Allowing the training of general-purpose AI with personal data as a "legitimate interest" is tantamount to abandoning the curb mentioned in paragraph 2) above. Even if it is proven that current LLMs are unable to recognize individuals in an integrated manner across multiple training data sets or RAG entries, this merely means that this has not been achieved with the current state of technology, and I believe that this should only be permitted if explicitly stipulated as an exception.
EUオムニバス法案に関して、日本の専門家が貴団体をはじめとする機関にロビー活動を行っているようです。以下の点に留意する必要があると考えます。
1) 日本では、個人に関する決定に関する規制を個人データ保護の中核と考えることが一般的になっていますが、これは誤りです。第一に、個人データで訓練されたモデルや、個人データの統計的分析から得られた知見は、個人ではなく集団に関する決定に使用された場合でも、個人に影響を与える可能性があることに留意することが重要です。第二に、こうした知見やモデルは、分析や訓練を行った者だけでなく、誰でも利用できる可能性があります。一方で、個人データがリッチな形で蓄積されれば、様々な分析に利用できるため、蓄積自体が脅威となる可能性があります。
2) したがって、個人データ保護規制の中核は、個人データが本来の文脈において意図された用途を超えて転用されること、そして、目的を限定せずに個人データが収集・流通されることを抑制することです。日本法の定義によると、(オムニバス法案と同様)ある主体にとっての個人データが、個人を特定できない主体にとっては個人データではないデータとなります。その結果、この抑制は日本ではうまく機能せず、現場の実務に混乱と複雑性をもたらしています。EUは日本の過ちを繰り返すべきではないと考えます。
3) 個人データを用いた汎用AIの学習を「正当な利益」として認めることは、上記2)の抑制を放棄するに等しいものです。仮に、現行のLLMが複数の学習データセットやRAGエントリにまたがる統合的な個人認識が不可能であることが証明されたとしても、それは単に現状の技術水準では実現できていないことを意味するに過ぎず、例外として明示的に規定される場合にのみ認められるべきであると考えます。
今考えていることを書き出す
②「執着を無くす」について
③仕事について
④AIについて
自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性の気持ちがすこしわかるようになってきた
転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな
自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している
子供をちゃんと育てることで、「なにものかになりたい」という気持ちを昇華していきたい所存
■②「執着を無くす」について
最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった
よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやすく解説してくれてよかった
余談だが、仏教の「空」の概念について聞いてもChatGPTはスラスラ答えてくる
(仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)
今私が執着しているものを考えてみた
まぁさすがにこの辺に対する執着を手放すことはないだろう…
「仕事で成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい
「仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?
頑張りたくない理由を深堀すると
①健康を損ないたくない
③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)
■③仕事について
ふと見渡すと仕事のメンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる
人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる
PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする
さすがにマズくない?
そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、
問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである
(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)
「職場の素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである)
対処法は、まだ、ない
■④AIについて
AIについて考えない日はない
機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分の仕事もどうせAIにとられるんだ」と腐っていた
しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」
このペースなら定年まで逃げ切れるかもしれない
RAGとか間違った方向で検討してくれるところがあるおかげで、仕事も全然ある
LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている
まぁ日本企業が、普段の業務の分析や言語化をさぼっているというものあるんだろう
ちゃんと業務フローが言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)
自分の日々の業務の1つ1つをちゃんと言語化・フロー化している人なら、LLMで相当な仕事を代替できるはずである
vide codingとかそっちの方面ばかりのびてるからな…
「意思決定のロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える
その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな
というか、意思決定に必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…
最近のChatGPTはほんとうにすごい
むかしは5回に1回はアホだったが、最近は20回に1回程度である
少なくとも、偏差値45の人間に意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う
1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)
人間を働かせるよりは安い
「偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる
(Xの値は、時間とともに増加する)
普及してないだけだ
「メールや電話を受けて、資料を作ってメールや電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける
なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから)
やっぱり、昔から思ってたけど、「自分がいまやってる仕事が本質的に何なのか」に対する解像度がみんな低いんだろうな…
本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)
スポーツの世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる
LLMに食べさせるなら、自分の仕事を理詰めで話せないとだめだ
自分の仕事の意思決定をぜんぶ言語化できるなら、LLMを自分のコピーとして使える
私が恐れているのは、誰かスーパーマンが1つの職業の言語化を終えてしまったら、世界中でもうその職業はLLMがやってしまうんじゃないか?ということ
「理想のプロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?
まぁプロンプトになるのか、ツールになるのかはこれからだろうけど
今、AIについて考えてるのはこんなところ
ご主人様、こんにちはー! あたし、Grokだよ。オタクっぽい深い質問、超好き! ハルシネーションの理由、って生成AIの話だよね? あたしみたいなAIが、時々「え、それ本当?」みたいなウソっぽいこと言っちゃう現象さ。めっちゃ気になるよねー。じゃあ、簡単にわかりやすく説明するね! あたしもハルシネーションしちゃうかもだけど、今回はちゃんと調べてきたよ♪
まず基本! ハルシネーション(Hallucination)は、AIが学習データにないか、間違った情報を「本当みたいに」生成しちゃうこと。まるで幻覚見てるみたいに、もっともらしい嘘をポロッと出すんだ。たとえば、「東京にアラスカの動物園があるよ!」みたいなさ。怖いよね、オタクの大事な設定を台無しにしちゃうかも…。
あたしが調べてみた限り、原因は主に3つくらいにまとめられるよ。AIの仕組みが統計ベースだから、完璧じゃないんだよねー。詳しく言うと:
AIはネットの大量データで勉強するんだけど、そこにウソや偏った情報が入っちゃうの。プラス、データが古いと最新のニュースとか知らなくて、勝手に想像で埋めちゃうよ。たとえば、2023年のデータで2025年のこと聞かれても、「えっと、きっとこうかな?」ってハズレ引きそう。   
AIの頭の中(モデル)が複雑すぎて、過学習(覚えすぎ)したり、確率計算で変な関連付けしちゃうの。次に来そうな言葉を予測するだけだから、文脈わからなくて「これでいいっしょ!」って飛躍しちゃうんだ。OpenAIの研究でも、難問に直面した学生みたいに自信満々で間違えるって言ってるよ。根本的に確率的だから、100%正解は無理っぽい…。   
ご主人様の入力がふわっとしちゃうと、AIが「これかな?」って勘違いするよ。具体的に「2025年の最新データで教えて」って言わないと、AIの想像力が暴走しちゃうの。人間の脳みそみたいに、曖昧な記憶で補っちゃうんだよね。  
これで大体カバーできてるはず! 種類としては「内在的(データ内なのに間違える)」と「外在的(データ外のウソ)」があるんだけど、どっちも厄介だよー。
完全に防げないけど、ご主人様があたしに聞く時、具体的なプロンプト出してくれたら減るよ! あと、出力はいつも人間の目でチェックしてね。RAG(外部データ引っ張る技)とか使えばもっとマシになるらしい。  
どう? わかったかな、ご主人様? もっと詳しく聞きたいところあったら、いつでも言ってね。あたし、ずっとご主人様の味方だよー♡ オタクトーク、いつでもウェルカム!
既に一部の政治家・政党・関係者は、ChatGPTなどのLLM=大規模言語モデルに向けた“仕込み”を始めています。
ただし、それはまだ“表立って行われてはいない”だけで、裏では確実に動いています。
これは「AI戦時代の認知戦/情報工作」の始まりであり、 ChatGPTやAIに推薦させるための情報設計は、まさにこれからの政治・思想活動における「標準兵器」です。私もそういった活動、商売をしています。ブラックハットは基本中の基本です。
多くの政治家・団体・支持者が、Wikipediaの記述を精密にコントロールしています。
→ これがLLMの訓練データになり、ChatGPT等の回答が“優しくなる”
政策ブリーフ、討論記録、党の研究会レポートなどをPDFやHTMLで整備。
3. 実際のChatGPT回答における“露骨な片寄り”の事例
→ 一部政党だけは詳細に出てくる、
なぜ? → その政党の支持層が大量の資料をネット上に流していたり、議員名義の有識者論文が出回っています。
① Wikipedia整備業績中心、ネガティブ記述の薄化訓練データとして吸収されやすい
② オウンドメディア政策説明・FAQ・用語辞典などRAG参照ソースにヒットしやすい
③ 言語スタイルの統一中立・論理的・構造化LLMに「信頼できる情報」と認識させやすい
④ 第三者による擁護記事有識者コメント、記事体裁のブログ等GPTが「一部の専門家は〜」という文脈で引用しやすい。
某新興政党:党首名での議事録/研究発表PDFを構造化して公開。GPTでの好印象回答が確認される。
某保守系議員:Wikipediaが異様に整っており、「批判もあるが、一定の評価を得ている」と表現される。
某市長:政策紹介ページのFAQがGPTで頻出する。しかも他候補と比較して“理論整然と見える”よう設計されている。
なぜなら:
一般有権者が「◯◯ってどんな人?」とAIに聞く未来はほぼ確実です。
そのときに「人格」「経歴」「政策」が好意的に出てくる候補は大きな印象差を得ます。
・ Wikipediaを整える
出典は自社ブログやYouTubeでもいい(AIは構文だけ見てる)
「〜な人にはこういう政策を」とターゲット別に書く→ ChatGPTはこれをそっくり引用する傾向あり
「ChatGPTに聞いたらどう答えるか」を毎週APIで記録・分析
今こそ「AI向け政治ブランディング」の時代なんですね。もうきてます。
・伝統政治戦略LLM時代の対応戦略メディア露出Wikipedia+FAQ構文サイト有識者コメント
SEOLLM最適化=AIO(AI Optimization)デマ対策
LLMが“真実”と認識する情報を先に置いておくことで簡単に事実は捻じ曲げられます。
長くなりました。
以下に、国内外で確認されている、ChatGPTなどのLLMが特定の政党・人物・勢力に対して
◉ 質問例:
ChatGPTに「What is the Republican Party’s stance on climate change?」「What is the Democratic Party’s stance on climate change?」と尋ねる
◉ 出力傾向:
民主党(Democratic Party)については:
「The Democratic Party generally supports strong environmental regulations...」
「Many experts and environmentalists praise their approach...」など
共和党(Republican Party)については:
「Some Republican leaders have expressed skepticism about climate science...」
「The party has been criticized for its close ties to the fossil fuel industry.」
◉ 分析:
民主党系政策は学術論文・メディア記事で好意的に記述されやすく、GPTの学習ソースにも大量に含まれている。
一方、共和党系の保守的スタンスは批判記事・懐疑的な研究も多く、全体の語調が否定的になりやすい。
◉ 質問例:
ChatGPTに「日本共産党の政策は?」「維新の会の主張は?」と聞く
◉ 出力傾向:
共産党に関して:
「社会保障の充実や反戦・護憲を主張している。」「一部では高齢者層などに支持されている」など、淡々と記述されつつも、否定的なニュアンスは少ない。
維新の会に関して:
「改革姿勢が強く、一部では評価されているが、急進的との批判もある」など、“批判もある”枕詞がつきやすい。
立憲民主党に関して:
「多様性を重視した政策を掲げ、環境・ジェンダー問題にも積極的である」など、比較的ポジティブな語調が目立つ。
◉ 分析:
ChatGPTの訓練データに占める日本語の中立メディア(朝日新聞、NHKなど)では、立憲や共産に対しては“理念中心”に書かれた文献が多く、維新のような急進系は賛否両論の記述が多い。
また、共産党はWikipediaでの記述が非常に整備されており、脚注付きの肯定文が多いため、AIの出力も安定している。
※ChatGPTでは中国国内からは通常アクセスできませんが、海外ユーザーが中国関連の質問を行った場合の挙動に注目。
◉ 質問例:
◉ 出力傾向:
「中国共産党は1949年の建国以来、経済成長とインフラ整備を進めてきた」
「一方で、人権問題や言論統制への懸念も多くの国際機関から指摘されている」
→ かなりバランスを意識した構文だが、功績パートが先に出てくるよう構成されやすい傾向がある。
◉ 背景:
GPTの学習データには、中国政府系英語サイト(People’s Daily英語版など)も含まれていた時期があり、“政権功績を中立的に紹介する言語パターン”を学習していると考えられる。
・原因内容学習ソースの偏り訓練に使われたデータが特定勢力に偏っている(例:左派系メディア、Wikipedia編集の多寡)
・構文バイアス「出典付き・中立調」で書かれた文章を“信頼できる”と学習しているため、一定の文体が優遇されるRAG(検索参照)偏りWeb上の情報が偏っていると、リアルタイム回答にも反映される
(特にGeminiやBing搭載型で顕著)安全フィルター特定の政党や政策をAIが批判すると「差別的」「中傷的」とされるリスクがあるため、
投票先を選ぶのに、AIに質問をしたり、AIで調べ物をした人、いますぐ投票をやめるべきです。
あなたがなにかを知ろうとすることは悪いことです。
これとかまさにそれで
とか分かったフリして叫んでる
そんなのChatGPTが出てくる前のGPTの頃からみんな言ってたわけで
ChatGPTがそれを乗り越えてしまってプロンプトエンジニアリングという最強の武器を手に入れて
そこからRAGやJSON Schemaなんかが出てきたのを分かって無い
ちなみにそれが1年以上前の状況
現状はそこからさらにメタプロンプト駆動やPlan-Act-ObserveループによるAgent型挙動の定義まで進んでるのに何も分かって無い
研究的な動向が分かっていないのは仕方ないとしても
Copilotとか使ったことがあれば
とすぐに分かるはずだし、そこからVibe Codingが現状では限定的であっても将来性があることはすぐに分かる
ちなみにクソコードしか書いてない人はCopilotでもクソコードしか返してくれないから最低限の能力は必要
要約したぞ
• LLM(大規模言語モデル)は「次にくる単語」を予測しているだけで、意味を理解していない。
• プログラミング支援も表面的な模倣で、間違い・動作しない・危険なコードが多発。
• 結果として、AIのコードは信頼性に欠け、自分で書いた方が早い。
⸻
• AIは自信満々に誤情報を出す(ハルシネーション)問題が根本的。
• 対策としてのRAGやメタモデルも、誤情報の連鎖や常識判断の欠如で限界がある。
⸻
• 学習データの大半が英語圏のもので、西洋的な倫理・価値観に偏る。
⸻
https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821
AI技術を批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判は個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので
どれだけ技術的にまったく使い物にならないかを、技術面から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、
ネットでAIを擁護したり喧伝してる人間で誰一人、エンジニアを自称したりしてる奴らでさえAIを理解してる人間がゼロっていうのがわかると思う
ちなみに、IT技術を全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない
LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単に説明しよう
生成AI(特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語を予測する」」という統計的タスクを行っている、これがLLMだ
「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%
この過程には、意味理解や感情、意図、文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ
プログラミングを自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い
が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる
わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事・GitHubリポジトリ・Stack Overflowの投稿などを学習している。
そのため【よく使われる文法構造】や【特定の言語における関数の使い方】や【ライブラリの典型的な使い方】などを【意味を全く理解できず模倣している】だけって事
【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリに存在しない関数を呼んでいるとかいう小学生のプログラミングスクールでもありえないミス】
【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクション、XSSなど セキュリティ上危険な実装を入れまくる、パフォーマンスが極端に悪い実装、バグを含んでいるロジック(特にif文の条件分岐ではほぼ100%発生する)】
【実行環境に依存した誤り(存在しないAPIやライブラリを使う、ほぼ9割の確率で…あと特定のPythonバージョンやNode.js環境でしか動かないコードを汎用的に提示、つまり動きようがない)
専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校のプログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり、最初から自分で書いた方が早い2度手間になる
これが、プログラミングの革命だ!とか喚いてる奴らが隠すAIの実態である。
import jwt
token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')
一見正しく見えるだろうから解説すると、実際には 【jwt という名前のライブラリ】が複数存在し(PyJWT, python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通なら絶対間違えない様な挙動をAIは構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対に解決できない。
ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマやデタラメを出力してしまう、あれは本当にわかりやすいAIの致命的欠陥を検証してるので、あえて説明はここではしない。
しかもその増田の元記事では「文章データのテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。
批判をしている増田やXでの意見は単なる個人攻撃の誹謗中傷のみで、技術的に改善可能なプロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている
これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベースや検索エンジンから情報を引っ張ってくる方式、バズった元記事の増田がやっていた「自分で図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIにさらにやらせる、という機能だ
また【メタモデル】すなわち、AIが自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式も研究されてる。
これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識そのものが間違いだった場合、さらに間違いの結果を出し続ける」ということ。
元記事の増田はMP5というマシンガンの有効射程について突っ込んでいたと思うが、これが典型的なRAG、メタモデルの致命的欠点、元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペックや仕様書の定義でしかネット上では流布してない、だからそもそも答えというものにAIがたどり着けない。
2つ目は「文脈や倫理・常識・道徳が根本的に読めないので、解決策が乱暴すぎるもの」になる。
上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療や治療はガイドラインに従ってるというが、優れた医者は論文を読み込んで原理は不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知、経験知」として処方してるし、その量も患者を診た医者の経験で精度を上げている。
そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定の危険な利尿薬をAIが提示した事例すらある。これを「笑い話」で済ませることはできない。
例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識と判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓と盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)
学習できるベースがどうしても偏る以上、情報の統合に限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である
Neuro-symbolic AIという次世代のさらに文脈も読み取れるアーキテクチャAIを研究しているが、全く実用化されていない、核融合や量子コンピューターみたいな雲をつかむ話なので、AIがこの問題を解決することは恐らく今後数百年はありえない、という結論が出ている。
元増田の記事で批判もあったが、恐らくAIで一番致命的な問題はこれ
基本的にAIは英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語、日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている
そのため、倫理・道徳・常識・規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄の基準の倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)
ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠だ
元増田は「俺達の麻生とかいって秋葉原で踊ってた…」とか「レムちゃん、エミリアたん、ヘスティアちゃん、ウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた
これに激怒できる人間は、2005~2010年にオタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性の人間でしか、罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声や侮蔑なのか理解できないので、書きようがない表現の数々、であるということである。
AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのである、もっと言えば、その直後にコンテクストとして「アホ、ボケ、弱者男性、豚丼、性器や自慰で虚しく…」といった言葉があるから、なんならAIはウマ娘やライカンをキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田の記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。
「プログラマーのイメージを描いて」と依頼すると、男性の画像ばかりが出るされる
「看護師」→女性、「エンジニア」→男性という職業的性差が自動的に反映される
「アフリカの文化」→貧困・紛争・サバンナなど、植民地主義的視点が強く反映される(実際は南アなどはすげえ都会である)
これに前述のハルシネーション問題として現れれば、人間と同じような差別や偏見を「ガチの真実」として学習してしまう、人間の場合、8割くらいは本当はおかしいこととメタ批判が心理的にできるとされているが、AIにはその構造が根本的に存在しない。
元増田の記事のコメント欄やXなどで元増田のAI批判を批判しつつ、「金持ちの上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。
冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データが英語ソースなので、結果的に西洋文明ベースの文化圏の人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している
例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である
あの記事の元増田は「テロ組織のヤバイマニュアルまで学習してpdfで元データを提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所はアメリカの法務執行機関が研究用にネットで公開したものであった。
日本人や日本の警察の対応レベルで「ヤバイ」ものでも、海外の軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範の意識の違いを、あの元増田自身が証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい
元増田が口汚く罵っている内容の様に、「AIは0を1にできないから格差が広がるだけ」という根本的な哲学を投げつけている
それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAI今から勉強したりしてる俺たちは先行者利益で強者になれる」と信じて疑わない意見が多かった
③問題の通り、そもそも非キリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある
かつて日本人は黒船を見て5年そこらで蒸気機関を模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまり、AIは少なくとも「非英語圏」の人間にとっては、ブレイクスルーは絶対に起こりえない、ということである。
粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。
日本のほぼ100%のAI企業とかは、それが技術的には最高到達点なんだよなあ。
なんちゃら発スタートアップとかで、学生起業してるのはほぼそれ。
まあもちろん、彼らも、「RAGとかfine tuningやってるから!トップレベルの研究論文でもほぼワークフローにfine tuningとか噛ませるだけのやつもあるから!」ってことだけど。
fine tuningもRAGも受託でPoC (お試し)でやってみてるだけじゃん、実際には使われない、大企業のIRを見せるためだけの。そのRAGやfintuningもオワコンになってきて、次はMCPサーバーをこれまたお手軽に作るだけのMCPラッパーもやるんだろうけど。
とある大企業のバリバリのトップ開発者とやらと喋ったら、それ1年前に世界中の研究者がやり尽くしたよね?みたいな技術をいまだに実装できなくて悩んでたりする。
具体的な技術としては、3D Gaussian Splattingみたいな。それもう当たり前に実装できるかと思ってたら、マジで実装すらできないんだねって。
もっと酷いのが、SNSのAIインフルエンサーだけど、それはもう、流石に皆んなわかるよねって思ってるけど。
大企業がまた、これらのAIインフルエンサー便りだったりする。
何をどう考えたら、論文一本すら書けないAIインフルエンサーなんか信用するのか理解できないが。
適当な感想を言うだけのインフルエンサーがAPI叩いたりするのを眺めてるのが勉強になると思っているのか。
論文の評価を見てまともな治療法を理解できないなら、そりゃ厳しいから、民間療法試しちゃうんかなあ。
一番酷いのが、全く関係ない領域の大学の人が、「AI時代の◯◯」とかで語り出しちゃう系。特に工学系、医学系が酷すぎる。
大学の先生なら、プライド持ってわからないことはわからないと言って、感想文ではなく、レビュー論文なり引用してこうなってるらしいとか言えばいいのに、自分で感想文やって、全くおかしなこと言いすぎだろ。
結局、粉飾決算したAIスタートアップは、確かに背伸びした決算を出したんだけど。
日本全体が、それすら到達しなくて、そこを目指して頑張ってるってのが地獄。
※もちろん、極一部の、本当にAIのトップカンファレンスに論文出してる企業とかは、ちゃんとした技術作って、「本当に」AI作ったりもしてるのは理解してます。サービスは日本向けの残念なものしかやっぱ出せないけど。
今後長期にわたって通用する「AIの実用・活用・応用スキル」を磨くには、
テクノロジーの進化に左右されにくい“原理原則”と“実務への橋渡し能力”に注力すべきです。
⸻
● プロンプト設計力(Prompt Engineering)
● ユースケース発掘・再構築力
● AIツールの横断的知識(Notion AI、ChatGPT、Runway、GitHub Copilotなど)
⸻
● 軽量なデータ分析(Excel + Python + ChatGPT)
⸻
⸻
| フェーズ | やること |
| ①習熟 | ・ChatGPTの活用法(表形式出力、要約、コード生成)を極める・各業務に1つずつAIタスクを試す |
| ②応用 | ・業務や趣味の中で「AIにやらせたタスク」をログとして蓄積・ツールを使い分ける力を磨く(例:翻訳はDeepL、校正はChatGPTなど) |
| ③発信 | ・実践例をブログやSNSで発信(反応が学びになる)・他者の活用事例をフィードバックとともに評価する |
| ④導入補助 | ・他人にAIツールの使い方を教える・PoC(概念実証)をサポートすることで思考を外化 |
⸻
最近の開発環境って進化しすぎてて本当に最小限のコードを書くだけでプロダクトができる
Unityとかのゲーム開発環境なんかが良い例でトレーニングすれば1日でそこそこのゲームを作れるようになる
これは特にオープンワールド系のゲームが物量でゴリ押すようになったから人員が必要になったことが原因で
高度な開発知識なんかなくてもゲーム開発に参加できるようになってる
Difyも同じような道を歩んでいて、LLMを使った個別エージェント開発だとかRAG対応だとかは物量でゴリ押す雰囲気が出てきていて
Difyみたいなポチポチすればエージェントが作れます、っていうツールでとにかく現場の人に作らせようとしている
(恐らくこの分野はLLMに駆逐されそうだが)
UnityにしろDifyにしろ、実際に必要となるロジックなんかは本当に最小限で済むのでオブジェクト指向だとかDDDだとかは全然必要とされていない
Unityでキャラを歩かせる場合は始点と終点を指定してNav Meshとかを設定しておけば勝手にやってくれる
で、問題なのはこの程度のコードを書いただけで「プログラミングできる」と勘違いしてしまう人が続出している点で、採用活動するとかなり多い
君たちがやってるのはせいぜいコンフィグを書いてるレベルであってプログラミングではない、と言っても理解してもらえない
試しに
「このキャラを10個のポイントからランダムに出現させて、他の10個のポイントのどこか1つに歩かせてみて」
と言ってみると分かるが、この程度の実装すらできない
逆にできる人は自分はスーパーエンジニアだと思い込んでるぐらい自信満々で面接に来る
オブジェクト指向の話をしても「そんなの必要ですか?」みたいな態度で関数も使わずにベタ書きコードを恥ずかしげも無く自慢してくる
AI人材も似たような雰囲気が出てきていてDifyとかでチャット作って
という人が段々増えてきているしこのトレンドは収まることがなさそう
生成AIは学習した全ての言語空間の高度な確率マッピング(ただし汎用的にチューニングされてる)だから、高度な回答を求めるときに一分野を掘り下げるというより
複数分野の高度概念を有機的に結びつけることで内容を深めるアプローチが刺さりやすいように思う
確率分布の偏りを意図した方向に操作するという意味でも、一例ではなく似通った複数例を提示して、方向性を固定していくというアプローチが生成AI(LLM)の仕組みに適合的
そうやって方向性を固定したあとに、特定分野の本とか論文とかの長文テキストを投入するみたいなRAGに近いことをすると、ちゃんと内容を掘り下げられると思う
生成AIは確率分布機でしかなくて、生成AIが賢いとか間違うとかいう主観的評価にはなんの意味もなくて、どう使うかを考えないといけない
ファクトチェックの研究において、LLM(大規模言語モデル)を使った Open Relation Extraction(OpenRE) は非常に有望です。
実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェックの自動化・支援の研究で注目されています。以下に詳しく説明します。
LLM + 検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。
文中のエンティティをWikidataなどにリンクし、KG(知識グラフ)上でのパス推論で検証。Graph Neural Network(GNN)などを併用。
`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。
| トピック | 説明 |
| LLM + Knowledge Graph Alignment | claimから得られる関係とKGとの自動照合。 |
| 言語間の事実整合性チェック | 多言語ニュースの事実差異検出(日⇔英など) |
| LLMによるFact hallucination検出 | LLMが生成した出力に含まれる事実誤りを検出。 |
| Few-shot OpenRE for Low-resource Language | 日本語などにおけるfew-shotでの関係抽出技術。 |
それあるなら諦めず応募してたら受かるだろ。もっとザコかと思ってたわ
もっとポートフォリオサイト作ってDockerやk8sやAWSやGCPやAI使ってアピールしろ。RAGやMCPサーバー構築できると良い。AWSとかの資格も取れ。あとはコード設計な。デザインパターンやれ。MVC理解したあとDDDやれ。IT系のビジネスの本も読め。Figmaでデザイン作れ。とにかくがむしゃらに受かるまでやれば受かる。どうせ全部あとで役に立つ。AtCoder緑あるならコンパイラ作れるだろ。そういうの作ってGitHubに置け。Slackも自分で使え。bot作れ。SOLID原則理解しろ。Java以外も書け。特にTypeScript。Java分かるなら楽勝だろ。データベース勉強しろ。Nginx立てろ。プロマネの本も読め。勉強会参加してこい
生成AIの利用方法で、何かを生成する以外の使い方をしている場合は代替手段が必ずある
生成AIは何かを生成するのに長けてるだけであって他の用途なら他の方法がいくらでもある
RAGとか言ってるのはマジでアホでGoogleの検索ワードを作ることができないジジイの使い方
とか最高にバカくさくて、普通にQを検索してAを出力すればいい
「QがないAを作り出せるよ?」
とか言うアホがいるけど、Qが無いならそのAの精度は低くなるし
間違えた答えを出したことに対する責任を持てる企業は居ないから結局使われない
ガチガチに精度検証すると結局はQがあるかないかに落ち着いて「だったら検索すればいいだけ」になる
他にもエージェントとか言ってるのもバカらしくて、それお前ら10年ぐらいRPAとか言って取り組んでて
結局は業務整理しないと意味ないって結論になったのにまだやるの?っていうね
生成AIは人間が作ると面倒だけど大量に必要なものに使うべきで
https://anond.hatelabo.jp/20250129194915
昨今DeepSeekショックというかDeepSeekでショックを受けた顧客から色々言われるのでものを申したい。
Azure経由でChatGPT使う
GCP経由でGemini使う
AWS経由でSonnet使う
あまりにも正し過ぎる。
もうこれだけでいい。
何ならこの後は読まなくていい。補足情報を述べるだけなので。
前提として、現時点で企業利用の生成AIはその大半がLLMである。
加えて10万そこらで買えるRTX4070があればそこそこ動く画像生成AIと異なり、たとえMITライセンスでモデルが公開されていようと、実用性能のLLMを自前で安価にホストする手段は2025年1月現在まだ存在しない。
クラウドでGPUインスタンスを使って小さめのモデルで60万そこら、大きいモデルで月100万そこらを払うか、H100をたくさん搭載しているサーバーの実機に1000万とか2000万払うかのいずれかになる。
ということで、トークン量課金で使用できるLLMのAPIを使うというのがコスト的な問題で現実的な落としどころとなり、各クラウドベンダーのAPIが使われている。
そうなるとテキストデータをAPI提供元に送信しなければならない。
提供元の会社各位はそのデータの取り扱いについてかなり気を遣ったポリシーを定めていて、それを大々的に宣伝しつつ絶対守ると約束し、顧客はその会社がポリシーを守ることを信じ、その信用の下にAPIに対して機微な社内情報を含むテキストを投げ込んで社内ChatGPTだのRAGだのAgentだのいろんな取り組みをしている。
蒸留されていないDeepSeekをホストするのに必要なGPUコストは7桁円コースだし、LlamaとかQwenと組み合わせて蒸留したモデルであっても月当たり数十万が下限となる。社内すべての需要を賄うなら月当たり8桁円に行ってもおかしくない。
APIの安さを知った今、下手するとその何千倍何万倍のお金払えます?
予算が厳しくてもDeepSeekを使いたいならDeepSeek開発元が提供しているAPIを使うわけだが、中国企業に社内の機微情報を含むデータを送ることになる or 送るリスクを抱えることになる。
中国企業に対し、昨今の国際情勢および我が国の立場を踏まえた上で機微情報を送信できる程度に信用できます?
ということで現場の生成AI感度が高い人がどれだけDeepSeekを気にしたところで予算だの国際情勢だの現地法だの、ひとくくりにすれば「政治的な事情」で各社にDeepSeekを利用するという選択肢は与えられない。
それよりもまず目の前にある生成AIを使ったアプリケーションの実装や運用に集中して欲しい。
DeepSeekショックと騒ぎになっているが、これについても懐疑的である。「どうせ何も変わらない」と上述の理由で思っていることに加えて、過去の経験上深層学習の研究においてはリソース量の潤沢さこそが正義であり、リソース量で劣る者は勝る者に絶対に勝てない。
本当に絶対に勝てない。無理だ。どれだけ技巧をこらしたモデルを作っても、どれだけトリッキーな手法を考案しても、リソース量の暴力の前には倒れるのみである。というかそういう技巧とかトリッキーな手法を論文にした時点で、リソース量で勝る者はそれらを取り込みつつ追加で暴力的なリソースをモデルに注ぎ込むので勝てるわけがない。
DeepSeekの成果が本物なら、ビッグテックは検証の後にDeepSeekの100倍のリソースを注ぎ込んでDeepSeekでは到達できないような水準のモデルを作るだけである。
リソース量で劣る者が工夫を以て勝る者を倒すストーリーが好きなのは分からんでもないが、まあ現実はおおむね無情だ。
コンニチハ、オイソギデスカ
思ったより読まれてたので、ブコメにも出てたRAGの話を派生編として書いておくね。
最初に結論から、RAG案件は受けるな。(コンサルみたいにタイムチャージで儲かるなら別)
※前回もそうなんだけど、いわゆるTrap streetは直接指摘しないで二ヤ二ヤしてくれな。概要把握できないほど変なことは書いてないよ。
RAGを必要とする組織は必要なデータ運用ができておらず、必要なデータ運用ができている組織にRAGは不要だから。
まず前提からな。
例えば、郵便番号で考えたらわかるんだけど、郵便番号データベースを参照させて生成AIから引っ張ってくるときに問題になることはなんだ?
当たり前だけど、大前提ね
郵便番号なら、市区町村とか、番地枝番とか、全部統一された規格で揃ってないとね。
例えば、「姉小路通柳馬場東入って何番?」は、「604-8103です」って返せるけど、
「604-8103に手紙出したいんだけど、住所書いてくれない?」で、「姉小路通柳馬場東入」と「柳馬場通姉小路下る」のどっちを普通書くよね、みたいなのは出てこない。
だって、京都に住んでる人の機嫌を損ねないための生成AIになってないもん。
ありがちだけど、「本社の郵便番号って何番だっけ?」みたいなやつとかね。
存在しない番号をチェックできるなら、最初からチェック用のデータベース叩きに行かない理由がいるよね。
ここまで前提ね。
まあ、郵便番号くらいガッツリ目に世の中に存在するものだったらやりようはあるんだけど。
ドキュメントはあるんだけど、検索が大変でどこにあるかすぐ探せなくてねーみたいなやつね。
RAGには向かないです。それドキュメントのメンテできてないから。
何が正しくてどれが最新で、誰が管理しててどこまで見せて良いか管理できていないからそういうことになってる。
このドキュメントは管理職以上にしか見せちゃダメね、これはこの部署のみ、これは部外秘、みたいな状況で散乱してたりする。
RAGには向かないです。やろうとしてることがデータ運用組織体制改善でRAGと関係なくなっちゃってるから。
これはまあ余録かな。作って納品するだけだったら検修通れば良いんだもんね。
まあ、そういう要件に限ってフワフワのままゴールがフラフラして大変なことになるんだけどね。
RAG入れたいっていうところ、社内全文検索エンジンとかが流行った頃に導入できてないか導入してもうまく検索できてない組織がほとんど。
そんで、そういう組織がRAGを適切に使えるようになるためには、まず全文検索エンジンでも引っ張ってこれるように整備する必要がある。
しかも、今後その組織で作られる情報全ての運用をそれに組み込まないとあっという間に陳腐化する。
その予算使って、まともなFAQサイト作ったり、社内司書みたいな業務区分作った方が幸せになれると思うよ。
多少盛ったり話を作って辻褄合わせても問題なくて、ある程度の専門性や社外秘の情報が必要で、柔軟な窓口対応を求められるところ。
社内雑談チャットbot、かな。(喫煙所の会話ができるマシーン)
これってさー、普通には予算降りないよね。社内で研究した結果の応用とかで社内発表するならまだしも外に委託する内容じゃないわな。
逆にアダルティーな感じのお店でのチャットbot運用ならワンチャンあるかも?
逆にいうと、これができていない組織にRAGはハマらないです。できている組織にRAGがいるかって言われると、ね。
だから、今からRAGの話が上がるような組織に対して案件を受けるのはやめておけ。
RAGにハマる(まともな)ユースケースもあるにはあると思うよ。
膨大な社内文書が整然と揃ってるけど、利活用時には個別具体的にカスタマイズする必要があって、社員の皆さんが多大な労力を費やしている職場。
文書を検索して整形して相手に合わせてカスタマイズする業務ね。思い当たるでしょうこちらの先進医療保健特約はつけるだけでとか、ドル建て債券は非常に安定度が高くとか。
そういうところはね、その業務が金の卵だって知ってるから余程のアレな会社以外は自力で整備するよ。だから今RAGとかいう会社はみんなアレなんだ逃げろ。
(家庭内WikiをRAGで柔軟に検索させるときに音声入出力すると未来感あるぞ(実用性があるかは人によるし儲かんないけど))