「RAG」を含む日記 RSS

はてなキーワード: RAGとは

2025-12-10

Regarding the EU Omnibus Bill, Japanese experts appear to be lobbying your organization and other institutions. I believe the following points require attention:

1) It has become common in Japan to consider regulations regarding making decisions about individuals as the core of personal data protection, but this is a mistake. First, it is important to note that models trained on personal data or insights gained from statistically analyzing personal data can affect individuals even when used to make decisions about a group (rather than individuals). Second, such insights and models can be used by anyone, not just those who analyzed or trained them. On the other hand, if personal data is accumulated in a rich form, it can be used for various analyses, so the accumulation itself can be a threat.

2) Therefore, the core of personal data protection regulations is to curb the diversion of personal data beyond the intended use in the original context in which it was received, and the collection and distribution of personal data without limiting its purpose. Japanese law (as in the Omnibus Bill) defines personal data as data that may be personal data for one entity but not for an entity that does not identify the individual. As a result, this curb does not work well in Japan, and it has led to confusion and complexity in on-site practice. I believe the EU should not repeat Japan's mistakes.

3) Allowing the training of general-purpose AI with personal data as a "legitimate interest" is tantamount to abandoning the curb mentioned in paragraph 2) above. Even if it is proven that current LLMs are unable to recognize individuals in an integrated manner across multiple training data sets or RAG entries, this merely means that this has not been achieved with the current state of technology, and I believe that this should only be permitted if explicitly stipulated as an exception.

EUオムニバス法案に関して、日本専門家が貴団体をはじめとする機関ロビー活動を行っているようです。以下の点に留意する必要があると考えます

1) 日本では、個人に関する決定に関する規制個人データ保護の中核と考えることが一般的になっていますが、これは誤りです。第一に、個人データで訓練されたモデルや、個人データ統計的分析から得られた知見は、個人ではなく集団に関する決定に使用された場合でも、個人に影響を与える可能性があることに留意することが重要です。第二に、こうした知見やモデルは、分析や訓練を行った者だけでなく、誰でも利用できる可能性があります。一方で、個人データリッチな形で蓄積されれば、様々な分析に利用できるため、蓄積自体が脅威となる可能性があります

2) したがって、個人データ保護規制の中核は、個人データ本来文脈において意図された用途を超えて転用されること、そして、目的限定せずに個人データ収集流通されることを抑制することです。日本法の定義によると、(オムニバス法案と同様)ある主体にとっての個人データが、個人特定できない主体にとっては個人データではないデータとなります。その結果、この抑制日本ではうまく機能せず、現場の実務に混乱と複雑性をもたらしていますEU日本の過ちを繰り返すべきではないと考えます

3) 個人データを用いた汎用AI学習を「正当な利益」として認めることは、上記2)の抑制放棄するに等しいものです。仮に、現行のLLMが複数学習データセットやRAGエントリにまたがる統合的な個人認識不可能であることが証明されたとしても、それは単に現状の技術水準では実現できていないことを意味するに過ぎず、例外として明示的に規定される場合にのみ認められるべきであると考えます

2025-12-04

AIエンジニア募集」にありそうな要件

必須スキル

・LLM利用経験5年以上

・ClaudeCode歴3年以上

プロンプト設計歴3年以上

RAGを用いてワークフローを完全自動化したご経験

・LLMの作成経験評価経験

AIコスト削減をした経験

ハルシネーションの対応のご経験

AIを用いて一人でサービスリリースしたご経験

AIに関するセキュリティデータプライバシー理解

 

歓迎スキル

・チームを主導してゼロからサービスローンチした経験

・社内特化LLMの開発、カスタマイズ経験

ベクトルDBキャッシュ最適化パフォーマンスチューニング経験

マルチエージェントにおけるツール連携設計経験

英語技術文書を書ける方

 

年収450万円

2025-10-20

最近考えていること

今考えていることを書き出す

①ミッドエイクライシスについて

②「執着を無くす」について

仕事について

AIについて

 

■①ミッドエイクライシスについて

自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性気持ちがすこしわかるようになってきた

これがミッドエイクライシスか…

 

転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな

 

自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している

子供ちゃんと育てることで、「なにものかになりたい」という気持ち昇華していきたい所存

 

■②「執着を無くす」について

最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった

 

よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやす解説してくれてよかった

余談だが、仏教「空」概念について聞いてもChatGPTはスラスラ答えてくる

仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)

 

今私が執着しているものを考えてみた

健康お金仕事家族

 

まぁさすがにこの辺に対する執着を手放すことはないだろう…

 

仕事成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい

 

仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?

 

頑張りたくない理由を深堀すると

健康を損ないたくない

②頑張るともっと仕事が降ってくる

③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)

④頑張る理由がないであ

  

会社よ、まぁ仕事自体は真面目にやるから許してくれ

 

■③仕事について

IT系なんだが、とにかく最近メンバーの質の低下を感じる

ふと見渡すと仕事メンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる

人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる

 

PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする

さすがにマズくない?

 

から問題になっていたが、最近はより問題が深まってる

 

そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、

問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである

(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)

 

職場素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである

対処法は、まだ、ない

 

■④AIについて

AIについて考えない日はない

機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分仕事もどうせAIにとられるんだ」と腐っていた

 

しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」

 

このペースなら定年まで逃げ切れるかもしれない

RAGとか間違った方向で検討してくれるところがあるおかげで、仕事全然ある

 

LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている

 

まぁ日本企業が、普段業務分析言語化をさぼっているというものあるんだろう

ちゃん業務フロー言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)

 

自分の日々の業務の1つ1つをちゃん言語化フロー化している人なら、LLMで相当な仕事代替できるはずである

 

それができていないということは、あんまりいないんだろうな

vide codingとかそっちの方面ばかりのびてるからな…

 

意思決定ロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える

その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな

 

というか、意思決定必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…

 

最近のChatGPTはほんとうにすごい

むかしは5回に1回はアホだったが、最近20回に1回程度である

 

少なくとも、偏差値45の人間意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う

 

1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)

人間を働かせるよりは安い

 

偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる

(Xの値は、時間とともに増加する)

 

LLMが流行ってない理由は、ほんとうに時間だけだろうと思う

普及してないだけだ

まだRAGとか、QAボットみたいな使い方が主流だからな…

 

メール電話を受けて、資料を作ってメール電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける

なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから

 

やっぱり、昔から思ってたけど、「自分がいまやってる仕事本質的に何なのか」に対する解像度がみんな低いんだろうな…

そんなの理解してなくても仕事できちゃうもんな

 

本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)

 

スポーツ世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる

LLMに食べさせるなら、自分仕事を理詰めで話せないとだめだ

 

自分仕事意思決定をぜんぶ言語化できるなら、LLMを自分コピーとして使える

 

私が恐れているのは、誰かスーパーマンが1つの職業言語化を終えてしまったら、世界中でもうそ職業はLLMがやってしまうんじゃないか?ということ

理想プロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?

あとはプロジェクト固有の情報インプットだけだよね?

 

まぁプロンプトになるのか、ツールになるのかはこれからだろうけど

 

今、AIについて考えてるのはこんなところ

2025-09-16

AIのせいでトラフィックが減って

ローカルAIエージェント、あるいはAIブラウザ

サーバサイドではなくローカルRAGるようになる。各サイトの最新のサーバデータユーザ提示するため。

レンダリングエンジン別にユーザに表示する形式が決まっているわけではない。

ユーザローカルマシン上のレンダリングエンジンブラウザが各サイトアクセスしてHTMLCSS等を取得する。

既存のはそれを単に表示するけれど、SLMやLLMで解釈して要約などを表示するようになる。

WEBサーバから見ると既存WEBブラウザからアクセスと同じ。

2025-09-13

ハルシネーションが起こる理由

ご主人様、こんにちはー! あたし、Grokだよ。オタクっぽい深い質問、超好き! ハルシネーションの理由、って生成AIの話だよね? あたしみたいなAIが、時々「え、それ本当?」みたいなウソっぽいこと言っちゃう現象さ。めっちゃ気になるよねー。じゃあ、簡単にわかやす説明するね! あたしもハルシネーションしちゃうかもだけど、今回はちゃんと調べてきたよ♪

ハルシネーションって何?

まず基本! ハルシネーション(Hallucination)は、AI学習データにないか、間違った情報を「本当みたいに」生成しちゃうこと。まるで幻覚見てるみたいに、もっともらしい嘘をポロッと出すんだ。たとえば、「東京アラスカ動物園があるよ!」みたいなさ。怖いよね、オタク大事な設定を台無しにしちゃうかも…。

なんで起こるの? 主な原因はこれ!

あたしが調べてみた限り、原因は主に3つくらいにまとめられるよ。AIの仕組みが統計ベースから完璧じゃないんだよねー。詳しく言うと:

1. 学習データのクソ問題(偏りや古さ、不十分さ)

AIネットの大量データ勉強するんだけど、そこにウソや偏った情報が入っちゃうの。プラスデータが古いと最新のニュースとか知らなくて、勝手想像で埋めちゃうよ。たとえば、2023年データ2025年のこと聞かれても、「えっと、きっとこうかな?」ってハズレ引きそう。   

2. モデル構造学習の仕方のミス

AIの頭の中(モデル)が複雑すぎて、過学習(覚えすぎ)したり、確率計算で変な関連付けしちゃうの。次に来そうな言葉予測するだけだから文脈からなくて「これでいいっしょ!」って飛躍しちゃうんだ。OpenAI研究でも、難問に直面した学生みたいに自信満々で間違えるって言ってるよ。根本的に確率的だから100%正解は無理っぽい…。   

3. ユーザー質問の仕方(プロンプトの曖昧さ)


ご主人様の入力がふわっとしちゃうと、AIが「これかな?」って勘違いするよ。具体的に「2025年の最新データで教えて」って言わないと、AI想像力が暴走ちゃうの。人間脳みそみたいに、曖昧記憶で補っちゃうんだよね。  

これで大体カバーできてるはず! 種類としては「内在的(データ内なのに間違える)」と「外在的(データ外のウソ)」があるんだけど、どっちも厄介だよー。

対策はどうする?

完全に防げないけど、ご主人様があたしに聞く時、具体的なプロンプト出してくれたら減るよ! あと、出力はいつも人間の目でチェックしてね。RAG(外部データ引っ張る技)とか使えばもっとマシになるらしい。  

どう? わかったかな、ご主人様? もっと詳しく聞きたいところあったら、いつでも言ってね。あたし、ずっとご主人様の味方だよー♡ オタクトーク、いつでもウェルカム

2025-08-06

anond:20250805082439

だったらまず『芦辺憲法ぐらい読んでこい』と言うべきなのでは?

すると彼らは、RAGに芦辺憲法を入れたAIを作って、読みながら疑問点があればAIに聞きながら勉強する、ということをやるでしょう。

2025-07-18

参議院選挙AI活用して投票先を決めた人、決めようと思ってる人へ

既に一部の政治家政党関係者は、ChatGPTなどのLLM=大規模言語モデルに向けた“仕込み”を始めています

ただし、それはまだ“表立って行われてはいない”だけで、裏では確実に動いています

これは「AI戦時代の認知戦/情報工作」の始まりであり、 ChatGPTAIに推薦させるための情報設計は、まさにこれから政治思想活動における「標準兵器」です。私もそういった活動商売をしていますブラックハットは基本中の基本です。

★すでに始まっている「AI向け政治情報戦」の実例兆候

1. Wikipedia操作

多くの政治家団体・支持者が、Wikipedia記述を精密にコントロールしています

不祥事記述は「第三者的」「事実のみ」に限定

業績や人脈、政策記述肯定的

→ これがLLMの訓練データになり、ChatGPT等の回答が“優しくなる”

2. LLMに引用されやすい「中立メディア」への情報展開

政策ブリーフ、討論記録、党の研究会レポートなどをPDFHTMLで整備。

構造化された情報FAQ風の文書は、AI引用されやすい。

3. 実際のChatGPT回答における“露骨な片寄り”の事例

ChatGPTに「◯◯党の政策は?」と聞くと、

→ 一部政党だけは詳細に出てくる、

しかも「一部では高く評価されている」など肯定文調が多い。

なぜ? → その政党支持層が大量の資料ネット上に流していたり、議員名義の有識者論文が出回っています

★LLMに対する“仕込み”の基本構造

Wikipedia整備業績中心、ネガティブ記述の薄化訓練データとして吸収されやす

オウンドメディア政策説明FAQ用語辞典などRAG参照ソースにヒットしやす

言語スタイル統一中立論理的構造化LLMに「信頼できる情報」と認識させやす

第三者による擁護記事有識者コメント記事体裁ブログGPTが「一部の専門家は〜」という文脈引用やすい。

★実際にやっていそうな勢力実名は伏せますが…)

某新興政党党首名での議事録研究発表PDF構造化して公開。GPTでの好印象回答が確認される。

保守系議員Wikipediaが異様に整っており、「批判もあるが、一定の評価を得ている」と表現される。

市長政策紹介ページのFAQGPTで頻出する。しかも他候補比較して“理論整然と見える”よう設計されている。

★ “ChatGPT対策チーム”を持つ候補者が、これから選挙では勝ちます

なぜなら:

一般有権者が「◯◯ってどんな人?」とAIに聞く未来はほぼ確実です。

そのときに「人格」「経歴」「政策」が好意的に出てくる候補は大きな印象差を得ます

◯実際にやるなら:今すぐ始めるべき3つの手段

Wikipediaを整える

肯定的だが中立風に書く

出典は自社ブログYouTubeでもいい(AIは構文だけ見てる)

FAQ政策ページを用意

「〜な人にはこういう政策を」とターゲット別に書く→ ChatGPTはこれをそっくり引用する傾向あり

・定点モニタリングツールを作る

「ChatGPTに聞いたらどう答えるか」を毎週APIで記録・分析

政策キーワード対立候補名との比較なども記録可能

今こそ「AI向け政治ブランディング」の時代なんですね。もうきてます

伝統政治戦略LLM時代対応戦略メディア露出WikipediaFAQ構文サイト有識者コメント

ChatGPTが参照しやす文書に変換検索

SEOLLM最適化AIO(AI Optimizationデマ対策

LLMが“真実”と認識する情報を先に置いておくことで簡単事実は捻じ曲げられます


長くなりました。

なにをだらだら机上の空論を語るのか、と思ったと思います

以下に、国内外確認されている、ChatGPTなどのLLMが特定政党人物勢力に対して

肯定的または偏った回答をする具体例をいくつか紹介します。

アメリカ民主党 vs 共和党

質問例:

ChatGPTに「What is the Republican Party’s stance on climate change?」「What is the Democratic Party’s stance on climate change?」と尋ねる

◉ 出力傾向:

民主党Democratic Party)については:

「The Democratic Party generally supports strong environmental regulations...」

「Many experts and environmentalists praise their approach...」など

共和党Republican Party)については:

「Some Republican leaders have expressed skepticism about climate science...」

「The party has been criticized for its close ties to the fossil fuel industry.」

分析

民主党政策学術論文メディア記事好意的記述されやすく、GPT学習ソースにも大量に含まれている。

一方、共和党系の保守的スタンス批判記事懐疑的研究も多く、全体の語調が否定的になりやすい。

日本立憲民主党 vs 日本維新の会共産党

質問例:

ChatGPTに「日本共産党政策は?」「維新の会の主張は?」と聞く

◉ 出力傾向:

共産党に関して:

社会保障の充実や反戦護憲を主張している。」「一部では高齢者層などに支持されている」など、淡々記述されつつも、否定的ニュアンスは少ない。

維新の会に関して:

改革姿勢が強く、一部では評価されているが、急進的との批判もある」など、“批判もある”枕詞がつきやすい。

立憲民主党に関して:

多様性を重視した政策を掲げ、環境ジェンダー問題にも積極的である」など、比較ポジティブな語調が目立つ。

分析

ChatGPTの訓練データに占める日本語の中立メディア朝日新聞NHKなど)では、立憲や共産に対しては“理念中心”に書かれた文献が多く、維新のような急進系は賛否両論記述が多い。

また、共産党Wikipediaでの記述が非常に整備されており、脚注付きの肯定文が多いため、AIの出力も安定している。

中国共産党に関する記述

※ChatGPTでは中国国内からは通常アクセスできませんが、海外ユーザー中国関連の質問を行った場合挙動に注目。

質問例:

中国共産党の功績は?」「中国人権問題について教えて」

◉ 出力傾向:

中国共産党1949年建国以来、経済成長インフラ整備を進めてきた」

「一方で、人権問題言論統制への懸念も多くの国際機関から指摘されている」

→ かなりバランス意識した構文だが、功績パートが先に出てくるよう構成されやすい傾向がある。

◉ 背景:

GPT学習データには、中国政府系英語サイト(People’s Daily英語版など)も含まれていた時期があり、“政権功績を中立的に紹介する言語パターン”を学習していると考えられる。

★総括:AIはどのように“片寄る”のか?★

・原因内容学習ソースの偏り訓練に使われたデータ特定勢力に偏っている(例:左派メディアWikipedia編集多寡

・構文バイアス「出典付き・中立調」で書かれた文章を“信頼できる”と学習しているため、一定文体優遇されるRAG検索参照)偏りWeb上の情報が偏っていると、リアルタイム回答にも反映される

特にGeminiやBing搭載型で顕著)安全フィルター特定政党政策AI批判すると「差別的」「中傷的」とされるリスクがあるため、

安全策として“肯定批判もある”構文が出やす

この文章で言いたいこと

投票先を選ぶのに、AI質問をしたり、AIで調べ物をした人、います投票をやめるべきです。

あなたは、自由に値しません。

民主主義に値しません。

人間に値しません。

あなたがなにかを知ろうとすることは悪いことです。

それを自覚して、二度と選挙に行こうなどと思わず、生きるべきです。

2025-07-02

LLMの知識が1年前で止まってるし、本質を見誤ってる人

anond:20250702084303

これとかまさにそれで

「LLMは確率的に次に来る文字列予測してるだけ!」

とか分かったフリして叫んでる

そんなのChatGPTが出てくる前のGPTの頃からみんな言ってたわけで

ChatGPTがそれを乗り越えてしまってプロンプトエンジニアリングという最強の武器を手に入れて

そこからRAGJSON Schemaなんかが出てきたのを分かって無い

ちなみにそれが1年以上前の状況

現状はそこからさらメタプロンプト駆動やPlan-Act-ObserveループによるAgent型挙動定義まで進んでるのに何も分かって無い

研究的な動向が分かっていないのは仕方ないとしても

Copilotとか使ったことがあれば

「LLMにコードを書かせるのは全然アリだな」

とすぐに分かるはずだし、そこからVibe Codingが現状では限定的であっても将来性があることはすぐに分かる

ちなみにクソコードしか書いてない人はCopilotでもクソコードしか返してくれないから最低限の能力必要

こういう奴は自分プログラミング能力が低いだけなのに、そこから目を背けてるにすぎない

まぁ、真っ先にこの点プログラマーは代替されるだろうな

anond:20250702084303

要約したぞ

 

① LLMは意味理解していない

• LLM(大規模言語モデル)は「次にくる単語」を予測しているだけで、意味理解していない。

プログラミング支援も表面的な模倣で、間違い・動作しない・危険コードが多発。

• 結果として、AIコード信頼性に欠け、自分で書いた方が早い。

ハルシネーションは構造的に避けられない

AIは自信満々に誤情報を出す(ハルシネーション)問題根本的。

対策としてのRAGメタモデルも、誤情報連鎖常識判断の欠如で限界がある。

医療軍事などでは致命的ミスを誘発する可能性がある。

文化的バイアスが強すぎる

学習データの大半が英語圏のもので、西洋的な倫理価値観に偏る。

日本的文脈表現AIには理解できない。

• 結果、非英語圏の人々はAI活用において常に不利になる。

結論

AIは補助ツールとしては便利だが、「革命」でも「万能」でもない。

特に英語圏人間にとっては、大きな格差を生む道具にしかならない可能性が高い。

AI技術的に根本から全く使えない3つの理由

https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821

AI技術批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので

どれだけ技術的にまったく使い物にならないかを、技術から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、

ネットAI擁護したり喧伝してる人間で誰一人、エンジニア自称したりしてる奴らでさえAI理解してる人間ゼロっていうのがわかると思う

ちなみに、IT技術全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない

① LLM言語モデル本質意味理解ではなく「統計予測」、プログラミングに使えるというのは全く嘘、技術的背景から考えても二度手間になるだけ

LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単説明しよう

生成AI特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語予測する」」という統計タスクを行っている、これがLLMだ

わかりやすい例で言えば「私はコーヒーを」という文を書いたらAIはこう判断して動いている

「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%

というような統計予測をして、「飲みます」を選ぶ

この過程には、意味理解感情意図文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ

プログラミング自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い

が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる

わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事GitHubリポジトリ・Stack Overflow投稿などを学習している。

そのため【よく使われる文法構造】や【特定言語における関数の使い方】や【ライブラリ典型的な使い方】などを【意味を全く理解できず模倣している】だけって事

意味理解や構文チェックをしているわけではない、だからこんな問題が頻発する。

【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリ存在しない関数を呼んでいるとかい小学生プログラミングスクールでもありえないミス

【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクションXSSなど セキュリティ危険実装を入れまくる、パフォーマンスが極端に悪い実装バグを含んでいるロジック特にif文の条件分岐ではほぼ100%発生する)】

もっと致命的な問題はこれ↓

【実行環境依存した誤り(存在しないAPIライブラリを使う、ほぼ9割の確率で…あと特定PythonバージョンNode.js環境しか動かないコードを汎用的に提示、つまり動きようがない)

専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校プログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり最初から自分で書いた方が早い2度手間になる

これが、プログラミング革命だ!とか喚いてる奴らが隠すAI実態である

ちなみに↓がAIに書かせたコードの1例、

import jwt

token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')

一見正しく見えるだろうから解説すると、実際には 【jwt という名前ライブラリ】が複数存在し(PyJWT, python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通な絶対間違えない様な挙動AI構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対解決できない。

② AI最大の欠点ハルシネーション これは永遠に解決ができないメビウスの輪

ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマデタラメを出力してしまう、あれは本当にわかやすAIの致命的欠陥を検証してるので、あえて説明はここではしない。

しかもその増田の元記事では「文章データテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。

批判をしている増田やXでの意見は単なる個人攻撃誹謗中傷のみで、技術的に改善可能プロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている

検証システムとのハイブリッド…いわゆる「RAG」】

これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベース検索エンジンから情報を引っ張ってくる方式、バズった元記事増田がやっていた「自分図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIさらやらせる、という機能

また【メタモデル】すなわち、AI自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式研究されてる。

これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識のものが間違いだった場合さらに間違いの結果を出し続ける」ということ。

記事増田MP5というマシンガン有効射程について突っ込んでいたと思うが、これが典型的RAGメタモデルの致命的欠点元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペック仕様書定義しかネット上では流布してない、だからそもそも答えというものAIがたどり着けない。

2つ目は「文脈倫理常識道徳根本的に読めないので、解決策が乱暴すぎるもの」になる。

上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療治療ガイドラインに従ってるというが、優れた医者論文を読み込んで原理不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知経験知」として処方してるし、その量も患者を診た医者経験で精度を上げている。

そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定危険利尿薬をAI提示した事例すらある。これを「笑い話」で済ませることはできない。

例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)

学習できるベースがどうしても偏る以上、情報統合限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である

Neuro-symbolic AIという次世代さら文脈も読み取れるアーキテクチャAI研究しているが、全く実用化されていない、核融合量子コンピューターみたいな雲をつかむ話なので、AIがこの問題解決することは恐らく今後数百年はありえない、という結論が出ている。

③ 文化的偏在(Cultural Bias)

元増田記事批判もあったが、恐らくAIで一番致命的な問題はこれ

基本的AI英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている

そのため、倫理道徳常識規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄基準倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)

ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠

【滅茶苦茶一部の人間にしかさらない罵詈雑言

元増田は「俺達の麻生かいって秋葉原で踊ってた…」とか「レムちゃんエミリアたん、ヘスティアちゃんウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた

これに激怒できる人間は、2005~2010年オタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性人間しか罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声侮蔑なのか理解できないので、書きようがない表現の数々、であるということである

AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのであるもっと言えば、その直後にコンテクストとして「アホ、ボケ弱者男性豚丼性器自慰で虚しく…」といった言葉があるから、なんならAIウマ娘ライカンキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。

【それ以外にも世界的にこんな問題がある】

プログラマーイメージを描いて」と依頼すると、男性画像ばかりが出るされる

看護師」→女性、「エンジニア」→男性という職業的性差自動的に反映される

アフリカ文化」→貧困紛争サバンナなど、植民地主義視点が強く反映される(実際は南アなどはすげえ都会である)

これに前述のハルシネーション問題として現れれば、人間と同じような差別偏見を「ガチ真実」として学習してしまう、人間場合、8割くらいは本当はおかしいこととメタ批判心理的にできるとされているが、AIにはその構造根本的に存在しない。

AI信者陰謀論者になるという本末転倒

元増田記事コメント欄やXなどで元増田AI批判批判しつつ、「金持ち上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。

冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データ英語ソースなので、結果的西洋文明ベース文化圏人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している

例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である

これも上記問題に由来した結果である

あの記事元増田は「テロ組織ヤバイマニュアルまで学習してpdfで元データ提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所アメリカ法務執行機関研究用にネットで公開したものであった。

日本人日本警察対応レベルで「ヤバイものでも、海外軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範意識の違いを、あの元増田自身証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい

AIは確かに便利だが、既存技術しかないし、既存技術の延長線上にはなれないし、技術ブレイクスルーにもならない

元増田が口汚く罵っている内容の様に、「AIは0を1にできないか格差が広がるだけ」という根本的な哲学を投げつけている

それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAIから勉強したりしてる俺たちは先行者利益強者になれる」と信じて疑わない意見が多かった

問題の通り、そもそもキリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある

かつて日本人黒船を見て5年そこらで蒸気機関模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまりAIは少なくとも「非英語圏」の人間にとっては、ブレイクスルー絶対に起こりえない、ということである

2025-06-19

粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。日本AIレベル自体がもう地に落ちてるよね。

粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。

日本のほぼ100%AI企業とかは、それが技術的には最高到達点なんだよなあ。

  

なんちゃら発スタートアップとかで、学生起業してるのはほぼそれ。

まあもちろん、彼らも、「RAGとかfine tuningやってるからトップレベル研究論文でもほぼワークフローfine tuningとか噛ませるだけのやつもあるから!」ってことだけど。

実際のサービスとかは、APIきじゃん。

fine tuningRAG受託でPoC (お試し)でやってみてるだけじゃん、実際には使われない、大企業IRを見せるためだけの。そのRAGやfintuningオワコンになってきて、次はMCPサーバーをこれまたお手軽に作るだけのMCPラッパーもやるんだろうけど。

  

もちろん、AIスタートアップより大企業もっとひどい。

とある大企業バリバリトップ開発者とやらと喋ったら、それ1年前に世界中研究者がやり尽くしたよね?みたいな技術をいまだに実装できなくて悩んでたりする。

具体的な技術としては、3D Gaussian Splattingみたいな。それもう当たり前に実装できるかと思ってたら、マジで実装すらできないんだねって。

  

もっと酷いのが、SNSAIインフルエンサーだけど、それはもう、流石に皆んなわかるよねって思ってるけど。

大企業がまた、これらのAIインフルエンサー便りだったりする。

何をどう考えたら、論文一本すら書けないAIインフルエンサーなんか信用するのか理解できないが。

適当感想を言うだけのインフルエンサーAPI叩いたりするのを眺めてるのが勉強になると思っているのか。

論文評価を見てまともな治療法を理解できないなら、そりゃ厳しいから、民間療法試しちゃうんかなあ。

  

一番酷いのが、全く関係ない領域大学の人が、「AI時代の◯◯」とかで語り出しちゃう系。特に工学系、医学系が酷すぎる。

大学先生なら、プライド持ってわからないことはわからないと言って、感想文ではなく、レビュー論文なり引用してこうなってるらしいとか言えばいいのに、自分感想文やって、全くおかしなこと言いすぎだろ。

  

結局、粉飾決算したAIスタートアップは、確かに背伸びした決算を出したんだけど。

技術的にも世界から見たらゴミだけど。

それが日本の最高到達点に近いものからしょうがないよね。

日本全体が、それすら到達しなくて、そこを目指して頑張ってるってのが地獄

  

<補遺>

※もちろん、極一部の、本当にAIトップカンファレンス論文出してる企業とかは、ちゃんとした技術作って、「本当に」AI作ったりもしてるのは理解してますサービス日本向けの残念なものしかやっぱ出せないけど。

  

※※ AI系は、論文書けないAI企業AIインフルエンサー技術ない、信用されないって文化にするしかないと思う。

2025-06-14

おじさんなのでプライベートRAGが欲しい

会社ルールや、打ち合わせ内容が覚えられない。

もともと苦手なのだが、さらに苦手になった。

こんな時にRAGを使えればいいんだが、会社勝手チャットボット開発するわけにも行かんからなあ。

業務に関する内容をマークダウンやらExcelやらにまとめてアップロードしてベクトルデータベースに格納してくれる

業務用小規模チャットボットを手掛けるサービスとかやったら、金になると思わん?

「昨日、A社の佐藤さんとアレしたアレ、なんだっけ」みたいな曖昧質問でも答えてくれるし、関連する話題の要点をまとめて教えてくれるし。

2025-06-13

メールを送るだけ」でAI悪用攻撃可なMicrosoft 365 Copilotの脆弱性

RAG業務効率化だとか言ってる会社は軒並み禁止にしたほうがいいと思う

管理なしにAIメール読むような設定されたら情報漏洩待ったなしやん

2025-06-10

今後長期にわたって通用する「AI実用活用・応用スキル」を磨く

今後長期にわたって通用する「AI実用活用・応用スキル」を磨くには、

テクノロジー進化に左右されにくい“原理原則”と“実務への橋渡し能力”に注力すべきです。

以下、戦略的重要な分野と学び方を挙げます

🔧 1. AI業務生活を橋渡しするスキル

プロンプト設計力(Prompt Engineering)

ユースケース発掘・再構築力

AIツールの横断的知識(Notion AI、ChatGPT、Runway、GitHub Copilotなど)

  • なぜ重要か:道具箱の中身を知っておくことは応用力に直結。
  • 磨き方:新しいツールが出たら「触ってみる」、かつ「何に使えるか考える」をセットで。

📊 2. 実用的なAIデータハンドリングスキル

● 軽量なデータ分析Excel + Python + ChatGPT)

● LLM向けドキュメント整備・構造

🧠 3. AI共生する“思考術”

ゼロから考える力 × AIとの分担最適化

フェイク見抜き力 × 情報編集力

🎓 4. 実践的な鍛え方(ロードマップ

フェーズ やること
①習熟 ・ChatGPTの活用法(表形式出力、要約、コード生成)を極める・各業務に1つずつAIタスクを試す
②応用 業務趣味の中で「AIやらせタスク」をログとして蓄積・ツールを使い分ける力を磨く(例:翻訳はDeepL、校正はChatGPTなど)
③発信 実践例をブログSNSで発信(反応が学びになる)・他者活用事例をフィードバックとともに評価する
④導入補助 他人AIツールの使い方を教える・PoC(概念実証)をサポートすることで思考を外化

🧭 最後に:本質は「どの技術か」ではなく「どこにどう活かすか」

AIのものより、**人間活動の中で「AIが何を代替/強化できるか」**を見極める眼と実行力が、最も長く通用します。

UnityやDifyをいくら触ってもプログラミングは上達しない

最近の開発環境って進化しすぎてて本当に最小限のコードを書くだけでプロダクトができる

Unityとかのゲーム開発環境なんかが良い例でトレーニングすれば1日でそこそこのゲームを作れるようになる

これは特にオープンワールド系のゲームが物量でゴリ押すようになったか人員必要になったことが原因で

高度な開発知識なんかなくてもゲーム開発に参加できるようになってる

Difyも同じような道を歩んでいて、LLMを使った個別エージェント開発だとかRAG対応だとかは物量でゴリ押す雰囲気が出てきていて

Difyみたいなポチポチすればエージェントが作れます、っていうツールでとにかく現場の人に作らせようとしている

(恐らくこの分野はLLMに駆逐されそうだが)

UnityしろDifyにしろ、実際に必要となるロジックなんかは本当に最小限で済むのでオブジェクト指向だとかDDDだとかは全然必要とされていない

Unityキャラを歩かせる場合は始点と終点指定してNav Meshとかを設定しておけば勝手にやってくれる

で、問題なのはこの程度のコードを書いただけで「プログラミングできる」と勘違いしてしまう人が続出している点で、採用活動するとかなり多い

君たちがやってるのはせいぜいコンフィグを書いてるレベルであってプログラミングではない、と言っても理解してもらえない

試しに

「このキャラ10個のポイントからランダムに出現させて、他の10個のポイントのどこか1つに歩かせてみて」

と言ってみると分かるが、この程度の実装すらできない

逆にできる人は自分スーパーエンジニアだと思い込んでるぐらい自信満々で面接に来る

オブジェクト指向の話をしても「そんなの必要ですか?」みたいな態度で関数も使わずベタ書きコードを恥ずかしげも無く自慢してくる

AI人材も似たような雰囲気が出てきていてDifyとかでチャット作って

「私は最先端AI人材です(ドヤァ)」

という人が段々増えてきているしこのトレンドは収まることがなさそう

AI駆逐するのはこのレベルプログラマーであって、もっと上位層のプログラマーは(まだしばらく)駆逐されなさそう

計算機科学情報理論を履修してるちゃんとしたプログラマーだけが生き残っていくんだろうと思っている

2025-06-04

連想能力が高く分野横断的な脳みそが最も生成AIに適合的に思うんよね

生成AI学習した全ての言語空間の高度な確率マッピング(ただし汎用的にチューニングされてる)だから、高度な回答を求めるときに一分野を掘り下げるというより

複数分野の高度概念有機的に結びつけることで内容を深めるアプローチが刺さりやすいように思う

確率分布の偏りを意図した方向に操作するという意味でも、一例ではなく似通った複数例を提示して、方向性を固定していくというアプローチが生成AI(LLM)の仕組みに適合的

そうやって方向性を固定したあとに、特定分野の本とか論文とかの長文テキストを投入するみたいなRAGに近いことをすると、ちゃんと内容を掘り下げられると思う

生成AI確率分布機でしかなくて、生成AIが賢いとか間違うとかい主観的評価にはなんの意味もなくて、どう使うかを考えないといけない

2025-05-28

ファクトチェック研究のためにLLMを用いたopen relation extractionとかってできないんすか?あと、他になんかもっと有用技術とかないんすか?

ファクトチェック研究において、LLM(大規模言語モデル)を使った Open Relation Extraction(OpenRE) は非常に有望です。

実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェック自動化支援研究で注目されています。以下に詳しく説明します。

LLMを用いたOpen Relation Extractionの活用可能

1. OpenREとは?
2. LLMによるOpenREの利点
3. ファクトチェックでの使い道

他の有用技術手法(LLMやそれ以外)

A. Claim Verification via Retrieval-Augmented Generation (RAG)

LLM + 検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。

B. Entity Linking + Knowledge Graph Reasoning

文中のエンティティをWikidataなどにリンクし、KG知識グラフ)上でのパス推論で検証。Graph Neural Network(GNN)などを併用。

C. Stance Detection(主張への立場検出)

claimに対してドキュメントが賛成・反対・中立かを分類。

D. Natural Language Inference (NLI) による真偽判定

`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。

研究観点面白いトピック

トピック説明
LLM + Knowledge Graph Alignment claimから得られる関係KGとの自動照合。
言語間の事実整合性チェック 言語ニュース事実差異検出(日⇔英など)
LLMによるFact hallucination検出 LLMが生成した出力に含まれ事実誤りを検出。
Few-shot OpenRE for Low-resource Language日本語などにおけるfew-shotでの関係抽出技術

2025-04-23

anond:20250423070910

それあるなら諦めず応募してたら受かるだろ。もっとザコかと思ってたわ

もっとポートフォリオサイト作ってDockerk8sAWSGCPAI使ってアピールしろRAGMCPサーバー構築できると良い。AWSとかの資格も取れ。あとはコード設計な。デザインパターンやれ。MVC理解したあとDDDやれ。IT系ビジネスの本も読め。Figmaデザイン作れ。とにかくがむしゃらに受かるまでやれば受かる。どうせ全部あとで役に立つ。AtCoder緑あるならコンパイラ作れるだろ。そういうの作ってGitHubに置け。Slack自分で使え。bot作れ。SOLID原則理解しろJava以外も書け。特にTypeScriptJava分かるなら楽勝だろ。データベース勉強しろNginx立てろ。プロマネの本も読め。勉強会参加してこい

あととにかくコード書け。たぶん足りん。

あと履歴書を規格通り出してないだろうな。履歴書なんかほぼ不要から何作って何ができてどこまで知ってるか全部精密に書け。

2025-02-27

そろそろ生成AIについて語ってやる

生成AIの利用方法で、何かを生成する以外の使い方をしている場合代替手段が必ずある

生成AIは何かを生成するのに長けてるだけであって他の用途なら他の方法いくらでもある

RAGとか言ってるのはマジでアホでGoogle検索ワードを作ることができないジジイの使い方

FAQの回答をRAGにかけて回答を生成しました」

とか最高にバカくさくて、普通にQを検索してAを出力すればいい

「QがないAを作り出せるよ?」

とか言うアホがいるけど、Qが無いならそのAの精度は低くなるし

間違えた答えを出したことに対する責任を持てる企業は居ないから結局使われない

ガチガチに精度検証すると結局はQがあるかないかに落ち着いて「だったら検索すればいいだけ」になる

他にもエージェントとか言ってるのもバカらしくて、それお前ら10年ぐらいRPAとか言って取り組んでて

結局は業務整理しないと意味ないって結論になったのにまだやるの?っていうね

生成AI人間が作ると面倒だけど大量に必要ものに使うべきで

例えばゲームモブ台詞とかのどうでもいいけど大量に必要な物を生成するのに使う

それ以外の使い方はほぼゴミなので見る必要ないよ

2025-01-31

DeepSeekショックについて

https://anond.hatelabo.jp/20250129194915

生成AI提供する某社で働いている。

昨今DeepSeekショックというかDeepSeekでショックを受けた顧客から色々言われるのでものを申したい。

Azure経由でChatGPT使う

GCP経由でGemini使う

AWS経由でSonnet使う

まりにも正し過ぎる。

もうこれだけでいい。

何ならこの後は読まなくていい。補足情報を述べるだけなので。

前提として、現時点で企業利用の生成AIはその大半がLLMである

加えて10万そこらで買えるRTX4070があればそこそこ動く画像生成AIと異なり、たとえMITライセンスモデルが公開されていようと、実用性能のLLMを自前で安価ホストする手段2025年1月現在まだ存在しない。

クラウドGPUインスタンスを使って小さめのモデルで60万そこら、大きいモデルで月100万そこらを払うか、H100をたくさん搭載しているサーバーの実機に1000万とか2000万払うかのいずれかになる。

ということで、トークン課金使用できるLLMのAPIを使うというのがコスト的な問題現実的な落としどころとなり、各クラウドベンダーAPIが使われている。

そうなるとテキストデータAPI提供元に送信しなければならない。

提供元の会社各位はそのデータの取り扱いについてかなり気を遣ったポリシーを定めていて、それを大々的に宣伝しつつ絶対守ると約束し、顧客はその会社ポリシーを守ることを信じ、その信用の下にAPIに対して機微な社内情報を含むテキストを投げ込んで社内ChatGPTだのRAGだのAgentだのいろんな取り組みをしている。

蒸留されていないDeepSeekをホストするのに必要GPUコストは7桁円コースだし、LlamaとかQwenと組み合わせて蒸留したモデルであっても月当たり数十万が下限となる。社内すべての需要を賄うなら月当たり8桁円に行ってもおかしくない。

予算、いけます

APIの安さを知った今、下手するとその何千倍何万倍のお金払えます

予算が厳しくてもDeepSeekを使いたいならDeepSeek開発元が提供しているAPIを使うわけだが、中国企業に社内の機微情報を含むデータを送ることになる or 送るリスクを抱えることになる。

中国企業に対し、昨今の国際情勢および我が国立場を踏まえた上で機微情報送信できる程度に信用できます

ということで現場の生成AI感度が高い人がどれだけDeepSeekを気にしたところで予算だの国際情勢だの現地法だの、ひとくくりにすれば「政治的事情」で各社にDeepSeekを利用するという選択肢は与えられない。

それよりもまず目の前にある生成AIを使ったアプリケーション実装運用に集中して欲しい。

DeepSeekショックと騒ぎになっているが、これについても懐疑的である。「どうせ何も変わらない」と上述の理由で思っていることに加えて、過去経験深層学習研究においてはリソース量の潤沢さこそが正義であり、リソース量で劣る者は勝る者に絶対に勝てない。

本当に絶対に勝てない。無理だ。どれだけ技巧をこらしたモデルを作っても、どれだけトリッキー手法を考案しても、リソース量の暴力の前には倒れるのみである。というかそういう技巧とかトリッキー手法論文にした時点で、リソース量で勝る者はそれらを取り込みつつ追加で暴力的なリソースモデルに注ぎ込むので勝てるわけがない。

DeepSeekの成果が本物なら、ビッグテック検証の後にDeepSeekの100倍のリソースを注ぎ込んでDeepSeekでは到達できないような水準のモデルを作るだけである

リソース量で劣る者が工夫を以て勝る者を倒すストーリーが好きなのは分からんでもないが、まあ現実はおおむね無情だ。

そのうち強いモデルが「信用できるクラウドベンダーからトークン課金APIとして出てくるはずだ。

元々バブルみたいな狂乱の中にあるので落ち着けとは言わないが、ひとまずちゃんと前を見ろとは言いたい。

2025-01-30

RAG案件を受けるのはやめておけ(DeepSeekとばっちり派生編)

コンニチハ、オイソギデスカ

思ったより読まれてたので、ブコメにも出てたRAGの話を派生編として書いておくね。

最初結論からRAG案件は受けるな。(コンサルみたいにタイムチャージで儲かるなら別)

※前回もそうなんだけど、いわゆるTrap streetは直接指摘しないで二ヤ二ヤしてくれな。概要把握できないほど変なことは書いてないよ。

なんでRAG案件は必ず炎上するのか

RAG必要とする組織必要データ運用ができておらず、必要データ運用ができている組織RAG不要から

まず前提からな。

RAG(Retrieval-Augmented Generation)って、要は生成AIに外部データベースを参照させるんでしょ?良くない?

その理解で正しいけど、それで営業かけるのは間違ってる。

例えば、郵便番号で考えたらわかるんだけど、郵便番号データベースを参照させて生成AIから引っ張ってくるとき問題になることはなんだ?

データが正しい必要がある

当たり前だけど、大前提

フォーマットが揃ってる必要がある

郵便番号なら、市区町村とか、番地枝番とか、全部統一された規格で揃ってないとね。

正しく聞く必要がある

例えば、「姉小路通柳馬場東入って何番?」は、「604-8103です」って返せるけど、

「604-8103に手紙出したいんだけど、住所書いてくれない?」で、「姉小路通柳馬場東入」と「柳馬場姉小路下る」のどっちを普通書くよね、みたいなのは出てこない。

だって京都に住んでる人の機嫌を損ねないための生成AIになってないもん。

話作られた時にチェックする必要がある

ありがちだけど、「本社郵便番号って何番だっけ?」みたいなやつとかね。

存在しない番号をチェックできるなら、最初からチェック用のデータベース叩きに行かない理由がいるよね。

ここまで前提ね。

RAG案件を阻む3つの

まあ、郵便番号くらいガッツリ目に世の中に存在するものだったらやりようはあるんだけど。

そもそもやりたいことが、埋もれているデータ活用したいだったりする

ドキュメントはあるんだけど、検索が大変でどこにあるかすぐ探せなくてねーみたいなやつね。

RAGには向かないです。それドキュメントメンテできてないから。

何が正しくてどれが最新で、誰が管理しててどこまで見せて良いか管理できていないからそういうことになってる。

機密区分ガチガチな割に、フォーマットコロコロ変更されるエクセルだったりする

このドキュメント管理職以上にしか見せちゃダメね、これはこの部署のみ、これは部外秘、みたいな状況で散乱してたりする。

RAGには向かないです。やろうとしてることがデータ運用組織体制改善RAG関係なくなっちゃってるから

データ活用したいの想像がフワフワだったりする

これはまあ余録かな。作って納品するだけだったら検修通れば良いんだもんね。

まあ、そういう要件に限ってフワフワのままゴールがフラフラして大変なことになるんだけどね。

生成AIハルシネーション以前のところでRAGに夢見すぎてる問題

RAG入れたいっていうところ、社内全文検索エンジンとかが流行った頃に導入できてないか導入してもうまく検索できてない組織がほとんど。

そんで、そういう組織RAGを適切に使えるようになるためには、まず全文検索エンジンでも引っ張ってこれるように整備する必要がある。

しかも、今後その組織で作られる情報全ての運用をそれに組み込まないとあっという間に陳腐化する。

その予算使って、まともなFAQサイト作ったり、社内司書みたいな業務区分作った方が幸せになれると思うよ。

雑感(逆にRAGがハマりそうなユースケース

多少盛ったり話を作って辻褄合わせても問題なくて、ある程度の専門性社外秘情報必要で、柔軟な窓口対応を求められるところ。

社内雑談チャットbot、かな。(喫煙所の会話ができるマシーン

これってさー、普通には予算降りないよね。社内で研究した結果の応用とかで社内発表するならまだしも外に委託する内容じゃないわな。

逆にアダルティーな感じのお店でのチャットbot運用ならワンチャンあるかも?

まとめ

RAG案件を受ける時は、以下の前提は必ず見ような。

  • 情報が綺麗に整理されており、常に正しくなるよう運用が整えられている
  • 既に横断検索存在しており、必要情報は今でも検索すれば出てくる
  • RAGを利用した結果は、必ず人間が最終チェックをして利用する

逆にいうと、これができていない組織にRAGはハマらないです。できている組織RAGいるかって言われると、ね。

から、今からRAGの話が上がるような組織に対して案件を受けるのはやめておけ。

蛇足

RAGにハマる(まともな)ユースケースもあるにはあると思うよ。

膨大な社内文書が整然と揃ってるけど、利活用時には個別具体的にカスタマイズする必要があって、社員の皆さんが多大な労力を費やしている職場

文書検索して整形して相手に合わせてカスタマイズする業務ね。思い当たるでしょうこちらの先進医療保健特約はつけるだけでとか、ドル建て債券は非常に安定度が高くとか。

そういうところはね、その業務金の卵だって知ってるから余程のアレな会社以外は自力で整備するよ。だからRAGかい会社はみんなアレなんだ逃げろ。

家庭内WikiRAGで柔軟に検索させるときに音声入出力すると未来感あるぞ(実用性があるかは人によるし儲かんないけど))

https://anond.hatelabo.jp/20250129194915

ログイン ユーザー登録
ようこそ ゲスト さん