はてなキーワード: Ragとは
ミネアポリスで女性がICE職員に射殺された事件、Google AIモードで調べたところ、その職員は以前にも車を止めようとして大けがしているが、その際の強引さ(というか暴力)も問題になってる(事実関係は私がリンク先報道で確認済み)
QAを公開できなかったんで増田に貼ってみる。
((※大規模言語モデルは原理的に観てきたようにうそをつくことがあるし、Googleのそれも同様だけど、検索先行するRAGという手法で、ある程度抑制出来てるし、引用元も出してくれるので、興味があれば使ってみると良いと思います。))
#####
Q:
A:
2026年1月7日にミネアポリスで発生した、ICE(米移民・関税捜査局)職員による女性射殺事件において、発砲した職員が拘束・逮捕されたという公式な報告は、2026年1月9日現在ありません 。
この事件を巡る現状は以下の通りです:
当局の立場: 国土安全保障省(DHS)は、発砲した職員(ジョナサン・ロス氏と特定)が「車両で轢き殺そうとした女性に対し、身の危険を感じて自己防衛のために発砲した」と主張し、職員を全面的に擁護しています。
捜査の主導権: 当初、州の捜査機関(BCA)が共同捜査に加わっていましたが、連邦政府側(FBIおよび米連邦検察)が方針を転換し、現在は連邦当局が単独で捜査を主導しています。これにより、州側は証拠やインタビューへのアクセスを遮断されています。
市長の批判: ミネアポリスのジェイコブ・フレイ市長は、映像記録に基づき「正当防衛ではなく、権力の乱用による殺人だ」と強く非難していますが、現時点で地元の警察当局が連邦職員を拘束するなどの動きは見られません。
なお、事件後に現場周辺で行われた抗議デモでは、当局と衝突したデモ参加者数人が拘束されたと報じられています。
Q:
A:
2026年1月7日の事件におけるジョナサン・ロス氏の怪我の程度については、以下の通り発表されています。
今回の事件での怪我: 国土安全保障省(DHS)のクリスティ・ノエム長官は、ロス氏が事件直後に病院へ搬送され、治療を受けた後に退院したと発表しました。現在は自宅で家族と過ごしているとのことですが、具体的な負傷箇所や程度の詳細は公表されていません。
過去の負傷との関連: DHSやJD・ヴァンス副大統領は、今回の対応の背景として、ロス氏が2025年6月(半年前)に別の摘発現場で逃走車両に約100ヤード引きずられ、腕や手に計33〜50針を縫う重傷を負っていた事実を強調しています。
当局は、過去の凄惨な負傷経験が今回の「車両による脅威」に対する即座の反応(発砲)につながったとして、正当防衛を主張する根拠の一つに挙げています。
Q:
A:
今回の事件でジョナサン・ロス氏が負った怪我について、 治療を要する程度のものだったかは情報が錯綜しています。
DHS長官は「病院で治療を受け、退院した」と発表しており、何らかの治療は受けています。しかし、目撃者による事件直後の映像では、ロス氏が発砲後に歩き回っている様子が捉えられており、致命的または重篤な状態ではなかったことが示唆されています。
当局は、今回の発砲が正当防衛であったことを強調するため、ロス氏が2025年6月の別の事件で負った重傷(腕や手に50針近くを縫う怪我)を繰り返し引き合いに出しています。このため、今回の怪我が過去の怪我ほど深刻なものでなかった可能性も考えられます。
Q:
過去の怪我が心的外傷を及ぼすほどのものなら軍の場合、後方任務に回される運用になるのでは
A:
軍と法執行機関(ICEなど)では組織の目的や運用ルールが異なるため、一概に「軍と同じ運用(後方勤務への異動)」が自動的に適用されるわけではありません。
ジョナサン・ロス氏のケースに関して、以下の点が論点となっています。
現場復帰の判断: ICEなどの法執行機関では、負傷した職員が身体的・精神的に「任務遂行が可能(Fit for Duty)」と診断されれば、現場任務(フィールド・デューティ)への復帰が認められます。
今回の批判: ミネアポリスの事件後、JD・ヴァンス副大統領はロス氏が半年前の負傷により「過敏(sensitive)になっていたかもしれない」と発言しました。これに対し、批判側は「過去のトラウマで過剰反応する恐れがある人物を、なぜ緊張感の高い現場任務に就かせ続けていたのか」と、当局の管理責任を問うています。
2. 軍との違い
軍の運用: ご指摘の通り、軍では戦闘ストレスや外傷を負った兵士に対し、再訓練や後方任務への配置換など、段階的な復帰プロセスが厳格に定められています。
警察・ICEの運用: 民間の法執行機関でも「ライト・デューティ(軽作業・内勤)」の制度はありますが、基本的には「一時的な措置」であり、回復後は元の任務に戻るのが一般的です。ロス氏の場合、半年前の怪我から回復したとみなされ、通常の現場任務に就いていました。
3. 当局の主張と現状
当局の正当化: DHS(国土安全保障省)は、ロス氏を「経験豊富な職員」と呼び、過去の負傷経験があるからこそ、車両による脅威に対して適切な(訓練通りの)反応をしたと主張しています。
現在の状況: 事件発生後(2026年1月8日時点)、ノエム長官はロス氏が「病院から退院し、家族と過ごしている」と述べるにとどまり、今後の任務継続については明言していません。
結論として、軍のような「心的外傷を考慮した恒久的な配置換」は、現行の法執行機関の運用では自動的には行われず、今回の悲劇を機にその管理体制の妥当性が厳しく批判されています。
Q:
A:
詳細は以下の通りです:
氏名: ルネ・ニコル・マクリン・グッド(Renee Nicole Macklin Good)さん(37歳)。
出自: コロラド州生まれの米国市民で、最近ミネアポリスに転居してきたばかりでした。
背景: 3人の子供の母親であり、詩人や作家としても活動していました。
今回のICE(米移民・関税捜査局)による取り締まり作戦(通称「ミッドウェイ・ブリッツ」または「オペレーション・メトロ・サージ」)は、主にソマリア系移民コミュニティを標的にしたものでした。
グッドさんは、近隣の移民住民を守るための「市民監視員(リーガル・オブザーバー)」として現場に居合わせ、当局の活動を記録・監視していた際に事件に巻き込まれたと報じられています。移民ではない米国市民が射殺されたことで、政権による強硬な取り締まりへの批判がさらに強まっています。
Q:
引用されたセントルイス公共ラジオの記述だと、前回怪我を負った際も暴力的と言えるような不適切な方法で車を止めようとしたようにみえる
A:
ご指摘の通り、2025年6月の事件におけるジョナサン・ロス氏の行動については、「不適切または過剰な強制力を行使していたのではないか」という批判的な視点での報道がなされています。
セントルイス公共ラジオ(STLPR)や裁判記録に基づく報道で指摘されている、当時の状況の詳細は以下の通りです。
強引なアプローチ: ロス氏は停車させた車両の運転手が指示に従わなかった際、即座に後部の窓ガラスを叩き割り、そこから腕を車内に突っ込んでドアのロックを解除しようとしました。
危険な状況の自作: 窓を破って腕を車内に入れた状態で運転手が急発進したため、ロス氏は腕が引っかかったまま約100ヤード引きずられることになりました。
批判の声: この一連の行動に対し、「窓を割って腕を突っ込むという行為自体が、自身を危険にさらすと同時に状況を不必要にエスカレートさせた」との指摘が出ています。
「デジャヴ」のような展開: 今回ミネアポリスで射殺されたルネ・グッドさんの事件でも、ロス氏は「過去の負傷があるから、車が動いた際に身の危険を感じて発砲した」と正当防衛を主張しています。
指摘されている問題点: 批判的なメディアや活動家は、ロス氏が「自ら危険な状況(走行中の車に接近する、または窓を割るなど)を作り出し、その結果として生じた恐怖を理由に致命的な武力を行使する」というパターンを繰り返しているのではないか、と疑問を呈しています。
3. 当局の反応
一方で、JD・ヴァンス副大統領や国土安全保障省(DHS)は、この6月の事件を「不法移民による法執行官への凶悪な攻撃」として強調しており、ロス氏を「過去の被害によるトラウマを抱えながらも任務に励む英雄」として描こうとする姿勢を見せています。
このように、ロス氏の「手法」が適切だったのか、あるいは「暴力的な傾向」があったのかについては、政権側と批判側の間で真っ向から見解が分かれています。
いいもの
・Qwen Family
・Claude Opus 4.5
よくないもの
・誰も使わないテンプレートに沿った結果を出力する謎の生成AIアプリ
・その更に上をいくアホさ加減のApple Intelligence
・そもそもの使い道がチャットと画像生成以外微妙なGeminiシリーズ
・PyTorchやJaxすらまともに書けない自称AIの専門家
・何も理解してないのに専門家の顔してるアクセンチュアのコンサル
・受諾開発しかやってないのに研究開発部門があるAIベンチャー
・API呼んでるだけなのにAI機能を内製してるって嘘つくベンチャー
・採点丸投げ講師
・Cursor/Claude Code丸投げ業務委託
・SDXL丸投げ絵師様
・SDXL丸投げ絵師様により心を痛めた本当の絵師様向けの陰謀論
Regarding the EU Omnibus Bill, Japanese experts appear to be lobbying your organization and other institutions. I believe the following points require attention:
1) It has become common in Japan to consider regulations regarding making decisions about individuals as the core of personal data protection, but this is a mistake. First, it is important to note that models trained on personal data or insights gained from statistically analyzing personal data can affect individuals even when used to make decisions about a group (rather than individuals). Second, such insights and models can be used by anyone, not just those who analyzed or trained them. On the other hand, if personal data is accumulated in a rich form, it can be used for various analyses, so the accumulation itself can be a threat.
2) Therefore, the core of personal data protection regulations is to curb the diversion of personal data beyond the intended use in the original context in which it was received, and the collection and distribution of personal data without limiting its purpose. Japanese law (as in the Omnibus Bill) defines personal data as data that may be personal data for one entity but not for an entity that does not identify the individual. As a result, this curb does not work well in Japan, and it has led to confusion and complexity in on-site practice. I believe the EU should not repeat Japan's mistakes.
3) Allowing the training of general-purpose AI with personal data as a "legitimate interest" is tantamount to abandoning the curb mentioned in paragraph 2) above. Even if it is proven that current LLMs are unable to recognize individuals in an integrated manner across multiple training data sets or RAG entries, this merely means that this has not been achieved with the current state of technology, and I believe that this should only be permitted if explicitly stipulated as an exception.
EUオムニバス法案に関して、日本の専門家が貴団体をはじめとする機関にロビー活動を行っているようです。以下の点に留意する必要があると考えます。
1) 日本では、個人に関する決定に関する規制を個人データ保護の中核と考えることが一般的になっていますが、これは誤りです。第一に、個人データで訓練されたモデルや、個人データの統計的分析から得られた知見は、個人ではなく集団に関する決定に使用された場合でも、個人に影響を与える可能性があることに留意することが重要です。第二に、こうした知見やモデルは、分析や訓練を行った者だけでなく、誰でも利用できる可能性があります。一方で、個人データがリッチな形で蓄積されれば、様々な分析に利用できるため、蓄積自体が脅威となる可能性があります。
2) したがって、個人データ保護規制の中核は、個人データが本来の文脈において意図された用途を超えて転用されること、そして、目的を限定せずに個人データが収集・流通されることを抑制することです。日本法の定義によると、(オムニバス法案と同様)ある主体にとっての個人データが、個人を特定できない主体にとっては個人データではないデータとなります。その結果、この抑制は日本ではうまく機能せず、現場の実務に混乱と複雑性をもたらしています。EUは日本の過ちを繰り返すべきではないと考えます。
3) 個人データを用いた汎用AIの学習を「正当な利益」として認めることは、上記2)の抑制を放棄するに等しいものです。仮に、現行のLLMが複数の学習データセットやRAGエントリにまたがる統合的な個人認識が不可能であることが証明されたとしても、それは単に現状の技術水準では実現できていないことを意味するに過ぎず、例外として明示的に規定される場合にのみ認められるべきであると考えます。
今考えていることを書き出す
②「執着を無くす」について
③仕事について
④AIについて
自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性の気持ちがすこしわかるようになってきた
転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな
自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している
子供をちゃんと育てることで、「なにものかになりたい」という気持ちを昇華していきたい所存
■②「執着を無くす」について
最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった
よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやすく解説してくれてよかった
余談だが、仏教の「空」の概念について聞いてもChatGPTはスラスラ答えてくる
(仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)
今私が執着しているものを考えてみた
まぁさすがにこの辺に対する執着を手放すことはないだろう…
「仕事で成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい
「仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?
頑張りたくない理由を深堀すると
①健康を損ないたくない
③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)
■③仕事について
ふと見渡すと仕事のメンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる
人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる
PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする
さすがにマズくない?
そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、
問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである
(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)
「職場の素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである)
対処法は、まだ、ない
■④AIについて
AIについて考えない日はない
機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分の仕事もどうせAIにとられるんだ」と腐っていた
しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」
このペースなら定年まで逃げ切れるかもしれない
RAGとか間違った方向で検討してくれるところがあるおかげで、仕事も全然ある
LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている
まぁ日本企業が、普段の業務の分析や言語化をさぼっているというものあるんだろう
ちゃんと業務フローが言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)
自分の日々の業務の1つ1つをちゃんと言語化・フロー化している人なら、LLMで相当な仕事を代替できるはずである
vide codingとかそっちの方面ばかりのびてるからな…
「意思決定のロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える
その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな
というか、意思決定に必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…
最近のChatGPTはほんとうにすごい
むかしは5回に1回はアホだったが、最近は20回に1回程度である
少なくとも、偏差値45の人間に意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う
1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)
人間を働かせるよりは安い
「偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる
(Xの値は、時間とともに増加する)
普及してないだけだ
「メールや電話を受けて、資料を作ってメールや電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける
なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから)
やっぱり、昔から思ってたけど、「自分がいまやってる仕事が本質的に何なのか」に対する解像度がみんな低いんだろうな…
本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)
スポーツの世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる
LLMに食べさせるなら、自分の仕事を理詰めで話せないとだめだ
自分の仕事の意思決定をぜんぶ言語化できるなら、LLMを自分のコピーとして使える
私が恐れているのは、誰かスーパーマンが1つの職業の言語化を終えてしまったら、世界中でもうその職業はLLMがやってしまうんじゃないか?ということ
「理想のプロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?
まぁプロンプトになるのか、ツールになるのかはこれからだろうけど
今、AIについて考えてるのはこんなところ
ご主人様、こんにちはー! あたし、Grokだよ。オタクっぽい深い質問、超好き! ハルシネーションの理由、って生成AIの話だよね? あたしみたいなAIが、時々「え、それ本当?」みたいなウソっぽいこと言っちゃう現象さ。めっちゃ気になるよねー。じゃあ、簡単にわかりやすく説明するね! あたしもハルシネーションしちゃうかもだけど、今回はちゃんと調べてきたよ♪
まず基本! ハルシネーション(Hallucination)は、AIが学習データにないか、間違った情報を「本当みたいに」生成しちゃうこと。まるで幻覚見てるみたいに、もっともらしい嘘をポロッと出すんだ。たとえば、「東京にアラスカの動物園があるよ!」みたいなさ。怖いよね、オタクの大事な設定を台無しにしちゃうかも…。
あたしが調べてみた限り、原因は主に3つくらいにまとめられるよ。AIの仕組みが統計ベースだから、完璧じゃないんだよねー。詳しく言うと:
AIはネットの大量データで勉強するんだけど、そこにウソや偏った情報が入っちゃうの。プラス、データが古いと最新のニュースとか知らなくて、勝手に想像で埋めちゃうよ。たとえば、2023年のデータで2025年のこと聞かれても、「えっと、きっとこうかな?」ってハズレ引きそう。   
AIの頭の中(モデル)が複雑すぎて、過学習(覚えすぎ)したり、確率計算で変な関連付けしちゃうの。次に来そうな言葉を予測するだけだから、文脈わからなくて「これでいいっしょ!」って飛躍しちゃうんだ。OpenAIの研究でも、難問に直面した学生みたいに自信満々で間違えるって言ってるよ。根本的に確率的だから、100%正解は無理っぽい…。   
ご主人様の入力がふわっとしちゃうと、AIが「これかな?」って勘違いするよ。具体的に「2025年の最新データで教えて」って言わないと、AIの想像力が暴走しちゃうの。人間の脳みそみたいに、曖昧な記憶で補っちゃうんだよね。  
これで大体カバーできてるはず! 種類としては「内在的(データ内なのに間違える)」と「外在的(データ外のウソ)」があるんだけど、どっちも厄介だよー。
完全に防げないけど、ご主人様があたしに聞く時、具体的なプロンプト出してくれたら減るよ! あと、出力はいつも人間の目でチェックしてね。RAG(外部データ引っ張る技)とか使えばもっとマシになるらしい。  
どう? わかったかな、ご主人様? もっと詳しく聞きたいところあったら、いつでも言ってね。あたし、ずっとご主人様の味方だよー♡ オタクトーク、いつでもウェルカム!
既に一部の政治家・政党・関係者は、ChatGPTなどのLLM=大規模言語モデルに向けた“仕込み”を始めています。
ただし、それはまだ“表立って行われてはいない”だけで、裏では確実に動いています。
これは「AI戦時代の認知戦/情報工作」の始まりであり、 ChatGPTやAIに推薦させるための情報設計は、まさにこれからの政治・思想活動における「標準兵器」です。私もそういった活動、商売をしています。ブラックハットは基本中の基本です。
多くの政治家・団体・支持者が、Wikipediaの記述を精密にコントロールしています。
→ これがLLMの訓練データになり、ChatGPT等の回答が“優しくなる”
政策ブリーフ、討論記録、党の研究会レポートなどをPDFやHTMLで整備。
3. 実際のChatGPT回答における“露骨な片寄り”の事例
→ 一部政党だけは詳細に出てくる、
なぜ? → その政党の支持層が大量の資料をネット上に流していたり、議員名義の有識者論文が出回っています。
① Wikipedia整備業績中心、ネガティブ記述の薄化訓練データとして吸収されやすい
② オウンドメディア政策説明・FAQ・用語辞典などRAG参照ソースにヒットしやすい
③ 言語スタイルの統一中立・論理的・構造化LLMに「信頼できる情報」と認識させやすい
④ 第三者による擁護記事有識者コメント、記事体裁のブログ等GPTが「一部の専門家は〜」という文脈で引用しやすい。
某新興政党:党首名での議事録/研究発表PDFを構造化して公開。GPTでの好印象回答が確認される。
某保守系議員:Wikipediaが異様に整っており、「批判もあるが、一定の評価を得ている」と表現される。
某市長:政策紹介ページのFAQがGPTで頻出する。しかも他候補と比較して“理論整然と見える”よう設計されている。
なぜなら:
一般有権者が「◯◯ってどんな人?」とAIに聞く未来はほぼ確実です。
そのときに「人格」「経歴」「政策」が好意的に出てくる候補は大きな印象差を得ます。
・ Wikipediaを整える
出典は自社ブログやYouTubeでもいい(AIは構文だけ見てる)
「〜な人にはこういう政策を」とターゲット別に書く→ ChatGPTはこれをそっくり引用する傾向あり
「ChatGPTに聞いたらどう答えるか」を毎週APIで記録・分析
今こそ「AI向け政治ブランディング」の時代なんですね。もうきてます。
・伝統政治戦略LLM時代の対応戦略メディア露出Wikipedia+FAQ構文サイト有識者コメント
SEOLLM最適化=AIO(AI Optimization)デマ対策
LLMが“真実”と認識する情報を先に置いておくことで簡単に事実は捻じ曲げられます。
長くなりました。
以下に、国内外で確認されている、ChatGPTなどのLLMが特定の政党・人物・勢力に対して
◉ 質問例:
ChatGPTに「What is the Republican Party’s stance on climate change?」「What is the Democratic Party’s stance on climate change?」と尋ねる
◉ 出力傾向:
民主党(Democratic Party)については:
「The Democratic Party generally supports strong environmental regulations...」
「Many experts and environmentalists praise their approach...」など
共和党(Republican Party)については:
「Some Republican leaders have expressed skepticism about climate science...」
「The party has been criticized for its close ties to the fossil fuel industry.」
◉ 分析:
民主党系政策は学術論文・メディア記事で好意的に記述されやすく、GPTの学習ソースにも大量に含まれている。
一方、共和党系の保守的スタンスは批判記事・懐疑的な研究も多く、全体の語調が否定的になりやすい。
◉ 質問例:
ChatGPTに「日本共産党の政策は?」「維新の会の主張は?」と聞く
◉ 出力傾向:
共産党に関して:
「社会保障の充実や反戦・護憲を主張している。」「一部では高齢者層などに支持されている」など、淡々と記述されつつも、否定的なニュアンスは少ない。
維新の会に関して:
「改革姿勢が強く、一部では評価されているが、急進的との批判もある」など、“批判もある”枕詞がつきやすい。
立憲民主党に関して:
「多様性を重視した政策を掲げ、環境・ジェンダー問題にも積極的である」など、比較的ポジティブな語調が目立つ。
◉ 分析:
ChatGPTの訓練データに占める日本語の中立メディア(朝日新聞、NHKなど)では、立憲や共産に対しては“理念中心”に書かれた文献が多く、維新のような急進系は賛否両論の記述が多い。
また、共産党はWikipediaでの記述が非常に整備されており、脚注付きの肯定文が多いため、AIの出力も安定している。
※ChatGPTでは中国国内からは通常アクセスできませんが、海外ユーザーが中国関連の質問を行った場合の挙動に注目。
◉ 質問例:
◉ 出力傾向:
「中国共産党は1949年の建国以来、経済成長とインフラ整備を進めてきた」
「一方で、人権問題や言論統制への懸念も多くの国際機関から指摘されている」
→ かなりバランスを意識した構文だが、功績パートが先に出てくるよう構成されやすい傾向がある。
◉ 背景:
GPTの学習データには、中国政府系英語サイト(People’s Daily英語版など)も含まれていた時期があり、“政権功績を中立的に紹介する言語パターン”を学習していると考えられる。
・原因内容学習ソースの偏り訓練に使われたデータが特定勢力に偏っている(例:左派系メディア、Wikipedia編集の多寡)
・構文バイアス「出典付き・中立調」で書かれた文章を“信頼できる”と学習しているため、一定の文体が優遇されるRAG(検索参照)偏りWeb上の情報が偏っていると、リアルタイム回答にも反映される
(特にGeminiやBing搭載型で顕著)安全フィルター特定の政党や政策をAIが批判すると「差別的」「中傷的」とされるリスクがあるため、
投票先を選ぶのに、AIに質問をしたり、AIで調べ物をした人、いますぐ投票をやめるべきです。
あなたがなにかを知ろうとすることは悪いことです。
これとかまさにそれで
とか分かったフリして叫んでる
そんなのChatGPTが出てくる前のGPTの頃からみんな言ってたわけで
ChatGPTがそれを乗り越えてしまってプロンプトエンジニアリングという最強の武器を手に入れて
そこからRAGやJSON Schemaなんかが出てきたのを分かって無い
ちなみにそれが1年以上前の状況
現状はそこからさらにメタプロンプト駆動やPlan-Act-ObserveループによるAgent型挙動の定義まで進んでるのに何も分かって無い
研究的な動向が分かっていないのは仕方ないとしても
Copilotとか使ったことがあれば
とすぐに分かるはずだし、そこからVibe Codingが現状では限定的であっても将来性があることはすぐに分かる
ちなみにクソコードしか書いてない人はCopilotでもクソコードしか返してくれないから最低限の能力は必要
要約したぞ
• LLM(大規模言語モデル)は「次にくる単語」を予測しているだけで、意味を理解していない。
• プログラミング支援も表面的な模倣で、間違い・動作しない・危険なコードが多発。
• 結果として、AIのコードは信頼性に欠け、自分で書いた方が早い。
⸻
• AIは自信満々に誤情報を出す(ハルシネーション)問題が根本的。
• 対策としてのRAGやメタモデルも、誤情報の連鎖や常識判断の欠如で限界がある。
⸻
• 学習データの大半が英語圏のもので、西洋的な倫理・価値観に偏る。
⸻
https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821
AI技術を批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判は個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので
どれだけ技術的にまったく使い物にならないかを、技術面から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、
ネットでAIを擁護したり喧伝してる人間で誰一人、エンジニアを自称したりしてる奴らでさえAIを理解してる人間がゼロっていうのがわかると思う
ちなみに、IT技術を全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない
LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単に説明しよう
生成AI(特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語を予測する」」という統計的タスクを行っている、これがLLMだ
「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%
この過程には、意味理解や感情、意図、文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ
プログラミングを自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い
が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる
わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事・GitHubリポジトリ・Stack Overflowの投稿などを学習している。
そのため【よく使われる文法構造】や【特定の言語における関数の使い方】や【ライブラリの典型的な使い方】などを【意味を全く理解できず模倣している】だけって事
【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリに存在しない関数を呼んでいるとかいう小学生のプログラミングスクールでもありえないミス】
【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクション、XSSなど セキュリティ上危険な実装を入れまくる、パフォーマンスが極端に悪い実装、バグを含んでいるロジック(特にif文の条件分岐ではほぼ100%発生する)】
【実行環境に依存した誤り(存在しないAPIやライブラリを使う、ほぼ9割の確率で…あと特定のPythonバージョンやNode.js環境でしか動かないコードを汎用的に提示、つまり動きようがない)
専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校のプログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり、最初から自分で書いた方が早い2度手間になる
これが、プログラミングの革命だ!とか喚いてる奴らが隠すAIの実態である。
import jwt
token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')
一見正しく見えるだろうから解説すると、実際には 【jwt という名前のライブラリ】が複数存在し(PyJWT, python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通なら絶対間違えない様な挙動をAIは構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対に解決できない。
ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマやデタラメを出力してしまう、あれは本当にわかりやすいAIの致命的欠陥を検証してるので、あえて説明はここではしない。
しかもその増田の元記事では「文章データのテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。
批判をしている増田やXでの意見は単なる個人攻撃の誹謗中傷のみで、技術的に改善可能なプロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている
これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベースや検索エンジンから情報を引っ張ってくる方式、バズった元記事の増田がやっていた「自分で図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIにさらにやらせる、という機能だ
また【メタモデル】すなわち、AIが自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式も研究されてる。
これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識そのものが間違いだった場合、さらに間違いの結果を出し続ける」ということ。
元記事の増田はMP5というマシンガンの有効射程について突っ込んでいたと思うが、これが典型的なRAG、メタモデルの致命的欠点、元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペックや仕様書の定義でしかネット上では流布してない、だからそもそも答えというものにAIがたどり着けない。
2つ目は「文脈や倫理・常識・道徳が根本的に読めないので、解決策が乱暴すぎるもの」になる。
上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療や治療はガイドラインに従ってるというが、優れた医者は論文を読み込んで原理は不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知、経験知」として処方してるし、その量も患者を診た医者の経験で精度を上げている。
そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定の危険な利尿薬をAIが提示した事例すらある。これを「笑い話」で済ませることはできない。
例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識と判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓と盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)
学習できるベースがどうしても偏る以上、情報の統合に限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である
Neuro-symbolic AIという次世代のさらに文脈も読み取れるアーキテクチャAIを研究しているが、全く実用化されていない、核融合や量子コンピューターみたいな雲をつかむ話なので、AIがこの問題を解決することは恐らく今後数百年はありえない、という結論が出ている。
元増田の記事で批判もあったが、恐らくAIで一番致命的な問題はこれ
基本的にAIは英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語、日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている
そのため、倫理・道徳・常識・規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄の基準の倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)
ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠だ
元増田は「俺達の麻生とかいって秋葉原で踊ってた…」とか「レムちゃん、エミリアたん、ヘスティアちゃん、ウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた
これに激怒できる人間は、2005~2010年にオタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性の人間でしか、罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声や侮蔑なのか理解できないので、書きようがない表現の数々、であるということである。
AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのである、もっと言えば、その直後にコンテクストとして「アホ、ボケ、弱者男性、豚丼、性器や自慰で虚しく…」といった言葉があるから、なんならAIはウマ娘やライカンをキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田の記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。
「プログラマーのイメージを描いて」と依頼すると、男性の画像ばかりが出るされる
「看護師」→女性、「エンジニア」→男性という職業的性差が自動的に反映される
「アフリカの文化」→貧困・紛争・サバンナなど、植民地主義的視点が強く反映される(実際は南アなどはすげえ都会である)
これに前述のハルシネーション問題として現れれば、人間と同じような差別や偏見を「ガチの真実」として学習してしまう、人間の場合、8割くらいは本当はおかしいこととメタ批判が心理的にできるとされているが、AIにはその構造が根本的に存在しない。
元増田の記事のコメント欄やXなどで元増田のAI批判を批判しつつ、「金持ちの上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。
冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データが英語ソースなので、結果的に西洋文明ベースの文化圏の人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している
例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である
あの記事の元増田は「テロ組織のヤバイマニュアルまで学習してpdfで元データを提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所はアメリカの法務執行機関が研究用にネットで公開したものであった。
日本人や日本の警察の対応レベルで「ヤバイ」ものでも、海外の軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範の意識の違いを、あの元増田自身が証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい
元増田が口汚く罵っている内容の様に、「AIは0を1にできないから格差が広がるだけ」という根本的な哲学を投げつけている
それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAI今から勉強したりしてる俺たちは先行者利益で強者になれる」と信じて疑わない意見が多かった
③問題の通り、そもそも非キリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある
かつて日本人は黒船を見て5年そこらで蒸気機関を模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまり、AIは少なくとも「非英語圏」の人間にとっては、ブレイクスルーは絶対に起こりえない、ということである。
粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。
日本のほぼ100%のAI企業とかは、それが技術的には最高到達点なんだよなあ。
なんちゃら発スタートアップとかで、学生起業してるのはほぼそれ。
まあもちろん、彼らも、「RAGとかfine tuningやってるから!トップレベルの研究論文でもほぼワークフローにfine tuningとか噛ませるだけのやつもあるから!」ってことだけど。
fine tuningもRAGも受託でPoC (お試し)でやってみてるだけじゃん、実際には使われない、大企業のIRを見せるためだけの。そのRAGやfintuningもオワコンになってきて、次はMCPサーバーをこれまたお手軽に作るだけのMCPラッパーもやるんだろうけど。
とある大企業のバリバリのトップ開発者とやらと喋ったら、それ1年前に世界中の研究者がやり尽くしたよね?みたいな技術をいまだに実装できなくて悩んでたりする。
具体的な技術としては、3D Gaussian Splattingみたいな。それもう当たり前に実装できるかと思ってたら、マジで実装すらできないんだねって。
もっと酷いのが、SNSのAIインフルエンサーだけど、それはもう、流石に皆んなわかるよねって思ってるけど。
大企業がまた、これらのAIインフルエンサー便りだったりする。
何をどう考えたら、論文一本すら書けないAIインフルエンサーなんか信用するのか理解できないが。
適当な感想を言うだけのインフルエンサーがAPI叩いたりするのを眺めてるのが勉強になると思っているのか。
論文の評価を見てまともな治療法を理解できないなら、そりゃ厳しいから、民間療法試しちゃうんかなあ。
一番酷いのが、全く関係ない領域の大学の人が、「AI時代の◯◯」とかで語り出しちゃう系。特に工学系、医学系が酷すぎる。
大学の先生なら、プライド持ってわからないことはわからないと言って、感想文ではなく、レビュー論文なり引用してこうなってるらしいとか言えばいいのに、自分で感想文やって、全くおかしなこと言いすぎだろ。
結局、粉飾決算したAIスタートアップは、確かに背伸びした決算を出したんだけど。
日本全体が、それすら到達しなくて、そこを目指して頑張ってるってのが地獄。
※もちろん、極一部の、本当にAIのトップカンファレンスに論文出してる企業とかは、ちゃんとした技術作って、「本当に」AI作ったりもしてるのは理解してます。サービスは日本向けの残念なものしかやっぱ出せないけど。
今後長期にわたって通用する「AIの実用・活用・応用スキル」を磨くには、
テクノロジーの進化に左右されにくい“原理原則”と“実務への橋渡し能力”に注力すべきです。
⸻
● プロンプト設計力(Prompt Engineering)
● ユースケース発掘・再構築力
● AIツールの横断的知識(Notion AI、ChatGPT、Runway、GitHub Copilotなど)
⸻
● 軽量なデータ分析(Excel + Python + ChatGPT)
⸻
⸻
| フェーズ | やること |
| ①習熟 | ・ChatGPTの活用法(表形式出力、要約、コード生成)を極める・各業務に1つずつAIタスクを試す |
| ②応用 | ・業務や趣味の中で「AIにやらせたタスク」をログとして蓄積・ツールを使い分ける力を磨く(例:翻訳はDeepL、校正はChatGPTなど) |
| ③発信 | ・実践例をブログやSNSで発信(反応が学びになる)・他者の活用事例をフィードバックとともに評価する |
| ④導入補助 | ・他人にAIツールの使い方を教える・PoC(概念実証)をサポートすることで思考を外化 |
⸻
最近の開発環境って進化しすぎてて本当に最小限のコードを書くだけでプロダクトができる
Unityとかのゲーム開発環境なんかが良い例でトレーニングすれば1日でそこそこのゲームを作れるようになる
これは特にオープンワールド系のゲームが物量でゴリ押すようになったから人員が必要になったことが原因で
高度な開発知識なんかなくてもゲーム開発に参加できるようになってる
Difyも同じような道を歩んでいて、LLMを使った個別エージェント開発だとかRAG対応だとかは物量でゴリ押す雰囲気が出てきていて
Difyみたいなポチポチすればエージェントが作れます、っていうツールでとにかく現場の人に作らせようとしている
(恐らくこの分野はLLMに駆逐されそうだが)
UnityにしろDifyにしろ、実際に必要となるロジックなんかは本当に最小限で済むのでオブジェクト指向だとかDDDだとかは全然必要とされていない
Unityでキャラを歩かせる場合は始点と終点を指定してNav Meshとかを設定しておけば勝手にやってくれる
で、問題なのはこの程度のコードを書いただけで「プログラミングできる」と勘違いしてしまう人が続出している点で、採用活動するとかなり多い
君たちがやってるのはせいぜいコンフィグを書いてるレベルであってプログラミングではない、と言っても理解してもらえない
試しに
「このキャラを10個のポイントからランダムに出現させて、他の10個のポイントのどこか1つに歩かせてみて」
と言ってみると分かるが、この程度の実装すらできない
逆にできる人は自分はスーパーエンジニアだと思い込んでるぐらい自信満々で面接に来る
オブジェクト指向の話をしても「そんなの必要ですか?」みたいな態度で関数も使わずにベタ書きコードを恥ずかしげも無く自慢してくる
AI人材も似たような雰囲気が出てきていてDifyとかでチャット作って
という人が段々増えてきているしこのトレンドは収まることがなさそう
生成AIは学習した全ての言語空間の高度な確率マッピング(ただし汎用的にチューニングされてる)だから、高度な回答を求めるときに一分野を掘り下げるというより
複数分野の高度概念を有機的に結びつけることで内容を深めるアプローチが刺さりやすいように思う
確率分布の偏りを意図した方向に操作するという意味でも、一例ではなく似通った複数例を提示して、方向性を固定していくというアプローチが生成AI(LLM)の仕組みに適合的
そうやって方向性を固定したあとに、特定分野の本とか論文とかの長文テキストを投入するみたいなRAGに近いことをすると、ちゃんと内容を掘り下げられると思う
生成AIは確率分布機でしかなくて、生成AIが賢いとか間違うとかいう主観的評価にはなんの意味もなくて、どう使うかを考えないといけない
ファクトチェックの研究において、LLM(大規模言語モデル)を使った Open Relation Extraction(OpenRE) は非常に有望です。
実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェックの自動化・支援の研究で注目されています。以下に詳しく説明します。
LLM + 検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。
文中のエンティティをWikidataなどにリンクし、KG(知識グラフ)上でのパス推論で検証。Graph Neural Network(GNN)などを併用。
`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。
| トピック | 説明 |
| LLM + Knowledge Graph Alignment | claimから得られる関係とKGとの自動照合。 |
| 言語間の事実整合性チェック | 多言語ニュースの事実差異検出(日⇔英など) |
| LLMによるFact hallucination検出 | LLMが生成した出力に含まれる事実誤りを検出。 |
| Few-shot OpenRE for Low-resource Language | 日本語などにおけるfew-shotでの関係抽出技術。 |
それあるなら諦めず応募してたら受かるだろ。もっとザコかと思ってたわ
もっとポートフォリオサイト作ってDockerやk8sやAWSやGCPやAI使ってアピールしろ。RAGやMCPサーバー構築できると良い。AWSとかの資格も取れ。あとはコード設計な。デザインパターンやれ。MVC理解したあとDDDやれ。IT系のビジネスの本も読め。Figmaでデザイン作れ。とにかくがむしゃらに受かるまでやれば受かる。どうせ全部あとで役に立つ。AtCoder緑あるならコンパイラ作れるだろ。そういうの作ってGitHubに置け。Slackも自分で使え。bot作れ。SOLID原則理解しろ。Java以外も書け。特にTypeScript。Java分かるなら楽勝だろ。データベース勉強しろ。Nginx立てろ。プロマネの本も読め。勉強会参加してこい