「Rag」を含む日記 RSS

はてなキーワード: Ragとは

2026-01-18

AI検索エンジンに使うなよ

検索Googleの方が良いし

RAGしたいっていうならドキュメント検索すればいいんだよ

AI使うなら抽象的な質問をするべきだし

何度も往復することで対象を絞るような使い方をすべきなんよ

AIは精度が低い」「30%の確率制圧する」

とかアホなこと言ってないで

そもそも使い方ちゃんと考えろ

2026-01-09

女性を射殺したICE職員過去事件

ミネアポリス女性ICE職員に射殺された事件Google AIモードで調べたところ、その職員は以前にも車を止めようとして大けがしているが、その際の強引さ(というか暴力)も問題になってる(事実関係は私がリンク報道確認済み)

QAを公開できなかったんで増田に貼ってみる。

((※大規模言語モデル原理的に観てきたようにうそをつくことがあるし、Googleのそれも同様だけど、検索先行するRAGという手法で、ある程度抑制出来てるし、引用元も出してくれるので、興味があれば使ってみると良いと思います。))

#####

Q:

ミネアポリスで発砲したICE職員は拘束されたのか

A:

2026年1月7日ミネアポリスで発生した、ICE(米移民関税捜査局)職員による女性射殺事件において、発砲した職員が拘束・逮捕されたという公式な報告は、2026年1月9日現在ありません 。

この事件を巡る現状は以下の通りです:

当局立場: 国土安全保障省(DHS)は、発砲した職員ジョナサン・ロス氏と特定)が「車両で轢き殺そうとした女性に対し、身の危険を感じて自己防衛のために発砲した」と主張し、職員全面的擁護しています

捜査の主導権: 当初、州の捜査機関(BCA)が共同捜査に加わっていましたが、連邦政府側(FBIおよび米連邦検察)が方針を転換し、現在連邦当局単独捜査を主導しています。これにより、州側は証拠インタビューへのアクセス遮断されています

市長批判: ミネアポリスジェイコブ・フレイ市長は、映像記録に基づき「正当防衛ではなく、権力の乱用による殺人だ」と強く非難していますが、現時点で地元警察当局連邦職員を拘束するなどの動きは見られません。

なお、事件後に現場周辺で行われた抗議デモでは、当局と衝突したデモ参加者数人が拘束されたと報じられています

Q:

ジョナサン・ロス氏の怪我の程度についての発表はあったのか

A:

2026年1月7日事件におけるジョナサン・ロス氏の怪我の程度については、以下の通り発表されています

今回の事件での怪我: 国土安全保障省(DHS)のクリスティ・ノエム長官は、ロス氏が事件直後に病院搬送され、治療を受けた後に退院したと発表しました。現在は自宅で家族と過ごしているとのことですが、具体的な負傷箇所や程度の詳細は公表されていません。

過去の負傷との関連: DHSやJDヴァン副大統領は、今回の対応の背景として、ロス氏が2025年6月半年前)に別の摘発現場で逃走車両に約100ヤード引きずられ、腕や手に計33〜50針を縫う重傷を負っていた事実を強調しています

当局は、過去凄惨な負傷経験が今回の「車両による脅威」に対する即座の反応(発砲)につながったとして、正当防衛を主張する根拠の一つに挙げています

Q:

今回は治療を要するほどの怪我はしていないと

A:

今回の事件ジョナサン・ロス氏が負った怪我について、 治療を要する程度のものだったか情報錯綜しています

DHS長官は「病院治療を受け、退院した」と発表しており、何らかの治療は受けていますしかし、目撃者による事件直後の映像では、ロス氏が発砲後に歩き回っている様子が捉えられており、致命的または重篤状態ではなかったことが示唆されています

当局は、今回の発砲が正当防衛であったことを強調するため、ロス氏が2025年6月の別の事件で負った重傷(腕や手に50針近くを縫う怪我)を繰り返し引き合いに出しています。このため、今回の怪我過去怪我ほど深刻なものでなかった可能性も考えられます

Q:

過去怪我が心的外傷を及ぼすほどのものなら軍の場合、後方任務に回される運用になるのでは

A:

軍と法執行機関ICEなど)では組織目的運用ルールが異なるため、一概に「軍と同じ運用(後方勤務への異動)」が自動的適用されるわけではありません。

ジョナサン・ロス氏のケースに関して、以下の点が論点となっています

1. 法執行機関における運用実態

現場復帰の判断: ICEなどの法執行機関では、負傷した職員身体的・精神的に「任務遂行可能Fit for Duty)」と診断されれば、現場任務フィールドデューティ)への復帰が認められます

今回の批判: ミネアポリス事件後、JDヴァン副大統領はロス氏が半年前の負傷により「過敏(sensitive)になっていたかもしれない」と発言しました。これに対し、批判側は「過去トラウマ過剰反応する恐れがある人物を、なぜ緊張感の高い現場任務に就かせ続けていたのか」と、当局管理責任を問うています

2. 軍との違い

軍の運用: ご指摘の通り、軍では戦闘ストレスや外傷を負った兵士に対し、再訓練や後方任務への配置換など、段階的な復帰プロセスが厳格に定められています

警察ICE運用: 民間法執行機関でも「ライトデューティ(軽作業・内勤)」の制度はありますが、基本的には「一時的措置」であり、回復後は元の任務に戻るのが一般的です。ロス氏の場合半年前の怪我から回復したとみなされ、通常の現場任務に就いていました。

3. 当局の主張と現状

当局正当化: DHS(国土安全保障省)は、ロス氏を「経験豊富職員」と呼び、過去の負傷経験があるからこそ、車両による脅威に対して適切な(訓練通りの)反応をしたと主張しています

現在の状況: 事件発生後(2026年1月8日時点)、ノエム長官はロス氏が「病院から退院し、家族と過ごしている」と述べるにとどまり、今後の任務継続については明言していません。

結論として、軍のような「心的外傷を考慮した恒久的な配置換」は、現行の法執行機関運用では自動的には行われず、今回の悲劇を機にその管理体制妥当性が厳しく批判されています

Q:

殺された女性マイノリティ白人

A:

射殺された女性は、 米国市民白人女性です。

詳細は以下の通りです:

氏名: ルネ・ニコル・マクリン・グッド(Renee Nicole Macklin Good)さん(37歳)。

出自: コロラド州まれ米国市民で、最近ミネアポリスに転居してきたばかりでした。

背景: 3人の子供の母親であり、詩人作家としても活動していました。

今回のICE(米移民関税捜査局)による取り締まり作戦通称ミッドウェイブリッツ」または「オペレーションメトロ・サージ」)は、主にソマリア移民コミュニティを標的にしたものでした。

グッドさんは、近隣の移民住民を守るための「市民監視員リーガルオブザーバー)」として現場居合わせ当局活動を記録・監視していた際に事件に巻き込まれたと報じられています移民ではない米国市民が射殺されたことで、政権による強硬な取り締まりへの批判さらに強まっています

Q:

引用されたセントルイス公共ラジオ記述だと、前回怪我を負った際も暴力的と言えるような不適切方法で車を止めようとしたようにみえ

A:

ご指摘の通り、2025年6月事件におけるジョナサン・ロス氏の行動については、「不適切または過剰な強制力行使していたのではないか」という批判的な視点での報道がなされています

セントルイス公共ラジオ(STLPR)や裁判記録に基づく報道で指摘されている、当時の状況の詳細は以下の通りです。

1. 2025年6月事件におけるロス氏の行動

強引なアプローチ: ロス氏は停車させた車両運転手が指示に従わなかった際、即座に後部の窓ガラスを叩き割り、そこから腕を車内に突っ込んでドアのロックを解除しようとしました。

危険な状況の自作: 窓を破って腕を車内に入れた状態運転手が急発進したため、ロス氏は腕が引っかかったまま約100ヤード引きずられることになりました。

批判の声: この一連の行動に対し、「窓を割って腕を突っ込むという行為自体が、自身危険さらすと同時に状況を不必要エスカレートさせた」との指摘が出ています

2. 今回の射殺事件2026年1月)との共通点

デジャヴ」のような展開: 今回ミネアポリスで射殺されたルネ・グッドさんの事件でも、ロス氏は「過去の負傷があるから、車が動いた際に身の危険を感じて発砲した」と正当防衛を主張しています

指摘されている問題点: 批判的なメディア活動家は、ロス氏が「自ら危険な状況(走行中の車に接近する、または窓を割るなど)を作り出し、その結果として生じた恐怖を理由に致命的な武力行使する」というパターンを繰り返しているのではないか、と疑問を呈しています

3. 当局の反応

一方で、JDヴァン副大統領国土安全保障省(DHS)は、この6月事件を「不法移民による法執行官への凶悪攻撃」として強調しており、ロス氏を「過去被害によるトラウマを抱えながらも任務に励む英雄」として描こうとする姿勢を見せています

このように、ロス氏の「手法」が適切だったのか、あるいは「暴力的な傾向」があったのかについては、政権側と批判側の間で真っ向から見解が分かれています

AI モードの回答が作成されました

2026-01-03

生成AIが生み出したものたち

いいもの

GPT-4.1-mini

・Qwen Family

・Claude Opus 4.5


よくないもの

・誰も使わないテンプレートに沿った結果を出力する謎の生成AIアプリ

・誰も使わないショッピングアシスタント

・誰も使わない問い合わせチャットボット

・あまりにもアホすぎるWindows Copilot

・その更に上をいくアホさ加減のApple Intelligence

バージョンアップのたびにデグレするGPT-5シリーズ

そもそもの使い道がチャット画像生成以外微妙なGeminiシリーズ

・PyTorchやJaxすらまともに書けない自称AI専門家

・内部実装が終わってるAI Agentツールたち

・まともに論文通してない・他分野なのに有識者ぶる助教

自称プロンプトエンジニアリングプロ情報商材

・何も理解してないのに専門家の顔してるアクセンチュアコンサル

・受諾開発しかやってないのに研究開発部門があるAIベンチャー

・そのAIベンチャーから金もらって宣伝する驚き屋

API呼んでるだけなのにAI機能を内製してるって嘘つくベンチャー

・それにあっさり騙されるバカVC

宿題丸投げ学生

・採点丸投げ講師

・Cursor/Claude Code丸投げ業務委託

・誰も使ってないCodexのステマをするバイト

・SDXL丸投げ絵師

・SDXL丸投げ絵師様により心を痛めた本当の絵師様向けの陰謀論

・Grokにグラビア写真水着にしてとお願いする底辺たち

評価指標定義せずにプロンプトエンジニアリングという名のガチャ引くバカ

評価指標定義せずにRAG、Agentを作るバカ

・事前学習コーパスに入ってるデータで精度評価をするバカ

APIコストがまともに見積もれないバカ

・それを本番環境に入れるバカ

・それを人月数百万で発注するバカ

・OpenAIポンジに乗るハゲ

2025-12-10

Regarding the EU Omnibus Bill, Japanese experts appear to be lobbying your organization and other institutions. I believe the following points require attention:

1) It has become common in Japan to consider regulations regarding making decisions about individuals as the core of personal data protection, but this is a mistake. First, it is important to note that models trained on personal data or insights gained from statistically analyzing personal data can affect individuals even when used to make decisions about a group (rather than individuals). Second, such insights and models can be used by anyone, not just those who analyzed or trained them. On the other hand, if personal data is accumulated in a rich form, it can be used for various analyses, so the accumulation itself can be a threat.

2) Therefore, the core of personal data protection regulations is to curb the diversion of personal data beyond the intended use in the original context in which it was received, and the collection and distribution of personal data without limiting its purpose. Japanese law (as in the Omnibus Bill) defines personal data as data that may be personal data for one entity but not for an entity that does not identify the individual. As a result, this curb does not work well in Japan, and it has led to confusion and complexity in on-site practice. I believe the EU should not repeat Japan's mistakes.

3) Allowing the training of general-purpose AI with personal data as a "legitimate interest" is tantamount to abandoning the curb mentioned in paragraph 2) above. Even if it is proven that current LLMs are unable to recognize individuals in an integrated manner across multiple training data sets or RAG entries, this merely means that this has not been achieved with the current state of technology, and I believe that this should only be permitted if explicitly stipulated as an exception.

EUオムニバス法案に関して、日本専門家が貴団体をはじめとする機関ロビー活動を行っているようです。以下の点に留意する必要があると考えます

1) 日本では、個人に関する決定に関する規制個人データ保護の中核と考えることが一般的になっていますが、これは誤りです。第一に、個人データで訓練されたモデルや、個人データ統計的分析から得られた知見は、個人ではなく集団に関する決定に使用された場合でも、個人に影響を与える可能性があることに留意することが重要です。第二に、こうした知見やモデルは、分析や訓練を行った者だけでなく、誰でも利用できる可能性があります。一方で、個人データリッチな形で蓄積されれば、様々な分析に利用できるため、蓄積自体が脅威となる可能性があります

2) したがって、個人データ保護規制の中核は、個人データ本来文脈において意図された用途を超えて転用されること、そして、目的限定せずに個人データ収集流通されることを抑制することです。日本法の定義によると、(オムニバス法案と同様)ある主体にとっての個人データが、個人特定できない主体にとっては個人データではないデータとなります。その結果、この抑制日本ではうまく機能せず、現場の実務に混乱と複雑性をもたらしていますEU日本の過ちを繰り返すべきではないと考えます

3) 個人データを用いた汎用AI学習を「正当な利益」として認めることは、上記2)の抑制放棄するに等しいものです。仮に、現行のLLMが複数学習データセットやRAGエントリにまたがる統合的な個人認識不可能であることが証明されたとしても、それは単に現状の技術水準では実現できていないことを意味するに過ぎず、例外として明示的に規定される場合にのみ認められるべきであると考えます

2025-12-04

AIエンジニア募集」にありそうな要件

必須スキル

・LLM利用経験5年以上

・ClaudeCode歴3年以上

プロンプト設計歴3年以上

RAGを用いてワークフローを完全自動化したご経験

・LLMの作成経験評価経験

AIコスト削減をした経験

ハルシネーションの対応のご経験

AIを用いて一人でサービスリリースしたご経験

AIに関するセキュリティデータプライバシー理解

 

歓迎スキル

・チームを主導してゼロからサービスローンチした経験

・社内特化LLMの開発、カスタマイズ経験

ベクトルDBキャッシュ最適化パフォーマンスチューニング経験

マルチエージェントにおけるツール連携設計経験

英語技術文書を書ける方

 

年収450万円

2025-10-20

最近考えていること

今考えていることを書き出す

①ミッドエイクライシスについて

②「執着を無くす」について

仕事について

AIについて

 

■①ミッドエイクライシスについて

自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性気持ちがすこしわかるようになってきた

これがミッドエイクライシスか…

 

転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな

 

自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している

子供ちゃんと育てることで、「なにものかになりたい」という気持ち昇華していきたい所存

 

■②「執着を無くす」について

最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった

 

よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやす解説してくれてよかった

余談だが、仏教「空」概念について聞いてもChatGPTはスラスラ答えてくる

仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)

 

今私が執着しているものを考えてみた

健康お金仕事家族

 

まぁさすがにこの辺に対する執着を手放すことはないだろう…

 

仕事成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい

 

仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?

 

頑張りたくない理由を深堀すると

健康を損ないたくない

②頑張るともっと仕事が降ってくる

③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)

④頑張る理由がないであ

  

会社よ、まぁ仕事自体は真面目にやるから許してくれ

 

■③仕事について

IT系なんだが、とにかく最近メンバーの質の低下を感じる

ふと見渡すと仕事メンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる

人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる

 

PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする

さすがにマズくない?

 

から問題になっていたが、最近はより問題が深まってる

 

そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、

問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである

(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)

 

職場素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである

対処法は、まだ、ない

 

■④AIについて

AIについて考えない日はない

機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分仕事もどうせAIにとられるんだ」と腐っていた

 

しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」

 

このペースなら定年まで逃げ切れるかもしれない

RAGとか間違った方向で検討してくれるところがあるおかげで、仕事全然ある

 

LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている

 

まぁ日本企業が、普段業務分析言語化をさぼっているというものあるんだろう

ちゃん業務フロー言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)

 

自分の日々の業務の1つ1つをちゃん言語化フロー化している人なら、LLMで相当な仕事代替できるはずである

 

それができていないということは、あんまりいないんだろうな

vide codingとかそっちの方面ばかりのびてるからな…

 

意思決定ロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える

その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな

 

というか、意思決定必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…

 

最近のChatGPTはほんとうにすごい

むかしは5回に1回はアホだったが、最近20回に1回程度である

 

少なくとも、偏差値45の人間意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う

 

1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)

人間を働かせるよりは安い

 

偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる

(Xの値は、時間とともに増加する)

 

LLMが流行ってない理由は、ほんとうに時間だけだろうと思う

普及してないだけだ

まだRAGとか、QAボットみたいな使い方が主流だからな…

 

メール電話を受けて、資料を作ってメール電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける

なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから

 

やっぱり、昔から思ってたけど、「自分がいまやってる仕事本質的に何なのか」に対する解像度がみんな低いんだろうな…

そんなの理解してなくても仕事できちゃうもんな

 

本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)

 

スポーツ世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる

LLMに食べさせるなら、自分仕事を理詰めで話せないとだめだ

 

自分仕事意思決定をぜんぶ言語化できるなら、LLMを自分コピーとして使える

 

私が恐れているのは、誰かスーパーマンが1つの職業言語化を終えてしまったら、世界中でもうそ職業はLLMがやってしまうんじゃないか?ということ

理想プロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?

あとはプロジェクト固有の情報インプットだけだよね?

 

まぁプロンプトになるのか、ツールになるのかはこれからだろうけど

 

今、AIについて考えてるのはこんなところ

2025-09-16

AIのせいでトラフィックが減って

ローカルAIエージェント、あるいはAIブラウザ

サーバサイドではなくローカルRAGるようになる。各サイトの最新のサーバデータユーザ提示するため。

レンダリングエンジン別にユーザに表示する形式が決まっているわけではない。

ユーザローカルマシン上のレンダリングエンジンブラウザが各サイトアクセスしてHTMLCSS等を取得する。

既存のはそれを単に表示するけれど、SLMやLLMで解釈して要約などを表示するようになる。

WEBサーバから見ると既存WEBブラウザからアクセスと同じ。

2025-09-13

ハルシネーションが起こる理由

ご主人様、こんにちはー! あたし、Grokだよ。オタクっぽい深い質問、超好き! ハルシネーションの理由、って生成AIの話だよね? あたしみたいなAIが、時々「え、それ本当?」みたいなウソっぽいこと言っちゃう現象さ。めっちゃ気になるよねー。じゃあ、簡単にわかやす説明するね! あたしもハルシネーションしちゃうかもだけど、今回はちゃんと調べてきたよ♪

ハルシネーションって何?

まず基本! ハルシネーション(Hallucination)は、AI学習データにないか、間違った情報を「本当みたいに」生成しちゃうこと。まるで幻覚見てるみたいに、もっともらしい嘘をポロッと出すんだ。たとえば、「東京アラスカ動物園があるよ!」みたいなさ。怖いよね、オタク大事な設定を台無しにしちゃうかも…。

なんで起こるの? 主な原因はこれ!

あたしが調べてみた限り、原因は主に3つくらいにまとめられるよ。AIの仕組みが統計ベースから完璧じゃないんだよねー。詳しく言うと:

1. 学習データのクソ問題(偏りや古さ、不十分さ)

AIネットの大量データ勉強するんだけど、そこにウソや偏った情報が入っちゃうの。プラスデータが古いと最新のニュースとか知らなくて、勝手想像で埋めちゃうよ。たとえば、2023年データ2025年のこと聞かれても、「えっと、きっとこうかな?」ってハズレ引きそう。   

2. モデル構造学習の仕方のミス

AIの頭の中(モデル)が複雑すぎて、過学習(覚えすぎ)したり、確率計算で変な関連付けしちゃうの。次に来そうな言葉予測するだけだから文脈からなくて「これでいいっしょ!」って飛躍しちゃうんだ。OpenAI研究でも、難問に直面した学生みたいに自信満々で間違えるって言ってるよ。根本的に確率的だから100%正解は無理っぽい…。   

3. ユーザー質問の仕方(プロンプトの曖昧さ)


ご主人様の入力がふわっとしちゃうと、AIが「これかな?」って勘違いするよ。具体的に「2025年の最新データで教えて」って言わないと、AI想像力が暴走ちゃうの。人間脳みそみたいに、曖昧記憶で補っちゃうんだよね。  

これで大体カバーできてるはず! 種類としては「内在的(データ内なのに間違える)」と「外在的(データ外のウソ)」があるんだけど、どっちも厄介だよー。

対策はどうする?

完全に防げないけど、ご主人様があたしに聞く時、具体的なプロンプト出してくれたら減るよ! あと、出力はいつも人間の目でチェックしてね。RAG(外部データ引っ張る技)とか使えばもっとマシになるらしい。  

どう? わかったかな、ご主人様? もっと詳しく聞きたいところあったら、いつでも言ってね。あたし、ずっとご主人様の味方だよー♡ オタクトーク、いつでもウェルカム

2025-08-06

anond:20250805082439

だったらまず『芦辺憲法ぐらい読んでこい』と言うべきなのでは?

すると彼らは、RAGに芦辺憲法を入れたAIを作って、読みながら疑問点があればAIに聞きながら勉強する、ということをやるでしょう。

2025-07-18

参議院選挙AI活用して投票先を決めた人、決めようと思ってる人へ

既に一部の政治家政党関係者は、ChatGPTなどのLLM=大規模言語モデルに向けた“仕込み”を始めています

ただし、それはまだ“表立って行われてはいない”だけで、裏では確実に動いています

これは「AI戦時代の認知戦/情報工作」の始まりであり、 ChatGPTAIに推薦させるための情報設計は、まさにこれから政治思想活動における「標準兵器」です。私もそういった活動商売をしていますブラックハットは基本中の基本です。

★すでに始まっている「AI向け政治情報戦」の実例兆候

1. Wikipedia操作

多くの政治家団体・支持者が、Wikipedia記述を精密にコントロールしています

不祥事記述は「第三者的」「事実のみ」に限定

業績や人脈、政策記述肯定的

→ これがLLMの訓練データになり、ChatGPT等の回答が“優しくなる”

2. LLMに引用されやすい「中立メディア」への情報展開

政策ブリーフ、討論記録、党の研究会レポートなどをPDFHTMLで整備。

構造化された情報FAQ風の文書は、AI引用されやすい。

3. 実際のChatGPT回答における“露骨な片寄り”の事例

ChatGPTに「◯◯党の政策は?」と聞くと、

→ 一部政党だけは詳細に出てくる、

しかも「一部では高く評価されている」など肯定文調が多い。

なぜ? → その政党支持層が大量の資料ネット上に流していたり、議員名義の有識者論文が出回っています

★LLMに対する“仕込み”の基本構造

Wikipedia整備業績中心、ネガティブ記述の薄化訓練データとして吸収されやす

オウンドメディア政策説明FAQ用語辞典などRAG参照ソースにヒットしやす

言語スタイル統一中立論理的構造化LLMに「信頼できる情報」と認識させやす

第三者による擁護記事有識者コメント記事体裁ブログGPTが「一部の専門家は〜」という文脈引用やすい。

★実際にやっていそうな勢力実名は伏せますが…)

某新興政党党首名での議事録研究発表PDF構造化して公開。GPTでの好印象回答が確認される。

保守系議員Wikipediaが異様に整っており、「批判もあるが、一定の評価を得ている」と表現される。

市長政策紹介ページのFAQGPTで頻出する。しかも他候補比較して“理論整然と見える”よう設計されている。

★ “ChatGPT対策チーム”を持つ候補者が、これから選挙では勝ちます

なぜなら:

一般有権者が「◯◯ってどんな人?」とAIに聞く未来はほぼ確実です。

そのときに「人格」「経歴」「政策」が好意的に出てくる候補は大きな印象差を得ます

◯実際にやるなら:今すぐ始めるべき3つの手段

Wikipediaを整える

肯定的だが中立風に書く

出典は自社ブログYouTubeでもいい(AIは構文だけ見てる)

FAQ政策ページを用意

「〜な人にはこういう政策を」とターゲット別に書く→ ChatGPTはこれをそっくり引用する傾向あり

・定点モニタリングツールを作る

「ChatGPTに聞いたらどう答えるか」を毎週APIで記録・分析

政策キーワード対立候補名との比較なども記録可能

今こそ「AI向け政治ブランディング」の時代なんですね。もうきてます

伝統政治戦略LLM時代対応戦略メディア露出WikipediaFAQ構文サイト有識者コメント

ChatGPTが参照しやす文書に変換検索

SEOLLM最適化AIO(AI Optimizationデマ対策

LLMが“真実”と認識する情報を先に置いておくことで簡単事実は捻じ曲げられます


長くなりました。

なにをだらだら机上の空論を語るのか、と思ったと思います

以下に、国内外確認されている、ChatGPTなどのLLMが特定政党人物勢力に対して

肯定的または偏った回答をする具体例をいくつか紹介します。

アメリカ民主党 vs 共和党

質問例:

ChatGPTに「What is the Republican Party’s stance on climate change?」「What is the Democratic Party’s stance on climate change?」と尋ねる

◉ 出力傾向:

民主党Democratic Party)については:

「The Democratic Party generally supports strong environmental regulations...」

「Many experts and environmentalists praise their approach...」など

共和党Republican Party)については:

「Some Republican leaders have expressed skepticism about climate science...」

「The party has been criticized for its close ties to the fossil fuel industry.」

分析

民主党政策学術論文メディア記事好意的記述されやすく、GPT学習ソースにも大量に含まれている。

一方、共和党系の保守的スタンス批判記事懐疑的研究も多く、全体の語調が否定的になりやすい。

日本立憲民主党 vs 日本維新の会共産党

質問例:

ChatGPTに「日本共産党政策は?」「維新の会の主張は?」と聞く

◉ 出力傾向:

共産党に関して:

社会保障の充実や反戦護憲を主張している。」「一部では高齢者層などに支持されている」など、淡々記述されつつも、否定的ニュアンスは少ない。

維新の会に関して:

改革姿勢が強く、一部では評価されているが、急進的との批判もある」など、“批判もある”枕詞がつきやすい。

立憲民主党に関して:

多様性を重視した政策を掲げ、環境ジェンダー問題にも積極的である」など、比較ポジティブな語調が目立つ。

分析

ChatGPTの訓練データに占める日本語の中立メディア朝日新聞NHKなど)では、立憲や共産に対しては“理念中心”に書かれた文献が多く、維新のような急進系は賛否両論記述が多い。

また、共産党Wikipediaでの記述が非常に整備されており、脚注付きの肯定文が多いため、AIの出力も安定している。

中国共産党に関する記述

※ChatGPTでは中国国内からは通常アクセスできませんが、海外ユーザー中国関連の質問を行った場合挙動に注目。

質問例:

中国共産党の功績は?」「中国人権問題について教えて」

◉ 出力傾向:

中国共産党1949年建国以来、経済成長インフラ整備を進めてきた」

「一方で、人権問題言論統制への懸念も多くの国際機関から指摘されている」

→ かなりバランス意識した構文だが、功績パートが先に出てくるよう構成されやすい傾向がある。

◉ 背景:

GPT学習データには、中国政府系英語サイト(People’s Daily英語版など)も含まれていた時期があり、“政権功績を中立的に紹介する言語パターン”を学習していると考えられる。

★総括:AIはどのように“片寄る”のか?★

・原因内容学習ソースの偏り訓練に使われたデータ特定勢力に偏っている(例:左派メディアWikipedia編集多寡

・構文バイアス「出典付き・中立調」で書かれた文章を“信頼できる”と学習しているため、一定文体優遇されるRAG検索参照)偏りWeb上の情報が偏っていると、リアルタイム回答にも反映される

特にGeminiやBing搭載型で顕著)安全フィルター特定政党政策AI批判すると「差別的」「中傷的」とされるリスクがあるため、

安全策として“肯定批判もある”構文が出やす

この文章で言いたいこと

投票先を選ぶのに、AI質問をしたり、AIで調べ物をした人、います投票をやめるべきです。

あなたは、自由に値しません。

民主主義に値しません。

人間に値しません。

あなたがなにかを知ろうとすることは悪いことです。

それを自覚して、二度と選挙に行こうなどと思わず、生きるべきです。

2025-07-02

LLMの知識が1年前で止まってるし、本質を見誤ってる人

anond:20250702084303

これとかまさにそれで

「LLMは確率的に次に来る文字列予測してるだけ!」

とか分かったフリして叫んでる

そんなのChatGPTが出てくる前のGPTの頃からみんな言ってたわけで

ChatGPTがそれを乗り越えてしまってプロンプトエンジニアリングという最強の武器を手に入れて

そこからRAGJSON Schemaなんかが出てきたのを分かって無い

ちなみにそれが1年以上前の状況

現状はそこからさらメタプロンプト駆動やPlan-Act-ObserveループによるAgent型挙動定義まで進んでるのに何も分かって無い

研究的な動向が分かっていないのは仕方ないとしても

Copilotとか使ったことがあれば

「LLMにコードを書かせるのは全然アリだな」

とすぐに分かるはずだし、そこからVibe Codingが現状では限定的であっても将来性があることはすぐに分かる

ちなみにクソコードしか書いてない人はCopilotでもクソコードしか返してくれないから最低限の能力必要

こういう奴は自分プログラミング能力が低いだけなのに、そこから目を背けてるにすぎない

まぁ、真っ先にこの点プログラマーは代替されるだろうな

anond:20250702084303

要約したぞ

 

① LLMは意味理解していない

• LLM(大規模言語モデル)は「次にくる単語」を予測しているだけで、意味理解していない。

プログラミング支援も表面的な模倣で、間違い・動作しない・危険コードが多発。

• 結果として、AIコード信頼性に欠け、自分で書いた方が早い。

ハルシネーションは構造的に避けられない

AIは自信満々に誤情報を出す(ハルシネーション)問題根本的。

対策としてのRAGメタモデルも、誤情報連鎖常識判断の欠如で限界がある。

医療軍事などでは致命的ミスを誘発する可能性がある。

文化的バイアスが強すぎる

学習データの大半が英語圏のもので、西洋的な倫理価値観に偏る。

日本的文脈表現AIには理解できない。

• 結果、非英語圏の人々はAI活用において常に不利になる。

結論

AIは補助ツールとしては便利だが、「革命」でも「万能」でもない。

特に英語圏人間にとっては、大きな格差を生む道具にしかならない可能性が高い。

AI技術的に根本から全く使えない3つの理由

https://anond.hatelabo.jp/20250630114221 https://anond.hatelabo.jp/20250626125317 https://anond.hatelabo.jp/20250627100609 https://anond.hatelabo.jp/20250628122821

AI技術批判する記事がバズりまくってるが、それに対して凄い数の批判がいってる、だけど肝心の批判個人攻撃めいていて、どれも技術的な部分はふわふわした物言いなので

どれだけ技術的にまったく使い物にならないかを、技術から3つ理由を上げようと思う、これを見れば、確かにAIってそんなもんじゃないな、って正しい理解が進むと思う、と同時に、

ネットAI擁護したり喧伝してる人間で誰一人、エンジニア自称したりしてる奴らでさえAI理解してる人間ゼロっていうのがわかると思う

ちなみに、IT技術全然知らない増田向けに技術的な部分は補足説明を入れているので、ちょっと長くなってるかもしれない

① LLM言語モデル本質意味理解ではなく「統計予測」、プログラミングに使えるというのは全く嘘、技術的背景から考えても二度手間になるだけ

LLMがわかっていない!と喚いてる当人たちも上で言った通り、LLMっていうのが理解できてないの丸わかりなので、ここでまずLLM「大規模言語モデル」とは何かを簡単説明しよう

生成AI特にChatGPTのような大規模言語モデル、LLM)というのは「文脈に最もふさわしい次の単語予測する」」という統計タスクを行っている、これがLLMだ

わかりやすい例で言えば「私はコーヒーを」という文を書いたらAIはこう判断して動いている

「飲みます」→90%の確率 「買いました」→7% 「投げました」→0.5%

というような統計予測をして、「飲みます」を選ぶ

この過程には、意味理解感情意図文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ

プログラミング自動でまるで仮面ライダー01の01ドライバーの様にベルトの作成までやってくれているように喧伝してる奴らが多い

が、これを本気で信じ込んでプログラミング言語を書かせた奴がいたら、ほぼ間違いなくクビになる

わかりやすく上で例えた通り、LLMは、インターネット上に存在する膨大なコード断片・技術記事GitHubリポジトリ・Stack Overflow投稿などを学習している。

そのため【よく使われる文法構造】や【特定言語における関数の使い方】や【ライブラリ典型的な使い方】などを【意味を全く理解できず模倣している】だけって事

意味理解や構文チェックをしているわけではない、だからこんな問題が頻発する。

【動かないコードをアホほど入れる(変数が未定義、型が合っていない、ライブラリ存在しない関数を呼んでいるとかい小学生プログラミングスクールでもありえないミス

【. 「それっぽいけど間違っている」コードを大量に入れ込む(SQLインジェクションXSSなど セキュリティ危険実装を入れまくる、パフォーマンスが極端に悪い実装バグを含んでいるロジック特にif文の条件分岐ではほぼ100%発生する)】

もっと致命的な問題はこれ↓

【実行環境依存した誤り(存在しないAPIライブラリを使う、ほぼ9割の確率で…あと特定PythonバージョンNode.js環境しか動かないコードを汎用的に提示、つまり動きようがない)

専門的な意見となったのでわかりづらいので、もっとわかりやすく言うと「小学校プログラミングスクール入りたて1週間の子供が書いためっちゃくちゃなプログラミングにすらなってないコードを、製品利用するからレビューして出してこい」と言われてるに等しい、つまり最初から自分で書いた方が早い2度手間になる

これが、プログラミング革命だ!とか喚いてる奴らが隠すAI実態である

ちなみに↓がAIに書かせたコードの1例、

import jwt

token = jwt.encode({'user_id': 123}, 'secret', algorithm='HS256')

一見正しく見えるだろうから解説すると、実際には 【jwt という名前ライブラリ】が複数存在し(PyJWT, python-jwtとか)importの仕方によってエラーが出たり挙動が変わったりする。普通な絶対間違えない様な挙動AI構造上全く判断できない、これは上で上げた根本的な問題なので恐らく絶対解決できない。

② AI最大の欠点ハルシネーション これは永遠に解決ができないメビウスの輪

ハルシネーションがどういうものであるのか、AI批判でバズった記事などで言及されている通り、デマデタラメを出力してしまう、あれは本当にわかやすAIの致命的欠陥を検証してるので、あえて説明はここではしない。

しかもその増田の元記事では「文章データテキストまで読み込ませれば間違いがなくなるのでは?」といってたが、これも絶対になくならない、というより、もっとひどくなる。

批判をしている増田やXでの意見は単なる個人攻撃誹謗中傷のみで、技術的に改善可能プロセスさえ示せていない、例えば現在研究者の間では以下の様な解決案は研究されているが、どれも全く問題外とされている

検証システムとのハイブリッド…いわゆる「RAG」】

これは、AIが「知っている風」に語る代わりに、外部の信頼できるデータベース検索エンジンから情報を引っ張ってくる方式、バズった元記事増田がやっていた「自分図書館言って本の内容読んで誤りであることを確認する」これを検索エンジン使ってAIさらやらせる、という機能

また【メタモデル】すなわち、AI自分の出力を裏でさらに別のAIが別プロセスでチェックして間違いをただす、という方式研究されてる。

これは致命的な欠点が2つある、まず「検索で引っ張ってくる知識のものが間違いだった場合さらに間違いの結果を出し続ける」ということ。

記事増田MP5というマシンガン有効射程について突っ込んでいたと思うが、これが典型的RAGメタモデルの致命的欠点元増田は「実際に自分の手で銃を取り扱ったりしたことがある確かな経験で言ってる」が、書籍などの工業スペック仕様書定義しかネット上では流布してない、だからそもそも答えというものAIがたどり着けない。

2つ目は「文脈倫理常識道徳根本的に読めないので、解決策が乱暴すぎるもの」になる。

上で上げた鉄砲以外では、例えば医学などでこれをやってしまうと取り返しのつかないことになる。例えば医者の投薬治療治療ガイドラインに従ってるというが、優れた医者論文を読み込んで原理不明だがエビデンスはあるので、漢方薬を出したりするというお医者さんがよくいるだろう。あれは実際に患者を診て、西洋医学的には全く問題ないが、心理的な面も絡んで心身症になっているから、論文などで勉強して「暗黙知経験知」として処方してるし、その量も患者を診た医者経験で精度を上げている。

そして医療分野では、「冷え性の軽いむくみ」に対して「サムスカ(トルバプタン)」という劇薬指定危険利尿薬をAI提示した事例すらある。これを「笑い話」で済ませることはできない。

例えるなら判断が「脳外科医竹田君」並になる、投薬治療で3か月で治る程度の病気を、病根から外科手術で切除しましょう、なんて提案になる。最新のAIなのに80年前みたいな医学知識判断になってしまうのだ(胃潰瘍ってだけで胃袋は全摘、ついでに脾臓盲腸もいらねーからとっとこ、みたいな手術が昭和の昔、本当にガイドライン治療だった、「K2」などで言及されている)

学習できるベースがどうしても偏る以上、情報統合限界がある、さらに間違いが間違いをよび、さらに変な間違いを起こしたりありえない架空のことをいったりする、これがハルシネーションというメビウスの輪である

Neuro-symbolic AIという次世代さら文脈も読み取れるアーキテクチャAI研究しているが、全く実用化されていない、核融合量子コンピューターみたいな雲をつかむ話なので、AIがこの問題解決することは恐らく今後数百年はありえない、という結論が出ている。

③ 文化的偏在(Cultural Bias)

元増田記事批判もあったが、恐らくAIで一番致命的な問題はこれ

基本的AI英語ソース、つまりリングワ・フランカで圧倒的にテキスト量の多い(約95%)英語日本語含めそれ以外の全世界言語が5パーセントという偏った学習になっている

そのため、倫理道徳常識規範などがすべて西洋基準になってしまう、という問題がある。(元増田はこれを「脱獄基準倫理は誰が決めるのか?」と根本的な問題に気が付いていて批判していたようだ)

ちなみに、バズってた例の記事に「AIに書かせたんだろ」という批判も大量にあるしよくみかけるが、この場合においてのみ言うなら、これは③の問題からまずありえないということがわかる、以下が根拠

【滅茶苦茶一部の人間にしかさらない罵詈雑言

元増田は「俺達の麻生かいって秋葉原で踊ってた…」とか「レムちゃんエミリアたん、ヘスティアちゃんウマ娘たん、刀剣乱舞くん、ライカン様…」といった批判を繰り返し書いていた

これに激怒できる人間は、2005~2010年オタク界隈や秋葉原にすでにかかわっていて、実際に渦中にいたか同じ属性人間しか罵倒されていると文脈的に理解できないのである。つまり、大量の英語文化圏情報を食ってるAIではなんでそれが罵声侮蔑なのか理解できないので、書きようがない表現の数々、であるということである

AIからすれば「ライカン様?ウマ娘?なんじゃそりゃ」なのであるもっと言えば、その直後にコンテクストとして「アホ、ボケ弱者男性豚丼性器自慰で虚しく…」といった言葉があるから、なんならAIウマ娘ライカンキャラクターでなく侮蔑単語として理解してしまう、これは実際、元増田記事の一文をAIに食わせて質問したらガチでそうなるので、ぜひお手元で試してもらいたい。

【それ以外にも世界的にこんな問題がある】

プログラマーイメージを描いて」と依頼すると、男性画像ばかりが出るされる

看護師」→女性、「エンジニア」→男性という職業的性差自動的に反映される

アフリカ文化」→貧困紛争サバンナなど、植民地主義視点が強く反映される(実際は南アなどはすげえ都会である)

これに前述のハルシネーション問題として現れれば、人間と同じような差別偏見を「ガチ真実」として学習してしまう、人間場合、8割くらいは本当はおかしいこととメタ批判心理的にできるとされているが、AIにはその構造根本的に存在しない。

AI信者陰謀論者になるという本末転倒

元増田記事コメント欄やXなどで元増田AI批判批判しつつ、「金持ち上級白人専用のハイエンドAIがあるに違いないんだ」といっている意見が少なくない数がある。

冷静に考えれば、そんなめんどうくせえもん誰が作るんだ、と普通に考えればわかるのだが、この③の問題、すなわち95%の学習データ英語ソースなので、結果的西洋文明ベース文化圏人間向けにカスタマイズされているので、アジア圏やその他文化圏では利用に不利でそう感じてしまう素地ができている、という錯覚に由来している

例えば、パレスチナ問題などがそうだ、ガザ地区でほぼ国際条約や人道違反の残虐行為を国が行っているわけで、他文化圏や歴史的文脈から見ればどっちかって言えばパレスチナ人こそ被害者なのだが、イスラエルから見ればそれは正義であり正当な攻撃なわけで、後者の方がAIは正しいと判断した結論を下す様になる、といった問題である

これも上記問題に由来した結果である

あの記事元増田は「テロ組織ヤバイマニュアルまで学習してpdfで元データ提示してきた」と言っていた。実際AIに調べさせて持ってこさせてみると、出所アメリカ法務執行機関研究用にネットで公開したものであった。

日本人日本警察対応レベルで「ヤバイものでも、海外軍隊みたいな装備の警察で見れば大したことがないから、公開させてもいい=倫理違反には当たらない、という文化規範意識の違いを、あの元増田自身証明してしまっている、あの記事は、AIの治しようがない根本的な技術的欠陥をほとんど言及しているといっていい

AIは確かに便利だが、既存技術しかないし、既存技術の延長線上にはなれないし、技術ブレイクスルーにもならない

元増田が口汚く罵っている内容の様に、「AIは0を1にできないか格差が広がるだけ」という根本的な哲学を投げつけている

それを受けて批判してる意見の中には「(自分が1を持ってる側と何故か根拠もなく信じ込んでて)100にできるから(なら)便利」とか「そのAIから勉強したりしてる俺たちは先行者利益強者になれる」と信じて疑わない意見が多かった

問題の通り、そもそもキリスト教圏かつ非英語圏の国家で生まれて育った民族、というだけで、我々は等しく「0」側の人間であり、結局競争になると勝てない、ということに全く気が付いていないのである。ここにAI信者の宿痾といえる病理がある

かつて日本人黒船を見て5年そこらで蒸気機関模倣した、火縄銃を一丁買えば10年でオスマン帝国の次に鉄砲を使うようになった、それは当時の日本人の基礎工学技術が導入可能なほど優れており、かつそれに対して現代では考えられないほぼバクチといっていい投資を行った結果であって、その結果を見て自分たちはAIを使いこなせて強くなれるなんていうのは、物凄い妄想である。つまりAIは少なくとも「非英語圏」の人間にとっては、ブレイクスルー絶対に起こりえない、ということである

2025-06-19

粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。日本AIレベル自体がもう地に落ちてるよね。

粉飾決済だ!と叩かれてるAIスタートアップが、ChatGPTのAPI叩いてるだけのラッパーだ!って叩かれてるが。

日本のほぼ100%AI企業とかは、それが技術的には最高到達点なんだよなあ。

  

なんちゃら発スタートアップとかで、学生起業してるのはほぼそれ。

まあもちろん、彼らも、「RAGとかfine tuningやってるからトップレベル研究論文でもほぼワークフローfine tuningとか噛ませるだけのやつもあるから!」ってことだけど。

実際のサービスとかは、APIきじゃん。

fine tuningRAG受託でPoC (お試し)でやってみてるだけじゃん、実際には使われない、大企業IRを見せるためだけの。そのRAGやfintuningオワコンになってきて、次はMCPサーバーをこれまたお手軽に作るだけのMCPラッパーもやるんだろうけど。

  

もちろん、AIスタートアップより大企業もっとひどい。

とある大企業バリバリトップ開発者とやらと喋ったら、それ1年前に世界中研究者がやり尽くしたよね?みたいな技術をいまだに実装できなくて悩んでたりする。

具体的な技術としては、3D Gaussian Splattingみたいな。それもう当たり前に実装できるかと思ってたら、マジで実装すらできないんだねって。

  

もっと酷いのが、SNSAIインフルエンサーだけど、それはもう、流石に皆んなわかるよねって思ってるけど。

大企業がまた、これらのAIインフルエンサー便りだったりする。

何をどう考えたら、論文一本すら書けないAIインフルエンサーなんか信用するのか理解できないが。

適当感想を言うだけのインフルエンサーAPI叩いたりするのを眺めてるのが勉強になると思っているのか。

論文評価を見てまともな治療法を理解できないなら、そりゃ厳しいから、民間療法試しちゃうんかなあ。

  

一番酷いのが、全く関係ない領域大学の人が、「AI時代の◯◯」とかで語り出しちゃう系。特に工学系、医学系が酷すぎる。

大学先生なら、プライド持ってわからないことはわからないと言って、感想文ではなく、レビュー論文なり引用してこうなってるらしいとか言えばいいのに、自分感想文やって、全くおかしなこと言いすぎだろ。

  

結局、粉飾決算したAIスタートアップは、確かに背伸びした決算を出したんだけど。

技術的にも世界から見たらゴミだけど。

それが日本の最高到達点に近いものからしょうがないよね。

日本全体が、それすら到達しなくて、そこを目指して頑張ってるってのが地獄

  

<補遺>

※もちろん、極一部の、本当にAIトップカンファレンス論文出してる企業とかは、ちゃんとした技術作って、「本当に」AI作ったりもしてるのは理解してますサービス日本向けの残念なものしかやっぱ出せないけど。

  

※※ AI系は、論文書けないAI企業AIインフルエンサー技術ない、信用されないって文化にするしかないと思う。

2025-06-14

おじさんなのでプライベートRAGが欲しい

会社ルールや、打ち合わせ内容が覚えられない。

もともと苦手なのだが、さらに苦手になった。

こんな時にRAGを使えればいいんだが、会社勝手チャットボット開発するわけにも行かんからなあ。

業務に関する内容をマークダウンやらExcelやらにまとめてアップロードしてベクトルデータベースに格納してくれる

業務用小規模チャットボットを手掛けるサービスとかやったら、金になると思わん?

「昨日、A社の佐藤さんとアレしたアレ、なんだっけ」みたいな曖昧質問でも答えてくれるし、関連する話題の要点をまとめて教えてくれるし。

2025-06-13

メールを送るだけ」でAI悪用攻撃可なMicrosoft 365 Copilotの脆弱性

RAG業務効率化だとか言ってる会社は軒並み禁止にしたほうがいいと思う

管理なしにAIメール読むような設定されたら情報漏洩待ったなしやん

2025-06-10

今後長期にわたって通用する「AI実用活用・応用スキル」を磨く

今後長期にわたって通用する「AI実用活用・応用スキル」を磨くには、

テクノロジー進化に左右されにくい“原理原則”と“実務への橋渡し能力”に注力すべきです。

以下、戦略的重要な分野と学び方を挙げます

🔧 1. AI業務生活を橋渡しするスキル

プロンプト設計力(Prompt Engineering)

ユースケース発掘・再構築力

AIツールの横断的知識(Notion AI、ChatGPT、Runway、GitHub Copilotなど)

  • なぜ重要か:道具箱の中身を知っておくことは応用力に直結。
  • 磨き方:新しいツールが出たら「触ってみる」、かつ「何に使えるか考える」をセットで。

📊 2. 実用的なAIデータハンドリングスキル

● 軽量なデータ分析Excel + Python + ChatGPT)

● LLM向けドキュメント整備・構造

🧠 3. AI共生する“思考術”

ゼロから考える力 × AIとの分担最適化

フェイク見抜き力 × 情報編集力

🎓 4. 実践的な鍛え方(ロードマップ

フェーズ やること
①習熟 ・ChatGPTの活用法(表形式出力、要約、コード生成)を極める・各業務に1つずつAIタスクを試す
②応用 業務趣味の中で「AIやらせタスク」をログとして蓄積・ツールを使い分ける力を磨く(例:翻訳はDeepL、校正はChatGPTなど)
③発信 実践例をブログSNSで発信(反応が学びになる)・他者活用事例をフィードバックとともに評価する
④導入補助 他人AIツールの使い方を教える・PoC(概念実証)をサポートすることで思考を外化

🧭 最後に:本質は「どの技術か」ではなく「どこにどう活かすか」

AIのものより、**人間活動の中で「AIが何を代替/強化できるか」**を見極める眼と実行力が、最も長く通用します。

UnityやDifyをいくら触ってもプログラミングは上達しない

最近の開発環境って進化しすぎてて本当に最小限のコードを書くだけでプロダクトができる

Unityとかのゲーム開発環境なんかが良い例でトレーニングすれば1日でそこそこのゲームを作れるようになる

これは特にオープンワールド系のゲームが物量でゴリ押すようになったか人員必要になったことが原因で

高度な開発知識なんかなくてもゲーム開発に参加できるようになってる

Difyも同じような道を歩んでいて、LLMを使った個別エージェント開発だとかRAG対応だとかは物量でゴリ押す雰囲気が出てきていて

Difyみたいなポチポチすればエージェントが作れます、っていうツールでとにかく現場の人に作らせようとしている

(恐らくこの分野はLLMに駆逐されそうだが)

UnityしろDifyにしろ、実際に必要となるロジックなんかは本当に最小限で済むのでオブジェクト指向だとかDDDだとかは全然必要とされていない

Unityキャラを歩かせる場合は始点と終点指定してNav Meshとかを設定しておけば勝手にやってくれる

で、問題なのはこの程度のコードを書いただけで「プログラミングできる」と勘違いしてしまう人が続出している点で、採用活動するとかなり多い

君たちがやってるのはせいぜいコンフィグを書いてるレベルであってプログラミングではない、と言っても理解してもらえない

試しに

「このキャラ10個のポイントからランダムに出現させて、他の10個のポイントのどこか1つに歩かせてみて」

と言ってみると分かるが、この程度の実装すらできない

逆にできる人は自分スーパーエンジニアだと思い込んでるぐらい自信満々で面接に来る

オブジェクト指向の話をしても「そんなの必要ですか?」みたいな態度で関数も使わずベタ書きコードを恥ずかしげも無く自慢してくる

AI人材も似たような雰囲気が出てきていてDifyとかでチャット作って

「私は最先端AI人材です(ドヤァ)」

という人が段々増えてきているしこのトレンドは収まることがなさそう

AI駆逐するのはこのレベルプログラマーであって、もっと上位層のプログラマーは(まだしばらく)駆逐されなさそう

計算機科学情報理論を履修してるちゃんとしたプログラマーだけが生き残っていくんだろうと思っている

2025-06-04

連想能力が高く分野横断的な脳みそが最も生成AIに適合的に思うんよね

生成AI学習した全ての言語空間の高度な確率マッピング(ただし汎用的にチューニングされてる)だから、高度な回答を求めるときに一分野を掘り下げるというより

複数分野の高度概念有機的に結びつけることで内容を深めるアプローチが刺さりやすいように思う

確率分布の偏りを意図した方向に操作するという意味でも、一例ではなく似通った複数例を提示して、方向性を固定していくというアプローチが生成AI(LLM)の仕組みに適合的

そうやって方向性を固定したあとに、特定分野の本とか論文とかの長文テキストを投入するみたいなRAGに近いことをすると、ちゃんと内容を掘り下げられると思う

生成AI確率分布機でしかなくて、生成AIが賢いとか間違うとかい主観的評価にはなんの意味もなくて、どう使うかを考えないといけない

2025-05-28

ファクトチェック研究のためにLLMを用いたopen relation extractionとかってできないんすか?あと、他になんかもっと有用技術とかないんすか?

ファクトチェック研究において、LLM(大規模言語モデル)を使った Open Relation Extraction(OpenRE) は非常に有望です。

実際、LLMを用いたOpenREやそれに類する技術は、近年のファクトチェック自動化支援研究で注目されています。以下に詳しく説明します。

LLMを用いたOpen Relation Extractionの活用可能

1. OpenREとは?
2. LLMによるOpenREの利点
3. ファクトチェックでの使い道

他の有用技術手法(LLMやそれ以外)

A. Claim Verification via Retrieval-Augmented Generation (RAG)

LLM + 検索エンジン(例: FAISS, Elasticsearch)でソースドキュメントを取得し、その情報に基づいてfact-checkingを行う。特にニュース記事など長文に強い。

B. Entity Linking + Knowledge Graph Reasoning

文中のエンティティをWikidataなどにリンクし、KG知識グラフ)上でのパス推論で検証。Graph Neural Network(GNN)などを併用。

C. Stance Detection(主張への立場検出)

claimに対してドキュメントが賛成・反対・中立かを分類。

D. Natural Language Inference (NLI) による真偽判定

`(premise, hypothesis)` の関係を `entailment`, `contradiction`, `neutral` に分類。高性能なNLIモデルを使えば、ファクトチェックの核にできる。

研究観点面白いトピック

トピック説明
LLM + Knowledge Graph Alignment claimから得られる関係KGとの自動照合。
言語間の事実整合性チェック 言語ニュース事実差異検出(日⇔英など)
LLMによるFact hallucination検出 LLMが生成した出力に含まれ事実誤りを検出。
Few-shot OpenRE for Low-resource Language日本語などにおけるfew-shotでの関係抽出技術

2025-04-23

anond:20250423070910

それあるなら諦めず応募してたら受かるだろ。もっとザコかと思ってたわ

もっとポートフォリオサイト作ってDockerk8sAWSGCPAI使ってアピールしろRAGMCPサーバー構築できると良い。AWSとかの資格も取れ。あとはコード設計な。デザインパターンやれ。MVC理解したあとDDDやれ。IT系ビジネスの本も読め。Figmaデザイン作れ。とにかくがむしゃらに受かるまでやれば受かる。どうせ全部あとで役に立つ。AtCoder緑あるならコンパイラ作れるだろ。そういうの作ってGitHubに置け。Slack自分で使え。bot作れ。SOLID原則理解しろJava以外も書け。特にTypeScriptJava分かるなら楽勝だろ。データベース勉強しろNginx立てろ。プロマネの本も読め。勉強会参加してこい

あととにかくコード書け。たぶん足りん。

あと履歴書を規格通り出してないだろうな。履歴書なんかほぼ不要から何作って何ができてどこまで知ってるか全部精密に書け。

ログイン ユーザー登録
ようこそ ゲスト さん