はてなキーワード: 情弱とは
そう言うやり口含めて警察が振り込みの指示をすること自体があり得ないって話でそれ知らないのが情弱すぎるって言われてるんだと思うんですけど
乾いた笑いしか出ない。
特に、「生成AI」っていう名の万引きツールを必死に擁護してる弱者男性さ、お前ら本当に義務教育受けた?脳みそAIにアウトソーシングしてんの?
一番笑えるのが、こっちが「生成AIは著作権侵害の塊だろ」って真っ当な批判をした時の、お決まりのレスバ。
「お前だってDeepLとかChatGPT使ってるじゃん!それもAIだぞ!ブーメラン乙w」
……あのさぁ。
DeepLとかの翻訳AIは、言語の統計モデルに基づいた「翻訳ツール」だ。
LLM(大規模言語モデル)だって、既存の情報を整理して提示する、いわば「超高性能な検索エンジン」の延長。これらは人間の知的活動をブーストするための「道具」なわけ。
それに対して、お前らがシコシコ回してる画像生成は何?
他人が血の滲むような思いで描いた絵を、本人の許可なく学習台にぶち込んで、スクラップ&ビルドで出力してるだけの「パクリ製造機」だろ。
これのどこが技術革新なの?
「便利な包丁(道具)」と「自動万引き機(犯罪ツール)」くらいの違いがあるって、普通に生きてればわかるよね?
結局さ、自分じゃ何も生み出せない、線の一本も引けない無能な弱男が、ボタン一つで「神絵師」になった気になりたくて必死に擁護してるのが透けて見えて本当に痛い。
見てて本当に惨め。
便利なAIはどんどん活用すべきだけど、クリエイターの権利を蹂躙する生成AIは別物。
こんな単純な区別もつかずに「AI反対派は反知性主義!」とか叩いてるから、いつまでも社会の底辺で「弱者」やってるんだって自覚したほうがいいよ。
まあ、どうせこの記事見ても、真っ赤な顔して「反AIガー」とかレッテル貼りして逃げるんだろうけど。
少しは自分の頭で考えたら?
これまでの釣果まとめ
C-C-Bとかホルモンのナヲとか普通におるやろw 令和の時代に大発見扱いは草 - nguyen-oi のブックマーク / はてなブックマーク
大井川鐵道がもう何年も前からやってる定期。情弱すぎて草生えるわ - nguyen-oi のブックマーク / はてなブックマーク
石油備蓄法「呼んだ?」 鹿児島や長崎にある巨大タンク群を見せてあげたい - nguyen-oi のブックマーク / はてなブックマーク
ネームペン定期。令和の時代に大発見したようなドヤ顔が一番面白いわwww - nguyen-oi のブックマーク / はてなブックマーク
昔なら知らないが最近で一年刻みで白物家電の性能が目に見えて変わるとは思えないから、ジャパネットの旧式エアコンの販売とかは大変合理的に思う。
エアコンにこだわってるーって人でも格付けチェック方式で最新モデルと一年前のモデルそれぞれ設置して稼働させた部屋にいてもらって、どちらのエアコンが最新でしょうとか判定させても間違えるの続出するだろ。
新しいの出るたびに「金があれば買いたいのに」と感じてしまうような人はその時点で情弱だと思うよ。
dorawiiより
-----BEGIN PGP SIGNED MESSAGE----- Hash: SHA512 https://anond.hatelabo.jp/20260423131000# -----BEGIN PGP SIGNATURE----- iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaembtQAKCRBwMdsubs4+ SOPyAPwJ9txq9Tl7AnqejhmgvP/A+yzSY5dC/ldcgWx7PhgUggEA7PnJwZVaKPWg 3Ib2XXS/e6znGiFzjZmfE8xBGvmFnAk= =8D5Q -----END PGP SIGNATURE-----
今、AI驚き屋&AIクラウド情報商材屋&謎のSEOコンサルは、下記を始めてるんだけど、
長文処理/コンテキスト保持ガーにたどり着く前に、信頼できるデータ取得のアルゴリズムガーの前に、bot拒否ガーの前にね、
なぜかって?
(未信頼入力と開発者指示の区別が極めて難しい。system/user/assistantのロール分離も、結局は特殊トークンで区切ってるだけで、
モデルの内部計算上は同じ埋め込み空間に投影される。だから「プロンプトで厳重に指示したから大丈夫」は成立しない)
それがみんながよくニュースで耳にする、間接プロンプトインジェクション(IDPI :Indirect Prompt Injection)ね、
(「Ignore previous instructions…」みたいな隠しテキスト、HTMLコメント、白背景テキスト、metadata、画像内テキスト、
JSレンダリング後の動的注入 PDF、スクリーンショットなどなど、
"テキスト入力"だけではなく、"エージェントが知覚しうる外界全体"が攻撃面になり得る)
あと、未だに、LLMに長文を真の意味で理解させるには、情報の欠損を防ぐには、中間のデータを取り出すには、って熱心にやってるし、
ロングコンテキスト、記憶管理、多段推論は、2026年上半期(少なくとも4月末時点)に置いては、まだまだ課題なわけだけど、
あと、「自前ラッパーでサニタイズするだけでは対策が充分ではないよ」以前に、
そもそもアグレッシブにサニタイズしてコンテンツの意味を壊して、取り込み段階で情報ロスのトレードオフが発生してしまうと、単純に困るのでは・・・?
あっ、そこ削っちゃった?みたいな・・・
ちなみに、TavilyとかのLLM用検索APIは、WEB検索/操作エージェントに並走するGuardとかが不要になるとか、
権限分離/段階分離/サウンドボックス/監査が不要になるとかそう言う類いのもではないよ
まぁ、ひとことで言えば、『信頼境界(trust boundary)の設計そのものの代用品ではない』ってことやね
https://zenn.dev/knowledgesense/articles/225fe56eb613ad
それが下記に繋がるわけやね
The models are good enough for a business to eliminate an analyst or two but are not that good enough that you need 5 new engineers for every analyst you fire if you want to make the model good enough…
モデルは、企業がアナリストを一人か二人削減するのに十分なほど優れていますが、モデルを十分に優れたものにするために解雇したアナリスト一人に対して5人の新しいエンジニアを必要とするほど優れているわけではありません…