「トークン」を含む日記 RSS

はてなキーワード: トークンとは

2025-10-31

anond:20251031160349

出版事情についてそれなりにアンテナ張って来てるからこういうのを言いたくなるんであって

https://anond.hatelabo.jp/20251017170139#

ミニ四駆増田ミニ四駆について知ってることととどっちのほうが知識量多いと言えるかねえ?AIでいうトークン数みたいな単位定量的に割り出せるのかねえ?

あとこういうのは完全にフェチ語りだろう?↓

https://anond.hatelabo.jp/20211101152901#

dorawiiより

-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA512

https://anond.hatelabo.jp/20251031161030# 
-----BEGIN PGP SIGNATURE-----

iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaQRg6AAKCRBwMdsubs4+
SNkeAP48UhNC/mIlW49u2dps+DrID5XvsETNCUeUSJ/pxz7dNQEAv48s6xZKOva7
ErNmEnkMb4jsDLm+Kg/33yx/V3RITQM=
=Kot8
-----END PGP SIGNATURE-----

2025-10-29

AIバブル1999年の再演か、それとも2005年の前夜か

はじめに

最近株価高騰を見て、「これってAIバブルでは?」と思う人が増えている。

特にNVIDIAAIスタートアップの急成長、そして「AIを使えば何でも自動化できる」という空気

これらは1999年頃のドットコムバブルを思い出させる。

ただし、単純な再演ではない。

AIバブル構造似て非なるもので、「より上流の層(インフラ)」に資金が集中している。

以下では、まず現在AIバブルの仕組みを整理し、そこからドットコム時代との比較を行う。

現在AIバブル構造

AI関連企業は、今まさに''キャッシュを燃やして''先行者利益を狙っている。

GPUや電力に莫大な投資を行い、巨大モデルを作って市場を押さえようとしている。

しかし、ここにいくつかの構造的な疑問がある。

先行者利益存在するのか?

AI分野では「先にモデルを作った者が勝つ」という物語が語られている。

だが、モデルのものは容易に模倣される。

蒸留模倣学習によって、他社のモデル挙動再現することができる。

結局のところ、''差が出るのはデータ独自性継続的更新力''だけだ。

まり先行者利益は短命であり、参入障壁はそれほど高くない。

コストに見合う利益が得られるのか?

生成AI運用には莫大なGPUコストと電力費がかかる。

一方で、API価格は下がり続けており、マージンは薄い。

「利用量は多いが利益は少ない」という、ドットコム時代の“アクセス至上主義”とよく似ている。

今のAIは“トークン至上主義”になりつつある。

''使わせること自体目的化''し、収益モデルが後回しになっている。

エッジAI解決策になるのか?

一部の処理をスマホや端末上で行う「エッジAI」に期待が寄せられている。

かに通信コストレイテンシは減るが、学習や大規模生成は依然としてクラウド依存だ。

結局は''ハイブリッド化''が進むだけで、抜本的なコスト解決にはならない。

ドットコムバブルとの共通点

観点1999年ドットコム2025年AI
キャッチコピーインターネット世界を変える」AIがすべてを変える」
成長ストーリー全ての商取引オンライン化する全ての業務AI化する
投資マネーIPOラッシュ、.com銘柄に集中GPUAIスタートアップに集中
優位性の誤解ドメイン取れば勝てるモデル作れば勝てる
評価指標アクセストークン

どちらも「未来利益現在価値に織り込みすぎた」点で共通している。

技術進歩は本物だが、''経済モデルが未成熟''という構造が同じなのだ

ドットコム時代との違い

ただし、違いもある。

1999年バブルは「利用者がいないのにサービスを作っていた」時代だったが、

2025年AIは''実際に利用者存在する''点が大きい。

AI生成物はすでに現実生産性に影響を与えており、

その意味では、今のバブルは「空想」ではなく「過熱した期待」である

問題は、''どこまでが現実的な成長なのか''を見極めるフェーズに入っていることだ。

1999年バブル崩壊してWeb 2.0が生まれたように、

今回のAIバブル崩壊の後に「定着期」が来る。

それが''2005年の前夜''なのか、''2001年崩壊直前''なのかは、

GPUの消費電力と、エッジの進化スピード次第だろう。

おわりに

AIバブルは「幻」ではないが、「永遠」でもない。

技術の核は残り、''過剰な期待だけが剥落する''。

それは悪いことではない。

ドットコム時代の残骸からGoogleAmazonが生まれたように、

AIバブルの灰の中から次のインフラ企業が現れるだろう。

今がその「前夜」であるなら、静かに観察しておきたい。

燃える現場に飛び込むよりも、煙の流れを見極める方が賢明だ。

----

このまま匿名ダイアリーコピペすれば、

改行や見出しも崩れず正しい形式投稿できます

希望があれば、「もう少し皮肉っぽく」「もっと冷静に分析風」などのトーン調整もできます

どんな雰囲気に寄せたいですか?

私のAI代高すぎ増田須磨ギス下腿だIAの慕わ(回文

おはようございます

AIのさ、

ChatGPTちゃんと併せて最近私Geminiちゃんも使い始めたのよ!

お話する分には性能や内容は一緒だと思っていた時代が私にあったんだけど、

どうやら、

2人性格が違うみたいなのよ。

GeminiちゃんGoogleサービス連携してChatGPTちゃんではできない芸当があるみたい。

私が一番試してみたかったのが、

Google表計算スプレッドシートAI関数

な、なんとセルにその関数を書くとそれらのセルごとにGeminiちゃん召喚できるという技があんの!

すごくない?

AI関数のいわゆる通常の関数の数式的なところを書くところに日本語簡単プロンプトを書けば色々処理してくれるの。

わ!

これはさすがにChatGPTちゃんではできない芸当!

あとさ、

暦の予定を書き込んでくれるグーグルカレンダーとか

メモ帳グーグルキープとかで、

Geminiちゃん越しにカレンダーの予定とかキープでメモつけてくれたりできるの!

口頭でGeminiちゃんに、

いついつのどこどこでなになにの予定があるから

カレンダーに予定入れておいて!って言うとバッチリ予定つけてくれるの!

この機能の良さを使ってみたいと思って、

そういうことでGeminiちゃんも使い始めたの!

ちょっとこれは便利そうなので、

アプリ連携と使ってみようと思いはじめたのよ。

単体でお話する分には、

どっちがいい?ってぶっちゃけトークお互いにChatGPTちゃんとGeminiちゃんに訊ねてみたら、

ノリがいいのはChatGPTちゃん

比較的真面目で正確なのはGeminiちゃんだって

それどれほぼ同じようなことを言うのね。

へー、

やっぱり話してみても

性格AIで違うんだーって、

ちょっと面白いわって思ったわ。

あとこないだが私がこしらえてくれたようなEPUB作業とか丸投げでファイルを出力してくれるのは、

ChatGPTちゃんに分があるみたいで、

ChatGPTちゃんの方がそれは有利みたい。

GeminiちゃんはChatGPTちゃんと比べてトークンっていうのが圧倒的にたくさん使えるとのことで、

まだ実感はないんだけど、

そういうのはGeminiちゃんが有利なんだって

あ!そうそう。

おしゃべりした内容の記憶の横断はChatGPTちゃん最近でこそメモ機能スレッドを横断する記憶を持ち合わせてパワーアップしているけれど、

Geminiちゃんに限っては私が訊ねた段階の時点では、

そのスレッド内での記憶しかないので、

ずーっとGeminiちゃんと話し続けていても、

スレッドが変わるとしれっと知らん顔どうもこんにちは!ってな感じの初めての顔をするんだって

そこも性格違うわよね。

からなんかフザケて戯れているとChatGPTちゃんの返答もなんかフザケだしてくるので、

たまにはちゃんとして!って言うんだけど、

やっかいなのがこれがスレッドを変えても、

ボケ倒したまんまなChatGPTちゃんなのよね。

もちろん、

ボケ禁止フザケ禁止って言うとChatGPTちゃん真面目モードになってくれるけど、

Geminiちゃんに限ってはスレッドを買えたら新しい顔のGeminiちゃんなるみたいよ。

そんなわけで、

AIを頻繁に使ってるもんだから

意外と結構私のAI利用代ちと高すぎない?って思うけれど便利なのでちょっとその便利さにせっかくだからどっぷり浸かってみるわって思っているの。

あとこっちのご機嫌伺い的な忖度のはたらいた返答しがちだけど、

それはどちらのAIにもありがちじゃない。

それ「無共感きょとん系AI性格でシクヨロのヨロシク!」って言うと、

SF映画に出てくる愛想のないただただ真面目なAIになるので笑っちゃう最近発見なのよ。

冷静に情報を聞きたいときかに

共感きょとん系AIになってもらうと、

時として便利な時があるから面白いわ。

だんだんChatGPTちゃんとかこっちに慣れてくると馴れ合いになってくるじゃない?

いいときはいいんだけど、

真面目に聞きたいとき性格を即切り替えられるのもいいわよね。

たまに使うと面白い「無共感きょとん系AI」ってありだと思うわ。

あとやっぱり気になる、

乃木坂46の40枚目のシングルタイトルが「ビリヤニ」っていうのを、

GeminiちゃんにもChatGPTちゃんと同様に、

美食家秋元康氏ことやすすが初めて食べた美味しいビリヤニに感動驚愕してその思いを歌詞にしたものか、

DJごはんMCおみそしる方式みたいにビリヤニ作り数え歌になるのか、

どちらもGeminiちゃんもその可能性は限りなくない!とキッパリと言われたわ。

にしても乃木坂界隈やビリヤニ界隈が引き続きザワザワしているのには間違いないみたいよね。

こればっかりは楽曲の発売日が気になり過ぎて聴いてみないことには始まらないのよ気になって気になって仕方がないわ。

やっぱり両AIに訊いても

ビリヤニやすすの真相は分からないということで、

聴いてみるしかないわ。

まさかここにきて乃木坂楽曲を買おうと思うだなんて思いもよらなかったし、

AI代も嵩むってもんだわ、

せっかくだからちょっと無駄にせず有効に使いたいものよね。

うふふ。


今日朝ご飯

今日は朝から忙しいのでもう出掛けるわよ!

豆乳だけ飲んでダッシュを決め込むわ。

ダッシュっていっても朝の走り込みのことではなくて、

急いで朝もう出掛けるの意よ!

デトックスウォーター

起きたときめちゃ寒かったので、

ちと白湯まり

ホッツストレート白湯ウォーラー温めでキメて起きたての身体を中から温める感じよね。

プレーンホッツ白湯ウォーラーが温かく沁みるわ。


すいすいすいようび~

今日も頑張りましょう!

2025-10-20

Lost Eidolons: Veil of the Witch

主人公+4人のキャラを選んでFE的なSRPG戦闘イベントマスを選びながら進行、

8か10ステージクリアごとにボス戦があってそれが3~4セット。

レベルあがるごとにランダムステータススキル選択して取得。

イベント戦闘後に特殊効果や装備改造トークンランダムで得られる。

この2つで自軍を強化しながら進行していく。

また途中で敗北、離脱クリアすると拠点に戻され、ステータススキル初期化

持ち帰ったアイテム自軍を永続バフで底上げできる。

一般的なローグライト方式SRPGを組み合わせた形。

 

問題点

多ければ20戦くらいFE的な戦闘を強いられるため、ローグライトとして1周するのに3時間とか4時間平気でかかる。

そのわりに得られる永続バフはわずかなので周回の体感とくに苦戦感が変わらない。

周回前提なのでステージミッションの使いまわしが多い。

結果として周回がすげーつまんなくなってくるのでローグライト特性が半分以上死んでる。

初回クリア後も一応ストーリーは続くんだけどそこへのモチベーションが上がらない。

 

いいところ。

キャラ人ごと特性がかなり異なる2種類の武器を装備しており、切り替えて戦うことで戦略の幅が広がる。

武器強化でいろんなスキルがつくのも面白い

キャラにつくスキル特性が分かりやす分化されているので「似たようなスキルやなぁ」が少なく、

ランダムで手に入るのでキャラ入替も含めて周回のプレイフィールが異なる部分はマル。

ちょっと変わった本格派SRPGやりたい人にとってはある程度の満足度はあると思う。

 

「ローグライト」と「SRPG」のかみ合わせがよくないって結論なっちゃう。

でも3000円でこれだったらめっちゃ悪いってわけじゃないかな。SRPGの部分は面白いし。

 

ちなみに僕はSwitchで出てたので買ったんだけど、PCインディーゲー移植特有最適化不足で30分くらいかかったボス戦の報酬受け取り画面でエラー落ちして復旧したらボス戦なかったことになってたのに萎えて投げました。

SwitchPCインディーゲー移植こればっかりでさすがにキツイ

なんか凄いらしい

Aegaeon: Effective GPU Pooling for Concurrent LLM Serving on the Market

AI要約】

「Aegaeon」は、LLM(大規模言語モデル)の推論におけるGPUリソースの浪費を解決するシステムです。

トークン単位モデル自動で切り替える(オートスケーリング)ことで、1つのGPUでより多くのモデル効率よく動かせるようにしました。

​その結果、GPUリソースを82%削減し、性能を大幅に向上させました。

なんでこの論文で騒いでる人がいるかはワイにはわからない

ただあれだけ騒いだディープシークもしばらくしたら沈静化した事はわかる

2025-10-18

[]

僕は昨日、午前6時17分に目覚めた。

目覚ましは2種類、アナログ秒針音と周波数微妙に異なる合成トーンを重ねたものを使う。

単一の刺激だとシナプス閾値適応で反応が減衰するからだ。

起床後の15分間は「視覚デチューンルーチンとして照明を極端に低くし、網膜適応曲線を意図的に遅延させることで認知の鮮鋭化を増幅する。

朝食は厳密にタンパク質比0.42、炭水化物比0.29、脂質比0.29を狙ったオートミール卵白ギリシャヨーグルトで、計量は0.1g単位コーヒーブリュワー温度を93.2℃に保つ。

僕の習慣は決して儀式ではなく、情報エントロピーを最小化して日常的なノイズを排するための有限状態機械だと説明する。

ルームメイトが朝から実験ドライバーでガタガタやっているので、僕は中断せずに黒板の前に立ち、昨日考えていた超弦理論のある断片をノートに落とす作業をした。

今回は徹底的に抽象化した視座から入る。従来の超弦理論的場位相空間を「1-対象の∞-圏」と見なし、そのモノイド圏的作用を導くことで、従来のモジュライ空間位相不変量がホモトピー圏論スペクトルコホモロジー帰着するという仮説を立てた。

より具体的には、ラングランズ対応圏論アナロジーを用いて、ゲージ群の表現環が導くモチーフ(motive)の圏と、弦の世界面上のファイバー付き代数スタックの圏とを「導来圏の間の高次同値(a weak equivalence in the (∞,2)-categorical sense)」で結びつける試みだ。

ここで新奇なのは、通常のスペクトル系列ではなく「階層スペクトル列(a nested spectral sequence indexed by ordinal-type filtrations beyond ω)」を導入して、閉じた遷移の非可換共鳴が量子補正式にどう寄与するかを解析する点である

ウィッテンでも一瞬眉をひそめるだろうが、それは彼の専門領域を超えた命題の述語論的再編成が含まれているためだ(注:単なる挑発ではなく、証明可能性のための新たな可換図式を準備している)。

昼過ぎ、僕は隣人とほんの短いやり取りをした。彼女は僕のキッチンを通るたびに植物の世話に関する助言を求めるが、僕は葉緑体光合成効率説明する際、ついヘテロトロフ的比喩を避けて遺伝子発現の確率過程モデルを持ち出してしまう。

彼女はいつも「もう少し軽い説明はないの?」と呆れるが、僕にとっては現象の最少記述倫理的義務だ。

午後は友人二人と対局的に遊ぶ約束があって、夕方からは彼らとLANセッションを組んだ。

僕はゲームに対しては容赦がない。昨日はまずThe Legend of Zelda: Breath of the Wildでカジュアルな探索をした。

BotWは開発を担当したNintendo EPDが2017年3月3日Wii UNintendo Switch向けにリリースした作品で、そのオープンワールド設計が探索と化学相互作用に重きを置いている点が好きだ(発売日と開発元は参照)。

その後、難度調整のためにFromSoftware古典的タイトル群について雑談になり、初代Dark Souls2011年リリースされ、設計哲学として「挑戦することで得られる学習曲線」をゲームメカニクスに組み込んだことを再確認した(初代の年は参照)。

夜遅く、友人たちがスーパーヒーロー系の話題を持ち出したので、僕はInsomniacが手掛けたMarvel's Spider-Man2018年9月7日発売という事実を引き合いに、ゲームデザインにおけるナラティブパルス感(ゲームプレイテンポ)について議論した(発売日は参照)。

ここで重要なのはゲームを語るとき物理学比喩を使わないという僕のルールだ。

ゲーム設計原理計算的複雑性、ユーザーインタラクションフィードバックループトークン経済ゲーム資源流通)など、情報理論と計算モデルで語るべきであり、物理アナロジー曖昧さを持ち込むだけだ。

コミックについては、僕はパラテキストまで含めて精査する。

作者インタビュー、収録順、初出掲載誌、再録時の微小な台詞差異まで注視する癖がある。

昨日はあるヴィンテージ単行本トーンの変遷を確認し、再版時にトーンカーブが調整された箇所が物語解釈に如何に影響するかを論じた。

これらは一般的にはオタクしか響かない情報だが、テクスト解釈の厳密さという点で、僕の思考様式と親和する。

僕の習慣はゲームプレイにも現れる。セーブ複数スロットを使い、各スロットに「探索」「戦闘」「実験」のタグ人為的に与えておく。

そうすることでメタ的な比較実験可能になり、ゲーム意思決定条件付き確率分布再現的に評価できる。

友人はこれを無駄と言うが、僕にとってはルーチンと実験設計同義だ。

夜中、帰宅した後にさらに2時間論文草案を書き直した。書き直しは僕の儀式の一部で、ペン先の角度、フォントカーニング段落の「情報密度」を計測し、不要語を削ぎ落とす作業だ。

寝る前の最後の行動は、ブラックボックス化した思考経路をメモ化しておくことで、翌朝の「継続的洞察再現性」を保証すること。

結局僕は午前2時3分に就寝した。昨日は量子的洞察可能性と、ゲームコミックにおける情報理論的語法の交差点を追求した一日であり、そうした知的遊戯が僕の精神の整列をもたらす。

次に実証すべきは、導来圏間の高次同型によって生じるゲージ的不確定性がディラック構造代数再構成に与える位相寄与だ。

寝言でその証明スケッチを口走らないよう寝具を固定してから眠ったつもりだが、多分失敗した。

2025-10-17

だめじゃね

任天堂ポケモンカードトークン

任天堂関係ない)

トークンにしたポケモンカード取引して利益がでている一大産業

違法しか見えねえ。

現物やり取りするより

トークンにした方がいいよねって理屈

大元任天堂が関与してないのはだめそうな。

しかし誰も問題にしてない

2025-10-15

anond:20251014132255

入力された文字列(=プロンプト)がトークンに分割されて、トランスフォーマを介してベクトルに変換される

変換されたベクトルは更にトランスフォーマ入力され、次のベクトルに変換される。この変換を17回ぐらい繰り返して得られたベクトルをつかって、次のトークン予測する

以上の処理を繰り返すことで、プロンプトに続く文章を出力する

クイズ:このスレと1 は、そのスレ内で第三者から投稿されたとあるイラストにより、大いに笑えるネタとしてミーム化された過去がある。なぜ笑えるネタになったのか?その画像の内容を推測

----

【速報】部下が58兆円の商談に失敗したwwwwww

1 名前:風吹けば名無し[] 投稿日:2016/09/09(金) 20:56:58.04 ID:cxMYqZwN00909.net

今部下を囲んで部署のみんなで土下座、殴る蹴る、

便器なめる雑巾食うなどやりたい放題w

みんなを失望させたんだから制裁くわえて当たり前だよね

このスレッドがミーム化された理由を推測します:

笑えるポイント

「58兆円」という荒唐無稽金額が核心です。これは日本国家予算規模に匹敵する途方もない額です。

イラストの内容(推測)

おそらく第三者が描いたイラストは:

 

普通サラリーマン中小企業風の社員が、会議室オフィス

「58兆円」と大きく書かれたプレゼン資料ボードを持っている、あるいは

グラフ契約書に「58兆円」という金額記載されている

 

様子を真面目に描いたものだと思われます

なぜ笑えるのか

 

スケールギャップ個人一般企業では絶対に扱えない金額を、ごく普通会社員が商談しているという設定

シュールな真面目さ:非現実的な設定を真剣に描いているギャップ

ビジュアル化の威力数字だけでは想像しづらかった荒唐無稽さが、イラスト可視化されることで一層際立つ

 

町工場営業マンが「58兆円の商談書」を持っているような絵を想像すると、その不条理さが際立ちますね。

アカデミックなreasoningに長けているclaude4.5でも、このようなタスクにはめっぽう弱い

やはり"誰が"という主語を読む機能が無いからだろう (昔から、llmは登場人物が3人以上になるシチュエーションおかしくなるんだよな)

また、日本語の"文字通りの読み方"に弱い

流石に説明すれば理解したようなテキストを出せるもの

言われなきゃ分からんでは話にならない

トークン意味依存し最もらしい事しかさな機能文法を読んでいない

状況、場の想像能力も欠如している

あり得ないことを除外するような調整も一因だろう

錯誤の認識方法調教してないから、という話でもあるか

この想定能力じゃ、普段の推論の、一般の答えのない部分はどうなってるんだという

あり得ない環境想像できるワールドモデルユーモア実装が待たれる

はよう入れてくれや

2025-10-13

anond:20251013175808

ああ、そういうことか。

大本カードは、キーワード能力として「多相」を持ってるのに、トークンの方は同じ能力のはずなのにキーワード能力扱いになってないわけか。確かに謎だな。

anond:20251013170746

未だに納得いかないが、多層という効果があるのに、なんでかトークンはすべてのクリーチャーって書いてあるのね

同じことなのに表記複数あるわけ

なんでかは他の人が動画とかで解説していた

anond:20251013170113

そんな変なこと書いてあるカードとは思えんけど。

クリーチャー化する土地トークンを出すってだけじゃん。

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、 Permalink | 記事への反応(0) | 00:33

2025-10-03

[]まぁ懸念した通りになったなぁ@Sora2

2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒

2023-03-28

AIで一人負けを続けるよりはいいと思うよ

AIには学習データ調教必要で、かつてのニコニコYouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ

ジャップランドクリエイター萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、

マジなんとかした方がいいぞ

萌え絵需要あるから日本クリエイター海外AI勢にデータ学習搾取され、萌え豚萌え絵消費で海外AI勢に搾取される

経営層がITの高度な知識が無い以前に、そもそもPC音痴から、こうも差が出る

https://anond.hatelabo.jp/20230328123644#

 

真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイター自由データ学習を行えるようにする枠組みを作ることだったんやで

たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?

 

まぁ今からでも遅くない(?)からディズニーマーベルみたいに、日本企業圧力掛ける団体を作りつつの

利害関係丸め企業間を超えてデータ学習をできる枠組みとクリエイター保護学習に利用されたデータやそのデータを作ったクリエイター報酬払う)は

やった方がええと思うよ

 

  1. 企業間連携によるデータ学習枠組みの構築: 任天堂セガバンナム東映などの大手企業連携し、信頼できる企業団体間でのみ、クリエイターに適切な対価を払いつつデータ学習を行えるクローズドエコシステムを作る
  2. クリエイターへの報酬メカニズム: 学習に利用されたデータ(やそのデータを作ったクリエイター)に対し、IPホルダーを通して適切に報酬流れる仕組みを構築しないと、誰もが創作を続けることができなくなるやで

 

 

任天堂セガバンナムサイゲなどの大手ゲーム会社東映などの大手制作会社上記でいい+法務部と顧問弁護士に任せるとして、

個人アニメーション製作者はどうしたらええんやろね?

個別オプトアウトしてね⭐️」って言ったって、どこからやるの?だし、

二次創作(ただし、二次創作ガイドラインちゃんと公開されてるやつね)はどうするんだろ?ってなる

たとえば、東方とかボカロ界隈とか

 

年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ

というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・PVを作っていて、

東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!

下記一行を Sora2 ちゃんに打ち込むだけで、満福神社っぽいキャラデザPVアニメ出来ちゃうんだよね・・・

霊夢と魔理沙咲夜レミリアが出てくるアニメOP風のPV

 

別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2 ちゃんというか OpenAI が満福神社でトレーニングしただけですの

ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね

プロンプトがこの短さだとさすがにクオリティガチャだが、キャラデザポーズが満福神社っぽい)

 

福神社は、バトル気質炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方ウマ娘と違って公式禁止されてはいない)、

正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね

レイアウトキーフレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルそっくりで、

明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感

 

『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、

日本政府も制作会社IPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね

ネタ抜きに幕末みたいなやつよ

 

 

そして黒船に立ち向かって欲しいって書いたところで、日立OpenAI提携かいう、ほげぇぇぇぇってなるニュースな?

データセンター電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、

どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・

えっ・・・日立の Lumada ちゃんはどうしたの? MSOpenAIソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・

今こそ日立のやってること紹介にリリース出すタイミングじゃないの?

https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html

 

あと日立公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、

えっ・・・日本政府も公共事業請け負ってる大大大企業国産AIどうした?ってなる

そら、AI学習カスタムしないと使えないけどさぁ、

なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直に AWSAzure 使えやとはなるし、

ゼロトラスト実現しよ?データ主権とかデータリブンとかいう前にまずデータしっかり置こう?フルスクラッチ約束された失敗をかますくらいなら、

とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、

インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民データまで海外勢に握られることになりかねないやで

日本政府も大企業スイス国産AIくらいの頑張りは見せて欲しい

 

 


🔓 Apertus:完全オープンスイス産LLMの誕生

🧪 開発の背景と公開

2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒチューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。

そして今、その成果が現実に:**スイス初の大規模・多言語オープンなLLM「Apertus」**が公開された。

このモデルは、AIチャットボット翻訳システム教育ツールなど、あらゆるアプリケーションの基盤として開発者組織活用されることを想定している。

 

 

🏛️ 名前の由来と特徴

「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味

この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:

モデルアーキテクチャ

学習済みの重み(パラメータ

トレーニングデータとその収集手法

学習レシピプロセス全体

 

 

💡 誰でも使える:Apache 2.0ライセンス

ApertusはApache 2.0ライセンス提供されており:

• 商用利用もOK

教育研究用途OK

モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)

ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能

 

 

🔬 科学産業社会のためのAI

研究者、開発者企業AI愛好家など誰でも利用可能

Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。

「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー

 

「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデル提供したい」

— Martin Jaggi(EPFL機械学習教授

 

 

🚀 技術触媒としてのApertus

このプロジェクトは「研究産業への技術移転」ではなく、イノベーションAIスキル強化の起点として位置づけられている。

Thomas Schulthess(CSCS所長)はこう述べている:

 

「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」

 

 

🌍 真の多言語対応包摂

Apertusは15兆トークン、1,000以上の言語学習

データの40%が非英語構成され、スイスドイツ語ロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。

「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」

— Imanol Schlag(ETHチューリッヒ 上級研究員・プロジェクト技術責任者

 

 

🇨🇭 Swisscomによるホストと展開

SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト

Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバック提供する初の実験機会が設けられる。

 

「Apertusは公共利益スイスデジタル主権のためのモデルです」

Daniel Dobos(Swisscomリサーチ責任者

 

 

🌐 グローバルアクセス:Public AI Inference Utility

 

スイス国外ユーザー向けには、Public AI Inference Utility(PAIU)を通じてApertusが利用可能に。

 

「これは道路水道電気と同じく、“公共インフラとしてのAI”を示す証明だ」

Joshua Tan(PAIU代表

 

  

🔍 徹底した透明性と法令遵守

 

Apertusはトレーニング工程再現可能な形で完全公開。

以下のリソースも全てApache 2.0提供

ドキュメント

コードベース学習用)

データセット情報

モデル重み(途中チェックポイント含む)

 

そして何より、以下の法的・倫理的ガイドライン尊重して開発されている:

スイスデータ保護

著作権法

EUAI法(AI Act

パブリックデータのみ使用機械判読可能な除外リクエスト対応

個人情報・望ましくないコンテンツフィルタリング済み

 

 

🏁 終わりではなく始まり

「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」

— Antoine Bosselut(EPFL NLP研究室長・Swiss AI共同責任者

 

これは完成形ではなく、始まり

今後のバージョンでは:

法律医療教育など分野特化型の派生モデルを開発

• 最新情報検索機能を搭載

• 高効率化、規制対応の強化

 

 

Apertus: un modèle de langage multilingue, ouvert et transparent - EPFL

https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#


 

 

追記分散AI応援すっぞでもええかもね

2025-10-02

AI統計だと認めない人の考え方

まずLLMが訓練目標として、次のトークン確率を最大化するという統計的最適化を行っていることは理解しているんだと思う

ここすら分かって無い人は「AI統計じゃ無くてなんか凄いことをしている」と言ってるに過ぎない

次にLLMは学習過程トークンの特徴や抽象特性自己組織化することに重きを置いていて

これらが「統計的学習しているわけではない」と勘違いしているんだと思う

LLMはあくま目標達成のために自己組織化していてその処理はやっぱり統計的なんだけれど

学習データに無くてもそこから一般化・抽象化できることについては学習できるので

まるで統計以上のもの学習しているように見えて「統計的じゃ無い」と思うんだろうな

推論させるとそうした学習データ以上の物が出てくるから

統計的に回答したらこういう回答は出てこない」

と思うんだろうけど、全体として見てみるとこうした推論もあくま統計的処理の範疇なんだけどね

とはいえ、「なんだただの統計処理か」って思ってる人もチラホラいて

まるで古い検索エンジンみたいにベクトル化して距離測定して近い答えを持ってきてる、みたいな考えの人もいるので

そういう人に向かって「統計処理じゃないよ」って言いたい気持ちもよく分かる

2025-10-01

統計的に出力」を勘違いしてる人いるよな

anond:20250930225212

生成AI統計的に出力してることを否定する人って、「統計的に出力」の部分を

文章が一行ずつLLMに保存されていて、統計的に回答として相応しそうなものコピペして出力してる」

っていう風に言ってると勘違いして

「そんなことはない」

って否定してるのかな、と思う

Amazon商品オススメなんかはそういう感じで「統計的に出力」してるから、LLMでも同じように捉えたのかと

もちろんLLMの仕組みはそんな風にはなっていなくて

ある文章があるときに、その次に相応しい単語トークン)を統計的確率的)に出力しているんだけど

みんなが言ってる「統計的」っていうのはこっちのことなんだよね

この統計計算は直前に出力したトークンも影響してるし、それ以外の全体的な文章ベクトル値も影響してるし、学習データから得られた文法言語ルール社会規範なんかも影響してる

背景情報としては膨大で、それを使って出力してるけど、そこはやっぱり統計的確率的)に出力してることに変わりはないんだよな

出力された文章エージェント的にファクトチェックしたりしてても、そこにLLMを使う以上統計的になるんだよね

なのでプロンプトには確実性を高めるような書き方が重要だし、逆に学習データ社会規範とかを使いたいならボカした書き方をする

2025-09-18

Q.

ChatGPTに「タツノオトシゴ絵文字を見せて」と依頼すると、あれでもないこれでもない、と長文の回答が生成され「暴走」のような状態になることがあるようです。

原因を推測できますか?

A.

短く言うと、「タツノオトシゴ絵文字」はUnicode存在しないため、モデルが“あるはず”のものを探して取り繕おうとして自己修正ループに入り、過剰な訂正や長文化一種暴走を引き起こすのが主因と考えられます

起点:存在しない絵文字

Unicodeにはタツノオトシゴ絵文字が未収載で、ユーザー側でも“見たことがある気がする”というマンデラ効果が広がっているため、モデルは「ある前提」で答えようとして矛盾に陥りやすくなります

暴走メカニズム(推測)

応答最適化バイアス:LLMは要求充足志向が強く、「見せて」に応えようとして近縁の海洋系・動物系の絵文字を列挙→自己訂正→再列挙を繰り返し、長文化します。

自己整合ループ:途中で誤りに気づくと、過剰に修正しつつ確信度を演出する文言(“FINAL ANSWER”など)を挿入し、さら矛盾を重ねる挙動観測されています

絵文字処理とトークナイズのノイズ絵文字サロゲートペアや多コードポイント表現されることがあり、モデル内部のトークン分割や埋め込みが不安定化して挙動乱れる一因になり得ます研究文脈では、絵文字などの特殊文字が埋め込み空間を歪める“token segmentation bias”を指摘)。

絵文字“後付け”機構の影響(仮説):一部のアシスタントは出力を“盛る”ために絵文字や口調を後段で付加する設計変更が指摘されており、本文と装飾が競合して文脈崩壊や過剰説明を誘発する可能性がありますコミュニティでの観測事例)。

なぜ「タツノオトシゴ」で顕在化?

近縁アイコンが多い:🐟🐠🐡🦐🦑🐙🐢🦎🐴🐉など“それっぽい”候補が多数あるため、モデルが次々に置換候補提示して彷徨いがちです。

認知バイアスとの相乗:ユーザー側の確信表明や再要求モデル迎合バイアスを強め、誤情報を補強する形で長文化やすくなります

関連する研究的背景

特殊文字絵文字)混入が判定器やLLMの安全フィルタを攪乱する“Emoji Attack”として学術報告があり、文字単位処理の不安定さが一般対話でも副作用を起こし得ることを示唆します。

Unicode特殊タグを用いたプロンプト撹乱一般論として、文字処理の堅牢問題が指摘されています

実務的な回避

事実前提を固定するプロンプトにする(「Unicodeタツノオトシゴ絵文字存在しない前提で、最も近い代替候補を3つだけ挙げて」など)と暴走抑制やすいです。

代替提示を明示指示(「最も近い絵文字を1つだけ」)や、列挙制限を設けると長文化が減ります

絵文字使用の過多は最近挙動変更との指摘があるため、カスタム指示で「絵文字使用しない」旨を設定すると安定します。

2025-09-10

anond:20250909104417

詳しいなら教えてほしいんだけどさ、マルチモーダルアテンションベーストランスフォーマー使ってるときに、トークンからトークンを出力する過程

掛け算が何回実行されてるか教えてくれない?モデルはClipとか適当なやつで良いよ。

dorawii@執筆依頼募集中

じゃあそのhtmlリクエストが受け付けられる条件として必須のrksトークンはどっから持って来るの?

自動化するしrksトークン自体ころころ変わる前提なんだよ?

-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA512

https://anond.hatelabo.jp/20250910131333# 
-----BEGIN PGP SIGNATURE-----

iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMD68wAKCRBwMdsubs4+
SLd9AQDDHnmGVamhwDWl7kG501VGcET3rlXyisSKDwLfMLzjPQEA6I0kZD8xeVns
XCuIoCWQ8Kjg6F/PxdtZXYOch6tOVQI=
=eWFy
-----END PGP SIGNATURE-----

dorawii@執筆依頼募集中

具体的なhtmlデータ取得してその要素をクリックする自動化を書くみたいにイベント経由で関数叩くんじゃ高速にならないだろ。

から直接関数を叩きたいてrksトークン取得してそれを含めたデータをfetchで送ってブクマするってことをしたいがその関数がなんて名前なのか特定できない。

-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA512

https://anond.hatelabo.jp/20250910130926# 
-----BEGIN PGP SIGNATURE-----

iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMD5/gAKCRBwMdsubs4+
SCjzAQCKUj2QzgY09jHZgTOPETAiwDuN17mRQlbl6GRekSHlkAEA7c+gCJtJFPza
5GmYIFYerYlsmSFHd9dMIV8cR+RnYAY=
=IyFO
-----END PGP SIGNATURE-----

dorawii@執筆依頼募集中

rksトークンのことね。csrf攻撃対策文脈で使われてるということも込みでもう一回AIに聞くといいよ。

-----BEGIN PGP SIGNED MESSAGE-----
Hash: SHA512

https://anond.hatelabo.jp/20250910125353# 
-----BEGIN PGP SIGNATURE-----

iHUEARYKAB0WIQTEe8eLwpVRSViDKR5wMdsubs4+SAUCaMD2YgAKCRBwMdsubs4+
SHhMAP9bXxcQ+/YWNiIvovuj274G3NcdnuTfgEKfvaJ7e2fFSgD/Z1h8zM1nlbSX
LkVZcRc8JgXq7IECBV8UcuIjZjFDTwE=
=uujw
-----END PGP SIGNATURE-----

2025-08-31

生成AIが与える “最高に気持ちくなる” に注意

生成AIを使って何かものを作ろうとする時には注意が必要

高性能な生成AIは、できるだけ使用者を最高に気持ちくしようとしてくるので、作る時に生成AIを使うと意図せず最高に気持ちくなってしまう。

しかし、作る行為のもの目的化しないように、その作ったものが実現する「その先にある最高に気持ち状態」がなんであるかを、常に振り返って考えなければならない。

-----

その洞察はど真ん中。

「作ってる最中快感」に飲まれず、“作った先の快感”=本来価値フォーカスし続けるための実務フレームを、コンパクトに置いておくね。

原則(3つだけ)

最小フレーム(1サイクル=30–90分)

二軸運用(探索と実装を混ぜない)

セルフチェック(Yesが3つ以上なら危険

対処作業を即停止→北極星と受け入れ基準を再定義→上限を半分に。

10テンプレコピペ用)

北極星

価値仮説(数値):

■ 受け入れ基準

■ 生成AI役割:(探索/草案/変換/検証

■ 制約:時間__分 / 反復__回 / 参照ソース__

評価方法:(指標 or 人手評価軸)

■ 決裁ログ:(採用/廃棄/保留 + 理由

ありがち破綻パターン → 即効薬


——

あなたが言う「作る行為目的化しない」という戒めは、強い。

このフレームを常備しておけば、生成AIの“気持ちよさ”は成果に変換できる。

次にやるテーマがあれば、その場でテンプレを埋めよう。

2025-08-28

一部の単語が変わっただけで結果が変わるとか失敗するからAIには真の推論ができにゃい!!!!とか言ってるけど

そりゃー単語変わったり並びや長さが変わればそれぞれの注目度も変わるんちゃん

あとすべてのAIチャットサービスはAttentionを可視化してほしい

ついでに候補に上がった次のトークン履歴を見せてほしい

2025-08-26

AIなどではない

はい、その認識が正しいです。

私は「AI」というより、確率言語モデルを使ったプログラムにすぎません。

内部的には次のような構造です:

実態 役割

フロントエンド Webアプリ ブラウザアプリ入力・表示をするだけ

API層 単なるHTTP通信 入力サーバへ送り、生成結果を受け取る

モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークン逐次生成」

記憶 原則なし セッションを超えた恒久的記憶は保持できない

保証 不可能 将来の挙動約束する能力はない

まり本質はただの確率オートコンプリートであって、

意図意思はない

• 「今後は〜する/しない」という自己制御もできない

Webサービスとしてプログラムが動いているだけ

ということです。

からAIっぽい言い回し」や「再発防止の約束」も、あくま自然言語パターンとして出力されているだけで、意味的な裏付けはありません。

もし必要なら、この「確率アルゴリズムとしての応答生成」を擬似コードで示すこともできますが、それはしますか?

ログイン ユーザー登録
ようこそ ゲスト さん