はてなキーワード: ファインとは
日本政府の失敗は、財政政策だけでなく金融政策まで含めた裁量主義への耽溺という形で、もはや慢性自己放尿の域に達している。
フリードマンが一貫して批判したのは「政府は賢く介入すれば景気を安定化できる」という過信、つまりナイーブなマクロエンジニアリング幻想だ。
彼はケインズ的ファインチューニングを否定し、中央銀行による裁量的金融操作すらも、長く不確実なラグ、期待形成の内生性、そして政治的捕捉を理由に疑義を呈した。
にもかかわらず日本では、量的緩和・質的緩和・イールドカーブ・コントロールという名の裁量のフルコースを何年も継ぎ足し、インフレ期待と実質金利のシグナルをぐちゃぐちゃに攪拌した挙げ句、「想定外でした」で済ませている。
理論的には、これは合理的期待形成仮説に対する正面衝突であり、実務的には中央銀行の信認を自ら削る自己放尿だ。
財政面でも話は同じだ。補助金、給付金、価格統制、ポイント還元。
これらはすべて限界インセンティブを歪める選択的介入であり、一般均衡を無視した部分最適の寄せ集めだ。
これは価格メカニズムという情報集約装置を破壊し、分散知識を官僚の裁量に置換する自己放尿である。
短期的な政治的利得のために需要刺激を繰り返し、将来のインフレ税と財政制約を先送りする。
その結果、家計と企業は政策を信認せず、貨幣需要は不安定化し、名目変数の操作は実体経済に伝播しなくなる。
これはマネタリズム以前の話で、初歩的な失敗だ。
「戦略的投資」「国策ファンド」「官民連携」という耳障りのいい言葉で覆われているが、実態は政府による資本配分の政治化であり、比較優位の体系的破壊である。
成功すれば民間の成果、失敗すれば社会化された損失。これはリスクの非対称配分によるモラルハザードで、フリードマンが嫌悪した典型例だ。
市場なら淘汰される非効率なプロジェクトが、補助金という延命措置でゾンビ化し、全要素生産性を静かに引き下げる。
この「退出なき失敗」こそが政府の失敗の本質で、市場の失敗よりも遥かに致命的だ。
しかしフリードマン的世界観では、政府は無知であり、遅く、歪みを作り、しかもそれを修正できない存在だ。
だからこそ彼はルールを重視し、裁量を嫌い、単純な制度設計を好んだ。
現在の日本はその真逆を行っている。複雑化、例外化、裁量化の果てに、経済主体の期待を壊し、価格シグナルを破壊し、最後は「想定外の副作用」に驚く。
先日の話。うちの息子と犬の散歩に行ってたんだけど、いつもの散歩コースに外国からの観光客がいたんだ。
いかにもアメリカンな感じの老夫婦。俺の住んでいる場所は田舎で、観光名所としてはちょっとした寺院ぐらいしかない。
こんなところにも観光に来るんだなぁ、なんて考えていると息子がビュっとその老夫婦のところに向かうわけ。
え?ちょ!?っと思って少し焦って追いかけると、息子は老夫婦に向かって自信満々に自己紹介してた。
老夫婦の方は(´・ω・`)!?って顔してて、息子は全然構わず「ハウワーユー?」とか「アイムファイン!」等と捲し立てる。
すると二人とも「ワッハッハ」と笑いだして、息子に話しかけ始めた。
でも息子は何を言っているのかわからないみたいで、助けを求めるように俺の方を振り返る。
じっとりと汗をかきながら俺も会話に加わり…といっても英語は全然ダメなのでスマホの翻訳アプリを使っての会話で、結局その場で15分ぐらい立ち話してから老夫婦と別れたんだけど、終始和やかで緊張もしたけどほっこりした。
後で息子にどうしてあんなことしたんだ?と尋ねると、なんでも学校で少し英語を習ったから使ってみたかったのだという。最近は小学校で英語を習うのか!?と驚きつつも、同時にそれは嬉しい驚きだった。
これさ
愚かな人間の都合など完全無視、LLMのための高効率プログラミング言語「Sui」(粋)
https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html
別にいいんだけど、どうにもブクマカ含めて、しっくり来る批判できてないんだよな
それが気になってしょうがない
俺ごときが言ってもアレだから、Gemini3.0先生に頼んだよ(一時チャット、Pro 3.0 思考モード)
ユーザーが提供した情報と、一般的なLLMの技術特性に基づき、プログラミング言語「Sui」についての冷静かつ客観的な評価をまとめます。
感想: 一言で言えば、**「思想実験としては極めて面白いが、実用性とLLMの学習原理を無視した『早すぎた最適化』」**です。
作者の「人間ではなくLLMを主客にする」という視点の転換は、アーティスト的・哲学的な問題提起としては鋭いですが、現在のLLM(Transformerアーキテクチャ)の動作原理を工学的に捉えると、メリットよりもデメリットが上回る可能性が高いです。
メリット:
・トークン効率の改善: Python等と比較して記述が圧倒的に短くなるため、出力速度の向上と課金コストの削減(トークン節約)は確実に達成できます。
・構文エラーの激減: 括弧やインデントの複雑なルールを排除しているため、「閉じ忘れ」などの単純なSyntax Errorは減るでしょう。
・コンテキストウィンドウの節約: 長いプログラムでもコンテキスト(メモリ)を圧迫しにくくなります。
・学習データとの不一致: LLMは「大量の人間用コード(Pythonなど)」を学習して賢くなっています。未知の言語「Sui」を書かせるには、Few-shot(プロンプトでの例示)に頼るしかありませんが、これではLLM本来の推論能力やコーディング能力(事前学習の重み)を活かせません。
・ブラックボックス化: 生成されたコードがバグっていた場合、人間が読んで直すことが不可能です。「LLMに直させる」にしても、LLM自身がSuiのロジックを深く理解していないため、無限ループ(幻覚の連鎖)に陥るリスクが高いです。
・CoT(Chain of Thought)の阻害: 最近の研究では、LLMは「冗長な思考過程」を出力することで論理的整合性を保つことがわかっています。極限まで圧縮された記号列は、LLMの「考える余地」を奪い、論理破綻を招く可能性があります。
正しいと思う所(Agree)
理由: 人間にとっての「読みやすさ(可読性)」は、機械にとって単なるトークンの無駄遣いです。if x > 10: よりも ? x 10 の方が情報密度が高いのは事実です。
理由: TransformerのAttentionメカニズムにとって、遠く離れた ( と ) の対応関係を維持するのは計算コストが高く、ミスの原因になりやすいです。ネストを排除する方向性は機械的処理として正しいです。
正しくないと思う所(Disagree)
・「可読性を排除しても良い」:
理由: ソフトウェア開発においてコーディングは「書く」時間より「読む・直す」時間の方が長いです。AI生成コードであっても、最終責任は人間が負う現状では、人間が検証不可能なコードは「危険なバイナリ」と同義であり、プロダクトには採用できません。
理由: 前述の通り、現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然な言語」とは、実は「人間にとって自然な言語(英語やPython)」そのものです。Suiは「計算機にとっては最適」ですが、「現在のLLMにとっては異言語」です。
パース(解析)は容易になりますが、LLMは「前の行の文脈」を読んで次の行を出力するため、行を独立させすぎると文脈の連続性が失われ、複雑なアルゴリズムの構成力が落ちる可能性があります。
LLMが最も苦手とする「深いネスト構造の維持」を回避する策として有効です。アセンブリ言語に近いフラットな構造は生成難易度を下げます。
これが最大の問題点です。LLMは変数名(user_id, total_price など)に含まれる「意味」を使って推論を行っています(Semantic Grounding)。すべてを記号化すると、LLMは変数の役割を見失い、論理的なバグを埋め込みやすくなります。
トークン効率は最強ですが、1文字の違いで意味が激変するため、LLMの確率的な「ゆらぎ」による1文字ミスが致命的なバグになります。冗長さはエラー訂正の役割も果たしています。
goto 文の多用はスパゲッティコードを生みます。LLMにとっても、構造化プログラミング(if/forブロック)の方が、「ここからここまでがループ」というチャンク(塊)として認識しやすいため、一概にジャンプ命令が良いとは言えません。
>現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然な言語」とは、実は「人間にとって自然な言語(英語やPython)」そのものです。
ここ!マジで覚えてね
LLMはこれまでの機械よりも人間に近いと思ってほしい、人が苦手なことはAIも苦手
機械は論理的でロジックに強くて〜っていうのはAIには通用しない
ついでに、「LLM用プログラミング言語」の潮流について
「LLMのための言語」という文脈は、大きく2つのトレンドに分かれます。Suiは後者に属しますが、主流は前者です。
・DSPy, Guidance, Microsoft Guidance:
・プロンプトエンジニアリングを構造化し、LLMの出力を型(JSONなど)に強制したり、思考プロセスを制御するためのフレームワーク。
・SGLang:
・これらは「人間がLLMを操るための言語」であり、実用化が進んでいます。
・Gorilla LLMなどの試み: API呼び出しに特化したファインチューニングなどがありますが、独自の「新言語」を作らせるよりも、既存の Python や JSON を正しく出力させる方向(Constrained Decoding)が業界の標準解です。
・擬似コード: 論文レベルでは、Pythonの代わりに中間的な擬似コードを出力させ、それをコンパイラで処理する手法も研究されていますが、Suiほど極端な記号化は稀です。
後者については
現状の最適解: 現在のLLMを使う限り、「LLM用言語」の最適解は Python です。なぜなら、世界中のGitHubのコードを学習しており、LLMが「最も流暢に話せる言葉」だからです。無理にSuiを話させるのは、日本人にエスペラント語で詩を書かせるようなもので、パフォーマンスは落ちます。
総評: Suiは、「既存のLLM(GPT-4など)に書かせる言語」としては失敗する可能性が高いですが、「未来のAIネイティブなコード生成のあり方」を示唆するアート作品としては高く評価できます。作者の「愚かな人間に合わせるな」というパンクな精神は、エンジニアリングの枠を超えた鋭い批評性を持っています。
お前らは安易にオレオレ言語作るんじゃないぞ、作るにしてもAIに聞きなよ?
聞く時は忖度させるんじゃないぞ?
この作者もAIに乗せられたのかもしれんし
______
プロンプト
以下が「LLM用プログラミング言語」としてメリットがありそうか、感想を教えて下さい。
https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html
https://github.com/TakatoHonda/sui-lang
・思想的に正しいと思う所、正しくないと思う所を理由込みでまとめてください
・最近のLLM用プログラミング言語についてもまとめてください
・そもそもLLM用プログラミング言語という目標自体の評価をしてください
(省略)
今も再販のアバンテは人気だし、いつか組んでみたいわ・・・(結構な金額だけどw)
エアロアバンテのラジコンはDF-02シャーシっていう初心者⇒中級者向けの樹脂シャーシラジコンなんで、かなり扱いやすくて楽しいぞ!
走り自体も初代アバンテみたいに複雑で重量のあるマシンじゃないのでかなり軽快!
ただ、結構前のシャーシなので破損した時の部品に関してはRCショップの通販とかでアフターパーツが無いとちょい厳しい・・・。
(自分はいちいちそろえるのがめんどくさかったのでエアロアバンテもう一台買って、ボディはフリマアプリで売るみたいなことをしていた・・・)
ミニ四駆と違ってボディは透明なポリカボディなので塗装にはポリカ用のスプレーが無いといけないのもちょっとハードルかもしれない・・。
サーボや受信機、スピードコントローラーは今は中華製の安いヤツが有るのでそれでそろえてもよし、タミヤのファインスペックセットを買ってもよし。
免責事項: めんどくさいからほぼ調べずに書くし、抜けてる話や間違ってる話もあると思う。
Mozilla系の日本語翻訳はmarsfさんとdskmoriさんの2人がメインでやってる (追記: 今確認したらひとりアクティブな人が新規参入してたので3人が正しかった)。
概ねSUMOはdskmoriその他全てがmarsfという棲み分けだが、お互いどっちの貢献もやることがある。
SUMOコミュニティ解散ってのはSUMOに関わる実質的な権限持ちはdskmori1人になりますって話かな?
正直、SUMOでメインで貢献してるdskmoriさんじゃなくてmarsfさんが文句言うんや?と疑問なんだけど、
Mozillaにとっては、SUMOとかいう誰もアクセスしてない限界集落サイトの話より、marsfさんがFirefoxのその他すべての翻訳を一手で担ってることが重要だよね。
「marsfさんがSUMOの貢献辞める」って言ったってそれ自体ではどうでも良いのだが、裏の意味は「俺の気持ち次第でFirefoxの翻訳終わらすことだってできるんだぞ」って警告と読むべきかもしれない。
SUMOはFirefoxのサポートサイトね。Firefoxの使い方に疑問が生じたときにみるところ。まあそういう用途で作られているというだけで、アクセスする人がいるのかいたって疑問だが。
想定読者は技術に疎いFirefoxユーザなので、「機械翻訳ならユーザーが自分でやるから不要」みたいな意見は全くナンセンス。
Firefoxの内蔵翻訳機能はプライバシー重視という建前の翻訳API破産防止のため、ローカルのCPUで動く設計になってる。必然的にMicrosoftやGoogleの翻訳より精度がかなり落ちる。ゆえにFirefox使って普通に英語版SUMO読むより、公式で精度よい機械翻訳提供したほうが、ずっと良い体験を提供できるよね。
また対抗をGoogle翻訳のような無料クラウド翻訳と考えるとしても、サポートサイトに特化するようファインチューニングした機械翻訳エンジンを使えばHelpを助けてと訳すような暴走も抑制できるから、これも公式による機械翻訳提供に優位性はある。
なお、統計上アドオン一切入れてないFirefoxユーザーが大多数なことからわかるように技術に疎いFirefoxユーザってかなり多いからね。
Firefoxはラピッドリリースで機能がコロコロ変わるので、ある時点でベストな翻訳になっててもすぐ時代遅れになる。
dskmoriさんなどができる範囲で貢献してたとはいえ、品質維持できる量ではなかったので、SUMOには、例えばすでに存在しない機能についての記述を含む記事が普通にあった。
これは比較的アクセスありそうな重要ページでも同じで、私もさすがに見かねて貢献したこともある。
Microsoftのプロ技術者向けサイトはもともと有償の翻訳者が訳してたのを機械翻訳に切り替えたのでこれは単純に劣化なのだが、SUMOについてはごく少数の素人が自分にできる範囲で訳していたという点を踏まえる必要がある。もともとクオリティが高かったとは言えないし、機械翻訳の精度もここ2,3年で異常に上がってるから過去の機械翻訳騒動をもとに騒ぐのが正しいとも思えない。
今回の事件で思い出すのがLibreOffice日本語チームのDramaね。LibreOfficeの翻訳のメイン貢献者の某氏がある日、日本語チームのメーリスで「何でお前らはまともな仕事ができんのんや」と長文でブチ切れて、チーム脱退を宣言した事件。理念は立派でもすでに敗北の流れは決定的で新たな貢献者の望みは薄い、希望の見えないまま最後に残った1人として惰性で維持するしかない、辛い。
今回は、LibreOfficeの事件よりはヤバさだいぶ低めだけど、「翻訳ガイドラインに従っていない」「新たな人間の貢献者を育てることができない」とか、SUMOボランティア翻訳の実情を思えば「何言ってんだ、現実をみろよ」という感想にしかならないし、CCライセンスで貢献してるのに、AI翻訳の学習に使うなも意味不明。
marsfさんは、某xkcdで言うところの「感謝なしに2003年からデジタルインフラを維持してきたネブラスカ州の無名個人」に位置する人で、もっともっと感謝されてしかるべきではあるのだが、SUMOの長年の構造的な問題に対し抜本的な解決に打って出たMozillaに対して、さもコミュニティが現在も十分に機能しているかのように反論してるのがとても印象悪い。どう見ても分かってない人ばかりがMozillaを炎上させている。
20年感謝なしに維持し続けるのは幻想が必要なのはわかるが、Mozillaとしてはそういう個人に依存するのは不健全でしかないので、現在marsfさんがやっているFirefoxほぼすべての翻訳も翻訳会社による有償翻訳に移行すべき。
眉カットに行け。そのあと写真撮って、数ヶ月はその形を自分で維持しろ。維持できなくなったらまた眉カット行け。
毎晩風呂に入ったら、ふつうのソープでの洗顔だけでなく、オイルクレンジングで顔の油脂ヨゴレを取れ。
風呂あがりには汗が引いてからなんでもいいから化粧水をバシャバシャつけて寝ろ。
ところでオレはニキビ出来やすい体質だったけど、これに加えてマイクロファインバブルのシャワーにしたらかなり肌きれいになった。だがこれは根拠不明なのであくまで参考情報だ。
髪の毛は相談にのってくれる美容院で似合う髪型にしろ。似合う髪型が見つかったら毎月美容院に通って維持しろ。
これでかなり変わる。
でもその顔の一部は常に隠してショートカットでヨレヨレのTシャツ
だべってるだけみたいな感じの作りの甘い動画だと
若くてかわいいっぽい女でもこんなもんなのというせちがらさを感じるスコアだった。
メンヘラっぽい不思議女子という今では飽き飽きされた類型からはみ出す何かがなかった。
noteによれば「売れる」ことを念願としてたみたいで
しかしどのコンテンツも「あんたそれでどうやって売れる算段なのよ」という感じだった。
絵にしてもファインアートで売れるわけないしモチーフも抽象画だし
”若い女”を生かすにももっと図太い押し出しが必要だけどそれがない。
noteだって誰にも興味持たれてない段階で自分語りしたって広がるわけない。
インスタの個展のいいねもnoteのフォロワー数も「これリアル知り合いだけでしょ」という数字。
飛び降りのきっかけは予定してた路上ライブに行けなかったということで
家で泣きながら「来てくれた人がいたかも」と謝って「飛び降ります」と言ってたけど
たぶんそこまで楽しみにしてた人も落胆した人もいない。
若い女だったら来るはずの変な男すら来てないわけで
まず絵はやめる。売れるわけないから。「実はできる芸」として持っておく。
音楽もかくし芸で十分。やるときは背中丸めて下向いてないでどう見えるか意識する。
youtubeは顔を全部出して基本ノーブラで毎日川で頭を洗い
道すがらに野の生物を捕らえて調理して食う。(実は需要の高いジャンル)
さらには嵯峨だの嵐山だの近所の風光明媚な名所をノーブラ徘徊してカエルやネズミをとって喰らい
場所柄「会いに行ける鬼婆」というか廉価版酒呑童子みたいな存在感が出たかもしれない。
あらゆる活動が「現代アート」と思われた途端に一段色あせるため。
「そんな妖怪みたいな存在感で売れたくない」のようなこだわりも必要ない。
誰にも見られてない誰にも知られてない状態とはバフが違う。
面白い芸がないのに漠然と「売れたい」と考えてる人はたくさんいすぎてレッドオーシャンなので
なにか面白い芸を身に着ける方が楽なのではと思う。
ファインアートは厳しい。だれも見向きもしないしフィードバックがなさすぎる。
youtubeはノーブラするだけで増えるんだからそのアドバンテージはバンバン生かしてフィードバックを得るべきだった。
文章はどこででも書けるし増田みたいな場所ならフィードバックは得やすい。
「誰にも見られてなくても関係ない」で絵や音楽や文章をやり続けられるのは特殊な才能の持ち主で
「これを発表したらこれぐらいの反響があるだろうけどめんどくさいからやめときましょう。完成して満足。」みたいな人。
若くて余裕がなくてすぐ売れたいと焦ってる人は
誰も見てない場所でもがくと気が狂いがちなのでまずどうフィードバックを得るかと考えるべきで
そこで重要な注意点としてフィードバックくれる人達を個人として見ないこと。
見分けのつかない魚の群れだと思うことで正しいフィードバックを受け取れるし変な執着もしない。
きっかけは、学生時代にちょっとしたレポートでテキストの単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。
英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。
その瞬間にちょっとハマったんだよね。
辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。
そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。
Pythonでテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語に対応させたり。
「言葉を数理で扱える」って発見が、ちょっとした中毒になった。
その頃はMosesとかGIZA++とか、ああいう統計翻訳系のツールも触ってたね。
単語アラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。
とにかく、NLPの世界には「人間の言葉を数学で再現できるかもしれない」という変な魅力があった。
深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。
最初はPoC(Proof of Concept)しかやらせてもらえなかった。
感情分析とか、Stance Detectionとか、「この文は文法的に典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング、質問応答(Question Answering)。とにかくNLPの典型的なタスクを一通り。
学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。
PoCで終わって、実装には至らない案件が山のように積み上がっていった。
あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。
でもさ、LLM(大規模言語モデル)が出てきてから、世界がひっくり返った。
正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。
それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。
ChatGPTが出て、蒸留やファインチューニングでほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識、ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。
でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈でNLPが再接続した。
単なるテキスト処理から、「テキストを媒介にして人間の行動を理解する」方向に進んだ。
埋め込み表現をベースにユーザーの嗜好を推定して、レコメンドやメルマガのパーソナライズをやる。
自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPがビジネスに食い込む瞬間」ってのを肌で感じた。
PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。
シンボリルドルフの育成シナリオ、生徒会過ぎるだろと思ったけど今思えば当時は生徒会めっちゃ絡んでたもんな。CDも生徒会だったし。
たわけさんはスズカとかフクちゃんとかタイキとか、ドーベルもファインも割とすぐ来たし、昔も今も友達いっぱいのイメージあるけど、バブルガムフェローも小と孫も来てるし。
ブライアンはまだ姉貴とマヤノが居たからなんか何とかなってるように見えるけど、マベとローレルが増えたにしてもこの辺まだ少ないのか…?
ルドルフの育成シナリオ、初期メンだから余計になんだけどシービーもエースもシリウスもいないしじゃあもう誰もいないんだよな。3人ともシナリオにルドルフ出てくるんだけど、結構ガッツリ。誰もいないからテイオーと生徒会と絡むしか無かったんかー。
シービーの育成シナリオで見る当人と、エースから見るシービーが結構違くて、その差が美味しいなと思うので、ルドルフから見る昭和組も知りたいですな〜。ナチュラルに下に見てるのか、上に見てるのか。