はてなキーワード: 用言とは
これさ
愚かな人間の都合など完全無視、LLMのための高効率プログラミング言語「Sui」(粋)
https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html
別にいいんだけど、どうにもブクマカ含めて、しっくり来る批判できてないんだよな
それが気になってしょうがない
俺ごときが言ってもアレだから、Gemini3.0先生に頼んだよ(一時チャット、Pro 3.0 思考モード)
ユーザーが提供した情報と、一般的なLLMの技術特性に基づき、プログラミング言語「Sui」についての冷静かつ客観的な評価をまとめます。
感想: 一言で言えば、**「思想実験としては極めて面白いが、実用性とLLMの学習原理を無視した『早すぎた最適化』」**です。
作者の「人間ではなくLLMを主客にする」という視点の転換は、アーティスト的・哲学的な問題提起としては鋭いですが、現在のLLM(Transformerアーキテクチャ)の動作原理を工学的に捉えると、メリットよりもデメリットが上回る可能性が高いです。
メリット:
・トークン効率の改善: Python等と比較して記述が圧倒的に短くなるため、出力速度の向上と課金コストの削減(トークン節約)は確実に達成できます。
・構文エラーの激減: 括弧やインデントの複雑なルールを排除しているため、「閉じ忘れ」などの単純なSyntax Errorは減るでしょう。
・コンテキストウィンドウの節約: 長いプログラムでもコンテキスト(メモリ)を圧迫しにくくなります。
・学習データとの不一致: LLMは「大量の人間用コード(Pythonなど)」を学習して賢くなっています。未知の言語「Sui」を書かせるには、Few-shot(プロンプトでの例示)に頼るしかありませんが、これではLLM本来の推論能力やコーディング能力(事前学習の重み)を活かせません。
・ブラックボックス化: 生成されたコードがバグっていた場合、人間が読んで直すことが不可能です。「LLMに直させる」にしても、LLM自身がSuiのロジックを深く理解していないため、無限ループ(幻覚の連鎖)に陥るリスクが高いです。
・CoT(Chain of Thought)の阻害: 最近の研究では、LLMは「冗長な思考過程」を出力することで論理的整合性を保つことがわかっています。極限まで圧縮された記号列は、LLMの「考える余地」を奪い、論理破綻を招く可能性があります。
正しいと思う所(Agree)
理由: 人間にとっての「読みやすさ(可読性)」は、機械にとって単なるトークンの無駄遣いです。if x > 10: よりも ? x 10 の方が情報密度が高いのは事実です。
理由: TransformerのAttentionメカニズムにとって、遠く離れた ( と ) の対応関係を維持するのは計算コストが高く、ミスの原因になりやすいです。ネストを排除する方向性は機械的処理として正しいです。
正しくないと思う所(Disagree)
・「可読性を排除しても良い」:
理由: ソフトウェア開発においてコーディングは「書く」時間より「読む・直す」時間の方が長いです。AI生成コードであっても、最終責任は人間が負う現状では、人間が検証不可能なコードは「危険なバイナリ」と同義であり、プロダクトには採用できません。
理由: 前述の通り、現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然な言語」とは、実は「人間にとって自然な言語(英語やPython)」そのものです。Suiは「計算機にとっては最適」ですが、「現在のLLMにとっては異言語」です。
パース(解析)は容易になりますが、LLMは「前の行の文脈」を読んで次の行を出力するため、行を独立させすぎると文脈の連続性が失われ、複雑なアルゴリズムの構成力が落ちる可能性があります。
LLMが最も苦手とする「深いネスト構造の維持」を回避する策として有効です。アセンブリ言語に近いフラットな構造は生成難易度を下げます。
これが最大の問題点です。LLMは変数名(user_id, total_price など)に含まれる「意味」を使って推論を行っています(Semantic Grounding)。すべてを記号化すると、LLMは変数の役割を見失い、論理的なバグを埋め込みやすくなります。
トークン効率は最強ですが、1文字の違いで意味が激変するため、LLMの確率的な「ゆらぎ」による1文字ミスが致命的なバグになります。冗長さはエラー訂正の役割も果たしています。
goto 文の多用はスパゲッティコードを生みます。LLMにとっても、構造化プログラミング(if/forブロック)の方が、「ここからここまでがループ」というチャンク(塊)として認識しやすいため、一概にジャンプ命令が良いとは言えません。
>現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然な言語」とは、実は「人間にとって自然な言語(英語やPython)」そのものです。
ここ!マジで覚えてね
LLMはこれまでの機械よりも人間に近いと思ってほしい、人が苦手なことはAIも苦手
機械は論理的でロジックに強くて〜っていうのはAIには通用しない
ついでに、「LLM用プログラミング言語」の潮流について
「LLMのための言語」という文脈は、大きく2つのトレンドに分かれます。Suiは後者に属しますが、主流は前者です。
・DSPy, Guidance, Microsoft Guidance:
・プロンプトエンジニアリングを構造化し、LLMの出力を型(JSONなど)に強制したり、思考プロセスを制御するためのフレームワーク。
・SGLang:
・これらは「人間がLLMを操るための言語」であり、実用化が進んでいます。
・Gorilla LLMなどの試み: API呼び出しに特化したファインチューニングなどがありますが、独自の「新言語」を作らせるよりも、既存の Python や JSON を正しく出力させる方向(Constrained Decoding)が業界の標準解です。
・擬似コード: 論文レベルでは、Pythonの代わりに中間的な擬似コードを出力させ、それをコンパイラで処理する手法も研究されていますが、Suiほど極端な記号化は稀です。
後者については
現状の最適解: 現在のLLMを使う限り、「LLM用言語」の最適解は Python です。なぜなら、世界中のGitHubのコードを学習しており、LLMが「最も流暢に話せる言葉」だからです。無理にSuiを話させるのは、日本人にエスペラント語で詩を書かせるようなもので、パフォーマンスは落ちます。
総評: Suiは、「既存のLLM(GPT-4など)に書かせる言語」としては失敗する可能性が高いですが、「未来のAIネイティブなコード生成のあり方」を示唆するアート作品としては高く評価できます。作者の「愚かな人間に合わせるな」というパンクな精神は、エンジニアリングの枠を超えた鋭い批評性を持っています。
お前らは安易にオレオレ言語作るんじゃないぞ、作るにしてもAIに聞きなよ?
聞く時は忖度させるんじゃないぞ?
この作者もAIに乗せられたのかもしれんし
______
プロンプト
以下が「LLM用プログラミング言語」としてメリットがありそうか、感想を教えて下さい。
https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html
https://github.com/TakatoHonda/sui-lang
・思想的に正しいと思う所、正しくないと思う所を理由込みでまとめてください
・最近のLLM用プログラミング言語についてもまとめてください
・そもそもLLM用プログラミング言語という目標自体の評価をしてください
(省略)
高谷功@滋賀 6.1
BSジャパネクストがリニューアル BS10の無料放送側で日曜昼などに放送中
見られなかったケーブルテレビ局でも見られるようになったので要確認
つながるジャパネットアプリで放送同期・スマートテレビや4月からtverを含め見逃し配信あり
-----
・03 [3択](2) 番
・04 10(種目
・02 わし 座
・03 ロバート・デ・ニーロ
・04 [3択]2 番
・05 気(門
・08 鶏飯 けいはん
・09 太川陽介 たがわようすけ
・13 新潟(県
・14 WEST.
・15 [3択][いくつ]3 6
・16 有吉佐和子 ありよしさわこ
・18 執権
・21 18(番
・22 大久保佳代子 おおくぼかよこ
・23 [2択]縦 笛
・25 熊本(県
・26 用言
・32 消費 税
・34 3(分
・35 『コーラスライン』
・36e メキシコ
-----
=====
(日曜本放送)このあとは「BS10からのお知らせ」→ジャパネットたかたテレビショッピング→ジャパネットたかたのテレビショッピング
言語って、やっぱり高度なんだよ。
単語の意味を理解できるのと、言葉を操れるようになるのでは、その間に越えなければならないものが山ほどある。
「太郎君は喉がかわいた。彼は水を飲んだ」
っていう文章があったとする。
今だったら、汎用言語モデルで理屈抜きにやっちゃうんだが、古典的なやり方だと、「かわいた」の部分から推測を始める。
なにかが「かわいた」のだろう。
太郎君か?喉か?
ヒトがかわくという用例は知らないから、「喉」が「かわいた」のか。
じゃあ、「太郎君」は、「喉」にかかるのか。
「太郎君の喉」」が「かわいた」のか?
じゃあ、「太郎君の喉がかわいた」じゃなく、「太郎君はのどがかわいた」なのはなぜだ?
次の文の、「彼」って誰だ?
水を飲んだ。なぜ?飲んだんだ?
とまあ、けっこう大変。
「彼」が「太郎君」を指す根拠は?と聞かれて、答えられる人なんかいない。
計算問題を解くとか、テレビゲームをクリアするとかのほうがずっと簡単。
名前を呼ばれたら、
名前が呼ばれた→誰かが自分に用がある→相手は自分が聞こえているかどうかを確認したい→振り向く
っていうことを自動的にできるほうがずっと高度。
ChatGPTはな、予測変換を超絶進化させただけなの。知性って、ノリなの。空気を読み、文脈を読む、それが知性になるのな。
「宴もたけなわ」という言葉を聞いて、「宴」と「酣」のそれぞれの意味を考えるよりも、
と答えるほうが、ずっと高度で知的なわけ。
コマンド直入力してもEnter押す前に確認してるからそうそう間違えないしrootユーザーで作業するなって言うならrootでログインできなくすればいいのにそうしない
めんどくさい
他にも仕様書は句点つけるか付けないか統一しろとか用言止めと体言止め混ぜるなとか
お客さんも見るんだからって指導されるけど内容があってればいいじゃん
コードレビューもメソッド名は大文字から始めるなとか本っ当に細かいしうるさい
7、4年目の上司も教育担当の細かい話は無視していいと思うって言ってるし教育担当がカス
15年目の上司は10年目の言ってることは間違ってないから言うことは聞いて仕事しろって言ってるけど、教育担当はチームでずっと女ひとりだったらしいし甘やかされてるんだと思う
さらにムカつくのが、新人教育みたいな制度が数年前まで整ってなかったらしく、その制度を整えたり、教材を実装したのが教育担当らしくて、しかも仕事じゃなく業務外で無償で開発したっぽいから他のチームや部署からも評価得てるのが本当にムカつく
ChatGPTによって、OpenAIは現在、対話ベースの汎用言語モデルをテストしている。
認知科学者のゲイリー・マーカスによると、ChatGPTはGPT-4の前哨戦に過ぎないらしい。
GPT-4に関する噂は数週間前からウェブ上で流れているが、GPT-4はGPT-3とChatGPTを大幅に上回り、そしてもうすぐリリースされることになっている。
OpenAIは現在、Microsoftと共同で助成金プログラムを実施しており、その参加者はすでにGPT-4にアクセスしている可能性が高い。
マイクロソフトのCTOであるスコット・スタインは最近、2023年にさらに重要なAIの年が来ると予言している。
心理学者で認知科学者のゲイリー・マーカスは、GPT-4をすでにテストした人を何人か知っていると言って、GPT-4の熱狂に加わっている。
まずは、用言の活用を覚えます。用言とは、動詞、形容詞、形容動詞のことです。活用とは下の語によって形が変わることです。
「咲く」に「ない」を付けると、「咲かない」になり、「咲く」が「咲か」になります。これを活用といいます。
動詞は、四段活用、ナ行変格活用、ラ行変格活用、上一段活用、上二段活用、下一段活用、下二段活用、カ行変格活用、サ行変格活用があります。
まずは、これらの活用をしっかりおぼえます。声に出してリズムで覚えましょう。繰り返すと意外と覚えられるものです。
☆四段
あ、い、う、う、え、え
☆ナ変
な、に、ぬ、ぬる、ぬれ、ね
☆ラ変
ら、り、り、る、れ、れ
☆上一
い、い、いる、いる、いれ、いよ
☆上二
い、い、う、うる、うれ、いよ
☆下一
え、え、える、える、えれ、えよ
☆下二
え、え、う、うる、うれ、えよ
☆カ変
こ、き、く、くる、くれ、こよ
☆サ変
せ、し、す、する、すれ、せよ
く、く、し、き、けれ、◯
から、かり、◯、かる、◯、かれ
(ラ変格に、かを足したもの)
なら、なり(に)、なり、なる、なれ、なれ
(ラ変に、なを足したもの)
たら、たり(と)、たり、たる、たれ、たれ
(ラ変に、たを足したもの)
☆第二ステップ
助動詞の種類を接続詞ごとに覚えていきます。接続詞とは、上が何形になるかのことです。
例えば、「ず」は未然形に接続詞するので、「咲く」は「咲かず」になります。
☆未然形
る、らる、す、さす、しむ / ず、じ、む、むず / まし、まほし
☆連用形
き、けり / つ、ぬ / たり、けむ、たし
☆終止形
らし、べし、まじ / らむ、なり、めり
☆残り
なり、たり、り、ごとし
☆第三ステップ
☆ず
ず、ず、ず、ぬ、ね、◯
ざら、ざり、ざり、ざる、ざれ、ざれ
(ラ変に、ざを足したもの)
☆まし
☆き
せ、◯、き、し、しか、◯
☆第四ステップ
☆じ
◯、◯、じ、じ、じ、◯
☆らし
◯、◯、らし、らし、らし、◯
☆第五ステップ
上でやった助動詞以外の活用は、最初に覚えた用言のどれかと同じ活用をします。そのため、何活用をするのか覚えることが出来れば、自分で導き出すことができます。
☆四段
む、らむ、けむ、
☆ナ変
ぬ
☆ラ変
けり、たり、り、なり、めり
☆下二
る、らる、す、さす、しむ、つ
☆形容詞
べし、まじ、まほし、たし、ごとし
☆形容動詞
なり、たり
☆まとめ
EARLとか手を洗う(木下)とかばぶ(俵)とかは、もちろん親ワクチンだけど
行政の新型コロナ施策の「それはちょっとどうなの」的なおかしな部分についても
PCR検査拡充反対論を声高に言ってて、その理由が「偽陽性が出るから」とかね
親ワクチンで、政府批判してない、あるいは一部施策を擁護してる医師の中でも
「この人はまとも」系と「この人は政権色がつきすぎて言ってることがヘン」系の色分けは
割とされてる気がする
サイト構築や動画コンテンツ制作で誰がカネ出してるかわからない、
政権に近くて厚労とかワクチン担当大臣とかとも伝手ができている、
みたいな感じで、正直いやな空気になっている
第5波の感染爆発がオリンピックと無関係とする説は、デルタ株の感染力の強さが原因と考えるのが主流のようだ[1]。
デルタ株の感染拡大がたまたまオリンピックと重なっただけなのだ、と。
現在、全国各地に広がっているデルタ株の系統で最も初期のものは、ことし5月18日に首都圏で海外渡航歴がない人から検出されたウイルスだったと分かり、さらに調べると、これとよく似たウイルスが4月16日に空港の検疫で見つかっていた[2]。
一方で、ことし5月ごろ関東や関西、中部、九州などで確認されていた、海外から流入したとみられるデルタ株のクラスターの多くは大きな感染拡大につながらず、7月初旬ごろまでにはほぼ収まったとみられる[2]。
もしデルタ株の感染力の強さだけが感染爆発の原因ならば、オリンピック期間中より人流が多かった5月、6月に感染爆発が起こっていたはずだ。
現実には感染爆発につながった遺伝系統以外のデルタ株は7月初旬で収束していた。
そして感染爆発した系統もオリンピックの開始を待つように急速に感染拡大した。
オリンピック開催によって、感染拡大防止のための堤防のどこかが決壊したと考えるしかない。
国立国際医療研究センターの大曲貴夫氏の指摘どおり、オリンピック開催に伴い局地的・一時的に密な状態が生まれた事実は否定できない。
ここではもうひとつ、国民の側の感染防止策に対する意識がおろそかになった可能性を指摘しておく。
5月から6月にかけて、オリンピック開催、さらに有観客開催を主張する中で、感染拡大防止策を軽視するかのような無責任な言説がまき散らされた[3][4]。
「国民にあれするなこれするなと要求しておきながら、自分たちはやりたい放題か。付き合ってられねえ。」
このように考えた人を責められるだろうか。
個々の国民にとっての帰省は、アスリートにとってのオリンピックと同等以上の価値があるかもしれない。
あるいは1年半近く慣れないライフスタイルを強要されてきた国民の中に、
「なんだ、これまで活動自粛だの、会食回避だのしてきたけど、感染防止策とか関係なかったのか。」
と受けとめる人が現れても不思議ではない。
不慣れな行動を意味も十分に理解できないまま強要されていること自体がストレスなのだ。
人は基本的に見たいもの、耳当たりのいい情報に流される(何より、政治家とその取り巻きはその権化ではないか)。
当局が矛盾したメッセージを国民に発信すれば、国民の感染拡大防止策に対する意識が弛緩するのは当然だ[5]。
とはいえ、新型コロナに感染して損をするのは間違いなく私たち自身である。
無責任な当局関係者や御用言論に惑わされることなく、感染防止策の基本をもう一度肝に銘じたい。
新型コロナウイルス感染症に関する菅内閣総理大臣記者会見(令和3年7月30日)
https://www.kantei.go.jp/jp/99_suga/statement/2021/0730kaiken.html
[2]デルタ株“1つの起点から全国拡大か” 国立感染症研究所が分析
https://www3.nhk.or.jp/news/html/20210806/k10013183971000.html
[3]観客上限1万人 規模縮小でも有観客に踏み切った首相
2021/6/21 21:07
https://www.sankei.com/article/20210621-23SHMAUX2RIENACWHNH4UWVCIA/?outputType=theme_tokyo2020
[4]緊急事態宣言は「屁みたいなもの」 「さざ波」発言の高橋洋一内閣官房参与がTwitterに
英語の助動詞について、今一度調べてみた。中学英語ではcanで『〜できる』は覚えていたけど、意外と多様な使い方をされているようだ。
・can(〜できる)
・must(〜しなければならない)
・should(〜するべき)
・will(〜するだろう)
・may(〜するかもしれない)
will = 未来形のイメージがったので、これも助動詞だとはあまり思わなかった。willといえば、中島美嘉の『will』を思い出すのは世代だろうか。
http://www.alohaenglish.jp/modal-verb/
・推量(〜に違いない)
この推量のニュアンスが難しく、shouldやmustでも大枠は同じような意味だが断定のレベルが異なる。
mustだったら『絶対そうだ!』
shouldだったら『まあまあそうだろう』くらいの差で、この辺りは実際に英語を使わないと慣れない部分だろう
英語のはそれなりに概要を理解したが、『日本語で言う助動詞ってなんだ?』との疑問もあったので調べてみた。
日本語での助動詞の役割:用言や体言などにくっついて、意味を添える働きのある言葉
例:れる・られる・させる・そうだ・〜ない
動詞を助けるといった感じで、単純に『食べる』といった動作に『食べるかも』『食べそうだ』『食べることはない』など
参考 助動詞とは
レールズ専用言語は引っ込んでろ
中国が国家戦略として中国語のみで動くモダンなプログラミング言語作るとどうなるか
・その言語で小中高大とプログラミング教育を行うことで国民総エンジニアになる
・その言語で優れたOSSを全て移植すれば中国語専用言語であれど世界のITトレンドに遅れることはない
・その言語の実装やライブラリをコントロールできるので金盾や検閲が行いやすくなる
・その言語でどんなことを行なっても非中国人が認知・関与することは極めて困難である
・その言語で先進的な研究を行えば外国人が中国語を学ぶことになる
・教育現場や企業現場からモダンなプログラミング言語を排除することでインターネットだけでなくプログラミングのレイヤーでも金盾状態を狙える