はてなキーワード: 用言とは
人類の言語そのものを目的関数としてそれに対して最適化するのがLLMなのだから、人類の認知で到底不可能なことはやりようがないだろう。
一文で本質を突いている。AIの能力限界を構造的に説明している。
今よりもAIが進歩した未来では「自然言語で与えられた仕様から機械語を出力するように訓練されたAI」が出てくるかもしれないけど、そいつの内部をよく観察したら結局今日の高級言語みたいなもので思考していた、みたいなオチになるんじゃないんですかね
結論と完全に一致。内部に抽象化レイヤーが生まれるという洞察。
マシン語でエラーを吐き出されても、元となるプログラミング言語での設計がすっ飛ばされていたら、どこの何が問題なのかが照合困難で修正が困難なのが根幹な気がします。
検証・修正サイクルに意味の単位が必要という話を、実務的な観点から der 表現。
計算機科学について何一つ知らなかったとしても、ニーモニックを無作為に並べるよりソースからコンパイルした結果の方が解空間が圧倒的に小さいのだから、機械語の生成は AI 以前に単なる探索として悪手だ、というのが自然な発想だと思うんだけど。
探索空間という観点からの指摘。高級言語は制約を与えて解空間を狭める役割がある。
抽象化した方が簡潔に記述できるのはAIにとっても同じことで、そっちの方がAIも理解しやすいし、生成しやすい。現在の機械語、アセンブリ、高級言語の階層構造が崩れるとは思えない。
「AIにとっても同じ」という視点が正しい。人間向けとAI向けが乖離しないことを理解している。
「AIが直接機械語書けばプログラミング言語は要らないのでは?」的な話はみんな最初に頭を過るだろうけど、コードを出力するのがLarge "Language" Modelである以上は意味論から組み立てる高級言語の方がそりゃ相性いいでしょうね。
AIを何かgodlikeな超知性だと思っている人間が多いけど、人間にとって「機械語よりも高級言語の方が当然書きやすい」のと同様、AIにとっても「機械語よりも高級言語の方が当然書きやすい」よなぁという話
「AI向け言語は人間にも使いやすいはず」という結論と同じ方向。
CPUへの命令にまで細かく分解された機械語なんて、それが何をするための処理なのかはAI(LLM)でも大変だと思いますよ。そのCPUへの命令群で何をやろうとしているのかなんていう情報はほぼ捨て去っているわけなので。
機械語には意味がエンコードされていない、という議論の核心部分。
機械語派は抽象化の力を舐めすぎ。型なし言語はトークン削減量に対して失われる確定情報量が多すぎ。LLMが内部で型を推論したら本当にトークンが削減できるか怪しい。全能AIを仮定するなら、「人が作ったハード上で機械語を直接書く」なんて中途半端で「ハードごと最適化」くらいの夢を語ってほしい。
AIが機械語を直接書くようになるとか言っている人は、機械語にこそ真の価値があると思ってるんですかね?いかなる音声も元にせず、指示に従ってレコードに直接溝を刻んで音を鳴らす技術が広まれば、音楽がさらに発展するとでも思っているんでしょうか?
AI専用言語にせよ機械語を直接出力にせよ、人の持つ高レベルの意図や仕様、アルゴリズムを正しく反映したデータセット、意味構造が保存された対応データが存在しないから難しいというか現実的に無理よなぁ
学習データの観点から。意味構造が保存されたデータがないと学習できない。
「AI がマシン語を吐いたらプログラミング言語はいらない」系の話が出てくるのは「AIは人間の言葉より、機械の言葉の方が本当は理解しやすいはずだ」という思い込みから来ているのじゃないかと思っていて
誤解の根源を正確に特定している。
まず機械語を直接記述するメリットがない。現代コンパイラ、インタープリタは超優秀(OSや組み込みの一部だけ)。人類のプログラム資産は高級言語がほとんど。AIの学習先もそれ、よってAIは高級言語で出力するほうが成績が良い
AIが直接機械語を出力すべきか?という話題が流行っている。直感的には、動作中のAIの中身を調べると、結局はコンパイラやプログラミング言語に相当する構造が即席で構成されてそう。つまり同じことを高いコストでやる感じになり
内部に抽象化レイヤーが生まれるという洞察。mod_poppoさんと同じ結論。
意味推論がLLMの得意技なので、意味を削ぎ落とした本質の塊である機械語は理解できず、意味の羅列である高級言語こそがむしろ生成AIに最適化されている。
コンパイラって優秀だから、AIといえども生で機械語を読み書きするよりもコンパイラ介した方がいいと思うんだよな。そのくらいLLMって機械寄りじゃなくて人間寄りなんだと思う。元がニューロンの模倣だし。
高レベルになるとコンパイラの出力を疑って生成されたコードを読まないといけない状況は普通にあるので、高水準なAI生成のコードが何をやってるか理解するスキルは当面は必須だと思う
もし仮にAIが機械語を吐き出せるとしても、高速に、決定論的に、段階的に、最適に動作するコンパイラを使わず、低速で、確率論的で、逐次的で、最適な動作ができないAIを利用する意義はほぼないと思う
コンパイラとの比較で、AIに機械語を吐かせるメリットのなさを指摘。
機械語は冗長で複雑かつ非常に正確な出力が必要なので、高級言語を使って既存のコンパイラやビルドパイプラインに乗せる方がAIにとっても効率が圧倒的に良いと聞いて確かになぁと思いました。
自然言語を処理するのがLLMなので、不自然な機械語は難しいだろうね。1命令ごとに「それは何を目的とした操作か」とか文脈でわかりにくいしねぇ。
AI時代の人間の仕事は、信頼性確約(=こういう理屈で大丈夫、と説明できること)が大きな領分を占めるだろうと推測されるので、機械語だけで良いとか言ってるやつは責任を取る気皆無なゴミ野郎です。
LLMに機械語を出力させようとするやつは「AIは機械なんだから機械語は簡単に扱える」という意味不明な思考をしてるだけなのでまともに取り扱うような相手ではない。名字が山口な人は長州方言が話せるんですよねとか言ってるくらい支離滅裂
人間がソフトウェアに「こう動いてほしい」という意図と「ソースコードがどのように変更されたか」の対応はGitHubとかに大量のデータがあるのでそれを学習すればコーディングするAIは作れる気がするけど、人間の意図と機械語の対応は学習データが全然ないからAI作れないように思う
「よく使うロジックを共通部品化する」とか「とはいえ局所最適な命令も欲しい」とかを考えると、中間言語を用意して最終的な機械語へコンパイルする、という流れは必要と思う。つまり、「AI用に最適化されたプログラミング言語」があるべき。
AIは人とのコミュニケーションをいかにスマートにするかにとんでもなく時間を掛けてきたわけで、人が直接読み書きできない機械語を出力しても意味がないよね。
AI機械語コーディング、やろうと思えばできるが普通はやらないような可読性の低いコーディング方法が多すぎて、AIチャンに本気出されるとバグったときに修復不能になりそうな気がする
これだけAIが発展したならAIに直接機械語作らせればいいじゃんみたいな言説をたまに見るけど、それどうやって今のLLMと同じ水準まで学習するの?といつも思ってる
ロジックに従っているわけだから、ソースで想定外の挙動をした被疑箇所前後にロガーやらブレークポイントを仕込むという原始的だが確実なデバッグが、いきなり機械語を吐かれると出来ないんよ。
デバッグ実務の観点から。意味の単位がないとデバッグできない。
AIにしか読めない言語より、人類が発見的に設計したんじゃない人類にもAIにも優しいプログラミング言語・中間表現・機械語をデータドリブンに統計的に正しくAIが作るって方向に行かないですかね
AIが直接機械語吐くのは遠回りしてるだけだから無いとして、完全に人間がプログラムを読まなくなったらプログラミング言語はどう進化するのかは気になる
「無い」と断じた上で、次の問いを立てている。建設的。
プログラミング言語は人間の認知負荷、記憶量の限界、ミステイク、スパゲティコード理解できないためにあるので、AIだったら直接機械語吐くだろ。常考。
反論: 完全に逆。プログラミング言語は「人間の限界を補うため」ではなく「意味を構造として保持するため」にある。AIも意味を扱う以上、意味を表現する層が必要。「常考」と言いながら何も考えてない。
シンギュラリティ前夜 アダム(AI)が、人間には理解できないどころか、読むことすらできないコードを出力し始めた。後に判明することだが、それは機械語だった。
反論: SFポエム。「人間に読めない=機械語」という発想が、まさに今回の議論で否定されてる誤解そのもの。AIが人間を超えるとしたら、ローレベルに降りるんじゃなくてハイレベルに登る方向。
なんかLLM界隈?では「AIがやがて機械語をだす(ので実用的にはコンピュータ言語は不要になる)」と言うと、無知だとか実情知らないとかブロックしてやるとか言われる見たいだけど。数年は無理だけど、いずれそうなると予想してる。
反論: 「数年は無理だけど、いずれそうなる」の根拠がゼロ。なぜそうなるのか、意味と機械語のギャップをどう埋めるのか、何も説明してない。批判されてる理由を理解してない。
プログラム言語って人間が扱うために自由度を削り取った結果の産物やから、AIに機械語で作ってもらって最適解であれば、現代の言語の宗教感ってほぼほぼ否定されるのです
反論: 「人間が扱うために」という前提が間違い。自由度を削ってるのは「意味を保持するため」。AIも意味を扱う以上、同じ制約を受ける。「宗教感」とか言って茶化してるけど、構造を理解してない。
「まだ」人間が安心する為では無いのですか?コンパイル後の機械語を読む人が殆ど居ない事は受け入れてるのに、将来的にAIが機械語出力する事に忌避感を感じるのは論理的とは言えません
反論: コンパイラの出力を読まないのは「コンパイラが検証済みだから」。AIの出力は検証が必要。この二つを同列に扱うのがおかしい。「論理的とは言えません」と言いながら、論理が破綻してる。
AIが機械語はけば、は数ヶ月前にメンバーと話になった。結論は、いまはあかんやろけど数年後に、もう人間が見る必要全然ないわ、となったらありうるな、となった。
反論: 「人間が見る必要がなくなったら」という仮定自体が検討されてない。人間が見なくていいとして、AIはどうやって検証・修正するの?意味の単位がない機械語で?その議論が抜けてる。
機械語って逆にトークン消費するの?お〜…じゃあLIFE3.0時代のAIは機械語ではなくAI用に最適化された人間には読めない言語で思考する、という方向性なのかな。
反論: 「人間には読めない言語」がなぜ生まれると思うのか。AIは人間の認知を模倣してるので、AIにとって扱いやすい言語は人間にも扱いやすい方向に収束する。逆方向には行かない。
中間言語不要派の言い分:AIが直接機械語を出力可能で、効率最適化が進む。人間の都合で言語が存在するが、AIなら移植性や抽象化不要で中間層をスキップできる。
反論: Grok自身が「中間言語不要派の言い分」として紹介してるけど、これ全部間違い。「人間の都合で言語が存在する」が誤り。意味を扱うために言語が存在する。AIも意味を扱う。
反論: 「うまくやってくれるかもしれん」で済む話じゃない。なぜうまくいくのか、検証・修正はどうするのか、何も考えてない。
反論: これは自虐なので反論というより…正直でよろしい。専門外だと自覚してるなら、なぜそう思ったのか掘り下げて、専門家の意見を聞く姿勢があれば良いと思う。
筋の悪い言説に共通するのは:
1. 「高級言語=人間のため」という誤解 - 意味を扱うための構造だと理解してない
2. 「AIは機械だから機械語が得意」という誤解 - AIは人間の認知を模倣してると理解してない
これさ
愚かな人間の都合など完全無視、LLMのための高効率プログラミング言語「Sui」(粋)
https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html
別にいいんだけど、どうにもブクマカ含めて、しっくり来る批判できてないんだよな
それが気になってしょうがない
俺ごときが言ってもアレだから、Gemini3.0先生に頼んだよ(一時チャット、Pro 3.0 思考モード)
ユーザーが提供した情報と、一般的なLLMの技術特性に基づき、プログラミング言語「Sui」についての冷静かつ客観的な評価をまとめます。
感想: 一言で言えば、**「思想実験としては極めて面白いが、実用性とLLMの学習原理を無視した『早すぎた最適化』」**です。
作者の「人間ではなくLLMを主客にする」という視点の転換は、アーティスト的・哲学的な問題提起としては鋭いですが、現在のLLM(Transformerアーキテクチャ)の動作原理を工学的に捉えると、メリットよりもデメリットが上回る可能性が高いです。
メリット:
・トークン効率の改善: Python等と比較して記述が圧倒的に短くなるため、出力速度の向上と課金コストの削減(トークン節約)は確実に達成できます。
・構文エラーの激減: 括弧やインデントの複雑なルールを排除しているため、「閉じ忘れ」などの単純なSyntax Errorは減るでしょう。
・コンテキストウィンドウの節約: 長いプログラムでもコンテキスト(メモリ)を圧迫しにくくなります。
・学習データとの不一致: LLMは「大量の人間用コード(Pythonなど)」を学習して賢くなっています。未知の言語「Sui」を書かせるには、Few-shot(プロンプトでの例示)に頼るしかありませんが、これではLLM本来の推論能力やコーディング能力(事前学習の重み)を活かせません。
・ブラックボックス化: 生成されたコードがバグっていた場合、人間が読んで直すことが不可能です。「LLMに直させる」にしても、LLM自身がSuiのロジックを深く理解していないため、無限ループ(幻覚の連鎖)に陥るリスクが高いです。
・CoT(Chain of Thought)の阻害: 最近の研究では、LLMは「冗長な思考過程」を出力することで論理的整合性を保つことがわかっています。極限まで圧縮された記号列は、LLMの「考える余地」を奪い、論理破綻を招く可能性があります。
正しいと思う所(Agree)
理由: 人間にとっての「読みやすさ(可読性)」は、機械にとって単なるトークンの無駄遣いです。if x > 10: よりも ? x 10 の方が情報密度が高いのは事実です。
理由: TransformerのAttentionメカニズムにとって、遠く離れた ( と ) の対応関係を維持するのは計算コストが高く、ミスの原因になりやすいです。ネストを排除する方向性は機械的処理として正しいです。
正しくないと思う所(Disagree)
・「可読性を排除しても良い」:
理由: ソフトウェア開発においてコーディングは「書く」時間より「読む・直す」時間の方が長いです。AI生成コードであっても、最終責任は人間が負う現状では、人間が検証不可能なコードは「危険なバイナリ」と同義であり、プロダクトには採用できません。
理由: 前述の通り、現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然な言語」とは、実は「人間にとって自然な言語(英語やPython)」そのものです。Suiは「計算機にとっては最適」ですが、「現在のLLMにとっては異言語」です。
パース(解析)は容易になりますが、LLMは「前の行の文脈」を読んで次の行を出力するため、行を独立させすぎると文脈の連続性が失われ、複雑なアルゴリズムの構成力が落ちる可能性があります。
LLMが最も苦手とする「深いネスト構造の維持」を回避する策として有効です。アセンブリ言語に近いフラットな構造は生成難易度を下げます。
これが最大の問題点です。LLMは変数名(user_id, total_price など)に含まれる「意味」を使って推論を行っています(Semantic Grounding)。すべてを記号化すると、LLMは変数の役割を見失い、論理的なバグを埋め込みやすくなります。
トークン効率は最強ですが、1文字の違いで意味が激変するため、LLMの確率的な「ゆらぎ」による1文字ミスが致命的なバグになります。冗長さはエラー訂正の役割も果たしています。
goto 文の多用はスパゲッティコードを生みます。LLMにとっても、構造化プログラミング(if/forブロック)の方が、「ここからここまでがループ」というチャンク(塊)として認識しやすいため、一概にジャンプ命令が良いとは言えません。
>現在のLLMは「人間語の確率分布」を学習したモデルです。「LLMにとって自然な言語」とは、実は「人間にとって自然な言語(英語やPython)」そのものです。
ここ!マジで覚えてね
LLMはこれまでの機械よりも人間に近いと思ってほしい、人が苦手なことはAIも苦手
機械は論理的でロジックに強くて〜っていうのはAIには通用しない
ついでに、「LLM用プログラミング言語」の潮流について
「LLMのための言語」という文脈は、大きく2つのトレンドに分かれます。Suiは後者に属しますが、主流は前者です。
・DSPy, Guidance, Microsoft Guidance:
・プロンプトエンジニアリングを構造化し、LLMの出力を型(JSONなど)に強制したり、思考プロセスを制御するためのフレームワーク。
・SGLang:
・これらは「人間がLLMを操るための言語」であり、実用化が進んでいます。
・Gorilla LLMなどの試み: API呼び出しに特化したファインチューニングなどがありますが、独自の「新言語」を作らせるよりも、既存の Python や JSON を正しく出力させる方向(Constrained Decoding)が業界の標準解です。
・擬似コード: 論文レベルでは、Pythonの代わりに中間的な擬似コードを出力させ、それをコンパイラで処理する手法も研究されていますが、Suiほど極端な記号化は稀です。
後者については
現状の最適解: 現在のLLMを使う限り、「LLM用言語」の最適解は Python です。なぜなら、世界中のGitHubのコードを学習しており、LLMが「最も流暢に話せる言葉」だからです。無理にSuiを話させるのは、日本人にエスペラント語で詩を書かせるようなもので、パフォーマンスは落ちます。
総評: Suiは、「既存のLLM(GPT-4など)に書かせる言語」としては失敗する可能性が高いですが、「未来のAIネイティブなコード生成のあり方」を示唆するアート作品としては高く評価できます。作者の「愚かな人間に合わせるな」というパンクな精神は、エンジニアリングの枠を超えた鋭い批評性を持っています。
お前らは安易にオレオレ言語作るんじゃないぞ、作るにしてもAIに聞きなよ?
聞く時は忖度させるんじゃないぞ?
この作者もAIに乗せられたのかもしれんし
______
プロンプト
以下が「LLM用プログラミング言語」としてメリットがありそうか、感想を教えて下さい。
https://forest.watch.impress.co.jp/docs/serial/yajiuma/2069573.html
https://github.com/TakatoHonda/sui-lang
・思想的に正しいと思う所、正しくないと思う所を理由込みでまとめてください
・最近のLLM用プログラミング言語についてもまとめてください
・そもそもLLM用プログラミング言語という目標自体の評価をしてください
(省略)
高谷功@滋賀 6.1
BSジャパネクストがリニューアル BS10の無料放送側で日曜昼などに放送中
見られなかったケーブルテレビ局でも見られるようになったので要確認
つながるジャパネットアプリで放送同期・スマートテレビや4月からtverを含め見逃し配信あり
-----
・03 [3択](2) 番
・04 10(種目
・02 わし 座
・03 ロバート・デ・ニーロ
・04 [3択]2 番
・05 気(門
・08 鶏飯 けいはん
・09 太川陽介 たがわようすけ
・13 新潟(県
・14 WEST.
・15 [3択][いくつ]3 6
・16 有吉佐和子 ありよしさわこ
・18 執権
・21 18(番
・22 大久保佳代子 おおくぼかよこ
・23 [2択]縦 笛
・25 熊本(県
・26 用言
・32 消費 税
・34 3(分
・35 『コーラスライン』
・36e メキシコ
-----
=====
(日曜本放送)このあとは「BS10からのお知らせ」→ジャパネットたかたテレビショッピング→ジャパネットたかたのテレビショッピング
言語って、やっぱり高度なんだよ。
単語の意味を理解できるのと、言葉を操れるようになるのでは、その間に越えなければならないものが山ほどある。
「太郎君は喉がかわいた。彼は水を飲んだ」
っていう文章があったとする。
今だったら、汎用言語モデルで理屈抜きにやっちゃうんだが、古典的なやり方だと、「かわいた」の部分から推測を始める。
なにかが「かわいた」のだろう。
太郎君か?喉か?
ヒトがかわくという用例は知らないから、「喉」が「かわいた」のか。
じゃあ、「太郎君」は、「喉」にかかるのか。
「太郎君の喉」」が「かわいた」のか?
じゃあ、「太郎君の喉がかわいた」じゃなく、「太郎君はのどがかわいた」なのはなぜだ?
次の文の、「彼」って誰だ?
水を飲んだ。なぜ?飲んだんだ?
とまあ、けっこう大変。
「彼」が「太郎君」を指す根拠は?と聞かれて、答えられる人なんかいない。
計算問題を解くとか、テレビゲームをクリアするとかのほうがずっと簡単。
名前を呼ばれたら、
名前が呼ばれた→誰かが自分に用がある→相手は自分が聞こえているかどうかを確認したい→振り向く
っていうことを自動的にできるほうがずっと高度。
ChatGPTはな、予測変換を超絶進化させただけなの。知性って、ノリなの。空気を読み、文脈を読む、それが知性になるのな。
「宴もたけなわ」という言葉を聞いて、「宴」と「酣」のそれぞれの意味を考えるよりも、
と答えるほうが、ずっと高度で知的なわけ。
コマンド直入力してもEnter押す前に確認してるからそうそう間違えないしrootユーザーで作業するなって言うならrootでログインできなくすればいいのにそうしない
めんどくさい
他にも仕様書は句点つけるか付けないか統一しろとか用言止めと体言止め混ぜるなとか
お客さんも見るんだからって指導されるけど内容があってればいいじゃん
コードレビューもメソッド名は大文字から始めるなとか本っ当に細かいしうるさい
7、4年目の上司も教育担当の細かい話は無視していいと思うって言ってるし教育担当がカス
15年目の上司は10年目の言ってることは間違ってないから言うことは聞いて仕事しろって言ってるけど、教育担当はチームでずっと女ひとりだったらしいし甘やかされてるんだと思う
さらにムカつくのが、新人教育みたいな制度が数年前まで整ってなかったらしく、その制度を整えたり、教材を実装したのが教育担当らしくて、しかも仕事じゃなく業務外で無償で開発したっぽいから他のチームや部署からも評価得てるのが本当にムカつく
ChatGPTによって、OpenAIは現在、対話ベースの汎用言語モデルをテストしている。
認知科学者のゲイリー・マーカスによると、ChatGPTはGPT-4の前哨戦に過ぎないらしい。
GPT-4に関する噂は数週間前からウェブ上で流れているが、GPT-4はGPT-3とChatGPTを大幅に上回り、そしてもうすぐリリースされることになっている。
OpenAIは現在、Microsoftと共同で助成金プログラムを実施しており、その参加者はすでにGPT-4にアクセスしている可能性が高い。
マイクロソフトのCTOであるスコット・スタインは最近、2023年にさらに重要なAIの年が来ると予言している。
心理学者で認知科学者のゲイリー・マーカスは、GPT-4をすでにテストした人を何人か知っていると言って、GPT-4の熱狂に加わっている。
まずは、用言の活用を覚えます。用言とは、動詞、形容詞、形容動詞のことです。活用とは下の語によって形が変わることです。
「咲く」に「ない」を付けると、「咲かない」になり、「咲く」が「咲か」になります。これを活用といいます。
動詞は、四段活用、ナ行変格活用、ラ行変格活用、上一段活用、上二段活用、下一段活用、下二段活用、カ行変格活用、サ行変格活用があります。
まずは、これらの活用をしっかりおぼえます。声に出してリズムで覚えましょう。繰り返すと意外と覚えられるものです。
☆四段
あ、い、う、う、え、え
☆ナ変
な、に、ぬ、ぬる、ぬれ、ね
☆ラ変
ら、り、り、る、れ、れ
☆上一
い、い、いる、いる、いれ、いよ
☆上二
い、い、う、うる、うれ、いよ
☆下一
え、え、える、える、えれ、えよ
☆下二
え、え、う、うる、うれ、えよ
☆カ変
こ、き、く、くる、くれ、こよ
☆サ変
せ、し、す、する、すれ、せよ
く、く、し、き、けれ、◯
から、かり、◯、かる、◯、かれ
(ラ変格に、かを足したもの)
なら、なり(に)、なり、なる、なれ、なれ
(ラ変に、なを足したもの)
たら、たり(と)、たり、たる、たれ、たれ
(ラ変に、たを足したもの)
☆第二ステップ
助動詞の種類を接続詞ごとに覚えていきます。接続詞とは、上が何形になるかのことです。
例えば、「ず」は未然形に接続詞するので、「咲く」は「咲かず」になります。
☆未然形
る、らる、す、さす、しむ / ず、じ、む、むず / まし、まほし
☆連用形
き、けり / つ、ぬ / たり、けむ、たし
☆終止形
らし、べし、まじ / らむ、なり、めり
☆残り
なり、たり、り、ごとし
☆第三ステップ
☆ず
ず、ず、ず、ぬ、ね、◯
ざら、ざり、ざり、ざる、ざれ、ざれ
(ラ変に、ざを足したもの)
☆まし
☆き
せ、◯、き、し、しか、◯
☆第四ステップ
☆じ
◯、◯、じ、じ、じ、◯
☆らし
◯、◯、らし、らし、らし、◯
☆第五ステップ
上でやった助動詞以外の活用は、最初に覚えた用言のどれかと同じ活用をします。そのため、何活用をするのか覚えることが出来れば、自分で導き出すことができます。
☆四段
む、らむ、けむ、
☆ナ変
ぬ
☆ラ変
けり、たり、り、なり、めり
☆下二
る、らる、す、さす、しむ、つ
☆形容詞
べし、まじ、まほし、たし、ごとし
☆形容動詞
なり、たり
☆まとめ
EARLとか手を洗う(木下)とかばぶ(俵)とかは、もちろん親ワクチンだけど
行政の新型コロナ施策の「それはちょっとどうなの」的なおかしな部分についても
PCR検査拡充反対論を声高に言ってて、その理由が「偽陽性が出るから」とかね
親ワクチンで、政府批判してない、あるいは一部施策を擁護してる医師の中でも
「この人はまとも」系と「この人は政権色がつきすぎて言ってることがヘン」系の色分けは
割とされてる気がする
サイト構築や動画コンテンツ制作で誰がカネ出してるかわからない、
政権に近くて厚労とかワクチン担当大臣とかとも伝手ができている、
みたいな感じで、正直いやな空気になっている
第5波の感染爆発がオリンピックと無関係とする説は、デルタ株の感染力の強さが原因と考えるのが主流のようだ[1]。
デルタ株の感染拡大がたまたまオリンピックと重なっただけなのだ、と。
現在、全国各地に広がっているデルタ株の系統で最も初期のものは、ことし5月18日に首都圏で海外渡航歴がない人から検出されたウイルスだったと分かり、さらに調べると、これとよく似たウイルスが4月16日に空港の検疫で見つかっていた[2]。
一方で、ことし5月ごろ関東や関西、中部、九州などで確認されていた、海外から流入したとみられるデルタ株のクラスターの多くは大きな感染拡大につながらず、7月初旬ごろまでにはほぼ収まったとみられる[2]。
もしデルタ株の感染力の強さだけが感染爆発の原因ならば、オリンピック期間中より人流が多かった5月、6月に感染爆発が起こっていたはずだ。
現実には感染爆発につながった遺伝系統以外のデルタ株は7月初旬で収束していた。
そして感染爆発した系統もオリンピックの開始を待つように急速に感染拡大した。
オリンピック開催によって、感染拡大防止のための堤防のどこかが決壊したと考えるしかない。
国立国際医療研究センターの大曲貴夫氏の指摘どおり、オリンピック開催に伴い局地的・一時的に密な状態が生まれた事実は否定できない。
ここではもうひとつ、国民の側の感染防止策に対する意識がおろそかになった可能性を指摘しておく。
5月から6月にかけて、オリンピック開催、さらに有観客開催を主張する中で、感染拡大防止策を軽視するかのような無責任な言説がまき散らされた[3][4]。
「国民にあれするなこれするなと要求しておきながら、自分たちはやりたい放題か。付き合ってられねえ。」
このように考えた人を責められるだろうか。
個々の国民にとっての帰省は、アスリートにとってのオリンピックと同等以上の価値があるかもしれない。
あるいは1年半近く慣れないライフスタイルを強要されてきた国民の中に、
「なんだ、これまで活動自粛だの、会食回避だのしてきたけど、感染防止策とか関係なかったのか。」
と受けとめる人が現れても不思議ではない。
不慣れな行動を意味も十分に理解できないまま強要されていること自体がストレスなのだ。
人は基本的に見たいもの、耳当たりのいい情報に流される(何より、政治家とその取り巻きはその権化ではないか)。
当局が矛盾したメッセージを国民に発信すれば、国民の感染拡大防止策に対する意識が弛緩するのは当然だ[5]。
とはいえ、新型コロナに感染して損をするのは間違いなく私たち自身である。
無責任な当局関係者や御用言論に惑わされることなく、感染防止策の基本をもう一度肝に銘じたい。
新型コロナウイルス感染症に関する菅内閣総理大臣記者会見(令和3年7月30日)
https://www.kantei.go.jp/jp/99_suga/statement/2021/0730kaiken.html
[2]デルタ株“1つの起点から全国拡大か” 国立感染症研究所が分析
https://www3.nhk.or.jp/news/html/20210806/k10013183971000.html
[3]観客上限1万人 規模縮小でも有観客に踏み切った首相
2021/6/21 21:07
https://www.sankei.com/article/20210621-23SHMAUX2RIENACWHNH4UWVCIA/?outputType=theme_tokyo2020
[4]緊急事態宣言は「屁みたいなもの」 「さざ波」発言の高橋洋一内閣官房参与がTwitterに
英語の助動詞について、今一度調べてみた。中学英語ではcanで『〜できる』は覚えていたけど、意外と多様な使い方をされているようだ。
・can(〜できる)
・must(〜しなければならない)
・should(〜するべき)
・will(〜するだろう)
・may(〜するかもしれない)
will = 未来形のイメージがったので、これも助動詞だとはあまり思わなかった。willといえば、中島美嘉の『will』を思い出すのは世代だろうか。
http://www.alohaenglish.jp/modal-verb/
・推量(〜に違いない)
この推量のニュアンスが難しく、shouldやmustでも大枠は同じような意味だが断定のレベルが異なる。
mustだったら『絶対そうだ!』
shouldだったら『まあまあそうだろう』くらいの差で、この辺りは実際に英語を使わないと慣れない部分だろう
英語のはそれなりに概要を理解したが、『日本語で言う助動詞ってなんだ?』との疑問もあったので調べてみた。
日本語での助動詞の役割:用言や体言などにくっついて、意味を添える働きのある言葉
例:れる・られる・させる・そうだ・〜ない
動詞を助けるといった感じで、単純に『食べる』といった動作に『食べるかも』『食べそうだ』『食べることはない』など
参考 助動詞とは
レールズ専用言語は引っ込んでろ