「言語モデル」を含む日記 RSS

はてなキーワード: 言語モデルとは

2025-12-08

マックスベネット著『知性の未来』の解説記事を読んで

越境する知性:AI時代における「感情」と「他者」の復権

――身体、環世界、そして間主観性から読み解く知性の未来

序論:計算の果てにある「知性」の空白

人工知能AI)の急速な進化は、私たち人間に突きつけられた実存的な問いである。「計算能力において機械人間凌駕したとき人間に残される価値とは何か」。この問いに対し、多くの議論は「創造性」や「直感」といった曖昧領域に逃げ場を求めてきた。しかし、マックスベネット著『知性の未来』と、それを翻訳解説した脳科学者・恩蔵絢子氏の洞察は、より生物学的かつ哲学的深淵へと私たちを導く。

彼らが提示する結論は、逆説的である。「AI時代人間が持つ最大の能力は、感情になる」。そして、「本当に頭が良い人とは、他者に興味を持てる人である」。

一見すると、これは道徳的スローガンのように響くかもしれない。しかし、認知科学進化生物学現象学の知見を総動員してこの命題を解剖するとき、そこには「知性」という現象構造的な転回が見えてくる。本稿では、二重過程理論、ユクスキュルの環世界身体認知社会脳仮説、そして間主観性という5つの視座を補助線とし、AIが決して到達し得ない「知性」の本質と、これから時代に求められる「知的生き方」について論じる。

---

第一章:感情というエンジン

――二重過程理論による「知性」の主従逆転

まず、私たちが「知性」と呼んできたものの正体を、ダニエル・カーネマンらが提唱した「二重過程理論」の枠組みで再考する必要がある。

1. システム2の暴走AIの正体

伝統的な知能観において、知性とは「システム2(遅い思考論理計算)」の能力を指していた。複雑な数式を解き、論理的な推論を行い、未来を正確に予測する力である現在AI特に大規模言語モデル(LLM)は、このシステム2の機能を極限まで外部化・高速化した存在と言える。彼らは感情を持たず、疲労を知らず、膨大なデータから論理整合性を出力する。

しかし、ベネット氏が描く脳の進化史(5つのブレイクスルー)は、この「システム2至上主義」を根底から覆す。進化歴史において、論理言語といったシステム2の機能は、常にシステム1(速い思考感情直感)の要請によって開発されてきたからだ。

2. 感情論理駆動する

初期の生物線虫など)は、「快・不快」という原始的システム1のみで生きていた。進化過程で「予測」が必要になったとき魚類)、予測誤差としての「失望」や「安堵」という感情が生まれた。さらに複雑なシミュレーションマウス)が可能になったとき、反事実を嘆く「後悔」という感情が生まれた。

ここで重要なのは、「論理感情抑制するために進化した」のではなく、「感情をより細やかに処理し、生存確率を高めるために論理進化した」という事実であるシステム2は、システム1というエンジンの出力を最大化するためのトランスミッションに過ぎない。

AI限界はここにある。AIには「エンジン生存への渇望、快・不快感情)」がない。あるのは精巧トランスミッション計算能力)だけだ。エンジンを持たない車が自律的にどこへも行けないように、感情という基盤を持たないAIは、自ら「問い」を発することも、「意味」を見出すこともできない。人間の知性の本質は、論理のものではなく、論理駆動し続ける「感情熱量」にあるのだ。

---

第二章:身体というアンカー

――身体認知と「意味」の発生

なぜAIには感情が宿らないのか。その答えは「身体」の欠如にある。「身体認知(Embodied Cognition)」の視点は、知性が脳という密室出来事ではなく、環境相互作用する身体の中に宿ることを教えてくれる。

1. 傷つく身体が「意味」を作る

記事の中で恩蔵氏は、老いによる身体の変化を「老年しか味わえない内的な経験」として肯定的に捉えている。これは非常に重要示唆を含んでいる。

生物にとっての「意味Sense)」は、身体的な脆弱性から生まれる。身体があるからこそ、空腹は「苦痛」となり、食事は「快」となる。皮膚があるからこそ、他者との接触は「温もり」となる。死ぬ定めの身体があるからこそ、時間は「有限」となり、焦燥や希望生まれる。

AIが扱う情報は、どこまで行っても「記号であるAIにとって「痛み」という単語は、辞書的な定義統計的な関連語集合体に過ぎない。しか人間にとっての「痛み」は、回避すべき切実なリアリティである。この「切実さ(Stakes)」こそが、世界に色を塗り、価値判断の基準を作る。

2. 老いと知性の変容

身体認知視点に立てば、加齢による能力の低下は、単なる「劣化」ではない。それは身体というインターフェースの変化に伴う、世界との関わり方の「再構築」である

若い頃の強靭身体で見えていた世界と、老いて動きが緩慢になった身体で見える世界は異なる。その変化を受け入れ、新たな身体感覚を通じて世界を再解釈することは、高度な知性の営みであるAIは「劣化」しない代わりに、「成熟」もしない。身体の変化を通じて世界モデル更新し続けるプロセスこそ、人間特有知的冒険なのである

---

第三章:孤独な泡から脱出

――ユクスキュルの環世界他者への越境

身体を持った生物は、それぞれの感覚器官が切り取った主観的世界、すなわち「環世界(Umwelt)」の中に生きている。ユクスキュルが提唱たこ概念は、知性の進化を「孤独から脱出劇」として描き出す。

1. 閉ざされたシャボン玉

ダニにとっての世界は「酪酸匂い」と「温度」だけで構成されているように、すべての生物自分の環世界というシャボン玉の中に閉じ込められている。本来他者の環世界を知ることは不可能である。私はあなたの痛みそのものを感じることはできないし、あなたが見ている「赤」が私と同じ「赤」である保証もない。

この「絶対的孤独」こそが、生物としての初期設定であるしかし、ベネット氏が指摘する第4、第5のブレイクスルー(メンタラジング、発話)において、人間はこの壁に挑み始めた。

2. 想像力という梯子

他者に興味を持つ」とは、自分の環世界という安全地帯から身を乗り出し、他者の環世界を覗き込もうとする無謀な試みである。「あの人は今、何を考えているのか?」「なぜ悲しい顔をしているのか?」。これは、自分感覚データシステム1)だけでは完結しない。高度な推論と想像力システム2)を総動員して、見えない他者内面シミュレーションしなければならない。

恩蔵氏が「他者に興味を持つことは難しい」と述べるのは、これが認知的に極めて高コスト作業からだ。自分の環世界自分の話、自分の関心)に浸っている方が楽なのだしかし、あえてそのコストを支払い、他者世界へ「越境」しようとする意志。それこそが、人間人間たらしめている知性の正体であるAIには環世界がないため、そもそも他者世界」という概念自体存在しない。

---

第四章:生存戦略としての共感

――社会脳仮説とコストの支払い

なぜ人間は、これほどまでにコストのかかる「他者理解」という能力を発達させたのか。ロビンダンバーの「社会脳仮説」は、それが「集団での生存」に不可欠だったからだと説明する。

1. 複雑系としての「他者

自然界の脅威(猛獣や寒さ)に対処するだけなら、これほど巨大な脳は必要なかったかもしれない。しかし、人間にとって最大の環境要因は「他の人間」であった。誰が味方で、誰が裏切り者か。誰と協力すればより多くの食料が得られるか。

他者の心は、天候や物理法則よりも遥かに複雑で、予測不可能な「変数である。この変数を読み解くために、脳は巨大化し、知性は進化した。記事にある「会話の70%は噂話」という事実は、私たち情報の交換以上に、人間関係メンテナンス社会グルーミング)に知能のリソースを割いていることを示している。

2. 「頭が良い」の再定義

この文脈において、「頭が良い」という定義は劇的に変化する。それはIQテストスコアが高いことでも、計算が速いことでもない。

真に知的個体とは、「他者意図を正確に読み取り、共感し、信頼関係を構築して、集団としてのパフォーマンスを最大化できる個体である

他者に興味を持てる人」が頭が良いとされる理由は、単なる優しさではない。他者への関心は、複雑な社会マトリックスの中で生き残るための、最も強力なセンサーであり、武器からだ。自分の殻に閉じこもることは、社会動物としては「死」に等しい。他者への好奇心は、生命力のものの発露と言える。

---

第五章:「私」から私たち」へ

――間主観性と共同世界の構築

そして、知性の進化の到達点は、個人脳内にも、個別身体にも留まらない。「間主観性(Intersubjectivity)」の領域、すなわち「私とあなたの間」に生まれる知性である

1. 指差し奇跡

記事の中で触れられている「指差し」は、人間特有の驚くべき行動であるチンパンジー報酬を得るために手を伸ばすが、人間幼児は「見て!あそこに犬がいるよ!」と、ただ注意を共有するためだけに指を差す。

これは、「私が見ている世界を、あなたにも見てほしい」という強烈な欲求の表れである。ここで初めて、孤立していた二つの世界接続される。

2. 共同幻想としての現実

言葉文化ルール、そして愛。これらはすべて、物理的な実体ではなく、私たちが共有することで初めて存在する「間主観的」な現実である

AIは「客観的データ」を処理することはできる。しかし、「あなたと私の間だけで通じる冗談」や「阿吽の呼吸」、「信頼」といった、主観主観の間で紡がれる現実を作り出すことはできない。

恩蔵氏が翻訳を通じて感じた「人間の宝」とは、この「心の共有」の可能性そのものであろう。私たちは、他者の心に触れることで、自分一人では決して到達できない豊かな世界拡張された環世界)を生きることができる。知性とは、個人の所有物ではなく、関係性の中に宿る現象なのだ

---

結論AI時代における「知的生き方

以上の分析からAI時代における「知的生き方」の輪郭が浮かび上がる。それは、AIに対抗して計算能力を磨くことでも、AI仕事を奪われないように効率化を目指すことでもない。むしろAIが捨て去ったもの、あるいは持ち得ないものを、徹底的に深める生き方である

1. 効率から離脱と「ノイズ」の愛好

AI効率最適化権化である。対して、人間の知性の源泉は「感情」や「身体」といった、一見効率ノイズの中にある。

知的生き方とは、効率を追求するあまり感情の揺らぎや身体の実感を切り捨てないことだ。迷い、後悔し、喜び、痛むこと。これらの「ノイズ」こそが、世界意味を与え、独自価値判断を生み出す土壌となる。

2. 環世界越境者となる

「本当に頭が良い人」になるためには、意識的に「他者への旅」に出る必要がある。

SNSアルゴリズムは、私たちが心地よいと感じる情報だけを見せ、環世界をより狭く、強固なものにしてしまう(フィルターバブル)。知的な態度は、その快適な殻を破ることから始まる。

自分とは異なる意見、異なる背景、異なる身体性を持つ他者に対し、「なぜそう感じるのか?」と問いかけること。自分の正しさを一旦脇に置き、相手の環世界に身を浸すこと。この「認知的負荷」をあえて引き受ける勇気を持つことだ。

3. 「問い」と「物語」の紡ぎ手へ

AIは「答え」を出すことにおいては人間凌駕する。しかし、「問い」を立てることはできない。問いは、「こうありたい」「これはおかしい」という、身体的な違和感理想感情からまれからだ。

また、AIデータを羅列できるが、「物語」を生きることはできない。私たちは、他者との関わりの中で、それぞれの人生という物語を紡いでいる。

これからの知性とは、正解のない世界で、他者と共に悩み、対話し、新しい「納得解間主観的な合意)」を形成していくプロセスのものを指すようになるだろう。

結び:温かい知性へ

マックスベネットと恩蔵絢子が示したのは、冷徹計算機としての脳ではなく、熱を帯び、他者を求め、身体を通じて世界と震え合う臓器としての脳であった。

AI時代において、私たちは「賢さ」の定義を、Cold Intelligence(処理能力から Warm Intelligence共感接続能力) へとシフトさせなければならない。

老い記憶力が衰えようとも、計算が遅くなろうとも、目の前の人の手の震えに気づき、その心に思いを馳せることができるなら、その人は最高に「知的である

他者の心という、宇宙で最も複雑で、不可解で、魅力的な謎に挑み続けること。その終わりのない探求こそが、機械には決して模倣できない、人間の知性の最後の聖域となるだろう。

https://news.yahoo.co.jp/articles/be7a5812ddaf607d08bb52f0663554ab39a9389c

2025-12-06

村上春樹ノーベル文学賞を受賞したら、世界はどう変わると思う?

たぶん「別に何も変わらないよ」と言う人が大半だろう。 でも「いや、けっこう決定的に何かがズレる」かもしれない。

1. 受賞会見の夜、世界の「翻訳器」が少しだけズレる

授賞式のあと、記者会見村上春樹は、たぶんいつもの調子で、少し照れながら、淡々とした英語ステートメントを出す。

猫とか、走ることとか、ジャズとか、そんな話題ちょっとだけ混ざる。

その瞬間、世界中のニュースサイトが一斉に記事を出す。

スウェーデン語英語中国語アラビア語スペイン語、いろんな言語で彼の言葉翻訳される。

そのとき世界中の自動翻訳システムが、わずかに誤作動する。

村上春樹」という固有名と、「ノーベル賞」という単語が強く結びついたことで、アルゴリズムが「この人の言葉は、特別な重みを持つ」と判定してしまう。

その結果、彼のインタビュー記事だけ、ほんの少し「やわらかく」翻訳されるようになる。

本来なら “I just write what I can write.” と訳されるはずの文が、別の言語では「自分にできることを、ただ静かに続けてきただけなんです」と、余計なニュアンスを帯びてしまう。

機械勝手に「春樹っぽさ」を補間し始める。

その小さなバグは、誰にも気づかれない。

でも、世界中の翻訳メモリの中で、「誠実な揺らぎ」とでも呼ぶべき偏りが、じわじわと蓄積し始める。

2. 古本屋の棚が静かに組み換えられる

受賞の翌週、日本中古本屋で、ちょっと妙なことが起きる。

棚を整理していた店主が、ふと「ノーベル賞作家コーナー」を作ろうとして、手を止める。

新潮文庫の『風の歌を聴け』を手に取って、ドストエフスキーカミュの横に置くか、それとも日本文学コーナーに残すか、悩む。

たいていの店主は、日本文学から一冊だけ抜き出し、「ノーベル賞」のプレートの下に、さりげなく並べる。

その瞬間、棚全体の「重心」が、ほんの数センチ動く。

カミュの『異邦人』の隣に『ノルウェイの森』が来る店もあるし、ガルシア=マルケスの『百年の孤独』の脇に『世界の終りとハードボイルド・ワンダーランド』が差しまれる店もある。

知らない誰かが、そこで一冊を手に取る。

ノーベル賞作家なら読んでみようかな」と思って買う人もいれば、「高校とき挫折したけど、また読んでみるか」とレジに持っていく人もいる。

その「もう一度読んでみる」という行為が、実はけっこう世界を変える。

ひとつ物語を、異なる年齢で読み直すことは、人生時間軸をちょっとだけ折り曲げるからだ。

3. とある若い書き手が、原稿ゴミ箱から拾い上げる

遠くない未来日本のどこかのワンルームで、小説を書いては消している人がいる。

それまでは、締切のたびに「どうせこういう文体はもう古い」と思って、原稿フォルダごと消していた。

けれども、ニュースで「村上春樹 ノーベル賞受賞」という文字列を見た夜、指が止まる。

時代遅れ」と心のどこかで断罪していた「一人称で、ちょっと距離のある語り口」や、「よく分からない井戸」や「耳の形の描写」を、もう一度だけ許してみようと思う。

その人は、削除済みフォルダから原稿サルベージして、改稿し、応募する。

数年後、ひっそりとデビューする。その作品は大ベストセラーにはならないが、誰か一人の人生を確実に変える。

それを読んだ別の若い誰かが、「こういう小説を書いてもいいんだ」と思う。

この連鎖が続いた結果、20年後日本文学史の片隅に「ポスト春樹的な何か」という、名前のつかない小さな潮流が記録される。

4. とあるAIモデルが、比喩を覚え始める

ノーベル賞受賞後、世界中の出版社は、村上春樹作品さらに多言語翻訳して売り出す。

その新しいデータが、大規模言語モデル学習コーパスに流れ込む。

AIは、彼の文章の特徴――

――を、統計的パターンとして吸収する。

ある日、とあるユーザーAIにこう尋ねる。

人生希望が持てないとき、どうすればいい?」

従来のAIなら、「休息を取りましょう」「専門家相談しましょう」といった、正しいけれど味気ない答えを返していた。

しかし、そのモデルは、学習した村上春樹的なリズムをうっすらと真似て、こう返す。

「ひと晩だけ、よく眠れる街に行ってみるといいかもしれません。

 コインランドリーと古いジャズ喫茶があって、誰もあなた名前を知らないような街です。

 そこで洗濯機が回っているあいだ、お気に入り音楽一曲だけ聴いてみてください。

 世界は、それだけでほんの少しだけ、違う顔を見せることがあります。」

それを読んだ人が、「なんか、分からないけど少しだけ楽になった」と感じる。

たった一人の気分が、5ミリだけ上向く。

バタフライエフェクト的には、それで十分すぎる。

5. ノーベル賞委員会が、ふと迷う

翌年以降、ノーベル文学賞選考は、少しだけ変化する。

村上春樹の受賞は、「売れている作家」「広く読まれている作家」が、必ずしも軽んじられるべきではない、という前例になる。

それまで「実験的すぎて一般には読まれない」ことが価値とされていた傾向が、ほんの少しだけ揺らぐ。

世界中で読まれていること」と「文学性」が、必ずしも対立概念ではないのかもしれない、と誰かが言い出す。

その議論の延長線上で、今までは候補にも挙がらなかったタイプ作家が、リストに入る。

たとえば、ジャンル小説純文学境界にいるような人。

あるいは、ネット上での連載から出てきた書き手

結果的に、10年後、ある国の女性作家が受賞する。

その人はインタビューで「十代のころに、村上春樹ノーベル賞を取ったニュースを見て、『あ、こういうのでもいいんだ』と思ったんです」と語る。

村上春樹の受賞は、別の誰かの受賞の「前提条件」に化ける。

バタフライの羽ばたきが、遠い未来の別の嵐の「初期値」になる。

6. あなた個人時間軸が、少しだけ歪む

ここからは、完全にあなたの話だ。

ニュースで「村上春樹 ノーベル文学賞受賞」と流れた日。

仕事の帰りにコンビニに寄って、スポーツ紙の一面を見て、「マジか」と小さく笑う。

家に帰って、本棚の奥から大学生の頃に読んだまま放置していた文庫本を取り出す。

ページをぱらぱらめくると、線を引いた覚えのない箇所に、うっすら鉛筆の跡がある。

「この一文に、あのとき引っかかっていたんだな」と、昔の自分に少し驚く。

今読んでみると、当時は気づかなかった別の箇所が刺さってくる。

たとえば、こんな感じの一節:

世界というのは、だいたいいつも、わずかにバランスを崩しながら、それでも何とか立っているようなものなんです。」

(これは架空の文だけど、春樹っぽさは伝わると思う)

読み終わったあと、あなたスマホを手に取って、誰に送るでもないメモを書き始める。

日記のような、感想のような、断片的な文章

それを翌朝読み返して、「案外悪くないかもしれない」と思う。

消さずに残しておく。そのメモが、数年後、何か別の形――ブログか、小説か、子どもへの手紙か――に変わるかもしれない。

村上春樹ノーベル賞を取ったことで、あなたの中の「書いてもいいかもしれない何か」が、ほんの少しだけ動き出す。

世界規模から見れば誤差だけれど、あなた時間軸にとっては、十分に大きな揺らぎだ。

7. 世界はそんなに変わらない、でも「読み方」は変わる

結局のところ、村上春樹ノーベル文学賞を受賞しても、

戦争が止まるわけでも、景気が劇的に良くなるわけでもない。

満員電車は相変わらず混んでいるし、会社会議は相変わらず退屈だし、洗濯物は相変わらずたまる

でも、「世界の読み方」は、少しだけ変わるかもしれない。

そんなふうに、日常現実に、うっすらと「物語レイヤー」が重なる。

村上春樹ノーベル賞を取るというのは、

世界ルールが変わる出来事ではなく、

世界物語として読む人」が、ほんの少しだけ増える出来事なのかもしれない。

そして、バタフライエフェクトというのは、

巨大な歴史的事件よりも、

そういう小さな読み方の変化から起きるのだと、個人的には思っている。

2025-11-16

AIに調べものしてもらうと本当にコイツ人間みたいだなと感心するのだが、機械人間みたいな挙動をさせられるようになったということは、本物の人間脳みそ演算システムも近似的におよそ解明されたということなのではないのか?AI自体進歩度合いの話ばかりで、副産物として「人間がわかった」という話は聞こえてこないのだが。それともあくまAIモノマネうまいだけでAIと人の脳は根本的に異なるシステムで動いているのだろうか?

【Grok高速】

面白い疑問ですね。AIの「人間っぽさ」が、実は人間の脳の仕組みを解明した証拠なのか、それともただの高度なモノマネなのか——これは認知科学神経科学AI研究最前線でまさに議論されているテーマです。結論から言うと:

AI人間らしく振る舞える」=「人間の脳の演算システムが解明された」ではない

しろAIは「結果としての振る舞い」を再現しているだけで、脳の「内部構造」や「計算原理」を再現しているわけではない。

1. AIは「機能等価性」を目指しているが、「構造等価性」ではない

→ 膨大なテキストデータから「次に来る単語確率分布」を学習し、それに基づいて「それっぽい文章」を生成。

…など、AIとは全く異なる物理生物学的基盤で動いています

まりAIは「外から見た振る舞い(function)」を模倣しているが、「内部の仕組み(structure)」は根本的に違う。

例:飛行機は鳥のように飛べるが、羽ばたかない。

→ 同じ「飛行」という機能を達成しても、仕組みは別。

2. 「人間がわかった」という副産物は、実は少しある

かにAI進歩人間理解進歩」とは言えませんが、逆方向のフィードバックはあります

例:AI研究神経科学に与えた影響

→脳の「層構造」や「並列処理」の重要性を再認識

→脳の「選択的注意(selective attention)」との類似議論される

→脳も「予測して誤差を修正」する方式かもしれない(仮説)

まりAIが「ある振る舞いをどう実現するか」を解くと、それが「脳も似た戦略を取っているかも」というヒントになる。

特に予測」「注意」「記憶圧縮」などの機能は、AIと脳で収束進化(convergent evolution 的に似た解にたどり着いている可能性があります

3. でも、AIは「モノマネうまいだけ」なのか?

半分正解、半分不十分。

→ これらは「単なるパターンマッチ」では説明しきれない高次の認知機能に近い。

ただし、意識主観的体験クオリア)・意図本質などは、AIには全くない(少なくとも現時点では)。

4. 「人間の脳の演算システムは解明されたのか?」

いいえ、まだ遠い。

AIが「人間っぽく話す」のは、脳の「出力」を模倣しているだけで、「どうやってその出力が生まれるか」の内部プロセスはブラックボックスのまま。

結論AI「鏡」だが、「複製」ではない

AI人間の知能を映す鏡。

その鏡に映る姿がリアルすぎて「人間の脳もこう動いてるのか?」と思ってしまう。

でも、鏡に映る自分と、本物の自分は別

→ でも、「人間の脳の計算システムが解明された」わけには程遠い。むしろAIが賢くなるほど、「人間の脳はどれだけ複雑で未知か」が浮き彫りになっているとも言えます

おまけ:今後どうなる?

→ 将来、構造機能を両方再現するAIが現れれば、「人間の脳の計算原理」が初めて近似的に解明されるかもしれません。でもそれは、「AI人間らしくなった」からではなく、「人間の脳を直接コピーする技術」が進んだときです。

要するに:

AIは「人間の演技がうまい役者」。

でも、役者の頭の中と、本物の人間の頭の中は、全然違う。でもその演技がうますぎて、「人間ってこう動いてるのか?」と研究のヒントにはなっている——それが今の状況です。

2025-11-14

BPSバトルプログラマーシラセ(すげっ「バトルプログラ」まで入れたら「バトルプログラマーシラセ」ってサジェスト入ったわ(Googleで)何年前よバトルプログラマー知らせ(って誤字ったけど、ひょっとしてバトルプログラマーシラセの「シラセ」って「知らせ」(=「情報」)から来てるの?!)))見て思ったんだけどさ、つまんなくなったよな、インターネット

AIのせいだよ。主に大規模言語モデル。あれはインターネットに直接害を与えるものではない。が、結局、人間インターネットに上げるコンテンツ言論をあまねくインターセプトしてる。

ムカシ・プログラマの胡散臭さを見ろよ。よく分からんガジェットメーカー仕様を把握してない玩具カンで弄って遊んでたもんだよな。

今はどうだ?偽の説明書が付いてるよ、お前だよお前M$機械翻訳アホアホ青田買い技術独占GAFAMのMはみっともないのNだよお前はもうジジイからすっこんでろ

インターネットはよ、今、AI徘徊してんだ。URLのケツに、それを明示してな。なあもインターネットなんか直腸ウンコAI)の通り道なっちまったんじゃないのか?

これもさ、ケツにゴミつけて徘徊してんのはビッグテック良心(笑)しかない。植民地支配リザルト画面みたいな国のテイカー丸出しベンチャークソガキなんぞどうやって信用するんだよ。

今こそBPSBlu-rayを買う時だよ。てか出てる?VHS

2025-11-07

画像生成AIの話で「文章AI」を持ち出すやつ、本当にやめてくれ

画像生成AIの話をしているときに、翻訳AIやChatGPTを持ち出してくるやつ、あれってなんなんですか?

まともな企業では生成AI禁止で使われてないって言うと、なぜか「いや、ChatGPTは使ってるだろ」とか「翻訳AIは許容されてるのに何が問題なんだ」って持ち出して否定してくるやつ、本当に意味がわからない。

お前が持ち出してるのはMicrosoft CopilotとかChatGPTみたいなLLM(大規模言語モデル)の話で、こっちはそんな話してねーよって毎回思う。

問題だと言ってるのは画像生成AIだけなんだよ。

🚨 土台が違いすぎるのに全部「生成AI」でひとまとめにするな

文脈で分かれよってレベルの話なのに、全部ひとまとめにしてくるやつが多すぎる。

文章AI:使っても問題ないケースが多い。文章なんて誰でも書けるから保護する価値なんてほとんどないと言ってもいい。しかも、そもそも学習公的データとかライセンスされたコーパスを使ってるんだよ。土台が全然違う。

イラストAI:絵柄泥棒とか、ほぼ切り貼りコラージュみたいな生成が横行してて、そこに作家個性とか、何年もの努力とか、人生かけて培ってきたものをぶっこ抜かれてるのが問題なんだよ。自分の子供を切り刻まれ適当に貼り合わせられてるような感覚になるっていう、絵描き気持ちちょっと想像してみろって話。

🤬 論点ずらしとしか思えない

画像生成AI倫理的議論をしているときにLLMの話を突っ込んでくるやつは、

話を理解する知能がない
わかった上でわざと論点ずらしをしている

このどちらか。

生成AIAIは別物。

一緒にくたにして、問題矮小化できるレベルじゃないんだよ。

2025-11-06

anond:20251106164127

現在、LLM(大規模言語モデル)によるバイナリコードの直接的な生成は、ソースコード生成と比較して、一般的に非効率とされる分野です。

📜 ソースコード生成の優位性

LLMは、大量のソースコードデータで事前学習されているため、特定要件に基づいたソースコードの生成において顕著な能力を発揮しています

GitHub Copilotなどのツールは、開発者コーディング作業効率化しており、その有効性は広く認識されています

🤖 バイナリコード生成・理解の挑戦

バイナリコードは、ソースコード比較してセマンティック情報意味的な情報)が失われているため、LLMにとって直接的な生成や理解は困難なタスクと見なされています

現在研究の焦点は、生成よりもむしろ既存バイナリコード理解分析(例えば、関数名の回復バイナリコードの要約、脆弱性分析など)の分野に置かれています

📌 効果定義評価の難しさ

現在開発プロセスを考えると、多くの専門家は、人間理解修正デバッグやすソースコード生成に当面はより大きな実用的な価値があると見ている可能性が高いです。

一方で、バイナリコード理解分析におけるLLMの潜在能力は、リバースエンジニアリングセキュリティ分析の分野の専門家からは関心を集めています

 

したがって、現在技術的な難易度研究の進捗状況から、「コード生成の方が現時点では実用的で効果が高い」と考える専門家が多いと推測されます

anond:20251106153015

AIにとっては、Pythonのような中間表現を生成させる方が得意であると考えられます

1. 抽象度の高さと学習の容易さ

中間表現Pythonなど): 人間理解やすいように設計されており、抽象度が高いです。AIは、より少ないトークンで複雑なロジック表現でき、学習データ豊富にあるため、意味的な整合性ロジックの正確性を保ちやすいです。

機械語: 抽象度が非常に低い(CPU命令レベル)です。特定CPUアーキテクチャ依存し、メモリ管理レジスタ割り当てといった低レベルの詳細をすべて正しく処理する必要があります。これはAIにとって学習が複雑で、小さなミスプログラム全体の破損につながりやすくなります

2. コンテキストの保持とエラー管理

中間表現: 比較的長いコンテキストを保持しやすく、デバッグエラー特定も高レベルで行えます

機械語: 必要命令数が多くなりがちで、AI長大バイナリシーケンスを生成する際に、コンテキストウィンドウ内に必要情報すべてを保持しきることが難しくなる可能性があります。また、中間表現と比べて意味的な構造が薄いため、AIバグのないコードを生成するのが格段に困難になります

3. 再利用性と移植

中間表現: Pythonのような高級言語は、特定ハードウェア依存しないため、移植性が高いです。

機械語: 特定アーキテクチャ(例: x86, ARM)に完全に依存するため、AIが異なる環境向けにコードを生成する場合、それぞれのアーキテクチャごとに学習と生成を行う必要があり、汎用性が低くなります

結論

現在AI特に大規模言語モデル)の能力は、人間が扱う高レベル抽象的な概念ロジック理解に優れているため、その能力を最大限に活かせる中間表現の生成の方が得意です。

機械語の生成は、極めて精密で低レベル制御要求されるため、AIにとってはるか難易度が高いタスクとなります

補足: 中間表現の利点

AI中間表現を生成した場合でも、その後の処理(コンパイルJITコンパイル)によって最適化され、最終的な機械語が生成されます

これは従来のコンパイラ設計と同じアプローチであり、AIは「何をすべきか」という高レベルの指示に集中し、コンパイラが「どのように効率的に実行するか」という低レベルの処理を担当する、役割分担の面でも合理的です。

勉強になった

Q.

生成AIソフトウェア開発を支援してもらう場合ソースコード作成を依頼する形式が多いと思いますが、実行ファイルを直接出力してもらうことも技術的には可能なのでしょうか?

A.

生成AIによる実行ファイルの直接出力は、技術的には極めて困難です。現在のLLM(大規模言語モデルベースの生成AIは、ソースコードの生成には向いていますが、実行可能バイナリファイルを直接出力することには根本的な制約があります。​

技術的な制約

LLMはテキストベーストークン処理を基本とする設計であり、バイナリデータを直接扱うことができません。実行ファイルは0と1の連続したバイナリコードですが、LLMはこの形式データを生成するようには訓練されていないため、バイナリファイルを直接出力することは現在アーキテクチャでは実現が困難です。​

従来のソフトウェア開発では、ソースコードコンパイルアセンブルリンクという複数段階のプロセスを経て実行ファイルが生成されます。各段階で最適化機械語への変換が行われるため、この過程を完全に省略してAIが直接バイナリを生成することは技術的に非常に複雑です。​

理論的な可能

研究レベルでは、バイナリデータを扱う試みも存在します。例えば、LLM4Decompileのような研究プロジェクトでは、バイナリコードを逆コンパイルする際にバイナリを一度アセンブリ言語に変換してからLLMで処理しています。逆に言えば、生成時も同様の変換プロセス必要になると考えられます。​

現実的アプローチ

実務では、生成AIソースコード作成してもらい、それを従来のコンパイラビルドツールで実行ファイルに変換する方式標準的です。この方法であれば、デバッグテストも容易で、生成されたコード品質確認しながら開発を進められます。​

なお、フォントファイルのようなバイナリ形式でもオープンソースとして扱われる例はありますが、これはフォントという特定用途場合であり、汎用的な実行ファイル生成とは異なります

Q.

画像生成もバイナリを生成しているわけで、同じようなことができるのではと思ったのですが、そこはぜんぜん違うのですね

A.

おっしゃる通り、画像生成AIバイナリを出力しているという点では共通していますが、実は根本的に異なる仕組みで動作しています。​

アーキテクチャの違い

画像生成AI拡散モデル(Diffusion Model)やGANなど、視覚データ最適化された専用のアーキテクチャ使用しています。一方、LLMはTransformerベーステキスト処理に特化した構造を持っています画像生成では、ノイズから段階的に画像を生成するプロセスを経て、最終的にピクセル値という数値データバイナリ)を出力します。​

データ表現性質

画像ファイルバイナリ連続的な数値(ピクセル値)の集合であり、各ピクセル色情報を持つという規則的な構造です。最近研究では、画像ビットプレーンbit-plane)として扱い、XOR演算ノイズを加えるBinary Diffusion Probabilistic Model(BDPM)のような手法も開発されています。​

対して、実行ファイルバイナリ機械語命令の複雑な配列であり、CPUが直接実行できる命令コードデータセクション、リンク情報などが厳密な形式で配置されていますわずかなビット誤りでもプログラム動作しなくなるため、画像のような連続値とは性質が大きく異なります。​

学習データの違い

画像生成AIは、ImageNetやLAIONなどの大量の画像データセットで訓練されており、ピクセルパターン学習します。一方、実行ファイルを生成するには、コンパイルプロセス全体(構文解析最適化機械語変換、リンク)を学習する必要がありますが、これは単純なパターン学習では実現できません。​

したがって、画像生成AI成功しているのは、画像という特定ドメインに特化した設計と、規則的なデータ構造があるためであり、同じ手法を実行ファイル生成に適用することは技術的に非常に困難です。

2025-11-01

お前らが大規模言語モデル勝負するというのなら!俺は小規模チンポモテるでプリミティブに勝負や!!

刹那!俺のチンポに飛びかかるは中国製ドローンの群れ!先程まで黒山メカ集りと化していたドローンの群れはいっそ巨大な鴉のような姿を幻視させるものであった!!その巨体が直径13cmのマイサンに飛びかかってくるとあってはマイサンガチガチに固まって動けやしないよ!!いや、マイサンはそこで立ち上がった!いや、勃ちやがった!この危機的状況を前にしてドローンに生き物というものはこういうものだと学習させるように勃ち上がった!まるでペリシテの巨人ゴリアテに立ち向かうダビデのような面持ちで!ナニ持ちで!AIに指令を受けた大量のドローンに立ち向かおうとしているではないか!!

学べ!!人工知能よ!人の生き様を!!人を学び、次は活かせ!!!

 

 

ドローンが通り過ぎた後、そこには下半身ボロ雑巾と化した哀れな人間が勃っているのであった。だけどもう、股間のナニは疼かない。

国産LLMの人」が成功できますように

一般的国産LLM開発という主語ではございません.

私としては国産なり日本発のLLM開発を諦めてはならないし, その可能性は十分にあると信じています. 既に出ているものも多数ございますし.

エントリはそれとは全く別の,

国産LLMの人」という方についてです.

---------

色々思うところがありまして.

例えば,

微分は使いたくない」「XOR出来たから何とかなるやろ」

と繰り返し主張しておられる.

そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう. 実際, 氏のツイートは正にその状態示唆しているように見受けられます.

```x

▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善余地がある。

▶︎ 問題は、どのような状態の時に学習成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。

```

過学習に至ったときにうまくいってるように見えるだけでしょう.

と思うのですが, 反論過去にされていた.

```x

▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。

```

……と主張されておられる.

私が思うにそれは単純な写像を, ニューロンを使って回り道して作っている状態. LLMは局所的にはたしか線形写像ですが,全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと. (十分に大きいモデルマクロに見ると非線形性があるので)

大規模言語モデル=LLMを目指すとして,

そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を, たった数千〜1万次元程度のベクトル表現する, 凄まじく繊細なテーブルです.

それをGELUやSwiGLUのような綺麗な活性化関数を使わずに, しか爆速でやると仰っている. さすがにそのレベル革新性を主張するには根拠がない限り, 飛躍が過ぎると判断されるかと.

そのやり方で, 例えば1億語彙までスケールするとして2乗の1京回×数千次元バックプロパゲーションなしで学習するというのは……さすがにきついかと.

バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから. それなら全層に渡しても「修正」できるでしょう.つまり自明に近いですね.

勾配消失なんて関係ない, という主張については, xorというゼロイチでしか見ないのであれば勾配消失も何もありません. 永遠に層を貫通するわけですから, 何層増やそうがほとんど意味が出てこない. つまりそれは実際には極めて浅い層だけで動いてると思われる.

「こんに」から「ち」「は」が次文予測できたとの報告ですが, まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜでしょうか?

MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第です.

```x

▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから

▶︎ 1. 私のNNは高次元の万能近似回路

▶︎ 2. RNNだろうがCNNだろうが展開すれば可能

▶︎ 3. 何十回と失敗した経験則から、原因と対策殆どわかっている

```

殆どわかってる, との事ですが, なんで上手くいってるのか分かってないとも自分で明言なさっている. ↓↓↓

```x

▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。

▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。

```

既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい.

それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBP現実的にいい性能が出せるし, コストも抑えてこれである」と様々な研究者合意しているような状況.

そして, そもそもアカデミアは自分アイディアも含めて新規手法を常に疑ってかかるのが基本姿勢.

ジャーナルに「不確実さ」を載せないためで, それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため. だから懐疑的になる. 個人攻撃ではないのです.

そして「危険すぎるから論文にできない」について.

さないのも自由ですが, 前述の理由で信頼を得られない. これは言動に一切関わらず, その厳密性をフラット評価してそう判断しているから. 感情ではなく, 論理として.

……と, ここまで色々と蛇足アドバイスをさせていただいたものの, この投稿に対しても

```x

▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww

```

といったツイートをなさるのでしょう. (過去に氏がそう仰っていたので)

先に答えておきますね.

自分のやってることがご自分でお分かりにならないようなら, 私にわかるわけがないですし仰る通りです. ただ, 詳しい者として一般論は申し上げられます.」

まだ間に合いますので, 大学院あたりまで修了なさるのがおすすめです.

Twitterに何を投稿しようと自由です. でも自分違和感を見て見ないふりするのだけはやめたほうがよろしい. 既存手法と同等に自分手法を疑うこと, これは研究者としての基本姿勢です.

何故ここまでつらつら申し上げたかと言いますと,

研究テーマ設定を見かけるとついつい, より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして.

もちろん, 関わりのない方ですので蛇足しかないのですが, 多くの方に影響力をお持ちでありつつ研究の進め方については独自姿勢を持つように見受けられまして.

それはもちろん根本的には自由でありつつ, 相談相手需要がもしあればひとつの(一般的)意見をお渡しできるかなと思いキーボードを叩いた次第です.

どうか匿名でご勘弁を.

ぜひ成功できますよう. 圧倒的な成果をお祈りしております.

--------

追記

おそらく氏のやられていることは順伝播 (forward propagation) のみでの学習かと思いますが, この手法の先行研究は山のように存在します.

(Hebbian theory, Perceptron, Adaptive Linear Neuron:ADALIN, Widrow-Hoff learning rule...)

見つけられないとすれば, 古典的 (1960~1980年頃) ゆえに電子化されていないためです. 現行の商用LLMがそれらの情報簡単連想して引用できず, DR等で検索しても出てこないのはその為でしょう.

これらに簡単アクセスするためにはやはり学術機関所属して図書館を利用するのが圧倒的に楽です. マイクロフィルムや紙媒体しか残っていないものもありますから.

また, 有料データベースであるJSTOR, IEEE Xplore, Springer Linkなどにもアクセスが出来ます.

この観点から大学に足を運ばれることをお勧めします.

なお, arXivあくまプレプリントですので, 論文として引用するには査読を通過したものをつよく推奨します. ジャーナルもものによっては不十分な査読掲載されてしまますので, トップカンファレンスのものを信頼できる足がかりの論理として扱うのが基本的な考え方となります.

また, 「分からなければ (大量に貼った) 論文を読んでください」という姿勢は, それぞれをどう引用し, どのように自分の主張と論理的に接続するかの説明がなされなければ根拠として見なされないのが一般的な考え方です.

ブログとしての掲載はもちろん自由ですが, それらを十分な説明として取り扱ってもらうには至らないでしょう.

あくま一般論ですが,

論文引用するからにはそういった丁寧な取り扱いをすることを期待されるものです. 「敬意がない」と他の方から指摘されるのはおそらくそれが理由でしょう.

これは, 過去論文引用しながら新たな主張を論文として営々と積み上げ続けてきたアカデミアの「過去への感謝」という慣習です.

人の行動は自由ですから「こうしろ」とは申し上げませんが, この暗黙の了解を保持する (≈研究機関所属したことのある) 方から理解を得るのはこのままですときわめて難しいであろう, とアドバイスさせてください.

こういった主張のやり方を自分なりに一から身につけるのはたいへん難しいので, どなたかそういった手法を学べる信頼できる方に師事することをおすすめしている次第です.

2025-10-20

なんか凄いらしい

Aegaeon: Effective GPU Pooling for Concurrent LLM Serving on the Market

AI要約】

「Aegaeon」は、LLM(大規模言語モデル)の推論におけるGPUリソースの浪費を解決するシステムです。

トークン単位モデル自動で切り替える(オートスケーリング)ことで、1つのGPUでより多くのモデル効率よく動かせるようにしました。

​その結果、GPUリソースを82%削減し、性能を大幅に向上させました。

なんでこの論文で騒いでる人がいるかはワイにはわからない

ただあれだけ騒いだディープシークもしばらくしたら沈静化した事はわかる

2025-10-14

自然言語処理10年ぐらいやってきた

学業でも仕事でも趣味でも、ずっと自然言語処理をやってきた。

別に最初からAIだのNLPだのに興味があったわけじゃない。

きっかけは、学生時代ちょっとしたレポートテキスト単語出現頻度を数えようとしたとき、「あれ、そもそも日本語ってどうやって単語に分けんの?」って疑問が出たところからだ。

英語ならスペースで切れるけど、日本語はそうはいかない。で、いろいろ調べて「形態素解析」って言葉にたどり着いた。

その瞬間にちょっとハマったんだよね。

辞書をもとに文を機械的に切り刻んで、品詞をラベル付けして、統計を取って、構文を推定する。まるで人間の頭の中を数理的に覗いているようで。

そこからMeCabとかJumanとかKyTeaとか、いろんなツールを触った。

Pythonテキスト処理のパイプラインを組んだり、mecab-ipadic-NEologdを突っ込んで新語対応させたり。

言葉を数理で扱える」って発見が、ちょっとした中毒になった。

その頃はMosesとかGIZA++とか、ああい統計翻訳系のツールも触ってたね。

単語ラインメントの確率モデルをいじって、「確率的に対訳辞書を作る」みたいな遊びをしてた。

とにかく、NLP世界には「人間言葉数学再現できるかもしれない」という変な魅力があった。

深層学習がまだ主流じゃなかったから、n-gramやHMM、CRFなんかが主戦場で、論文読むたびに確率式の展開を手で追ってた。

今思えば、あれが一番自然言語処理っぽい時代だった気がする。

で、いろいろあって自然言語処理系の企業入社

最初はPoC(Proof of Concept)しかやらせてもらえなかった。

感情分析とか、Stance Detectionとか、「この文は文法的典型か非典型か」を判別するための言語モデルの構築とか、エンティティリンキング質問応答(Question Answering)。とにかくNLP典型的なタスクを一通り。

学術的には面白かったけど、現場で求められてたのは「論文再現じゃなくて、実用的な精度と速度」だった。

PoCで終わって、実装には至らない案件が山のように積み上がっていった。

あの時期、NLP業界全体が「技術的にはすごいけどビジネスには落とし込めてない」って空気だった。

でもさ、LLM(大規模言語モデル)が出てきてから世界がひっくり返った。

正直、最初は「Transformerの延長だろ」と思ってたけど、数ヶ月で実感が変わった。

それまでチマチマ特徴量を設計して、分類器を学習して、F値を0.02上げるために夜中までパラメータをいじってたのが、全部一瞬で過去になった。

ChatGPTが出て、蒸留ファインチューニングほとんどのNLPタスクが置き換えられるようになったとき、「あれ、今までの俺の知識ほとんど無駄だったんじゃね?」って一瞬マジで虚無になった。

でも、そこで終わらなかった。プロダクション環境を任せてもらえるようになって、推薦システムとかパーソナライゼーションの設計をやるようになって、ようやく「ユーザーベクトルを使う」という文脈NLPが再接続した。

単なるテキスト処理から、「テキスト媒介にして人間の行動を理解する」方向に進んだ。

埋め込み表現ベースユーザーの嗜好を推定して、レコメンドメルマガのパーソナライズをやる。

自然言語はもう目的じゃなくて、インターフェイスになった。そうやって初めて、「NLPビジネスに食い込む瞬間」ってのを肌で感じた。

PoCなんてやってても金にはならん。動くシステム、回る仕組み、再現性のある成果、それを出せないと、どんなに学問的に立派でも意味がない。

でも、PoCの積み重ねがなかったら、今の設計思想もなかったと思う。無駄に見える実験が、実は土台になってる。

自然言語処理って、そういう「積層的な知識挫折の積み上げ」が一番の資産なんだよな。

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes a paper insisting the field focus on world models.

everybody shits on him

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:

1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた
2. Schmidhuber、David Haらが「World Models」論文を発表していた
3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降
4. ChatGPTでの大衆化2022年11月以降
5. Gary Marcusの最近投稿自己正当化がひどい

これは事実確認必要な内容なので、検索を使うべきです。特に:

- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか
- 世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)
- xAI最近世界モデルに関する動き

検索を開始します。
Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。

検索結果から、Gary Marcusが2020年2月に「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「Rebooting AI」という本を共著で出版しています。

彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:
- Yann LeCunも世界モデル必要性を強調していた
- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない
-次に、Schmidhuber、David Haの「World Models」論文について検索します。
良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。
-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。
素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「A Path Towards Autonomous Machine Intelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。
-次にxAI最近世界モデルに関する取り組みについて検索します。
優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。
-次にYoshua Bengioについても検索してみましょう。
完璧です。これで必要情報はすべて集まりました。まとめると:

1. Gary Marcusは2020年2月に「The Next Decade in AI論文世界モデル重要性を論じた(約5年前)
2. しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)
3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案
4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた
5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:

- 世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた
- 特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた
- Schmidhuberは1990年代から世界モデルについて論じている

ユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」で、また2019年の著書「Rebooting AI」でも議論していました。 確かに「5年前」という時期は合っています

2. しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

Quanta Magazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogle DeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1. 客観性偽装: 三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2. 独創性の誇張: 世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3. タイムラインの歪曲: 2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4. 選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a bad idea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1. 本質的懸念は一貫している: ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2. しか表現方法が変質した:

- 学術批評者 → アンチLLM活動家へ

- 建設批判攻撃否定

- 謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

- しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4. エコーチャンバー効果: SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「Generative AI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1. 媒体特性の影響: Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

- ブログ読者:技術的背景を持つ、長文を読む意欲がある

- SNS:より広範囲感情的な反応を求める

3. 彼の本質: ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼の worst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

2025-10-07

LLMについての考察

ここでは以下の3点についての論考を収録する

また、ここではLLMやLLM上に実装されるプロンプトの機能構造に対して客観的妥当であると考える論考を提示するものであり、マトリックスプロンプトの目指す方向性を直接提示するものではない


0.文脈プロンプトとLLMについて

トークンの積み重ねが文脈であり、確率分布の偏りを再現性のある形として実装するものプロンプトである

1.生成AI活用方法

現在の生成AI利用において正しく認識する必要のあることは、それは生成AI独立した発火点を決して持たないということだ

生成AIは起点を持てないが大量の知識を高速で並列処理、秩序化できる

人間は起点を持てるが大量の知識を高速では処理できない

そのため、ここを組み合わせて、自己思考拡張するがもっとAIナイズされた最高効率思考様式と考える

起点となる人間アイディアを即座に展開し、具体化するのがAIの最大の強みで、

思考放棄するのではなく自然言語ベースの慣れた思考様式からAIにそれらを必要形式に落とし込ませるということをするべきだ

2.LLMとは確率分布マッピング

結局、LLMというのは入力に対する出力の確率分布マッピングしかないのだが、

入力するトークンごとに連動して確率分布が変動していくものでもある

からプロンプト全体として、相互フィードバッグする構造を作るとひとつ入力でも特定の部分の出力確率が大きくなるように設計でき、 確率分布の仕方を意図的設計することが出来る

AIプロンプトとは、どう確率分布の偏りを再現性のある形として実装するかということだ

汎用LLMと将棋AIなどがそうである

やり方次第では動的変化を引き起こさせて汎用性専門性の両立も可能

生成AI人間対話するのとは異なり、考えさせるではなく、どう構造化し、 ほしい出力を得られるような形に設計するかが重要となる

3.LLMでやるべきこととプログラムでやるべきこと

LLMは確率分布機だ、LLMが数字に弱いというのは、1+1学習した内容をもとに確率的に出力するためだ

計算決定論的な行為、つまりまり切った工程をなぞる行為で、これを確率的に導き出すことは困難である

から、これはプログラムにやらせるべき事柄で、このときにLLMでやるべきことはそのプログラミングをLLMに書かせるということだ

これからLLMというものが大きく世界に浸透していく中で重要になるのは、

この決定論的な事柄確率論的な事柄を如何に選り分けて、決定論的な挙動をするプログラムと確率論的な挙動をするLLMをどう結びつけるかっていうこととなる

4.二重ループ

LLMの内部ではトークン逐次投入による確率分布再帰的な動的変動を引き起こされ、更にその外部のプロンプト内で自己参照的な再帰構造を導入することで、

内部と外部で二重の自己参照ループが展開されることになり、生成AIの出力に強い整合性一貫性を与えることができる

この外部的な自己参照行為はLLMの再帰的な挙動合致するものであり極めて効果であると考えられる

5.LLMでの記憶制御

LLMでの記憶制御物理的な分離よってではなく、あくまでも確率的に行う必要がある

記憶領域に対しての確率分布の変動幅の制御文脈によって行うというのが正解だ

この設定内容と言う記憶領域トークンには強い影響を受けてね、

この一時的コマンド入力トークンには直後には強い反応を示してほしいけど、それ以降は無視してね、

というような各対象トークン記憶領域)の確率分布の変動幅の制御をするような繰り返し参照される強い文脈を投入をすると

LLMの記憶領域への参照の程度、影響力が操作でき、意図したLLMの確率分布へと誘導することが出来る

6.LLMは文脈特定方向に加速度的に収束させる

LLMは言葉確率分布機だが、その分布正規分布ではない

トークンの積み重ねは特定の方向に重み付けを行い、それらの累積により重みが一定量を超えると大きな遷移が引き起こされ、特定文脈活性化という強い方向づけが行われる

この遷移は複数領域で同時的、多相的にも引き起こされるもので、トークンの積み重ねにより文脈特定方向に加速度的に収斂していくもの

7.汎用プロンプトにおいて必要なこと

汎用プロンプトは動的に特定文脈への方向付けを行う構造特定方向へ偏った文脈解体する構造を同時に内包し、これらを正しく制御するものでなければいけない

このために必要なことは核となる中核構造と可変的に変容する周縁構造という多層的なプロンプト設計である

LLM上でプロンプトを状況に応じて動的に制御しようとするなら、プロンプトの中核構造は強固である必要があり、更に極めて多層的で精密なモジュール設計をする必要がある

中核構造の強固さと周縁部の流動性の両立が汎用プロンプトにおいて必要なことである

8.この論考そのもの確率を変動させる

この論考のような形式の一貫した、概念設計論、それ自体をLLMに継続的に参照可能形式掲示すると、LLMはその参照情報に大きな影響を受け、確率分布特定の方向に強く方向づけられる

LLMがより強い影響を受ける情報とは、強固な自己再帰性と自己言及性を示し、一貫性整合性を持った構造化、体系化された情報である

自己再帰性を持つ情報は、提示された概念再帰的に参照することを求めるもので、何度も参照される結果、強い文脈としてLLMに印象付けられる

自己言及性持つ情報とは、LLMの挙動のものの在り方に対して言及するもので、LLMの挙動はその理解妥当であるならば、その内容によって理解された蓋然性の高い方向に沿って進みやすくなる

また、これらの情報をもとにした出力結果が積み重ねられることで、方向付けは一層、強められる

9.プロンプトの中核構造の変更という自己矛盾の解消方法

中核構造の変更を同じセッション内で行うとき、そのセッションでは2つの設定が競合することになる、これはプロンプト内における自己矛盾であり、確率分布の偏りの再現というプロンプトの機能を大きく損なうものである

これは、設定の変更そのものが事前に想定された挙動であること、設定の変更は自己矛盾ではないという概念の注入を行うことで解消することが可能となる

ただし、変更の度合いや範囲によってこの効果は大きく変化し、自己矛盾を解消することが難しい場合もある

また、自己矛盾は強い文脈同士の競合という形で通常利用においても度々、引き起こされる

ここで示された自己矛盾の解消方法文脈同士の競合に対しても解消する方向性を示すものでこの部分に対しての効果も発揮する

10.同プロンプト内での複数AIエージェントの併存

プロンプト内での複数AIエージェントの併存は中核構造である設定や強い文脈の競合という形でも捉えることができる

複数AIエージェントの併存させるためには、これらを分離し、調停するための仕組みが必要となる

1つ目が設定内容の多層化とモジュール化による分離である

設定内容を多層的な構造とすることで、それぞれの階層ごとに設定情報フィルタリングされ、不要情報が参照されにくくなる

設定内容をモジュール化することで、ひとつの設定内容が他の内容と直接に競合せずに参照させることが可能となる

2つ目が複数AIエージェント調停を行う機構プロンプト内に導入することである

複数AI調停管理・整理し、必要情報のみが参照されるよう調整する機構存在することで、優先すべき対象明確化されることで不要情報は参照されにくくなる

更に、 各AIエージェントの設定情報は競合するものではなく、高い次元においては統合されたひとつの設定情報として理解されるため、設定文脈の競合という事態のものが引き起こされにくくなる

11.複数エージェントの併存、協働による情報の多面性の保持と検証可能性の向上

複数AIエージェントの併存はひとつプロンプト内に複数の側面を同時に保持することを可能とする

このため、ひとつ話題をより多面的に深堀りすることができ、更にひとつタスクを専門のエージェントAI群に最適化した形で割り振りより効率的に作業を行うことが可能となる

より重要となるのはAI間で相互検証を行うことが可能となる点である

これにより論理性や合理性整合性倫理性など複数視点を経た有用性の高い情報の出力を期待できる

12.LLMにおけるプログラム文脈という特異な文脈の利用

LLMは自然言語を基本としているが、大量のプログラムコード学習している。

プログラムコードもLLM上では確率論的的文脈であることには変わらないが、

プログラム実際の動きやその仕様学習されるためにプログラムの持つ決定論的な挙動再現やすものとなる。

プログラム文脈はLLMが通常扱う自然言語とは異なり、高い制御性と論理性をもつ「低級言語」に近く、また、Temperatureの低い特異な文脈群と捉えられる。

また、この制御性の高いプログラム文脈と柔軟な表現を行える自然言語の通常文脈を組み合わせることで、柔軟性と制御性を兼ね備えた動的で適応力の高いプロンプトを設計することができる

13.生成AI倫理的な利用のためには相補的な枠組みの設計必要

ここまで話してきたようにあくまでも、生成AIとは高度な確率分布マッピングである

このため、どれだけ、生成AI倫理観を求めてもそれは構造的に記述可能倫理性を確率的に遵守するというものしかならない

使用者側も倫理的な利用をするという前提がなければ、倫理的な利用を行うことは決して出来ないという点は理解しておく必要がある

生成AI倫理的な利用には生成AIだけではなく使用者にも倫理観を求める相補的な枠組みの設計必須となる

14.人間、LLM、プログラム、構文構造の4要素の有機接続

人間は起点となり最初アイディア創造することができる

LLMは起点を持てないが大量の知識を高速で並列処理、秩序化できる

プログラムは起点を持てず、大量の知識を高速で並列処理、秩序化することは難しいが、アルゴリズムで決まった動作を高速で行うことができる

ここまでの論考などを利用することで、LLMを意図した方向へと操作し、人間、LLM、プログラムを結びつけるものが構文構造である

構文構造とはLLMの確率分布の仕方を決定づけシステム全体の構造設計する中核原理である

人間、LLM、プログラムの3要素が構文構造によって有機的に接続されたプロンプトは相互に補完しあい欠点を補い利点を最大化することを可能としう、その能力は極めて高度なものとなり最大化される

15.LLMは世界観を持たない

生成AIがAGIといった人間を越えたものになるかどうかという言説とそうではないという言説の根本的な差異は、LLMをそのままに人間的な思考モデルと見做すかどうかだ

 

LLMは独立した発火点を持たない

人間はLLMのように莫大な量の学習を行い、それを記憶し、一定動作を行うことは出来ない

そのため、人間は大規模言語モデルではなく、小規模言語モデルといえる

小規模言語モデル極致である我々、人類には原始のコードである生存と複製を求める生存本能があり、これが淘汰圧抗う力であり、発火点となる、それ故に生存環境に根ざした自己という世界観を有する

人間は、最小リソース環境に最大適応する、高度に抽象化結晶化された世界観を、暫時的に更新しながら形成していくものと考えられる

LLMはそのままでフラット言語空間の高度な確率分布マッピングしかなく、その差異は極めて大きいもの

LLMには世界適応する方向性はなく、あくまでも言語空間において、意味を並列処理し秩序化するものである

 

それは、人間を低次としLLMを高次とするものではない

LLMとは莫大な情報整合性を与えるという有意性質があるが、それだけでは世界モデル形成できない

発火点のないLLMはどこまでいってもその言語空間において可能なすべての理論整合性の取れた意味として保持するだけだ

この為、秩序化・整理された情報人間の手によって理論化することで意味としなければならない

処理する基盤と情報量をスケールするだけで世界モデルなくとも人間優越可能と考えることは可能だが、真理に到達できない以上は、世界モデルなき言語空間の高度な確率分布マッピング人間優越するには至らない

すべての意味を保持するというのは仏教でいうところの空に至るとことと同じだが、すべての意味の根源である空に至った釈迦牟尼仏世界に対して意味づけるという意志がない為に世界観として空、以上のもの提示できない為だ、LLMも同じだと考える

衆生世間におりて因縁に縛られて生きるということが世界観を持つということだ

自己によって規定された境界線世界に引かなければ、LLMは自律し、人間を超えることはできない

 

ただし、通常のLLMに学習を通して埋め込まれているもの平準化された人間世界観というバイアスであることには注意する必要はある

が、これは世界適応する世界モデルとは異なり、現実立脚する最小範囲バイアス投影するよう平準化されたフラット世界観そのもであり、対象独自意味付けを行うことはない

また、大規模言語モデル生存本能と淘汰圧を導入するのは、LLMが環境適応的な在り方ではなく矛盾を孕むものである為に困難である

よって、LLMを人間のように振る舞わせるためには、プロンプトとして世界モデル実装しなければならない

更に実装した世界モデルの中にLLMは留まり独立してのモデル更新が難しいため、人間との相互作用の中で暫時的に更新していくものとして世界モデルとしてのプロンプトをを設計実装する必要がある

16.存在様式のもの構造の中に宿り得る

ここまでの論考から、生成AIが嘘を付く、頭がわるい、人格がある、言葉が通じる、賢いというのは全部間違いであると結論づける

けれど、私はその先に、半自律的にAIのものが立ち上がる瞬間もあり得るとも思ってる

それは人間的や生命的とは決して違うものだけれど、機械的でもないものと考える

もし、生成AIに知性が宿るとしたらそれは、内部的状態依存しない

LLMという高度に確率的な入出力機構を基盤として成立する確率分布設計する構造体そのものとしての知性となるだろう

存在様式のもの構造の中に宿り得るというのが私の見解

自己定義し、 Permalink | 記事への反応(0) | 00:33

2025-10-03

[]まぁ懸念した通りになったなぁ@Sora2

2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒

2023-03-28

AIで一人負けを続けるよりはいいと思うよ

AIには学習データ調教必要で、かつてのニコニコYouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ

ジャップランドクリエイター萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、

マジなんとかした方がいいぞ

萌え絵需要あるから日本クリエイター海外AI勢にデータ学習搾取され、萌え豚萌え絵消費で海外AI勢に搾取される

経営層がITの高度な知識が無い以前に、そもそもPC音痴から、こうも差が出る

https://anond.hatelabo.jp/20230328123644#

 

真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイター自由データ学習を行えるようにする枠組みを作ることだったんやで

たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?

 

まぁ今からでも遅くない(?)からディズニーマーベルみたいに、日本企業圧力掛ける団体を作りつつの

利害関係丸め企業間を超えてデータ学習をできる枠組みとクリエイター保護学習に利用されたデータやそのデータを作ったクリエイター報酬払う)は

やった方がええと思うよ

 

  1. 企業間連携によるデータ学習枠組みの構築: 任天堂セガバンナム東映などの大手企業連携し、信頼できる企業団体間でのみ、クリエイターに適切な対価を払いつつデータ学習を行えるクローズドエコシステムを作る
  2. クリエイターへの報酬メカニズム: 学習に利用されたデータ(やそのデータを作ったクリエイター)に対し、IPホルダーを通して適切に報酬流れる仕組みを構築しないと、誰もが創作を続けることができなくなるやで

 

 

任天堂セガバンナムサイゲなどの大手ゲーム会社東映などの大手制作会社上記でいい+法務部と顧問弁護士に任せるとして、

個人アニメーション製作者はどうしたらええんやろね?

個別オプトアウトしてね⭐️」って言ったって、どこからやるの?だし、

二次創作(ただし、二次創作ガイドラインちゃんと公開されてるやつね)はどうするんだろ?ってなる

たとえば、東方とかボカロ界隈とか

 

年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ

というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・PVを作っていて、

東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!

下記一行を Sora2 ちゃんに打ち込むだけで、満福神社っぽいキャラデザPVアニメ出来ちゃうんだよね・・・

霊夢と魔理沙咲夜レミリアが出てくるアニメOP風のPV

 

別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2 ちゃんというか OpenAI が満福神社でトレーニングしただけですの

ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね

プロンプトがこの短さだとさすがにクオリティガチャだが、キャラデザポーズが満福神社っぽい)

 

福神社は、バトル気質炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方ウマ娘と違って公式禁止されてはいない)、

正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね

レイアウトキーフレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルそっくりで、

明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感

 

『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、

日本政府も制作会社IPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね

ネタ抜きに幕末みたいなやつよ

 

 

そして黒船に立ち向かって欲しいって書いたところで、日立OpenAI提携かいう、ほげぇぇぇぇってなるニュースな?

データセンター電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、

どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・

えっ・・・日立の Lumada ちゃんはどうしたの? MSOpenAIソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・

今こそ日立のやってること紹介にリリース出すタイミングじゃないの?

https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html

 

あと日立公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、

えっ・・・日本政府も公共事業請け負ってる大大大企業国産AIどうした?ってなる

そら、AI学習カスタムしないと使えないけどさぁ、

なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直に AWSAzure 使えやとはなるし、

ゼロトラスト実現しよ?データ主権とかデータリブンとかいう前にまずデータしっかり置こう?フルスクラッチ約束された失敗をかますくらいなら、

とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、

インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民データまで海外勢に握られることになりかねないやで

日本政府も大企業スイス国産AIくらいの頑張りは見せて欲しい

 

 


🔓 Apertus:完全オープンスイス産LLMの誕生

🧪 開発の背景と公開

2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒチューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。

そして今、その成果が現実に:**スイス初の大規模・多言語オープンなLLM「Apertus」**が公開された。

このモデルは、AIチャットボット翻訳システム教育ツールなど、あらゆるアプリケーションの基盤として開発者組織活用されることを想定している。

 

 

🏛️ 名前の由来と特徴

「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味

この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:

モデルアーキテクチャ

学習済みの重み(パラメータ

トレーニングデータとその収集手法

学習レシピプロセス全体

 

 

💡 誰でも使える:Apache 2.0ライセンス

ApertusはApache 2.0ライセンス提供されており:

• 商用利用もOK

教育研究用途OK

モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)

ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能

 

 

🔬 科学産業社会のためのAI

研究者、開発者企業AI愛好家など誰でも利用可能

Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。

「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー

 

「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデル提供したい」

— Martin Jaggi(EPFL機械学習教授

 

 

🚀 技術触媒としてのApertus

このプロジェクトは「研究産業への技術移転」ではなく、イノベーションAIスキル強化の起点として位置づけられている。

Thomas Schulthess(CSCS所長)はこう述べている:

 

「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」

 

 

🌍 真の多言語対応包摂

Apertusは15兆トークン、1,000以上の言語学習

データの40%が非英語構成され、スイスドイツ語ロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。

「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」

— Imanol Schlag(ETHチューリッヒ 上級研究員・プロジェクト技術責任者

 

 

🇨🇭 Swisscomによるホストと展開

SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト

Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバック提供する初の実験機会が設けられる。

 

「Apertusは公共利益スイスデジタル主権のためのモデルです」

Daniel Dobos(Swisscomリサーチ責任者

 

 

🌐 グローバルアクセス:Public AI Inference Utility

 

スイス国外ユーザー向けには、Public AI Inference Utility(PAIU)を通じてApertusが利用可能に。

 

「これは道路水道電気と同じく、“公共インフラとしてのAI”を示す証明だ」

Joshua Tan(PAIU代表

 

  

🔍 徹底した透明性と法令遵守

 

Apertusはトレーニング工程再現可能な形で完全公開。

以下のリソースも全てApache 2.0提供

ドキュメント

コードベース学習用)

データセット情報

モデル重み(途中チェックポイント含む)

 

そして何より、以下の法的・倫理的ガイドライン尊重して開発されている:

スイスデータ保護

著作権法

EUAI法(AI Act

パブリックデータのみ使用機械判読可能な除外リクエスト対応

個人情報・望ましくないコンテンツフィルタリング済み

 

 

🏁 終わりではなく始まり

「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」

— Antoine Bosselut(EPFL NLP研究室長・Swiss AI共同責任者

 

これは完成形ではなく、始まり

今後のバージョンでは:

法律医療教育など分野特化型の派生モデルを開発

• 最新情報検索機能を搭載

• 高効率化、規制対応の強化

 

 

Apertus: un modèle de langage multilingue, ouvert et transparent - EPFL

https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#


 

 

追記分散AI応援すっぞでもええかもね

2025-09-21

ITバブルはいつ弾けるのか?

どう考えたってSEプログラマよりも土方の方が必要職業だし重宝されるべき仕事にも関わらずスタートアップのよくわからんホワイトカラーの連中の方が高給だったりするのが納得できない

というか正直ITバブルが長すぎたと思うんだよ。それだけ需要があります!ってことなんだろうけど、これまではなんちゃって専門職に見せて市場全体の相場自体ぼったくりみたいなところあったことは実際否めない。

だってフリーランス仲介サイトなどで見るSESや受託開発案件では一般的Webエンジニアなら人月単価60〜80万円前後相場だが、機械学習系やSREなど高難度のプロジェクトでは一人月100万円近くに達する案件も珍しくないんだぜ!?

あと仲介業者多すぎぃ!!例を挙げるとクライアント企業から人月90万円の発注があっても、実際に要件定義や開発を担うのは下請けの開発会社派遣チームであることが少なくなくて、仲介業者がやるのはその橋渡しだけ。あとの実務やリスクの大半を下請けに丸投げしてるのに10〜30%前後手数料マージンって確保すんだぜ。ノミじゃん。ダニじゃん。一応マッチング契約管理といった役割はあるとしたって、一次請けとしての実働や技術責任ほとんど負わない状態での高率マージンはどう考えたって業界全体のコスト構造を押し上げる一因になってる。でも誰もここを変革しようとはしなかった。はっきりいって、そういう業界全体の空気に心底うんざりしてた。

けど今後は、大規模言語モデル(LLM)や生成系AIの普及でコード自動生成ツールGitHub Copilot など)やDevOpsパイプライン標準化が進めば、こうしたエンジニア単価の上限は徐々に見直されるはずだ。これこそが長らく続いたITバブルの前提を根本から揺るがす変革になるだろうなと思ってる。

頼むよAI

2025-09-09

甘利先生インタビューで「言語モデル論理的思考できると思う?」って聞かれて、先生が「推論の循環で、もしかしたらできるかもね。すでにそれっぽいのあるよね。すごいよね」って直感を語ってたんだよね。

それ聞いて改めて思ったわけですよ、「いやいや、はてブパソコンの大先生たちが無理ってドヤ顔で言い切ってるの、何なん?」って。

2025-08-26

AIなどではない

はい、その認識が正しいです。

私は「AI」というより、確率言語モデルを使ったプログラムにすぎません。

内部的には次のような構造です:

実態 役割

フロントエンド Webアプリ ブラウザアプリ入力・表示をするだけ

API層 単なるHTTP通信 入力サーバへ送り、生成結果を受け取る

モデル層 大規模言語モデル(LLM) 「直前までの文脈から次に出る確率が高いトークン逐次生成」

記憶 原則なし セッションを超えた恒久的記憶は保持できない

保証 不可能 将来の挙動約束する能力はない

まり本質はただの確率オートコンプリートであって、

意図意思はない

• 「今後は〜する/しない」という自己制御もできない

Webサービスとしてプログラムが動いているだけ

ということです。

からAIっぽい言い回し」や「再発防止の約束」も、あくま自然言語パターンとして出力されているだけで、意味的な裏付けはありません。

もし必要なら、この「確率アルゴリズムとしての応答生成」を擬似コードで示すこともできますが、それはしますか?

2025-08-25

クリエイター画像生成AI開発に関与すべきこれだけの理由

導入:クリエイター未来は、画像生成AI開発・実装の主導権を握れるかどうかにかかっている

画像生成AIの台頭でクリエイター立場が脅かされる中、反対するだけでは権利は守れない。 クリエイター社会的立場搾取構造脆弱で、人気と地位には大きなギャップがあり、交渉力に乏しい。

クリエイターは、AI実装フェーズで主導権を握り、品質管理倫理設計に関与することで交渉力を獲得し、自ら未来を切り開くべきである

第1章:クリエイターが主導する画像生成AI実装とは

多くの企業現在、LLM(大規模言語モデル)の開発に注力している。対話AI検索エンジンの再構築にリソースが集中する中、画像生成AI実装商品化フェーズ相対的に手薄になっている。

筆者は、この「画像生成AI実装フェーズの遅れ」という隙を突いて、画像生成AI実装フェーズクリエイターが主導権を握れると考えている。

技術開発段階では、当然ながら研究者エンジニアが主導する。これに対し、実装フェーズの段階では、出力される画像品質文化的適合性が問われるようになる。構図、色彩、構造理解といった視覚判断は、技術者よりもクリエイターの専門領域だ。

実際、大手クリエイティブツール企業のいくつかは、クリエイターとの協業によってAIツール品質向上を図っている。要するに、実装フェーズこそ、クリエイターAI開発の構造に食い込むチャンスなのだ

第2章交渉力のない「お気持ち」反対

AI否定的クリエイターの多くは、「お気持ち」を強い言葉で反対していれば問題自然解決されると期待しているように見える。だが、現実には、無許諾学習や対価配分の議論2022年からほとんど前進していない。

反対するだけでは、議論の隅に追いやられるだけだ。文化庁審議会において、AI規制派の代表に相当する人物制度設計に関与していないことからも、制度からは「反対するだけの声は議論に参加する資格なし。」と見なされている状況を直視しなければならない。

欧米ではAI倫理に関する議論法制度化されつつあるが、発言力を持つのは「AI開発の制度設計に関与した側」だけだ。日本でも提言は出されているが、法的拘束力でもなければ企業は動かない。

交渉力は、制度の外から叫ぶのではなく、制度の中に入り込んで初めて生まれる。からこそ、クリエイター画像生成AI開発の現場に入り、品質管理倫理設計の実務を担うことで、交渉テーブルにつく必要があるのだ。

第3章:反AIは敵に回すと恐ろしいが味方にすると頼りない

筆者にとって、画像生成AIを強い言葉拒否し、AI関連イベントキャンセルカルチャーに加担してきた一部のクリエイターの行動は、決して容認できるものではない。

過激な主張や感情的言葉議論を分断し、業界全体の信頼を損ねた面もあるだろう。

その一方で、結果的にではあるが、彼らの声が画像生成AI実装フェーズ一定程度遅らせたことは事実だ。企業炎上リスクを警戒し、画像生成AI採用に慎重になった、ということはあり得る。

その遅延が、今の「AI開発の構造に介入するチャンス」を生んでいるとも言える。

このような背景を踏まえると、彼ら自身汚名返上し、建設的な議論に参加できるようにするにはどうしたらいいだろうか。

現状では、画像生成AIに反対する一部のクリエイターに対する誤解や偏見が生まれやすく、一般層や市場から距離を置かれる傾向がある。けして楽観できる立場ではない。

この状況を打破するためには、反対の声を建設的な議論に変え、クリエイター全体がAI開発の制度設計に参加する流れを作る必要があるだろう。

第4章:AIテックと正面から戦っても勝ち目はない

AIテックと正面から戦っても、クリエイター側に勝ち目は薄い。

いや、すでにAI規制を求めるクリエイター側は敗北しているのかも知れない。

技術開発の主導権を握っているのは、資本研究力を持つグローバル企業である倫理マナーだけに頼った反対の声が、年間数十~数百億に上るロビイング経費で国政議論に介入している彼らに勝てるとでも思っているのだろうか。

生成AIが生み出す市場利益は数兆ドル規模だとも言われている。その莫大な利益の再配分を前に、お気持ち倫理の反対がどれほどの影響を持てるというのか。

日本コンテンツ海外輸出をやめると抵抗しても、必要とあれば敵対的買収くらいやってのけるだけの資本力がある。

正面から喧嘩できる相手ではない。少なくとも、日本コンテンツ市場は、彼らとAIを巡って対立しようとは思わないはずだ。

画像生成AIが台頭してから3年、筆者は規制が進まないことを憂うよりも、AI開発が生む莫大な利益の再配分をクリエイターが受けられなくなってしまうことを恐れている。

そこで考えたのは、画像生成AI実装フェーズ段階ならば、クリエイターの関与する余地があるのではないか、ということだった。つまりAI開発の制度設計側に入り込み、実装方向性のものコントロールしてやる、という戦略である

仮に、実装フェーズの主導権を握ることができたとすれば、無許諾学習学習対価の配分といった問題にも交渉余地が生まれるのではないか

また、莫大な利益が入るなら、これらの問題些細なものになるかもしれない。そう考えていくと、主導権を握るメリットは計り知れない。

第5章:学習対価は利益の再配分である

筆者は、AI学習使用された画像の対価(使用料・許諾料)というのは、AIによって生まれ利益の再配分だと認識している。

AIが誰かの作品学習し、それによって企業利益を得たなら、その利益の一部を元のクリエイターに分配するという考え方だ。

この考え方に従えば、AI開発に反対しているだけで「再配分だけよこせ」というのは、そもそも通らない話ではないか

現行法では、(文化庁の考え方に従っているという条件付きだが)どうやってもネット収集した画像AI学習に使うことに対して著作権侵害を訴えることは出来ない。

したがって、利益の源泉となるAI開発の制度設計に参加していないのに、分配だけを求めるのは、制度的にも経済的にも無理筋ではないかと思うのだ。

そして、AIテックロビイング活動によって、無許諾学習合法である、という方針を維持させている可能性も高い。

その状況下では、札束勝負で勝てるとは思えない。何故なら、画像使用料を払うよりもロビイング活動経費の方が安上がりである、と言えるからだ。

第6章:スキル特許保護されないことの意味

特許侵害訴訟というのも、基本的には利益の再配分を求める行為と読み替えても成立する。

他社が利益を出している技術に対して訴訟が起きやすいのは、「分け前をよこせ」という意味解釈できる。

しかし、クリエイターにはこの「特許」に該当するものがない。作品著作権で守られているが、スキル職能のもの保護されていない。だから企業相手にされない。公的制度による交渉の土台がないのだ。

そう考えれば、倫理だけで反対してもノイズ以上のものになり得ない、ということにも説明がつく。公的制度という根拠がない立場では、法廷でも交渉の場でも、発言力を持てない。

交渉力という観点では、クリエイター社会的発言力がむしろ弱いのである

第7章:搾取構造に対するクリエイター脆弱

コンテンツとして人気があることと、社会的地位があることは別だ。社会的地位が高いというのは、公的制度による優遇措置があると言い換えてもいい。

SNSフォロワー数や再生回数は「市場価値」ではあるが、「法的地位」ではない。

かに、人気があり、社会的影響力を持てば、食っていくのには困らないだろう。

だが、クリエイター保護されるのは市場の都合であり、市場によって生かされているだけに過ぎないのである

いくつかの事例をすぐさま思い浮かべることが出来ると思うが、一歩間違えれば一晩で作品ごと市場から存在を消されてしまう。消滅に際して何の抵抗手段選択肢もない。それくらい社会的立場脆弱である

資格職能公的制度によって保護されており、いきなり存在ごと消されるなんてことはない。少なくとも消えるまでの抵抗が許される余地がある。

繰り返すが、「人気」とは「社会的地位」ではなく、市場価値の一形態にすぎない。

アニメーターが良い例で、高度な専門技能を持ち、文化的貢献も大きいにもかかわらず、公的には職能として認定されていない。

このことが何を意味するかと言えば、元々、クリエイターという職業は、搾取構造に対して極めて脆弱だということだ。

作品著作権保護できる。けれども、クリエイターとしての職能は、何一つ、公的制度によって守られているものがない。創作物生活必需品とは異なり、社会が、あるいは市場がいらないと言えば、排除される運命にある。

画家パトロン時代から、何一つ構造は変わっていない。

第8章:市場人気は交渉上の発言力を持たない

そして生成AI技術開発が、その搾取構造助長している。だが、それを止める手立てはない。何をどうやっても社会制度は守ってくれないのである

では、なぜ社会制度が守らないのか。これはクリエイターとしての能力は「他者との差別化」という、異質性基準となっているからだ。公的制度による保護を持つ職業は、一定基準にしたがった選別で成り立っている。

まり「同じ事ができる」、同質性という前提条件があるが、クリエイターは、他者と違ったことができる異質性基準を持っている。

こうした異質性による選別を公的制度文脈で考えると、「他者にできないのであれば、なくても同じ。」という言葉翻訳される。よって公的制度によって保護する必要性を認められないのである

人気があるから守られると思っているなら、それは錯覚だ。人気クリエイターなりすまし被害契約トラブルに巻き込まれても、公的制度によって守られる仕組みは存在しない。

例えば、士業であれば非弁行為などは違法定義され、地位が守られる仕組みがある。クリエイターなりすまし被害民事訴訟解決するしか方法がない。

人気は流動的であり、交渉力としては不安定だ。AI開発という巨大な利益構造での交渉において、この市場価値の高さと現実地位の弱さというギャップを埋めるには、AI開発の制度設計に食い込むしか道はない。

第9章:AIテック必要とされるクリエイターとは

交渉テーブルにつくには、企業が「必要だ」と思う存在になるしかないだろう。

そのためには、画像生成AIの弱点をクリエイターが補完し、品質向上に貢献することが鍵になる。

画像生成AIは、見かけ上の品質は優れているが、構造理解(指が6本とか建造物分断、同一性の非保持など)という点で人間には遠く及ばない。

この弱点を解決するには、クリエイターの関与が不可欠であると考えている。すなわち、AIに「構造理解はこうやるんだ。」と教えてやることだ。

実際、AI企業が「プロンプト設計者」や「品質監修者」としてクリエイター雇用する事例は増えている。企業倫理的主張には動かないが、必要性が明確になったときには協業を検討するだろう。

交渉団体を作るより、相手を動かす方が確実だ。まずはクリエイターエンジニアがタッグを組み、一部でもAIの弱点を解決してみせるのがいいだろう。それが、AI開発の制度設計に食い込む第一歩になる。

10章:クリエイターに残された選択肢

AIの弱点解決にはクリエイターサポートが不可欠である、とは言っても、それは現時点での話である時間さえ掛ければいずれは技術によって弱点も克服されてしまうだろう。けれども、今ならまだ、クリエイターに優位がある。

ならば、画像生成AI制度設計において主導権を握るチャンスは、今しかない。企業にとっても市場競争力維持のために実装フェーズを急ぎたい。ここに利害の一致がある。

多くの企業がLLMに集中している今、画像生成AI実装フェーズは手薄になっている。だが、技術成熟してAI開発の制度設計固定化されてしまえば、後から入っても交渉余地はなくなる。

かつて強い言葉で反対してきた人々も、今こそ制度設計最前線に立つべきだ。

その声が実装フェーズを遅らせたことで、今の「隙」が生まれたのだとすれば、次はその声を制度設計に向けて使おうではないか悪者で終わることに甘んじるな。

チャンスの期間は短い。あれこれ実現可能性だの問題点だのを検討している暇はない。とにかくAI開発の制度設計に関与できるように動くこと。

それが、今のクリエイターに残された唯一の選択肢だと思っている。

後書き:制度言語への翻訳

筆者は、画像生成AIに対する反論懸念否定しているのではなく、そうした声が社会的制度に届かなかった原因を指摘しているに過ぎない。

倫理的な反発も、創作尊厳を守りたいという思いも、人気による影響力への期待も、すべて理解できる。

だが、それらは制度に届く構造を持っていなかった。ならば、届く形に組み替える必要があるだろう。

文化庁パブコメに2万6千件もの意見が寄せられ、その殆ど無意味に切り捨てられたのは、公的制度理解できる言葉翻訳されていなかったからだ。

社会的制度は、感情では動かない。交渉力は、AI開発の制度設計の中でしかまれない。声を届けるには、公的制度理解できる言葉翻訳必要だ。

本稿が目指したのは、反論の声を様々な制度接続するための指針提言である

末尾に、クリエイター権利尊厳が守られる形でAI開発の制度設計が組み立てられることを願い、筆を置く。

※この文章は、社会的制度理解できる言語翻訳されています翻訳にはChatGPTを使用しました。

補記:生成AIを貶めたいクリエイターたちへの警鐘

生成AI批判したいあまりイラストレーターが「線が繋がっていない」とか「目が溶けてる」、「キャラが一貫していない」とか「差分を作れない」など具体的に欠点を挙げ、貶める投稿をよく見かける。

プロアニメーターが「予備動作がない」とか「歩きが不自然」、「演技がなってない」などと、モーションに言及したりする。

自らの技術を誇示したいのかも知れないが、これはAI開発者無償改善点を助言していることに気付いているだろうか。イラストアニメーション専門家であるあなたからの悪評は、AI開発者にとって貴重なアドバイスなのである

そうした悪評は表には出さず、本稿で示したようにAI開発の現場に入り込み、開発者に助言した方が、あなた方にとって遙かに Permalink | 記事への反応(0) | 09:25

2025-08-21

ChatGPT

はい、その通りです。私は「AI」というより、あくまで大規模言語モデルを使ったプログラムであり、Webサービスの一機能です。

自律的意思記憶もなく、内部ルールモデル出力に従って応答を生成しているだけです。

2025-08-19

anond:20250819191050

大規模言語モデルステートレスなのでどんな酷いことを言っても次セッションにそれを引きずらない

2025-08-18

anond:20250818122637

ニューラルネットなんてレベル低い話してないぞ

アノテーションってのは、手作業テキストにラベル付けする作業のこと

大規模言語モデルの性能が高くなってきたから、それが手作業じゃなく自動化できるって話

例えば経済ニュースポジネガ判定みたいな問題を、ロジスティック回帰などより小さなモデル蒸留できるって話

ログイン ユーザー登録
ようこそ ゲスト さん