はてな匿名ダイアリー RSS

名前を隠して楽しく日記。

2025-11-01

anond:20251031152821

人は自分被害者になれるストーリーが大好き

anond:20251101045539

ありがたみが身にしみたやろ。取り分けてもろたら、ちゃんと『おおきに』言わなあかんで。

anond:20251101045231

分断して支配するという、基本にみごとにやられてるよなあ。

あいつ等からもっと取れよというのは。

銀英伝ラングさんも、自説が現代でも見事に機能していて、久々にワロタだろう。

相手陣営だけではなく、次は自分が狙われるかもしれないわけだから、団結してNOを選挙で突きつけられればいいけど、これがとても難しい。

そして、これは富裕層だけだからー儲かっている所だけだからーと言われると、それならいいかと、かつて消費税でやられたたことをすっかり忘れて承認したりするよね。

国産LLMの方が成功できますように

色々思うところがありまして。

例えば

微分は使いたくない」「XOR出来たから何とかなるやろ」

と繰り返し主張しておられる。

そのような単純な活性化関数では過学習か誤差が噴出するかの二択でしょう。実際、氏のツイートは正にその状態示唆しているように見受けられます

----

▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善余地がある。

▶︎ 問題は、どのような状態の時に学習成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。

----

過学習に至ったときにうまくいってるように見えるだけでしょう。

と思うのですが、反論過去にされていた。

----

▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。

----

……と主張されておられる。

私が思うに、それは単純な写像を、ニューロンを使って回り道して作ってる状態。LLMは局所的にはたしか線形写像だけど、全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと。(十分に大きいモデルマクロに見ると非線形性があるので)

大規模言語モデル=LLMを目指すとして、

そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を、たった数千〜1万次元程度のベクトル表現する、凄まじく繊細なテーブルです。

それをGELUやSwiGLUのような綺麗な活性化関数を使わずに、しか爆速でやると。さすがにそのレベル革新性だと根拠がない限り、飛躍が過ぎると判断されるかと。

そのやり方で、例えば1億語彙までスケールするとして2乗の1京回×数千次元バックプロパゲーションなしで学習するというのは……さすがにきついかと。

バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから。それなら全層に渡しても「修正」できるでしょう。つまり、それはそう。

勾配消失なんて関係ない、という主張については、xorというゼロイチでしか見ないのであれば勾配消失も何もない。永遠に層を貫通するわけで、だから何層増やそうがほとんど意味が無い。つまり、それは実際には極めて浅い層だけで動いてると思われる。

「こんに」から「ち」「は」が次文予測できたとの報告だが、まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜだろうか?

MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第。

----

▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから

▶︎ 1. 私のNNは高次元の万能近似回路

▶︎ 2. RNNだろうがCNNだろうが展開すれば可能

▶︎ 3. 何十回と失敗した経験則から、原因と対策殆どわかっている

----

わかってるとの事だけど、なんで上手くいってるのかも分かってないとも自分で明言なさっている。↓↓↓

----

▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。

▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。

----

既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい。

それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBP現実的にいい性能が出せるし、コストも抑えてこれである」と様々な研究者合意しているような状況。

そして、そもそもアカデミアは自分アイディアも含めて新規手法を常に疑ってかかるのが基本姿勢

ジャーナルに「不確実さ」を載せないためで、それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため。だから懐疑的になる。個人攻撃ではない。

そして、「危険すぎるから論文にできない」について。

さないのも自由だけど、前述の理由で信頼を得られない。これは言動に一切関わらず、その厳密性をフラット評価してそう判断しているから。感情ではなく、論理として。

……ま、ここまで色々と蛇足アドバイスをさせていただいたものの、この投稿に対しても、

----

▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww

----

といったツイートをなさるのでしょう。(過去に氏がそう仰っていたので)。

先に答えておきますね。

自分のやってることがご自分でお分かりにならないようなら、私にわかるわけがない。仰る通り。ただ、詳しい者として一般論は申し上げられる。」

まだ間に合いますので、大学院あたりまで修了なさるのがおすすめです。

Twitterに何を投稿しようと自由です。でも自分違和感を見て見ないふりするのだけはやめたほうがよろしい。既存手法と同等に自分手法を疑うこと、これは研究者としての基本姿勢です。

何故ここまでつらつら申し上げたかと言いますと、

研究テーマ設定を見かけるとついつい、より良い筋でやっていけるようアドバイスしたくなってしまう性が染み付いてしまっているためでして。

もちろん、関わりのない方ですので蛇足しかないのですが、多くの方に影響力をお持ちでありつつ、研究の進め方については独自姿勢を持つように見受けられまして。

それはもちろん根本的には自由でありつつ、相談相手需要がもしあればひとつの(一般的意見をお渡しできるかなと思いキーボードを叩いた次第です。

どうか匿名でご勘弁を。

ぜひ成功できますよう。圧倒的な成果をお祈りしております

国産LLMの方が成功できますように

まぁ色々思うところはあり。

微分いらない、xorでいい」

そのような単純な活性化関数では過学習か誤差出まくりの二択。実際、氏のツイートは正にその状態

----

▶︎ 誤差が0.12あるだけでとんでもないエラー率になる。誤差関数が雑だから本当はもっとあるのかもしれないが、改善余地がある。

▶︎ 問題は、どのような状態の時に学習成功し、失敗するのかがまだ分かっていない。表現力は十分に持っているはずなのに、なぜか学習しない。

----

過学習できたときにうまくいってるように見えるだけでしょう。

と思うのですが、反論過去にされていた。

----

▶︎過学習ではないですね。データセットが小さいかつ、それ以外の範囲が出ないことが分かっているので。XORは2^2パターン全て学習できれば精度が100%になりますが、それは過学習とは呼ばないのと同じで、今回の初期のRNNに関しても文字数が圧倒的に少なく、パターンも決まっているので。

----

……と主張されておられた。

私が思うに、それは単純な写像を、ニューロンを使って回り道して作ってる状態。LLMは局所的にはたしか線形写像だけど、全体で見ても線型写像だとしたらそれは複雑な文章生成には到底耐えられないかと。(十分に大きいモデルマクロに見ると非線形性があるので)

大規模言語モデル=LLMを目指すとして、

そもそもエンベディングテーブルとは数百億から下手すれば1兆語彙を、たった数千〜1万次元程度のベクトル表現する、凄まじく繊細なテーブルです。

それをGELUやSwiGLUのような綺麗な活性化関数を使わずに、しか爆速でやると。さすがにそのレベル革新性だと根拠がない限り、飛躍が過ぎると判断されるかと。

そのやり方で、例えば1億語彙までスケールするとして2乗の1京回×数千次元バックプロパゲーションなしで学習するというのは……さすがにきついかと。

バックプロパゲーションが要らないという主張については活性化関数がきわめて単純だから。それなら全層に渡しても「修正」できるでしょう。つまり、それはそう。

勾配消失なんて関係ない、という主張については、xorというゼロイチでしか見ないのであれば勾配消失も何もない。永遠に層を貫通するわけで、だから何層増やそうがほとんど意味が無い。つまり、それは実際には極めて浅い層だけで動いてると思われる。

「こんに」から「ち」「は」が次文予測できたとの報告だが、まぁ……それが「大規模言語モデル=LLM」にそのままスケールできると言い切れるのはなぜだろうか?

MNISTだけでなくGLUEあたりをパスしてからにした方がいいと考える次第。

----

▶︎ 私が批判されながら、誤差逆伝播に変わるアルゴリズムや精度を30%→100%まで持っていく頭のおかしい行動が取れる理由は、以下の思想があるから

▶︎ 1. 私のNNは高次元の万能近似回路

▶︎ 2. RNNだろうがCNNだろうが展開すれば可能

▶︎ 3. 何十回と失敗した経験則から、原因と対策殆どわかっている

----

わかってるとの事だけど、なんで上手くいってるのかも分かってないとも自分で明言なさっている。↓↓↓

----

▶︎ 学習が進まないの、謎。単体だと上手く動いてるはず?何が原因だろうか。

▶︎ 学習アルゴリズム開発者本人ですが、なぜ学習が進むのかは謎です。

----

既存手法があまたの失敗の上で最適だと言われてきてる経緯もよく知った方がよい。

それはごく初期にそういった様々な試行錯誤のうえで「やはりGELUやBP現実的にいい性能が出せるし、コストも抑えてこれである」と様々な研究者合意しているような状況。

そして、そもそもアカデミアは自分アイディアも含めて新規手法を常に疑ってかかるのが基本姿勢

ジャーナルに「不確実さ」を載せないためで、それが積み重なると自他問わず全ての研究が信用出来なくなってしまうため。だから懐疑的になる。個人攻撃ではない。

そして、「危険すぎるから論文にできない」について。

さないのも自由だけど、前述の理由で信頼を得られない。これは言動に一切関わらず、その厳密性をフラット評価してそう判断しているから。感情ではなく、論理として。

……ま、ここまで色々と蛇足アドバイスをさせていただいたものの、この投稿に対しても、

----

▶︎ 何もわかってない人が国産LLMのやつ批判してて吹いたww

----

といったツイートをなさるのでしょう。(過去に氏がそう仰っていたので)。

先に答えておきますね。

自分のやってることがご自分でお分かりにならないようなら、私にわかるわけがない。仰る通り。ただ、詳しい者として一般論は申し上げられる。」

まだ間に合うので、大学院あたりまで修了なさるのがおすすめです。

Twitterに何を投稿しようと自由です。でも自分を騙すのだけはやめといたほうがよろしい。既存手法と同じくらい自分手法を疑うこと、これは研究者としての基本姿勢ですので。

から、「成功できますように」

anond:20251101055124

伝統なのか知らんけど、 基本的皇族男性名の ヒト(仁) の部分は固定だからね。

まり、 〇〇ヒト (〇仁)の、〇の部分だけが自由に変えられる部分だ。

そして、漢字1文字であり、読みは2文字であることという謎の縛りがあるから、大変そうよね。

この条件でイケてる名前を考える必要がある。

anond:20251101010304

相手のせいにしてるけどお前も協調性ないやん

ドメイン駆動(キリリッ」とか言ってた「雰囲気ITくん」が絶滅したな

企業としても、技術分かってるふりで「動体視力だけはいいです」みたいなゴリラを飼う余裕がなくなってんだな

机上の空論パワポお絵描きで食える時代は終わったんだよ

名前裕仁だけど変えたい

ゆうととかひろとならいいけどさ

ひろひとなんだよな普通に

おかしいだろ

俺もそう思うよ

anond:20251101045539

そこで練習して上手くなろうという発想がないからお前はダメなんだ

毎日家で鍋を取り分ける練習をしなさい

山上徹也を熊狩の最前線10ハンターとして働いてもらう刑にしよう

飲み会で取り分ける役とかやっぱり俺にはできない

人にやってもらってばかりの奴は何となく感じ悪いから機会があったらやろうと思っていて、こないだの飲み会で俺が一番近かったか雑炊に溶き卵入れる役やったら、手が滑って器ごと鍋の中に落とした。

慣れんことはやるべきではないという気付きを得た。

政治家増税ペナルティーがないからほっとくとどんどん増税されてしまうのに

国民自己利益のためには一丸となって増税抵抗すべきなのに、国民同士で「あいからもっと取れ」とやり合ってるから好き放題増税されてて馬鹿じゃなかろうか

あおやまちゃんに付き纏って虐めてくる粗チンゲイズさんへ🥺

「ヴェヘヘ〜オメーイケメンデカチ🙌ポ様にアピールしてんのかァ〜??イケメンデカチ🙌ポ様のイケメンデカチ🙌ポはオリのもんだじぇエ〜🤡」

とかゆあれても困りますぅッ🥺

あおやまちゃんイケメンデカチ🙌ポさんのことなんて知りませんし粗チンゲイズさんの悪口もゆってません!!🥺🥺🥺🥺


行く先々であおやまちゃん待ち伏せするのやめちぇくだちゃいっ!!!!😠😠😠

かりそめ天国ピスタチオの話をしていたが、個人的に「甘い菓子ピスタチオ全然合わない」と思っている

ピスタチオ自体はすごく好きなんだが、おかしの素材として使うと絶望的に気持ち悪くなる。クサイ

脂分の多い豆と甘みの組み合わせが苦手なのかもしれない

ヘーゼルナッツとかも嫌い。ジャンドューヤ嫌い

関係無いけど抹茶も「抹茶味」のお菓子になると本当に嫌だ

もしかして緑色菓子が…嫌い…?

たこ焼き事件

俺はその日、昼のピークが終わって、厨房の片隅で一息ついていた。

油の匂いがまだ鼻に残っている。ポテトの音も止み、静かな時間

  

俺は休憩の前に、自分で買った6個入りのたこ焼きバックヤードの棚の上に置いた。

「あとで食べよう」と思って。

ソース青のり香りが漂って、ちょっと幸せな気分になってたんだ。

  

──が、10分後。

  

戻ってきたら、容器の中は空だった。

ソースのしみだけが、俺のたこ焼き存在証明していた。

  

最初冗談かと思った。

でも、串もない。ゴミ箱を見ても、跡形もない。

完全に食われてる。

  

厨房にいたのは3人。

  

まずは店長小林さん。

甘いものが好きで、粉もんほとんど食べない。

でも昨日、給料前で昼飯を抜いてたって言ってたな。

  

次にバイト仲間の真帆

いつも「たこ焼き大好き!」って言ってる関西出身の子

でも今日は昼休みコンビニパスタを食べてたはず。

  

そして新人の圭吾。

まだ入って一週間。仕事は遅いけど、よく厨房つまみ食いをしてる。

ソース匂い嗅ぐと腹減るんすよ」って笑ってたっけ。

  

俺はごみ箱をもう一度見た。

そのとき、紙ナプキン茶色い指の跡がついてるのを見つけた。

──ソースの色だ。

  

ナプキンそばに、圭吾のマスクが落ちていた。

たぶん、食べるとき外して、落としたんだろう。

  

「……犯人、圭吾だな」

  

そう思った瞬間、バックヤードのドアが開いて、

圭吾がポテトバスケットを持って入ってきた。

  

「先輩、たこ焼きっすか? あれ、めっちゃうまかったっす!」

  

悪びれもせず笑う圭吾を見て、

俺は言葉を失った。

  

……この職場、地味にホラーだ。

anond:20251101025614

そうだな。

立体映像3D)に加え風、水しぶき、座席の揺れ、においなどの効果を組み合わせたより感覚に訴えかける体験型のAVが必要なんだよ。

体温もつたわるとより良い。

anond:20251031175856

家を無くすのは少しだけ悲しいけどじゃあ本気で取り戻したいかというと気持ちはないか

俺の家は妹に引き継がせて、今はリフォームの末に貸家になるところ

数ヶ月前に本だけ引き上げてきた

今どうなっているかからないけど、これから見知らぬ人達住まいになると思えばそれはそれで良いとはおもう

敢えて言えば、実家近所の居酒屋がとても美味しいので、そこに行く機会が失われたのがちょっと寂しい

家ってのはその地域に立ち寄る目的でもあるから

死にたくないけど、積極的に生きたくもない。

彼女もいなければ友達も少ない、1Kのロフト付きの部屋で1人で暮らしています

ロフトは夏暑く、冬寒いので物置きとして使っています

たまにロフトに上がると、足の裏にビッシリほこりがついてビックリします。

夜はスーパー惣菜唐揚げ(たまに白身魚フライ)を買って、冷凍ご飯をチンして、塗装が剥げたダイソーの器でインスタント味噌汁を作って食べています

冷凍ご飯は温めすぎると端っこの方が硬くなります

一応野菜も摂ろうと野菜ジュースで補った気になっています

休みの日は何度も見たYouTubeNetflixドラマを再視聴し、惰性的に過ごしています

こんな生活を日々送っています

四年制の大学を出て、親に学費を払ってもらったうえで、日々こんな生活を送っています

ふと自分は何のために生まれてきたんだろうと思うこともあります

特別仕事ができるわけでもないし、なにかスキルがあるわけでもない、ルックスいいわけでもない。

でも親とか兄弟いるか死ねないんです。

親とか兄弟が生きているっていう事実だけで死ねないんです。

から自ずと死にたくなくなるんです。

今目の前に「みんなの記憶から消えていなくなれるボタン」があるんだったらすぐに押します。

そういう人も多いと思います

自分のように消極的な生をしていくんだったら、積極的な死を実現できるボタンの開発をAI様どうか。

anond:20251101040929

あなた母親自分の子供をそう見ていたかはわからないけど、あなた子育てをエンドコンテンツと捉えたりそういう発言ができるようになったのは時代が関与しているよね

多分昔なら子供が嫌いでもそれを口に出したり、他の価値観に照らし合わせることもできなかったはずだ

子供可愛い無償愛情を注ぐ対象であるなんてのは、子育て本質的に知らない父親目線か、あるいは責任を取ることのない祖父母目線だろう

俺は子供可愛いけど憎たらしくて蹴りたくなるシーンは幾度となくある

あなたみたいに面白い表現はできないけど、親が全員同じ価値観で生きているとは思わない

ただ、親はもっと馬鹿でいいとは思う

子供作ることに無駄意味を求め、自分遺伝子からとか社会のためとか、そういう大義名分や将来性とか考えるのやめたほうがいいんじゃないかな

馬鹿でいいんだよ

男の子の次は女の子とか、兄弟いると楽しいから増やした方がいいとか、名前護廷十三隊作ろうかそんなくだらない理由でいいんだよ

そのほうが多分みんな楽だし幸せかな


まあ勿論自分価値観を知るのは大事だと思うのでそれは否定しないよ

ログイン ユーザー登録
ようこそ ゲスト さん