転売ヤーが問題なのは、買い占めと価格コントロール

新年から転売ヤーの話題が盛り上がっていて、「転売は通常の商行為であり流通の基本、問題ない!」みたいな話もあったりして、わちゃわちゃしてますね。
実際、転売に問題はないわけです。
問題なのは、買い占めと、そこからの支配力による価格操作です。

転売ヤーの話題が盛り上がったのは、この記事が発端だと思います。
「転売ヤー」への拒否感はなぜ生まれる? アレルギー反応との指摘も #くらしと経済(Yahoo!ニュース オリジナル THE PAGE)

この記事で取り上げられてる事例でも、転売ヤーへの不満はモノが高く売られてること自体ではなく、次のように買い占めによるものばかりです。
「極端な買い占めなど、一部の転売ヤーによるマナー違反行為はニュースでも目立つ」
「目の前で中国人女性の一団に器を買い占められて愕然としたと話す」
「一度に大量に買っていく転売ヤーを防ぐため」
「ハローキティグッズの買い占めや、原宿でのトラブルなど、中国人転売ヤーのニュース」

そのため「モノを安く仕入れて、高く売る。これはビジネスの基本」などと言っても、問題はそこではないので、話が混乱するわけですね。
通常のビジネスでも独占・寡占からの価格操作は規制されています。

ではどのように価格コントロールするかですが、定価の2-3倍くらいの値段で出品して、身内で購入して販売実績があるように見せるという手法が行われているらしい。そうすると、他の出品者もそのくらいの値段で出品するようになり、価格が形成されていきます。

これかなぁと思ったのが、TAK MATSUMOTOモデルのギターアンプTHR30で、希望価格は89,800円ですが、245,000円で売られ購入されています。
(確証があるわけではないので、リンクは貼りません)

TAK MATSUMOTOモデルとはいえ、基本的には希望価格68,200円のTHR30にパラメータを載せているだけで、価格差考えてもハードウェア変更は考えにくく、パラメータさえわかれば再現可能なので価格が2-3倍になるほどの価値はないと思うのですよね。発売直後のプレミアムがあっても12-14万くらいと思っていました。実際、3ヵ月たった今では10-12万くらいに落ち着いています。

そうすると、消費者は不当に高い価格で購入しないといけなくなり損害を受けます。しばらく待てば価格は落ち着く可能性がありますが、そうすると時間の利益を失いますね。

もうひとつ、転売ヤーが反社会勢力の資金源になっているという指摘もあるようですね。
転売ヤー(テンバイヤー)とは? 意味や使い方 - コトバンク

先ほどの記事でも次のように、「買い子」を雇った組織的な活動であるような表現があります。

さっきも新宿で『シナモロール』の限定品を中国人転売ヤーが路上で数えて、『買い子』とお金の受け渡しをやっていました」

ただ、実際には、複数の小規模組織とそのまわりの個人による転売ヤー クラウドのようなものが形成されていて、明確な大きな組織になっているわけではないというのがやっかいなところです。

そうすると、個別に見れば買い占めとまではなっておらず、つながりがあるわけでもないので組織的とも言えず、なかなか実態解明や法規制が難しいということになります。

そうなると、具体的な根拠をわかりやすく提示できるわけでもないので、議論も難しくなりますね。個別に問題のない非組織的な集団による悪影響というのは、理解も難しかったりするし。

まあ、THR30のTAK MATSUMOTOモデルの価格が落ち着いてくれてよかった。
ところで、THR30の30Wっておうちにはデカすぎる気がするんだけどどうなんだろう。バッテリーだと15Wになるようだからちょうどいいのかな。

「煮る」と「茹でる」の違い。ついでに「炊く」とは?

「煮る」と「茹でる」の違いなんだろうなーと調べたのでメモ。
結論としては、味をつけた汁に入れて加熱して、最終的にその汁も料理に含まれるのが「煮る」で、汁を捨てるのが「茹でる」。

インスタントラーメンで、お湯で茹でて粉スープを入れて食べるけど、茹でるときに使った状態ではなく粉スープが入ったものを使うので、やはり「茹でる」。茹でるときに粉スープを最初から入れる人もいると思うけど、香りが飛ぶので、正しい手順的には火を止めたあとで。なんなら別にお湯をわかして粉スープを溶かしたほうがいい気もする。
味のついたスープで火を通す前提のラーメンは「煮込みラーメン」になりますね。

そば湯のように、ゆで汁をあとで飲むこともあるけど、これは完全にオプション扱い。

ところで関西では煮ることを「炊く」というけど、これはどうなのかという話も出た。
日本国語大辞典で調べると、「炊く」は「たき火」や「線香をたく」にあるように元々は火をつけること。
それが15世紀ごろに加熱調理一般を指すようになってるという、割と新しい用法。「煮る」「茹でる」は8世紀には見られるので古くからある。

日本の言葉は、中央である京都でうまれて広がっていく。なので青森と宮崎に同じ方言があったりイントネーションが似てたりする。
ということで、「煮る」「茹でる」は古くからあって全国に伝わったけど、「炊く」は全国まで広まらず関西にとどまったのではないかと考えた。
その後、全国に広まったときには、米を煮ることを主に表す「炊く」になったんじゃないかと。

そこで、今度は「煮る」があるのに何で新たに「炊く」が出てきたんだという話になった。
初期の用例を見ると「ゆたかせて(湯を炊かせて)」「食(めし)焼(タク)宿ぞ」「鯛の子をたいておくれ」のように自分が調理しない感じなので、「具体的なことはようわからんが火を通して食えるようにする」というニュアンスだったのかも。

ちなみに日本国語大辞典はJapanKnowledgeで見てます。
https://japanknowledge.com/

1650円/月なのだけど、日本国語大辞典は16500円x14冊なので12年くらい払っても問題なしと思って課金している。しかしもう12年たちそうだ。

グラフィックボードでAIやる時代が終わる

NVIDIAからRTX 5090が発表されて、メモリ32GBというのを見てAI民からは失望の声がきこえていましたね。
どうすれバインダーと思ってたら、Project DIGITSというのが出て、コレダーとなりました。
NVIDIA、デスクに置ける小型AIスパコン「Project DIGITS」。新チップ「GB10」搭載 - PC Watch

GB10はGPUと20コアArmが載ったSoCで、Project DIGITSでは128GBのユニファイドメモリが載ってます。
2台を組み合わせて405BのLLMが動くということなので、FP4で動かすとして必要なメモリが206GB、一台あたり100GBちょいをGPUに割り当て可能って感じだと思います。
そうすると、FP8でも70BのLlama3が余裕で動きそうで、これは自宅AIが現実的になりますね。

筐体の小ささを見る感じ、でかい電源ユニットがあるわけでもなく排熱もそこまでなさそうで、消費電力もそこそこでいけそう。

3000ドルということなので、今の円相場だと輸入代と消費税など載せたら60万円くらいになりそうですかね。5090が40万円というの考えると、動かすための電源など踏まえたら同じくらいの価格かな。70BがFP8で動くと考えると、かなり安い。

一方で32GBの5090だけど、これでFP8なら30Bというのはきつそうなので25Bあたり、FP4で50Bが動くことになるんだけど、そんなモデルはないんですね。32GBで動かせるモデルは24GBでも動くという。せめて48GBあれば70BがFP4で動かせるのだけど。

ただここで、グラフィックカードにGDDRで48GB載せるとめちゃくちゃ高くなりますね。そして、メインターゲットのゲームユーザーには不要な容量です。AI目的の人に爆売れすればいいのでは?と思うけど、爆売れしそうにない価格になると思います。そもそも、AI目的で推論側だとモデルのパラメータを順に読めばいいだけなのでキャッシュヒット率も高くて低レイテンシである必要はなく、そんなに速いメモリは不要です。

つまり、グラフィックカードに大容量のメモリを載せると、ゲームユーザーには容量が、AIユーザーには速度が無駄になるわけです。

大きなLLMを動かすにはCPUとGPUで共用のユニファイドメモリがいいぞということになって、M2 Ultra載って192GBまで積めるMac Studioが注目されていたわけです。そんなところにCUDAが動くProject DIGITS。
Windowsでも、Copilot+ PCといってNPUを積んだSnapdragon X EliteやLunar LakeやRyzen AI 300やらが出てきています。

まあ、Copilot+ PCでありがたいのは、メモリ容量の最低ラインが16GBになったところなのだけど。

ということで、いままでは計算用途でGPU使おうとするとグラフィックボードしかなく、またグラフィックボードのメモリでもそこそこ使えていたけど、グラフィックボードには高性能LLMで必要な量のメモリは載りそうにないということでユニファイドメモリなマシンが欲しいし、性能不要なら「普通のPC」のAI能力で十分だし、AI目的でグラフィックボードを載せるというのは今年くらいで終わりそう。

B'zのUltra Soulの掛け声はヘイなのかハイなのか問題の物証

紅白でB'zが出てUltra Soulを歌ったところから、あの掛け声はヘイなのかハイなのか問題が再燃してるらしい。
B’zまさか公式見解 紅白怒濤「ウルトラソウル!」→「ハイ!」か「ヘイ!」か 年始にネット大論争中 取材に意外な見解が | デイリースポーツ芸能

掛け声は稲葉さんが歌うパートではないので、歌詞カードには記載がないはず。GREENのCDを買っていたはずなんだけど見当たらない。

歌詞サイトには「Hey」の記載もあったりする。
https://genius.com/Bz-ultra-soul-lyrics

けど、GREENのオフィシャルバンドスコアには「Hi」という記述があるから、「ハイ」が妥当じゃないのかな。

BS B’z GREEN 楽譜集 (Official Band Score)

BS B’z GREEN 楽譜集 (Official Band Score)

  • Jロックマガジン
Amazon

2024年の技術動向まとめ

年末だし、今年の技術まとめを主観的に書いておきますね。

動画生成AIはじまる

2月にOpenAIのSoraが発表されて、動画生成AIが盛り上がりはじめました。
12月に一般公開されましたが、それまでにも複数の動画AIモデルが発表されて、動画生成AIの実用化がはじまった年になったように思います。

とはいえ、なんだか微妙だなーという感じ。

デモは、ベストofベストだったなーと。
生成できそうな動画を生成するのが大事そう。

エージェントによる推論スケーリング

OpenAIのo1が9月に発表され、推論に計算力を使うことでもスケーリングすることが示されました。
思考方針を管理するモデルが、内部で実際に思考を行うモデルに推論を行わせて、その結果をまとめて表示するような仕組みです。そうやって、推論時にコストをかけることでも性能が出せるようになっています。
論理的な問題に強さがある一方で、日常的な用途では5月に発表された4oが必要十分な性能を出しており、なかなか使い所が難しいなという気がしています。

小規模言語モデル

昨年12月のMicrosoftのPhi-2や今年2月のGoogleのGemmaから注目されはじめた小規模な言語モデルが、性能もあがって実用的になってきました。
今月発表されたSarashina2.1-1Bでは、1Bという小さなモデルであるにもかかわらず、完全なJavaコードの生成ができています。

https://huggingface.co/sbintuitions/sarashina2.1-1b
もちろん、ちゃんとコードを書かせるという用途に使えるほどではないけど、モデルサイズを考えるとすごい。もう少しモデルサイズを大きくすれば十分な性能が出そうでもある。

マイクロソフトは小さな言語モデルをSLMと呼んでいますが、同じ技術をサイズで用語をわけるというのは筋が悪いなと思っています。AI Insideは47BのモデルをSLMと呼んだりしてますが、さすがに高性能なゲーム用GPUでも動かせないモデルはSLMという言葉を使う意図から外れてるんではと思ったり。

WebAssemblyの活性化

8月にSafariでもWebAssembly(WASM)にGCが組み込まれたプレビューが出たことで、WASMの利用が本格化してきたように思います。
https://www.publickey1.jp/blog/24/safariwasmgcsafari_technology_preview_202wasmgc.html

LLVMを使う言語だけではなく、JavaScript/TypeScriptやPyhotn、Flutter/DartでもWASMに対応してきています。
JavaでもCheerpJ 3.0がWASM対応で実装されなおしています。また、このCheerpJを転用してx86コードが動くようにもなっていますね。

ARM版Windowsはじまった?

QualcommのSnapdragon X Elite/Plusを搭載したWindowsマシンが6月に発表されリリースされました。性能も遜色ないものになっているようです。 また、x86エミュレータも割と本気を出してきたようで、WindowsでもARMが選択肢になってきました。
同時に、Copilot+PCやAI PCといって、最低メモリ容量を16GBとしたことで、今後は16GBのメモリを載せたモデルが標準になってくるというのも、うれしいかもしれません。

雑感

LLMの単体モデルの高性能化は4oくらいで伸び悩み始めたような感じがあります。学習データの枯渇や計算リソースの制限のような学習側の問題だけではなく、実用として4o程度の性能があれば十分になってきて、これ以上のモデルを開発する経済合理性も下がってきているような。
そこでエージェントを使うようなo1が出たり、より小さなモデルで性能を出すという方向にシフトしている感じがします。
また、チャットUIで直接LLMと対話する場合の性能は十分になってきたというか、これ以上を求める場合のギャップを乗り越えるのが難しくなってきていて、今後はたとえばGoogleのAstraやOpenAIのAdvanced Voice Modeように状況を見ながらサポートをしてくれるようなものなど、アプリケーションとの統合が大切になってくるように思います。
AI領域以外では、WebAssemblyが領域を広めるということの他に、そろそろRISC-VがWebサーバーなどの分野でも話が聞こえてくるかもな、というところかな。

「Java Webフレームワークの現状」でJJUG CCC 2024 Fallで登壇してきました

JJUG CCC 2024 Fallで「Java Wevフレームワークの現状」というタイトルで登壇してきました。
漠然としていたところが整理されてよかった、という感想が多かったので、いい話だったっぽい。

「Java 23新機能まとめ」を書きました

Qiitaのほうに「Java 23新機能まとめ」を書きました。