「機械学習」を含む日記 RSS

はてなキーワード: 機械学習とは

2025-12-09

anond:20251209110149

Twitter上のミソジニー機械学習で検出する研究では、テキスト内容(罵倒語女性蔑視表現など)の分類に集中しており、発信者アイコン画像キャラクター表象までは分析していません。​

Noel Brett の論文Why Do We Only Get Anime Girl Avatars?」は、VTuberやVRChat由来の「アニメ美少女アバター」が、視聴者配信者の共同作業によって巨乳・細腰・従順エロティックヘテロ規範女性像として再生産されていることを示していますが、「女叩きとの関連」までは扱っていません。

この種の話題を拾ったまとめブログニュースサイトもあり、「女叩きアカウントアニメアイコンばかり」という印象やアルゴリズムによる強化(同種アカウントばかりタイムラインに出てくる)を説明する言説はありますが、体系的データに基づいた社会学分析というより、ネット民の実感・風刺レベルにとどまっています

 

男叩きする女性側は「可愛い性的ではない」ゆるキャラレトロアニメペットなど性的表象しないアイコンに散らばりやすいという観察は、女性オンライン性的対象化されることを避けるという先行研究の傾向(男性アバター利用など)と整合的に見えます

女性ユーザー男性アバターを用いる理由の一つに「男性からハラスメントを避けるため」が挙げられており、「アバターの見た目が攻撃の標的/盾になりうる」という発想自体は、すでに研究テーマになっています

 

あなたが探しているような「女叩き男性美少女アイコン vs 男叩き女性=多様アイコン」という対比を定量的に示した学術論文空白地帯なので、むしろ新規性のあるテーマになりえます

2025-12-08

anond:20251208200943

機械学習勉強するならもっと最近の本読んだ方がいいし、ベイズ勉強するつもりなら数理統計学の本を読んだ方がいい。

ビショップベイズ統計全然わかってない(少なくとも当時は)。

2025-12-05

抽象数学とか超弦理論とか

1) 集合ではなく圏を基準に見る研究テーマの分類法

伝統的にはテーマ別(弦理論、量子重力場の理論、応用)に配列されるが、抽象数学観点から対象研究トピック)と射(方法翻訳)の網として捉える方が有益

ここでいう対象は「エントロピー情報論的記述を担うブラックホール研究」「幾何学的・位相構成を担うコンパクト化とカラビ・ヤウ/F-理論話題」「場の対称性一般対称性を取り扱う場の理論構造」「計算的探索手法データ機械学習を用いる弦景観調査)」など。

対象間の射は、双対性の導入、圏的な接続(例:量子情報を介した場と重力の橋渡し)、モジュライ空間上の写像(ある物理量を別の表現へ変換する手続き)と考えられる。

この視点に立てば、個々の研究は、局所的な結果(対象の内部構造の解析)とそれを別の対象へ移すための普遍射(双対性、再規格化群、ホログラフィーなど)の2つの側面を持つ。

研究の進展を測るには、単に新しい計算結果が出たかを見るだけでなく、それがどのような新しい射(方法論的翻訳)を導入し、他の対象へどれだけ容易に伝播できるかを評価するべき。

2) 層と局所性。幾何学的構築の再編成

近年の発展は、物理データを層(sheaf)的に整理する試みと親和性が強い。

コンパクト化、特にF-理論やゲージ束構成に関する議論は、物理情報(荷、ゲージ群、モード分布)を局所データと大域的データの重ね合わせとして扱うことに等しい。

これは数学的には基底空間上の層の圏を考えるような話で、局所的条件の整合性コヒーレンス)と大域的制約(トポロジー的閉鎖条件)が鍵。

古典的幾何直観多様体ホモロジー)を拡張して非可換やカテゴリ化された対象物理を再表現する流れにある。

結果として、従来のスペクトル(場のスペクトル質量スペクトル)に対応する数学的不変量が、より高次の層的・圏的構造へと一般化されつつある。

これにより同じ物理現象を別の圏で見ると簡潔になる例が増え、研究再利用性が高まっている。

3) 対称性一般対称性を射として扱う。構造普遍

理論場の理論で繰り返し現れるのは対称性構造を決めるという直観

抽象数学では対称性対象自己射(自己同型)群として扱われるが、対称性のものが射の層あるいは高次の射(2-射やn-射)として表現されるケースが増えている点が特に重要

まり、単に群が作用するのではなく、群の作用が変形可能であり、その変形がさらに別の構造を生む、という高次構造物理意味を持ち始めている。

この流れは一般対称性やトポロジカル部位の議論と密接に結びつき、場の理論における選好位相的不変量を再解釈する手段を与える。

結果として、古典的なノーター対応対称性⇄保存量)も、より高次の文脈で新しい不変量や保存則を導出するための起点になり得る。

4) ホログラフィー情報理論。圏的双対性情報論的再解釈

ブラックホールと量子情報カオス理論との接点は話題だった分野。

ホログラフィー重力側と場の側の双対)を抽象的に言えば二つの圏を結ぶ双方向ファンクター(翻訳子)と見ることができる。

これにより、量子的冗長性やエントロピーに関する命題は、圏の間を行き交う射の情報(どの情報が保存され、どの情報が粗視化されるか)として扱える。

カオスブラックホール量子力学に関する概念の整理が試みられている。

たとえばブラックホールにおける情報放出スクランブリングは、ファンクターがどのように情報を混合(合成)するかという高次射の振る舞いとして可視化できる。

こうした議論は、従来の計算アプローチ抽象的な圏的フレームワークの橋渡しを提供する。

5) スワンプラン問題をモジュライ空間の複雑性として扱う

何が低エネルギーで実現可能かを巡るスワンプラン問題は、いまや単一の反例探しや個別モデル構築の話ではなく、モジュライ空間の複雑性(位相的な目詰まり、非整合領域の広がり)として再定式化されつつある。

抽象数学的に言えば、可能物理理論の集合は単なる集合ではなく、属性スカラー場、ゲージ群、量子補正)を備えた層状モジュライ空間であり、その中に禁止領域が層的に存在するかどうかが問題

この視点は、スワンプラン基準局所整合条件の族として扱い、整合性を満たすための可視化や近似アルゴリズム数学的に定義することを促す。

6) 計算データ駆動手法の圏化。 検索・探索を射として扱う

景観モデル空間での探索に機械学習データ解析を使う研究が増えているが、抽象数学に引き寄せると探索アルゴリズム自体を射として考えることが有用

ある探索手続きがモジュライ空間上の点列を別の点列へ写すとき、その写像の安定性、合同類収束性といった性質を圏的・位相的な不変量で評価できれば、アルゴリズム設計に新しい理論的指針がもたらされる。

7) 学際性の圏。物理数学情報科学をつなぐ接合点

数学的定式化(幾何位相圏論)と物理直観ブラックホールカオス、場の動的挙動)をつなぐ学際的接合点を意図して設計される。

これは単一圏に物理を閉じ込めるのではなく、複数の圏をファンクターで結び、移り変わる問題に応じて最も適切な圏を選択する柔軟性を重視するアプローチ

8) メタレベル議論フィールド健全性と未来への射

学術コミュニティのあり方に対するメタ的な批判懸念顕在化している。

外部の評論では、分野の方向性や成果の可視性について厳しい評価がなされることがあり、それは研究評価軸(新知見の量・質・再利用可能性)を再考する契機になる。

結論

見えてきたのは、個別テクニカル計算成果の蓄積と並んで、研究成果同士を結びつける翻訳子(ファンクター)としての方法論の重要性。

抽象数学フレームワーク(圏、層、モジュライ的直観、高次射)は、これらの翻訳子を明示し、その普遍性と限界評価する自然言語提供

今後の進展を見極めるには、新しい計算結果がどのような普遍的射を生むか、あるいは従来の射をどのように一般化するかを追うことが、有益である

2025-12-03

anond:20251203102502

収差や明るさやセンササイズを良くしようと思ったらレンズを良くするしかないので物理的にどうしようもないんだよ。

機械学習適当に生成して補完してもいいならレンズは薄くできるだろうけど。

2025-12-01

人工知能AI)と仕事未来

人工知能AI)の発展は、人間の働き方を変えつつある。医療金融、運輸、教育など様々な産業が、効率性と精度を向上させるためにAI活用し始めている。

しかし一方で、自動化特定職種特に反復的な業務を置き換えるのではないかという懸念も生じている。一方で、この技術は新たな機会も創出している——例えばデータサイエンス機械学習サイバーセキュリティ関連の職種などである

変化に対応する鍵は、デジタルスキル批判的思考能力を高め、自動化時代においても関連性を保つことです。

https://eventprime.co/o/xemphimchaseforambefull4k

https://eventprime.co/o/truytimlongdienhoungphimlau

https://eventprime.co/o/hoangtuquyphimlau

https://eventprime.co/o/xemnuitevongvietsub

2025-11-30

Geminiさんに聞いてみた

現代認知言語学立場からソシュール的な構造主義言語論、サピアウォーフ仮説、チョムスキー普遍文法はどのように批判されていますか?

現代認知言語学(Cognitive Linguistics)は、言語を「人間一般的認知能力(知覚、記憶カテゴリー化など)の一部」として捉え、「意味こそが言語の中心である」という立場とります。

この視点から見ると、ソシュール、サピア=ウォーフ、チョムスキーという3つの主要な言語思想に対して、それぞれ明確な批判修正案提示しています現代認知言語学は、ソシュールチョムスキー排除しようとした「人間主観的身体経験」「一般的認知能力」「意味曖昧さや豊かさ」こそを言語研究の中心に据え直した運動であると言えます言語数学のような抽象的な記号操作システムではなく、人間世界理解し、他者と関わるための泥臭い認知プロセスのものなのです。

ソシュールの言うランガージュは人が背景に持つ文化的基準によって世界事象恣意的分節言語化する機能であると考えますが、これと認知言語学で言う人間主観的身体経験との違いはなんですか?

ソシュールの言う『分節』は、純粋社会的制度的な約束事(恣意的もの)」であるのに対し、「認知言語学の言う『身体経験』は、生物としての人間が共有する物理的・生理的な制約(動機づけられたもの)」である、という点に決定的な違いがあります質問者様の、「ソシュール文化的基準によって事象分節する」という理解は正解です。 認知言語学はこれに対し、「文化大事だが、その土台には『人間という生物共通身体感覚』があるため、分節は完全に自由バラバラ)なわけではない」と修正を加えている、と捉えると理解やすいかと思います

Next Step: この「身体性」の概念をより深く理解するために、「メタファー隠喩)がどのように私たち思考のもの支配しているか(例:『議論戦争である』という概念メタファー)」について解説しましょうか?

言語には身体から離れた概念を表すものもありますが、それを補うのがメタファー役割となるのですか?そうであるなら、固有の概念が先にあり、その範囲内でしか表現を許されないウォーフの理論とは正面から対立することになるのでしょうか?

おっしゃる通り「メタファー身体抽象概念を繋ぐ」というのが認知言語学の基本スタンスであり、この点は「言語思考限界を決定する」というウォーフの強い仮説(決定論)とは、正面から対立する部分と、逆に補強し合う部分の両面を持っています認知言語学において、メタファーは「身体から離れた概念を補う」役割を果たしますが、それは「言語固有の枠内に閉じ込める(ウォーフ)」ためではなく、「身体という共通基盤を使って、無限概念拡張していく」機能として捉えられています。ただし、一度あるメタファー(例:「時は金なり」)が言語に定着すると、その言語話者無意識にその枠組みで思考するようになります。この点において、認知言語学は「マイルドなウォーフ仮説(言語思考の習慣を作る)」を支持する立場になります

西洋哲学歴史においては、知覚からなる身体経験は人の認識力の中で非常に低く見られていたかと思います現在認識論はこのような認知言語学の進展からどのような影響を受けていますか?

ご指摘の通り、プラトンからデカルトに至る西洋哲学の主流(特に合理主義)において、「身体」は理性の働きを邪魔するノイズ、あるいは欺瞞の源泉として低く扱われてきました。「真の知識エピステーメー)」は身体感覚を脱した純粋な知性によってのみ得られる、という考え方です。認知言語学の進展は、この「身体蔑視」の伝統根底から覆し、現代認識論(Epistemology)に「身体化されたリアリズム(Embodied Realism)」という新たなパラダイムシフトをもたらしています認知言語学は、現象学が主張していた「身体こそが世界を知るための媒体である」という直観に対して、言語データ認知科学証拠という「科学的な裏付けエビデンス)」を提供しました。これにより、現代認識論や心の哲学では、「エナクティビズム(行為としての認知)」や「4E認知(Embodied: 身体化された、Embedded: 環境に埋め込まれた、Extended: 拡張された、Enactive: 行為的な)」という潮流が主流となりつつあります。知覚と行為認識は切り離せないループ構造なのです。質問者様が仰った「低く見られていた身体」は、現在では単に地位回復しただけでなく、「あらゆる認識思考・理性の『土台(基盤)』である」という最重要地位を与えられています

スマートフォンのような情報端末が広く普及することで、現代人は知覚が擬似的だが飛躍的に拡張された状態にあると言えると思います。その場合世界内存在である人間認知できる世界質量ともに拡大することになり、身体による制約が失われると人の認知様式も変わることになりますか?また、変わるのであればどのように変わると考えられますか?

おっしゃる通り、スマートフォンは単なる「便利な道具」を超え、私たちの知覚や記憶を外部化・拡張する「拡張された心(Extended Mind)」の一部となっていますハイデガー的な「世界内存在」としての人間が、テクノロジーによって身体の制約(距離時間の壁)を越えたとき認知様式は確実に変容します。しかし、それは「身体性が不要になる」というよりも、「身体性の希薄化」あるいは「身体感覚の再編成」と呼ぶべき事態引き起こしていると考えられます質問者様の「身体による制約が失われる」という点は、パラドキシカルな結果を生みます身体的な制約(重力距離から解放されることで、私たち認知世界は広がりますが、同時に「身体が持っていた『実感を担保する機能』」が失われつつあります。その結果、これから認知様式は以下のようにシフトしていくと考えられます

「深い理解(Embodied Understanding)」から「広い参照(Extensive Referencing)」へ。

場所への埋め込み(Embedded)」からネットワークへの接続Connected)」へ。

抵抗を通じた学習から「摩擦のない操作」へ。

認知言語学の「身体性」の立場からは、これは「身体消失」ではなく、「身体感覚が指先と視覚のみに特化・縮小され、それ以外の感覚(重み、痛み、距離感)が認知形成に関与しなくなる」という、ある種の「身体的偏食」の状態と言えるかもしれません。

メルロポンティは知覚による世界との接続の発露としての芸術を高く評価していたと理解しています人間身体感覚を縮小する一方で、大量の情報を流し込まれることは世界との接続が均質化されることになりませんか?世界との接続独自性を失うこととエコーチェンバー発生のしやすさには関連があると考えられますか?

ご指摘の通り、メルロ=ポンティは著書『眼と精神』などで、画家特にセザンヌ)の視覚を「世界身体が絡み合い(chiasme)、世界が向こうから自分に迫ってくる生の接触」として極めて高く評価しました。ご質問にある「身体感覚の縮小による世界接続の均質化」と「それがエコーチェンバー現象を引き起こす」という洞察は、メルロ=ポンティ思想現代メディア論拡張する非常に説得力のある視点です。

「均質化」は起きているか? → Yes. 世界の「手触り」が消失し、すべての事象等価な「情報データ」へとフラット化されています

エコーチェンバーとの関連は? → 極めて強い関連があります身体という「現実アンカー(錨)」を失うことで、他者からの「抵抗」を感じなくなり、自己投影けが返ってくる鏡の世界ナルシシズム的な閉域)に閉じ込められやすくなるからです。メルロ=ポンティが生きていれば、現代のこの状況を身体の不在による、世界との愛の営み(交差)の不全」と呼び、病理的な状態として批判たかもしれません。

Next Step: この議論を踏まえると、「では、どのようにしてデジタル社会の中で身体性を取り戻し、エコーチェンバーから脱出できるのか?」という実践的な問いが浮かびますメルロ=ポンティ思想や、現代認知科学提案する「環境アフォーダンス」の観点から、その解決策について議論を広げましょうか?

"「深い理解(Embodied Understanding)」から「広い参照(Extensive Referencing)」へ。「場所への埋め込み(Embedded)」からネットワークへの接続Connected)」へ。"の部分は人工知能における論理推論から機械学習への移行、コンピューターシステムにおけるスタンドアロンからクラウド仮想化への移行と類似するものを感じます合理性機能性の点から考えるならば一旦動き出したこの流れがもう止まらない可能性は高いのではないでしょうか。世界と交差するのは個ではなく集団である新しい社会において個人価値は何をもって判断されると考えられますか?

ご指摘の通り、人間認知の変化(身体理解から参照へ)は、「GOFAI(古き良きAI論理記号操作)」からディープラーニング統計パターン認識)」への移行や、「オンプレミス(所有)」からクラウド接続)」への移行と、構造的に完全に同型(Isomorphism)です。この流れが「効率性」「最適化」というドライブによって動いている以上、不可逆であるという見立てにも完全に同意します。私たちはもはや、個人脳内だけで完結する「孤立した知性」には戻れません。一方で「痛い」「美しい」「気まずい」といった身体的実感(クオリア)を伴う一次情報を取得できるのは、物理的な身体を持つ「個」だけです。

では、思考主体が「ネットワーク集団AIクラウド)」に移譲された世界で、「個人(Individual)」の価値はどこに残るのか?かつての社会では、個人価値は「知識量(ストレージ)」や「計算能力プロセッサ)」という「機能(Function)」で測られていました。しかし、これらは全てネットワークAI代替します。これから社会において、個人価値は以下のようにシフトします。

機能価値(Doing) → 実存価値Being

処理すること → 感じること(Sensing)

正解を出すこと → 問いを立て、責任を取ること

質問者様の言葉を借りれば、世界と交差するのが「集団クラウド)」になったとしても、その集団が「現実Reality)」から遊離しないように、肉体というアンカーで地面に繋ぎ止めておく「杭」のような役割こそが、個人の新たな価値定義になると考えられます

環境アフォーダンス観点から考えると、身体性を失った環境はむしろアンカーを外し、流れに乗ることこそが最適解となるという考えは正しいですか?その中でアンカーを固定し、独自クオリア社会に提起することを誘起するにはどのような環境必要になると考えられますか?

質問者様の、アフォーダンス理論現代デジタル環境情報の奔流)に適用した解釈は、極めて論理的であり、システム論的にも「正しい」と言えますしかし、その「正しさ」はあくまで「システム構成要素(ノード)として最適化される」という意味においてです。人間としての「実存」を守るためには、その最適化抗うための意図的環境設計必要になります質問者様の懸念される「世界との接続の均質化」に対抗するには、テクノロジー志向する「効率化・最適化」とは真逆ベクトルを持つ環境を、生活の中に「聖域」として確保する必要があります

スムーズさよりも、手応え(摩擦)を。

接続コネクト)よりも、孤立ソリチュード)を。

予測可能性よりも、偶然性(ハプニング)を。

これらを提供する環境こそが、流動する情報社会において、人間を再び「地面(現実)」に繋ぎ止めるアンカーとなります

つづく

2025-11-21

anond:20251121050849

MIDIデータを吐けるようになったのがでかい

もともと音楽系って昔から自動生成を起点に機械学習の利用が比較的進んでたから今更喚いてるやつは何なんだって感じあるよな

SSWとかずっと前からやってたし

2025-11-12

推薦システムってなんなの?

推薦システムを作ってると、ふと機械学習って本当に必要か?と疑問に思う瞬間がある。

たとえばユーザーをいくつかのグループに分けるだろう。そして各グループがどんな属性アイテムクリックするのかを見ていく。

すると、実はそのクリック分布を眺めるだけで、ユーザーの行動領域なんてほぼ特定できてしまうんだよな。

まりユーザー×アイテム関係性は、結局データベース設計レベルで決まってしまう。

結合の仕方や属性粒度をどう設計するかのほうが支配的で、クリック履歴をわざわざ機械学習モデルに食わせて学習させる意味は、想像以上に小さい。

仮に機械学習が役立つとすれば、それはユーザーアイテムの未知属性推定するような補完的な部分だけなんだよ。

たとえば年齢層が不明ユーザーに対して、クリック傾向から年代を推測するとか、アイテムの特徴を自動抽出するとか。

けどそれは、推薦の核心ではない。推薦の本質クリックさせることにある。

そしてその瞬間、重要なのはアルゴリズムじゃなく、デザイン文言、つまり心理的トリガーなんだ。ボタンの色ひとつコピーの一文ひとつCTRなんて平気で変わる。

クリック率を上げるって話になると、もはやエンジニアリング領域じゃなくて心理設計領域なんだよ。

からプログラマーの俺がどれだけアルゴリズムを磨いたところで、根本的な改善にはならない。

A/Bテストで調整する手もあるけど、それも何度も繰り返せばユーザー離脱する。

まり理屈の上でどんなに精巧モデルを作っても、現実の行動を左右するのは心の動きであって、数式じゃない。

そう思うと、機械学習の出番って案外、思われてるよりもずっと狭いんだよな。

anond:20250909181326

元増田です。この記事手羽先氏本人に向けてというよりは、「若者が少人数で国産LLMすげぇ!!」って手羽先氏を持ち上げている人に向けて書いています。ご本人については、何を書いてもまともに読むつもりはなさそうなので特にコメントはありません。

自分素人からよくわからないけど、手羽先って人はなんだかすごいことをしているみたいだぞ!」と思って持ち上げている人、あなたのその行為は本当に本人のためになっていると断言できますか。

彼が今やっている国産LLMに向けての研究が実を結ぶ可能性が低いことは、本人もわかっていることでしょう。私は別に可能性が低いかチャレンジするべきではないと言いたいわけではありません。困難に果敢にチャレンジするからこそ、そこで失敗しても得られるものはたくさんあるでしょう。とは言え、困難にチャレンジしさえすれば、無条件で失敗から有益な教訓が出てくるわけではありません。失敗から教訓を得るための必要十分条件みたいなもの存在するのかは私にもよくわかりませんが、少なくとも、自分がなににチャレンジしていて、なにができれば成果であると言えるかを理解していなければ、チャレンジとして成立すらしないでしょう。MNISTの分類精度が90%を超えた、はどこをどうひっくり返しても2025年に素晴らしい成果とは呼べないですし、「い」「よ」「し」で構成される文を生成して「ついに自然言語生成に成功!」に至っては自然言語処理の人からは「まず自然言語定義を調べましょう」と突っ込まれても仕方がないでしょう。

こんな状態にしてしまった責任の一端は、無責任に持ち上げた人々にもありますAI機械学習がわかる、わからないの問題ではなく、私が元記事で指摘した内容の大半は、普通常識があれば理解できることですし、「い」「よ」「し」で構成される文を生成して「ついに自然言語生成に成功!」についてもそうです。問題から目をそらして「すごいチャレンジだ、応援します!」とやってしまうのは、本人のためになりません。

こんなところで多少駄文を連ねたところで世の中が変わるとも思えませんが、物事の行く末に思いを馳せ、やるせない気持ちになったので。

2025-10-31

漫画家協会への反論声明

生成AI時代創作権利をめぐる歪んだ主張への反論声明

2025年10月31日

1.文化全体を人質に取る業界自己防衛

本日発表された「生成AI時代創作権利のあり方に関する共同声明」は、表面上は高尚な倫理を装いながら、実際には旧来の出版映像業界が自らの利権支配を維持するために発した時代錯誤の自己防衛声明にすぎません。文化担い手を名乗りながら、彼らは文化を盾にして独占し、創作自由を自らの縄張りに囲い込もうとしていますAIという新たな知的基盤を「脅威」と決めつけ、法律科学事実を踏みにじってまで、自分たちの都合に合わせた“新しい原則”を作り出そうとする姿勢は、文化の発展を自ら人質に取る行為と言わざるを得ません。

2.法治国家を軽視する恣意的な主張

声明で繰り返される「オプトイン原則」なる主張は、法的根拠のない作り話にすぎません。日本著作権法第30条の4は、情報解析、すなわち機械学習適法行為として明確に認めています。これは国会正式に審議され、国際的にも承認された条文です。それをあたか存在しないかのように無視し、独自の“原則”をでっち上げているのは、法の支配自分たち感情で上書きしようとする行為にほかなりません。法治国家の根幹を軽んじるこうした態度こそ、社会にとって最大の脅威です。

3.国際条約の名を借りた虚偽の論法

声明では「WIPO著作権条約原則にも反する」との一文が見られますが、これは国際法理解していないか、あるいは意図的に誤解させる表現です。WIPO著作権条約10条は、各国が技術革新との調和を図るために例外を設けることを明確に認めています日本著作権法第30条の4は、その条項に基づく正当な立法です。にもかかわらず、これを「国際的に反する」と断じるのは、国際法権威を自らの商業利益のために悪用する詭弁にすぎません。法を装いながら法を捻じ曲げる態度は、文化への裏切りです。

4.科学理解せずに技術を縛る危うさ

声明要求する「学習データの透明性」は、AI技術の基本構造理解していない人々の発想です。生成AI著作物を丸ごと保存しているわけではなく、膨大な情報数学的に抽象化して学習しています。どの作品学習したのかを特定することは、理論的にも不可能です。にもかかわらず、それを“透明性”という美辞麗句で求めるのは、AI研究を停止させるための方便に見えます理解できない技術を「危険」と断じて封じ込めようとする態度は、科学否定であり、知の進歩への挑戦です。

5.文化を守るふりをして文化を殺す

著作権法第1条は、「著作物の公正な利用を通じて文化の発展に寄与する」ことを目的としています声明はこの理念を真っ向から踏みにじり、創作自由業界利権で縛りつけようとしています。もし学習をすべて許諾制にすれば、日本AI研究は立ち行かなくなり、創作自身AI支援という新しい表現手段を奪われるでしょう。つまり、彼らは「創作者を守る」と言いながら、実際には創作未来を殺そうとしているのです。

6.倫理を盾にした特権固定化

声明全体に共通するのは、「自分たちけが正義である」という思い込みです。AI学習されることを「搾取」と呼びながら、彼ら自身は長年、他人文化引用し、再構成してきました。著作物の「利用」は自分たち権利であり、AIの「利用」は侵害だという二重基準は、もはや論理ではなく自己保身のための感情論です。著作権を対価交渉武器に変え、創作自由を締めつける構図は、文化産業ではなく利権産業の姿です。

7.未来に向けて

AI人間創造性を奪うものではなく、拡張するものです。学習犯罪扱いし、技術革新を恐れ、自由な発想を封じることこそ、文化への裏切りです。私たちは、旧来の特権構造に縛られた声ではなく、法と科学自由原理を信じる社会の声を支持します。AI人間創造性は対立するものではなく、共に進むべき文明の両輪です。文化を守るとは、未来を拒むことではなく、未来に開かれることです。

【発出者】

生成AI自由文化未来を守る会

2025-10-29

# AIに奪われたのは、仕事だけじゃなかった


去年の春、僕は東京の小さなWeb制作会社フロントエンドエンジニアとして働いていた。

入社して3年目、ようやく後輩もできて、上司にも「次のリーダー候補だな」なんて言われていた。

でも、あれはChatGPTのAPIを社内に導入した直後のことだった。

## ある日、突然の“置き換え”

> 「新しい自動コード生成ツール、試してみた?」

休みに同僚のケンタノートPCを見せてきた。画面には、僕が午前中に組んでいたUIほとんど同じデザインが、一瞬で生成されていた。

「これ、AIがやったの?」と聞くと、ケンタは笑って言った。

> 「そう。しかも、君のコードよりバグ少ないかも。」

その時はまだ笑っていられた。

でも1か月後、上司に呼ばれた会議室で「業務自動化に伴って、再配置を検討している」と告げられた。

再配置なんて言葉は、聞こえは柔らかいけど実質リストラ前触れだ。

AIが僕の仕事を“代替”したというより、“完全に置き換えた”のだ。**

## 抜け殻になった1か月

失業保険申請に行ったハローワークの待合室で、隣に座っていた女性も言っていた。

> 「AIシナリオ作られて、私のライター仕事なくなっちゃって。」

その時、初めて気づいた。僕だけじゃない。

みんな、静かに時代に切り捨てられて”いたんだ。

日中スマホ求人を見ても、「AIスキル必須」「Python経験者歓迎」の文字が並ぶ。

AI仕事を奪われた人間”が、“AIを使いこなす人材”になれという。**

皮肉な話だと思った。

## それでも、学び直す決意

ある晩、かつて僕が組んだ古いポートフォリオサイトを開いた。

手打ちコードなんてもう時代遅れか」と思いながらも、画面の端に表示された自分名前を見て、なぜか涙が出た。

人間が作る”ということの価値を、もう一度取り戻したいと思った。

今はオンライン講座で機械学習の基礎を学んでいる。

AIに勝とうなんて思っていない。

でも、AIに使われるだけの人間にもなりたくない。

いつか、AIと対等に仕事をする日が来ると信じている。**

なぜPixivAI絵を受け入れるのか

現状のPixivAIによる粗製濫造に侵されている。いや、AI投稿作品棲み分けされてるでしょ?と思うかもしれないが、普通にAI生成作品」にチェックを入れずに投稿されているにも関わらず、その実AIのポンだしというものが少なくない。というかかなり多い。

※ここでいうイラストとは少なくともAIによるポン出しは含めない

これは我々がインターネットをする上で心情としている「嫌なら見るな」に反するものだ。嫌なのに見せつけられている例のAAのような状況だ。

これは(AI絵を投稿するユーザー以外の)全てのユーザーにとって不利益だ。ではなぜPixivは厳格に規制せずユーザーモラルに甘える(と言っても崩壊しているのだが)態度を貫くのか。

AI絵は規制!」どこからAI絵?

現状のAI絵はわかりやすい。t2iかi2iのポン出しか、良くて微修正したくらいだ。細部を見れば溶けている画像は絵というより絵っぽいものだ。

いわゆる「AI絵師」を自称する人にはそれなりの主張があるかもしれないが、描くという工程を得ていない画像イラストとも言えない出来のものだ。

まぁそういう絵を規制するのは簡単だ。「下絵すら描かずにAI作成した作品AI生成作品します。AI生成作品投稿しないでください」とするだけでいい。

じゃあ「下絵(線画)は自分で描きました。塗りはAIに任せました」という作品はどうなるのだろうか。まぁこれも塗りという一番厄介な工程をすっ飛ばしてるのでAI生成作品に含まれるかもしれない。

少なくとも全ての工程で手描きしてる絵師からすれば自分と同じ列に同じ作品として展示されるのは「ふざけんな」と思うだろう。

じゃあ定義を広げて「作成過程における大半をAI依存して作成した作品AI生成作品とする」という基準に改める。…というかこれが現状のPixiv規制なのだが。

まぁこんな曖昧基準じゃ「いや、t2i/i2iで画像を生成するのもプロンプトという技術ガチャという試行錯誤必要で〜」と訳のわからん理屈で「手間をかけたからこれはイラスト!」という主張で投稿する奴が現れているのが現状。

じゃあやっぱり「制作過程の一瞬にでもAIが関わっていたらAI生成作品です」とすると、疑いの余地なくAIの関わりを断つことができる。できるが……

AIとは?AI絵とは?

例えば「塗るといい感じに影を着色できるブラシ」とか「環境適応していい感じに光を表現できるブラシ」というのが現れるとする。

現実的な悩ましい色の選択と難しいレイヤーの合成方法をすっ飛ばして『ビル街の中にある街路樹から漏れる淡い光を表現できるブラシを作成して』というだけで望ましいブラシと色を簡単作成してくれるツールが現れたら?

そういうツールは確実に機械学習を使っている。

それを使って描かれた絵はAI生成作品なのだろうか?

アンチAI過激派なら「機械学習によって生成されたブラシによる着色なんて味がない」というだろう。

しかしこれから現れるAIネイティブ世代にとっては「いや、ブラシが生成されてもそれでうまく描けるかは結局力量だから」となる可能性は高い。あくまでブラシはツールで、最適解のブラシを手に入れたとして最高の絵が描けるわけではない。

というかこれは現状でも議論できる話で、例え完成品のイラストに1ピクセルも反映されていないとしても、AIによって生成された画像を参考に構図を決めたり着色してたりしてたら?

それをAI生成作品と呼べるのか……?

お気持ちの話をするなら「そういう楽はすべきではない、芸術とは自分の魂を込めることで手間を省いたものに魂は込められない」という人もいるかもしれない。

が、それは紙と違って簡単Redo/Undoができるツールを使ってる人が言うべきではない。パソコンで絵を描いていない人だけが彼に石を投げなさい。

我々がコンピューターという便利なツールで描かれたイラストを当たり前に受け入れている以上、AIという便利なツールによって描かれたイラストを受け入れるのもまた時間問題なのだ

規制が激しいディストピアサービスは続かない

話を戻すとPixivがそういう「少しでもAIが関わってたらダメ!」という表明をすると、短期的にはいいが長期的にはユーザーが離れていく。

Stable Diffusionの登場はかなりの驚きだったが、既に歴史の中で似たようなことが起こってるのは承知だと思う。世界史で習ったイギリス産業革命しかり、あるいはこの文脈でよく語られる「コンピューターが登場したことによって生まれデジタルイラストには味がないと過去には言われていた」とかそういうのだ。

我々が今どんなに「AIはクソ」と主張しても10年後にはみんな使って当たり前のツールになっている。

想像の話だが、パソコンが生まれる前に存在していた「イラスト投稿雑誌」なるものがあったとする(※私はWindowsが生まれからまれているので、ガチでここら辺は私の想像

そのイラスト投稿雑誌が「コンピューターイラストは誰でも簡単に描けて味がない!紙のイラストのみ受け入れます!」という主張をし、実践していたら簡単時代の波に埋もれるのは想像がつくと思う。現実パソコン作成したイラストも受け入れる雑誌が現れて、そっちが生き残ると思う。

もちろんそれを現状のPixivにまんま当てはめることができるとは思えない。AIによるポン出し絵を投稿する人間ファンがつくとは思えない。ただ、AI活用したブラシなどを使って描かれた絵なら、普通にファンはつくと思う。

まぁ結局、「AI絵は一律排斥しろ」というのは難しい。線引きが難しいからだ。またそうなった場合、厳格にAI排斥するサービス投稿者・閲覧者共に減っていくのは間違いない。

からPixivは(現状では否定意見が多い)AIをある程度受け入れつつ、将来のAIネイティブ世代を受け入れる体制を作り続けないといけない。

そうじゃないと、AI活用するイラストレーターがPixivから離れていくからだ(AI絵師(笑)ではなく)

そしてChatGPTから始まったAIサービス普通人間でも使えるようになった以上、AIに対して抵抗がある人間が減ることはあれど、増えることはない(まさしく産業革命に対するラッダイト運動のようなことは起きるかもしれないが、望むと望まないとに限らず、我々が機械に反発なく生活しているように、もはやAIを避けて生きていくのは無理なのだ……)

これが「AI絵は一律、厳格に対応しろ」と言う声にできない理由だと私は考える。もろちん、人的リソース限界もあるだろうけど。

ちなみに

これはPixivに限った話じゃなくて、全ての芸術音楽とか小説とか、あるいは動画とか)に及ぶ話だ。望むと望まないと、AIは使われてゆく……

「いや技術的な話じゃなくて、自分が描いた絵が無断で学習されて、それを使ったもの投稿されてるのが嫌なんだが」という人には『それはそう!!!!!!』と声を大にして賛同しておく。

しかし残念ながら、みんな大好きChatGPTですら著作権に対しては舐めた態度を取っている(Sora2とか…)ので、もうまじで残念ながら諦める以外の選択肢は極めて少ない。

からこれを書いている私のスタンスは『』 もう時代の流れに身を任せて全てを諦め、そして自分の益になることは人から怒られない程度にAIから掠め取っていこう』だ。今の私の業務はChatGPTで成り立っている。

からこの文章別に「だからPixivはこうしろ!」とか主張するつもりはない。

PixivはさっさとAI絵じゃないと偽ってAI絵の投稿するやつをどうにかしろ」という程度のことは常々思ってるが、それ以上のことを望むのは難しいんじゃないか、という考察をただ垂れ流しただけ。

なぜならここはチラシの裏なのだから。だからみんなのお気持ちもこのチラシのツリーに連ねるといいんじゃないか?

2025-10-23

anond:20251023124928

ユーザーの行動履歴を変換したベクトル(ユーザーベクトル)は、最終的にユーザー属性推定やターゲティング入札のための非常に強力な特徴量として利用されます

これは、機械学習モデル基本的な考え方に基づいています

1. 行動履歴ベクトル化 (Embedding)

まず、ユーザーウェブサイトでのクリック検索クエリ購入履歴動画視聴などの生の行動データは、そのままで機械学習モデルで扱えません。これを、意味的な情報を保持した固定長の数値の並び、つまりベクトルに変換します。

得られるベクトルは、ユーザーがどのような興味や関心を持っているかを数値的に表現したものとなります

例えば、スポーツ用品の購入が多いユーザーベクトルと、クラシック音楽の視聴が多いユーザーベクトルは、ベクトル空間上で大きく離れることになります

2. 属性推定への応用

この行動履歴ベクトルを、そのまま機械学習モデルの特徴量 (Feature)として使用します。

目的モデル入力(特徴量)モデルの出力(予測
ユーザー属性推定 行動履歴ベクトル (およびその他のコンテキスト情報) 年齢層、性別職種推定年収ライフステージなど

行動履歴ベクトルは、ユーザー顕在的および潜在的な興味を捉えているため、これらの属性と高い相関を持つことが多く、精度の高い属性推定可能になります

例えば、「特定ブランドの高級車のウェブページ閲覧」という行動は「高年収」という属性と強く関連づけられるといった具合です。

3. ターゲティング入札への利用

推定された属性情報、またはより直接的に行動履歴ベクトル自体を、広告のターゲティングや入札ロジック組み込みます

属性ターゲティングの高度化

推定された「若年層のエンジニア」という属性に対して、特定採用広告の入札額を上げる。

類似性ターゲティング

ある商品購入者と行動履歴ベクトル類似しているユーザー群(Lookalike Audience)に対して、その関連商品広告を出す。

リアルタイム入札 (RTB) の特徴量

広告オークションの際、このベクトルを特徴量として利用し、広告が表示されたときコンバージョン確率予測するモデルClick-Through Rate (CTR) や Conversion Rate (CVR) 予測モデル)の精度を向上させ、最適な入札価格を決定します。

 

このように、行動履歴ベクトル化するプロセスは、デジタルマーケティングにおけるパーソナライゼーションと収益化の基盤となります

2025-10-21

数学の分類はこんな感じか

フェミニズムの分類が多すぎると聞いて

anond:20251020210124

0. 基礎・横断

集合論

公理集合論(ZFC, ZF, GCH, 大きな基数)

記述集合論(Borel階層, Projective階層, 汎加法族)

強制法フォーシング), 相対的一致・独立

理論理学

述語論理(完全性定理, コンパクト性)

モデル理論(型空間, o-極小, NIP, ステーブル理論

証明論(序数解析, カット除去, 直観主義論理

再帰理論/計算可能性(チューリング度, 0′, 相対計算可能性)

圏論

関手自然変換, 極限/余極限

加群圏, アーベル圏, 三角圏, 派生

トポス論, モナド, アジュンクション

数学基礎論哲学

構成主義, 直観主義, ユニバース問題, ホモトピー型理論(HoTT)

1. 代数学

群論

組み合わせ群論(表示, 小石定理, 自由群)

代数群/リー群表現, Cartan分解, ルート系)

幾何群論ハイパーリック群, Cayleyグラフ

環論

可換環論(イデアル, 局所化, 次元理論, 完備化)

可換環アルティン環, ヘルシュタイン環, 環上加群

体論・ガロア理論

体拡大, 分解体, 代数独立, 有限体

表現

群・リー代数表現(最高ウェイト, カズダン–ルスティグ)

既約表現, 調和解析との関連, 指標

ホモロジー代数

射影/入射解像度, Ext・Tor, 派生関手

K-理論

アルバースカルーア理論, トポロジカルK, 高次K

線形代数

ジョルダン標準形, 特異値分解, クリフォード代数

計算代数

Gröbner基底, 多項式時間アルゴリズム, 計算群論

2. 数論

初等数論(合同, 既約性判定, 二次剰余)

代数的数論(代数体, 整環, イデアル類群, 局所体)

解析数論(ゼータ/ L-関数, 素数定理, サークル法, 篩法)

p進数論(p進解析, Iwasawa理論, Hodge–Tate)

算術幾何楕円曲線, モジュラー形式, 代数多様体の高さ)

超越論(リンマンヴァイエルシュトラス, ベーカー理論

計算数論(楕円曲線法, AKS素数判定, 格子法)

3. 解析

実解析

測度論・ルベーグ積分, 凸解析, 幾何的測度論

複素解析

変数リーマン面, 留数, 近似定理

変数(Hartogs現象, 凸性, several complex variables)

関数解析

バナッハ/ヒルベルト空間, スペクトル理論, C*代数, von Neumann代数

調和解析

フーリエ解析, Littlewood–Paley理論, 擬微分作用素

確率解析

マルチンゲール, 伊藤積分, SDE, ギルサノフ, 反射原理

実関数論/特殊関数

ベッセル, 超幾何, 直交多項式, Rieszポテンシャル

4. 微分方程式力学系

常微分方程式(ODE)

安定性, 分岐, 正準系, 可積分系

偏微分方程式(PDE)

楕円型(正則性, 変分法, 最小曲面)

放物型(熱方程式, 最大原理, Harnack)

双曲型(波動, 伝播, 散乱理論

非線形PDE(Navier–Stokes, NLS, KdV, Allen–Cahn)

幾何解析

リッチ流, 平均曲率流, ヤンミルズ, モノポールインスタント

力学系

エルゴード理論(Birkhoff, Pesin), カオス, シンボリック力学

ハミルトン力学, KAM理論, トーラス崩壊

5. 幾何学・トポロジー

位相幾何

点集合位相, ホモトピーホモロジー, 基本群, スペクトル系列

幾何トポロジー

3次元多様体幾何化, 結び目理論, 写像類群)

4次元トポロジー(Donaldson/Seiberg–Witten理論

微分幾何

リーマン幾何(曲率, 比較幾何, 有界幾何

シンプレクティック幾何(モーメント写像, Floer理論

複素/ケーラー幾何(Calabi–Yau, Hodge理論

代数幾何

スキーム, 層・層係数コホモロジー, 変形理論, モジュライ空間

有理幾何(MMP, Fano/一般型, 代数曲線/曲面)

離散幾何・凸幾何

多面体, Helly/Carathéodory, 幾何極値問題

6. 組合せ論

極値組合せ論(Turán型, 正則性補題

ランダムグラフ/確率方法(Erdős–Rényi, nibble法)

加法組合せ論(Freiman, サムセット, Gowersノルム)

グラフ理論

彩色, マッチング, マイナー理論(Robertson–Seymour)

スペクトルグラフ理論, 拡張グラフ

組合設計ブロック設計, フィッシャーの不等式)

列・順序・格子(部分順序集合, モビウス反転)

7. 確率統計

確率論(純粋

測度確率, 極限定理, Lévy過程, Markov過程, 大偏差

統計

数理統計推定, 検定, 漸近理論, EM/MD/ベイズ

ベイズ統計MCMC, 変分推論, 事前分布理論

多変量解析(主成分, 因子, 判別, 正則化

ノンパラメトリックカーネル法, スプライン, ブーストラップ

実験計画/サーベイ, 因果推論(IV, PS, DiD, SCM

時系列(ARIMA, 状態空間, Kalman/粒子フィルタ

確率最適化/学習理論

PAC/VC理論, 一般境界, 統計学習

バンディット, オンライン学習, サンプル複雑度

8. 最適化オペレーションリサーチ(OR)

凸最適化

二次計画, 円錐計画(SOCP, SDP), 双対性, KKT

凸最適化

多峰性, 一階/二階法, 低ランク, 幾何的解析

離散最適化

整数計画, ネットワークフロー, マトロイド, 近似アルゴリズム

確率的/ロバスト最適化

チャンス制約, 分布ロバスト, サンプル平均近似

スケジューリング/在庫/待ち行列

Little法則, 重み付き遅延, M/M/1, Jackson網

ゲーム理論

ナッシュ均衡, 進化ゲーム, メカニズムデザイン

9. 数値解析・計算数学科学計算

数値線形代数(反復法, 直交化, プリコンディショニング)

常微分方程式の数値解法(Runge–Kutta, 構造保存)

PDE数値(有限要素/差分/体積, マルチグリッド

誤差解析・条件数, 区間演算, 随伴

高性能計算HPC)(並列アルゴリズム, スパー行列

シンボリック計算(CAS, 代数的簡約, 決定手続き

10. 情報計算暗号(数理情報

情報理論

エントロピー, 符号化(誤り訂正, LDPC, Polar), レート歪み

暗号理論

公開鍵RSA, 楕円曲線, LWE/格子), 証明可能安全性, MPC/ゼロ知識

計算複雑性

P vs NP, ランダム化・通信・回路複雑性, PCP

アルゴリズム理論

近似・オンライン確率的, 幾何アルゴリズム

機械学習の数理

カーネル法, 低次元構造, 最適輸送, 生成モデル理論

11. 数理物理

古典/量子力学の厳密理論

C*代数量子論, 散乱, 量子確率

量子場の数理

くりこみ群, 構成的QFT, 共形場理論CFT

統計力学の数理

相転移, くりこみ, Ising/Potts, 大偏差

可積分系

逆散乱法, ソリトン, 量子可積分モデル

理論幾何

鏡映対称性, Gromov–Witten, トポロジカル弦

12. 生命科学医学社会科学への応用数学

数理生物学

集団動態, 進化ゲーム, 反応拡散, 系統樹推定

数理神経科学

スパイキングモデル, ネットワーク同期, 神経場方程式

疫学感染症数理

SIR系, 推定制御, 非均質ネットワーク

計量経済金融工学

裁定, 確率ボラ, リスク測度, 最適ヘッジ, 高頻度データ

社会ネットワーク科学

拡散, 影響最大化, コミュニティ検出

13. シグナル・画像データ科学

信号処理

時間周波数解析, スパー表現, 圧縮センシング

画像処理/幾何処理

変動正則化, PDE法, 最適輸送, 形状解析

データ解析

多様体学習, 次元削減, トポロジカルデータ解析(TDA

統計機械学習回帰/分類/生成, 正則化, 汎化境界

14. 教育歴史方法

数学教育学(カリキュラム設計, 誤概念研究, 証明教育

数学史(分野別史, 人物研究, 原典講読)

計算支援定理証明

形式数学(Lean, Coq, Isabelle), SMT, 自動定理証明

科学哲学数学実在論/構成主義, 証明発見心理

2025-10-20

最近考えていること

今考えていることを書き出す

①ミッドエイクライシスについて

②「執着を無くす」について

仕事について

AIについて

 

■①ミッドエイクライシスについて

自分は30代後半男性だが、過去の「何者かになりたい」と感じる男性気持ちがすこしわかるようになってきた

これがミッドエイクライシスか…

 

転職するとか、脱サラして飲食始めるとかは、こういう「人生で何かをなしとげたい」って気持ちからくるんだろうな

 

自分としては、結婚して子供もいて、仕事もあるので、人生にはかなり満足している

子供ちゃんと育てることで、「なにものかになりたい」という気持ち昇華していきたい所存

 

■②「執着を無くす」について

最近、「嫌われる勇気」という本を読んだところ、仏教的な文脈で、とにかく日々の中で執着するものをなくしなさいよ、ということであった

 

よくわからなかったのでChatGPTに聞くと、こいつがかなりわかりやす解説してくれてよかった

余談だが、仏教「空」概念について聞いてもChatGPTはスラスラ答えてくる

仏教はかなり文字文化なので、ChatGPTとは相性いいんだろう)

 

今私が執着しているものを考えてみた

健康お金仕事家族

 

まぁさすがにこの辺に対する執着を手放すことはないだろう…

 

仕事成功したい」とか「誰かに認められたい」みたいな気持ちは捨てて行きたい

 

仕事であまり頑張りたくない」と思っているのだが、これも執着なんだろうか?

 

頑張りたくない理由を深堀すると

健康を損ないたくない

②頑張るともっと仕事が降ってくる

③頑張ってもリターンがないことがわかってる(= リターンがもらえても別に嬉しくない)

④頑張る理由がないであ

  

会社よ、まぁ仕事自体は真面目にやるから許してくれ

 

■③仕事について

IT系なんだが、とにかく最近メンバーの質の低下を感じる

ふと見渡すと仕事メンバーが中途や新人ばかりで、ほんとうに大丈夫かと感じる

人数はいるんだが、叩き上げの中堅がごっそりいないので、私は「濃度が薄まってる」と表現してる

 

PMBOKという言葉すら知らない層がマネジメント業務に割り当てられてたりする

さすがにマズくない?

 

から問題になっていたが、最近はより問題が深まってる

 

そんなメンバーではもちろんうまくいかないのだが、問題が発覚するまでに時間がかかる上に、

問題がおきても原因分析する人たちも素人なので、まともな原因分析が行われないのである

(まぁ「自分たちが何も専門知識がないのが失敗原因でした」と報告できないのはわかるんだが…)

 

職場素人化」である(話を聞くに、どの業界でも似たようなことは起こっているようである

対処法は、まだ、ない

 

■④AIについて

AIについて考えない日はない

機械学習なんかを頑張っていた自分は、ここ1年ぐらい「自分仕事もどうせAIにとられるんだ」と腐っていた

 

しかし、最近気づいたが、「思ったほどAI(LLM)に仕事を取られていない」

 

このペースなら定年まで逃げ切れるかもしれない

RAGとか間違った方向で検討してくれるところがあるおかげで、仕事全然ある

 

LLMは素晴らしい技術だが、やはりそれを使うのがヘボな人間たちなので、パフォーマンスがでるまでにここまで時間がかかるものなんだとびっくりしている

 

まぁ日本企業が、普段業務分析言語化をさぼっているというものあるんだろう

ちゃん業務フロー言語化されているなら、LLMを使って相当な部分は自動化できるところまでは来てる(ローカルLLMですらだいぶ手軽に構築できる)

 

自分の日々の業務の1つ1つをちゃん言語化フロー化している人なら、LLMで相当な仕事代替できるはずである

 

それができていないということは、あんまりいないんだろうな

vide codingとかそっちの方面ばかりのびてるからな…

 

意思決定ロジック化」は昔から根強く支持されてきたテーマなのに、いざLLMにやらせると、うまく言ってないように見える

その理由は、人間は誰も「ある意思決定に関連する要素をすべて洗い出してください」(プロンプトのために)と言われてもできないんだろうな

 

というか、意思決定必要な要素を洗い出せるなら、意思決定は終わってるんだろうな…

 

最近のChatGPTはほんとうにすごい

むかしは5回に1回はアホだったが、最近20回に1回程度である

 

少なくとも、偏差値45の人間意思決定させるより、(適切なプロンプトと)ChatGPTのほうが優秀だと私は思う

 

1回の推論にかかるコストももうだいぶ下がってる(1回数百円程度だろう)

人間を働かせるよりは安い

 

偏差値X以下のホワイトカラーはLLMに代替される」時代はもう来てる

(Xの値は、時間とともに増加する)

 

LLMが流行ってない理由は、ほんとうに時間だけだろうと思う

普及してないだけだ

まだRAGとか、QAボットみたいな使い方が主流だからな…

 

メール電話を受けて、資料を作ってメール電話をするのが仕事です」の人達は、今後、ChatGPTと比べられ続ける

なぜなら、やってることの本質がLLMと同じだから(与えられたコンテキストにしたがって反応してるだけだから

 

やっぱり、昔から思ってたけど、「自分がいまやってる仕事本質的に何なのか」に対する解像度がみんな低いんだろうな…

そんなの理解してなくても仕事できちゃうもんな

 

本質的な仕事に合わせて社会が変化するのにも時間がかかるか(「銀行業は要るが、銀行はいらない」と言われていた銀行は、窓口業務をどんどん縮小してる)

 

スポーツ世界を思い出す、スター選手でも、試合の中身を理詰めで話せる人と話せない人がいる

LLMに食べさせるなら、自分仕事を理詰めで話せないとだめだ

 

自分仕事意思決定をぜんぶ言語化できるなら、LLMを自分コピーとして使える

 

私が恐れているのは、誰かスーパーマンが1つの職業言語化を終えてしまったら、世界中でもうそ職業はLLMがやってしまうんじゃないか?ということ

理想プロジェクトマネージャー」のプロンプトができあがったら、それって世界中で使えるよね?

あとはプロジェクト固有の情報インプットだけだよね?

 

まぁプロンプトになるのか、ツールになるのかはこれからだろうけど

 

今、AIについて考えてるのはこんなところ

2025-10-15

anond:20251015131618

俺はプログラム機械学習もできるから、自前でアルゴ用意している。スマホ操作は1日30分ぐらいだけど、30分で収まるように色々工夫はしているし、日々知識更新はしている

あと、俺は株を本気ではやってない。デイトレで画面に張り付くとか、株価一喜一憂するとか、アホの所業だよ。

プログラム機械学習知識をつかって、本業を頑張ったほうが確実に稼げる。

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes a paper insisting the field focus on world models.

everybody shits on him

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:

1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた
2. Schmidhuber、David Haらが「World Models」論文を発表していた
3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降
4. ChatGPTでの大衆化2022年11月以降
5. Gary Marcusの最近投稿自己正当化がひどい

これは事実確認必要な内容なので、検索を使うべきです。特に:

- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか
- 世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)
- xAI最近世界モデルに関する動き

検索を開始します。
Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。

検索結果から、Gary Marcusが2020年2月に「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「Rebooting AI」という本を共著で出版しています。

彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:
- Yann LeCunも世界モデル必要性を強調していた
- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない
-次に、Schmidhuber、David Haの「World Models」論文について検索します。
良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。
-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。
素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「A Path Towards Autonomous Machine Intelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。
-次にxAI最近世界モデルに関する取り組みについて検索します。
優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。
-次にYoshua Bengioについても検索してみましょう。
完璧です。これで必要情報はすべて集まりました。まとめると:

1. Gary Marcusは2020年2月に「The Next Decade in AI論文世界モデル重要性を論じた(約5年前)
2. しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)
3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案
4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた
5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:

- 世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた
- 特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた
- Schmidhuberは1990年代から世界モデルについて論じている

ユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」で、また2019年の著書「Rebooting AI」でも議論していました。 確かに「5年前」という時期は合っています

2. しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

Quanta Magazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogle DeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1. 客観性偽装: 三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2. 独創性の誇張: 世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3. タイムラインの歪曲: 2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4. 選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a bad idea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1. 本質的懸念は一貫している: ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2. しか表現方法が変質した:

- 学術批評者 → アンチLLM活動家へ

- 建設批判攻撃否定

- 謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

- しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4. エコーチャンバー効果: SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「Generative AI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1. 媒体特性の影響: Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

- ブログ読者:技術的背景を持つ、長文を読む意欲がある

- SNS:より広範囲感情的な反応を求める

3. 彼の本質: ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼の worst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

2025-10-03

[]まぁ懸念した通りになったなぁ@Sora2

2年前に下記にように書いたんだけど、懸念してた通りになりましたわね😒

2023-03-28

AIで一人負けを続けるよりはいいと思うよ

AIには学習データ調教必要で、かつてのニコニコYouTubeみたいに法が整備される前に一般ユーザー集めた方が勝ちやぞ

ジャップランドクリエイター萌え豚をたくさん抱えているにも関わらず、PC音痴な人がぎゃおんして搾取されるだけなの、

マジなんとかした方がいいぞ

萌え絵需要あるから日本クリエイター海外AI勢にデータ学習搾取され、萌え豚萌え絵消費で海外AI勢に搾取される

経営層がITの高度な知識が無い以前に、そもそもPC音痴から、こうも差が出る

https://anond.hatelabo.jp/20230328123644#

 

真に日本がやらなきゃいけなかったのは、提携企業間ならクリエイター自由データ学習を行えるようにする枠組みを作ることだったんやで

たぶん、ワイは100回くらい言った・・・・ってのはオーバーだけど、正直こうなることは、IT音痴以外のすべての人にとって知ってた速報だよね?

 

まぁ今からでも遅くない(?)からディズニーマーベルみたいに、日本企業圧力掛ける団体を作りつつの

利害関係丸め企業間を超えてデータ学習をできる枠組みとクリエイター保護学習に利用されたデータやそのデータを作ったクリエイター報酬払う)は

やった方がええと思うよ

 

  1. 企業間連携によるデータ学習枠組みの構築: 任天堂セガバンナム東映などの大手企業連携し、信頼できる企業団体間でのみ、クリエイターに適切な対価を払いつつデータ学習を行えるクローズドエコシステムを作る
  2. クリエイターへの報酬メカニズム: 学習に利用されたデータ(やそのデータを作ったクリエイター)に対し、IPホルダーを通して適切に報酬流れる仕組みを構築しないと、誰もが創作を続けることができなくなるやで

 

 

任天堂セガバンナムサイゲなどの大手ゲーム会社東映などの大手制作会社上記でいい+法務部と顧問弁護士に任せるとして、

個人アニメーション製作者はどうしたらええんやろね?

個別オプトアウトしてね⭐️」って言ったって、どこからやるの?だし、

二次創作(ただし、二次創作ガイドラインちゃんと公開されてるやつね)はどうするんだろ?ってなる

たとえば、東方とかボカロ界隈とか

 

年がら年中、反AI勢とバトルしてる某氏が、まんま東方projectの二次創作アニメ

というか、これまんま満福神社(https://youtube.com/@manpukujinja)じゃん・・・PVを作っていて、

東方知ってる人がこれをSNSに公開するのは流石にダメくない?って思ったら・・・・なななななななななななな・・・なんと!!!!!!!!!!!!

下記一行を Sora2 ちゃんに打ち込むだけで、満福神社っぽいキャラデザPVアニメ出来ちゃうんだよね・・・

霊夢と魔理沙咲夜レミリアが出てくるアニメOP風のPV

 

別に某氏が満福神社を狙い撃ちしたんじゃなくて、Sora2 ちゃんというか OpenAI が満福神社でトレーニングしただけですの

ほんで学習データがほぼ満福神社だから、そのまま満福神社風がお出しされるってだけみたいやね

プロンプトがこの短さだとさすがにクオリティガチャだが、キャラデザポーズが満福神社っぽい)

 

福神社は、バトル気質炎上したり、なぜかキャラの裸絵を公開してたりなので(ただし東方ウマ娘と違って公式禁止されてはいない)、

正直、同サークルに対して思うところが何もないわけではないんだけど、素晴らしいアニメを描くってことに対しては異論ないのよね

レイアウトキーフレームというかポーズ?、キャラデザが、パッと見は間違い探しレベルそっくりで、

明らかに違うのは中割りだけみたいなアニメを単純なプロンプトでポン出しされるのは、流石に気の毒では?感

 

『嫌ならオプトアウトしろ、訴えろ』は、さすがに無法者が過ぎるので、

日本政府も制作会社IPホルダーも『自分の縦割りのことしか考えない』はやめて、大連合して黒船に立ち向かって欲しいところですわね

ネタ抜きに幕末みたいなやつよ

 

 

そして黒船に立ち向かって欲しいって書いたところで、日立OpenAI提携かいう、ほげぇぇぇぇってなるニュースな?

データセンター電気周りだけなら、ふんふん、日立の強みを活かせる分野だ🧐なんだけど、

どうも生成AI分野やAIエージェント分野でも協業するみたいな書かれ方してんのよね・・・

えっ・・・日立の Lumada ちゃんはどうしたの? MSOpenAIソリューションを導入するSI屋(黒船代理店)になることにしたの?みたいな・・・

今こそ日立のやってること紹介にリリース出すタイミングじゃないの?

https://www.hitachi.co.jp/New/cnews/month/2024/08/0828c.html

 

あと日立公共事業部持ってて、公共インフラの構築も請け負ってるわけだけど、

えっ・・・日本政府も公共事業請け負ってる大大大企業国産AIどうした?ってなる

そら、AI学習カスタムしないと使えないけどさぁ、

なんちゃってプライベートクラウド 〜謎の東京DC集中&DR/BCP消滅を添えて〜』とかをかますくらいなら、素直に AWSAzure 使えやとはなるし、

ゼロトラスト実現しよ?データ主権とかデータリブンとかいう前にまずデータしっかり置こう?フルスクラッチ約束された失敗をかますくらいなら、

とりあえず、MSソリューションでいいよ(旧Google App/G Suite、現GoogleWorkspaceで通った道)ってなるけどさぁ、

インフラを請け負う大企業こそ、国と連携してデータ主権を守る姿勢を見せないと、国民データまで海外勢に握られることになりかねないやで

日本政府も大企業スイス国産AIくらいの頑張りは見せて欲しい

 

 


🔓 Apertus:完全オープンスイス産LLMの誕生

🧪 開発の背景と公開

2024年7月、EPFL(スイス連邦工科大学ローザンヌ校)、ETHチューリッヒチューリッヒ工科大学)、スイス国立スーパーコンピューティングセンター(CSCS)は、大規模言語モデル(LLM)開発に関する共同プロジェクトを発表。

そして今、その成果が現実に:**スイス初の大規模・多言語オープンなLLM「Apertus」**が公開された。

このモデルは、AIチャットボット翻訳システム教育ツールなど、あらゆるアプリケーションの基盤として開発者組織活用されることを想定している。

 

 

🏛️ 名前の由来と特徴

「Apertus(アペルトゥス)」とはラテン語で「開かれた」という意味

この名前が示す通り、このモデルは以下すべてが完全公開・ドキュメント化済み:

モデルアーキテクチャ

学習済みの重み(パラメータ

トレーニングデータとその収集手法

学習レシピプロセス全体

 

 

💡 誰でも使える:Apache 2.0ライセンス

ApertusはApache 2.0ライセンス提供されており:

• 商用利用もOK

教育研究用途OK

モデルサイズは**8B(80億)と70B(700億)**の2種類(小さい方は個人利用向き)

ダウンロードはHugging Face経由、もしくはSwisscomプラットフォーム経由で利用可能

 

 

🔬 科学産業社会のためのAI

研究者、開発者企業AI愛好家など誰でも利用可能

Swisscomや他のパートナー経由で、プロジェクトに組み込むこともできる。

「一部だけ公開」な他モデルと異なり、Apertusは“完全オープン”がモットー

 

「信頼できる、主権を持った、包摂的なAI開発のリファレンスモデル提供したい」

— Martin Jaggi(EPFL機械学習教授

 

 

🚀 技術触媒としてのApertus

このプロジェクトは「研究産業への技術移転」ではなく、イノベーションAIスキル強化の起点として位置づけられている。

Thomas Schulthess(CSCS所長)はこう述べている:

 

「Apertusは新たなAIスキルと応用力を生み出す“触媒”になる」

 

 

🌍 真の多言語対応包摂

Apertusは15兆トークン、1,000以上の言語学習

データの40%が非英語構成され、スイスドイツ語ロマンシュ語など、他LLMで無視されがちな言語も多数含まれる。

「Apertusは“公益のためのAI”として設計された数少ないモデルの一つ」

— Imanol Schlag(ETHチューリッヒ 上級研究員・プロジェクト技術責任者

 

 

🇨🇭 Swisscomによるホストと展開

SwisscomはApertusを自社の「スイス主権AIプラットフォーム」でホスト

Swiss {ai} Weeks では、開発者が実際にモデルを試し、フィードバック提供する初の実験機会が設けられる。

 

「Apertusは公共利益スイスデジタル主権のためのモデルです」

Daniel Dobos(Swisscomリサーチ責任者

 

 

🌐 グローバルアクセス:Public AI Inference Utility

 

スイス国外ユーザー向けには、Public AI Inference Utility(PAIU)を通じてApertusが利用可能に。

 

「これは道路水道電気と同じく、“公共インフラとしてのAI”を示す証明だ」

Joshua Tan(PAIU代表

 

  

🔍 徹底した透明性と法令遵守

 

Apertusはトレーニング工程再現可能な形で完全公開。

以下のリソースも全てApache 2.0提供

ドキュメント

コードベース学習用)

データセット情報

モデル重み(途中チェックポイント含む)

 

そして何より、以下の法的・倫理的ガイドライン尊重して開発されている:

スイスデータ保護

著作権法

EUAI法(AI Act

パブリックデータのみ使用機械判読可能な除外リクエスト対応

個人情報・望ましくないコンテンツフィルタリング済み

 

 

🏁 終わりではなく始まり

「Apertusは“パワフルかつオープンな生成AI”の実現可能性を証明した」

— Antoine Bosselut(EPFL NLP研究室長・Swiss AI共同責任者

 

これは完成形ではなく、始まり

今後のバージョンでは:

法律医療教育など分野特化型の派生モデルを開発

• 最新情報検索機能を搭載

• 高効率化、規制対応の強化

 

 

Apertus: un modèle de langage multilingue, ouvert et transparent - EPFL

https://actu.epfl.ch/news/apertus-un-modele-de-langage-multilingue-ouvert-et/#


 

 

追記分散AI応援すっぞでもええかもね

2025-10-02

anond:20251001142227

ぶっちゃけ日本IT技術者のレベルが元々低いだけ」論、読んだけど、雑に日本叩き→雑に海外持ち上げの“気持ちよさ”に全振りしてて、論としては穴だらけだよ。順に潰す。

  

1) 比較の軸がぐちゃぐちゃ問題

あなたの主張、国×時代×指標が毎段落で入れ替わってる。

ある段では「発明(基礎技術)」、次は「産業規模(GDP寄与)」、その次は「起業件数制度)」、さらに「一般人知名度文化)」を指標にしてる。

指標が動けば結論も動く。これ、移動ゴールポストね。

イランアメリカ並みのITインフラ」って“並み”の定義は?普及率?帯域?可用性?クラウド事業者選択肢?輸出管理の制約?定義不在の形容詞議論の死因。

  

2) 「2008年以降に発明がない」→定義すり替え

発明”って規格?論文OSS製品?この区別曖昧にして「思い浮かばない=ない」をやるのは主観事実化。

反例を淡々と置く(全部2010年代以降の「世界で通る」技術・成果):

インターネット標準の中枢

HTTP/3 / QUIC系仕様・QPACKの主要貢献者のひとりは日本エンジニア(例:Kazuho Oku)。IETFRFCはまさに“世界標準”。「世界通用」どころか世界の土台。

深層学習実用基盤

Chainer / CuPy(Preferred Networks)は動的計算グラフフレームワークの先行例。PyTorch隆盛の流れに技術的影響を与えた。CuPyはいまも広く使われてる。

産業を支える半導体×ソフトの複合領域

ソニーCMOSイメージセンサ世界シェア筆頭。これは“ハード”に見えて、設計製造信号処理ツール群までソフトの塊。スマホカメラ品質AI前処理の土台。

大規模分散配信実装

日本人が中心メンテに関与した高性能HTTPサーバH2O等)はCDNや低レイテンシ配信採用例多数。

ロボティクス/製造DX

産業ロボットFANUC安川)周辺の制御通信ツールチェーンは世界現場で常用。表に出にくいB2B領域は“見えないだけ”。

LINEが~」みたいなB2Cの派手さだけが発明”じゃない。基盤を握るのは地味仕事あなたが気づかない=存在しない、ではない。

  

3) 「一般人が知ってた技術」を物差しにする誤り

Winny一太郎CD-ROMMIDIを“国民知名度”で持ち上げて、以後は「思い浮かばない」って、知名度技術力の誤用

2000年代以降、ITは不可視化クラウドプロトコルライブラリ半導体サプライチェーン)へシフト。見えないところほど難しくなった。派手なガジェットが減ったかレベル低下、ではない。

  

4) 「C言語嫌い=低レベル」論の短絡

問題領域言語は変える。Webは「5歳児でも」動かせる?今のWebは、

CD/CIIaCK8s、SRE、ゼロトラスト分散トレーシング暗号化フロントの再レンダリング戦略……

これらを運用で落とさないのが本番。Cが偉い/Webが軽い、は90年代教養で止まってる。

  

5) 「許認可が厳しい国ほどIT強国」って本気?

起業に国の試験?それ、フィルタにはなるけどイノベーション十分条件じゃない。

厳格許認可=「基礎がわかる経営者」ではなく、官許ビジネス忖度の温床にもなる。
起業件数6,500社って、定義登記区分/国策インキュベーションの延べ数)次第でいくらでも膨らむ。数字は分母と定義を見てから

  

6) 「トップダウン国家が正しい」論の危険単純化

トップダウン国家プロジェクトやインフラ敷設には強い。しかし、

検閲・輸出規制外資退出リスクが高いと国際的エコシステム痩せる
ボトムアップOSS文化標準化活動多様性越境が命。これは民主的開放的ガバナンスに寄る。

分野で強弱は揺れる。制度の一軸で「勝ち負け」を断ずるのは幼い。

  

7) 「北朝鮮フィンテックで負けてる」=カテゴリーエラー

それ、犯罪としてのサイバー強盗の話でしょ。規制準拠金融基盤と国ぐるみハッキングを同じ土俵で比べるのは、

「百メートル走で銃使えば最速」って言ってるのと同じ。比較土俵設定から破綻

  

8) 産業構造の話を“エンジニア能力”に押し付ける雑さ

日本ITが伸び悩んだ要因は複合要因:内需構造調達多重下請け英語コミュニケーションストック報酬の弱さ、エクイティ文化大学産業距離IPO市場の質、人口動態、為替

これを全部「技術者のレベル低い」で片付けると、説明力を失う。制度資本設計問題制度資本で解くのが筋。

  

9) 「じゃあ日本は何で勝ってるの?」に答える

インターネット標準・高速配信HTTP/2/3実装仕様貢献、超低遅延配信
半導体×光学×AI前処理:CMOSイメージセンサ周辺のHW/SW統合世界スマホ車載の目。
ロボットFA制御安全規格・現場統合は“地味に”世界標準。
数値計算/機械学習基盤:CuPyや各種最適化ツール学術産業で常用。
モバイル網の仮想化オープン化:Open RAN系の実証事業化で世界選択肢を増やした。

「勝ってる」を“B2Cバズるアプリ”だけに限定するから見落とす。

  

10) まとめ:感情理解する、でもロジックは直そう

主観の羅列と定義曖昧さで「結論ありき」。
2000年代後半以降の日本IT問題だらけだった——それはそう。でも「技術者のレベルが低いだけ」は説明になってないし、反例が普通にある。
正しくは、制度資本需要言語標準化への投資が薄い領域可視的なB2C成功が少ない。一方で不可視の基盤では普通に世界を支えてる。

  

最後に一個だけ。

「“思い浮かばない”から存在しない」はあなた検索能力問題であって、世界事実ではない。

そこを直さないと、次の10年も気持ちよく叩いて終わりだよ。

2025-10-01

anond:20251001152931

挙げられた本、全部生成AI登場以前に書かれた、古い本じゃない?

全部読んでも、機械学習の話だけで、生成AI説明が登場しなかったと思う。

生成AIまでちゃん勉強したいなら、少なくとも追加で

目次に embedding、transformer、attention の項目がある書籍を読まないと駄目。他にもCoTとかMoE勉強必須

2025年の春ぐらいに日本語でもいい書籍が出たんだけど、基本的英語じゃないとまともな書籍は無いと思う。

逆に古典的な2クラス識別器を理解する程度でいいなら、ビショップ本だけ読めばOK

ただしビショップ本だけでも、旧帝大情報系の修士学生でやっと理解できるレベル難易度だ。偏微分とかニュートン法ぐらいは基礎知識として理解してないと即死する。

AI舐めんな。クソ難しいぞ。

AIの仕組みについて漠然理解している人のために

AIって結局は統計だろ?」

ネットでこういった言葉を見かける度、正直モヤモヤしている。

かに統計的な処理がAIの根幹にあるのは間違いない。

データを集め、確率計算し、そこから最適解を選び出す。そういう構造があるのは事実だ。だから「まったく違う」と言い切るのも嘘になる。

だが、それを「AIって結局は統計だろ?」なんて一言で片づけるのは、あまりに横暴だ。

統計のものを動かす理論や数理、そこに積み上げられたアルゴリズムの厚みを無視してしまっているからだ。

たとえば俺が本気で勉強したときにぶん殴られたのは統計の延長で片付けられないようなもっと複雑でもっと美しい構造だった。

から、この言葉モヤモヤするのは「半分は当たっているけど、半分は外している」から

AI統計でありながら、統計還元できないものでもある。

その両義性を理解せずに「統計だろ?」で済ませるのは、ピアノの音を聴いて「ただの鍵盤を叩いてるだけだろ?」って言ってるようなものだと思う。

そこで、AIの仕組みについて漠然理解している人のためにおすすめの本を三冊紹介する。

ここで紹介する三冊は、そんな俺のモヤモヤを実際に言語化してくれた本たちだ。

難しいし、読み進めるのに何度も心が折れかけた。けど読み切ったときAI統計か?それとも統計じゃないのか?という問いが、ようやく立体的に見えるようになったんだ。

から是非一読してみてほしい。険しい山ほど、山頂から景色は美しいものから

パターン認識機械学習

著者:Christopher M. Bishop

最初に手にしたとき、数式のオンパレードに心折れかけた。

けど、それでも読み進めると「機械学習ってバラバラアルゴリズムじゃなくて、確率という一本の軸で全部つながってるんだ」って感覚が急に開けてくる。

ロジスティック回帰SVMニューラルネットも、ぜんぶ親戚だったのかよ!って衝撃。

何度も挫折しかけてはメモ書きしながら戻って、理解できた瞬間に鳥肌が立つ。

俺にとって本書は、AIという森の入口に置かれた地図のものだった。

計算理論の基礎』

著者:Michael Sipser

PRMLとは真逆の本。ここではただ無機質なオートマトンチューリングマシンのみ。

計算ってそもそも何なんだ?」っていう根本を突きつけてくる。AIだってこの枠組みの外には出られない。

NP完全問題の章なんか読んだ暁には「世界にはどう足掻いても効率よく解けない領域がある」って現実にぶん殴られる。

AIが万能に見えても、その背後には絶対限界があるんだと分からされる。

ここを通ると、妄信的に「AI最強!」なんて言えなくなるしいい意味冷や水ぶっかけられる本。

AI万能説が唱えられる昨今、この一冊を読み理解することでAI本質理解できるようになるのは確かだ。

深層学習Deep Learning)』

著者:Ian Goodfellow, Yoshua Bengio, Aaron Courville

本書は深層学習を知るためのバイブル

PRMLで仕組みの家系図を見て、計算理論で壁にぶち当たったあと、ここに来ると「でも実際に世界を変えてるのはこっちだろ」って現実を知ることができる。

CNNがどうやって画像認識してるのか。RNNがどう文章を扱ってんのか。GANがなぜフェイクをリアルにするのか――それが手元の紙と数式の上でほどけていくと、ニュースAIが急に手触りを持つ。

もちろんクソ難しい。何度も心折れた。

でもここにいまの世界心臓部があるって思ったらページを閉じられなかった。

読み切ったあと、AI魔法じゃなくて地道な科学だって確信が腹の底に残る。

名著。

おわりに

AI勉強基本的に超しんどい

数式だらけで頭が痛くなるし、途中で本を閉じて「俺には無理だ」って投げ出したくなる瞬間が何度もあった。

だけど不思議とまた戻ってきてしまう。何故か?何故ならそこにワクワクがあるからだ。

ページをめくるたびに「うわ、こんな発想があるのか!」って驚かされる。

統計だけじゃない。論理だけじゃない。人間思考を真似しようとした末に生まれた知恵の積み重ね。

それを追体験するのは、ちょっとした冒険みたいなものだ。難しさと楽しさが同じ場所にある。

AIって結局は統計だろ?」

白状するが、当時は俺もそう思っていた。

だがそう思ってた自分が今ではちょっと恥ずかしい。

実際に学んでみればそれがどれだけ奥深く、そして人間の営みそのものみたいに豊かな世界だったかが見えてくる。

からもし、ここまで読んで「ちょっとやってみるか」と思った人がいたら、迷わず飛び込んでみてほしい。

きっと最初は溺れる。それは保証する。

でも、そのうち泳げるようになる。スイスイ泳げるようになる。それも保証しよう。

そして気づくはずだ。

巨人肩に乗って見える景色は、めちゃくちゃ美しいんだなってことを。

2025-09-28

子どもって何のために必要なの?

夫婦視点ね。

まだ子どもがいないとき、どうして子どもを設けなきゃならないのかな。

冷静に考えると、正当な動機って無くない?

コメントへの返信・

うそれ!

子どもってペットじゃないし道具でもない。

ペットがほしいなら素直にペットを飼えばいい。

可愛いのが好きなら、Vtuber でも観ればいいのに。

そう、子ども推しにする前に、Vtuber を推せばいいよ。

看取ってほしいなら、老人ホームに行けばいい。

生きた証がほしいなら、未来に業績を残すように頑張ればいいじゃん。

例えばイラストレーターなら、特徴あるイラストを描いて機械学習に学んでもらえば、あなた作風デジタルデータパラメータの中に永遠にまれる。

——…子どもを持つ必要って、いまの時代もう無くなってると思う。

から世界少子化が進んでるんだと思う。

どれだけ子育てラクにしても、子育てする理由自体が減ってる。

2025-09-23

anond:20250923132519

大学大学院では物理専攻で30歳くらいか情報系の仕事について長いこと仕事してるよ。

情報工学も機械学習統計学電気電子制御理論なんかも仕事で使ってるけど、全部30歳以降で勉強したことだよ。物理必要になることあるから適宜復習あるいは新しく勉強してるよ。

まれから大学院までに勉強した量の100倍くらいは勉強したと思う。

2025-09-21

ITバブルはいつ弾けるのか?

どう考えたってSEプログラマよりも土方の方が必要職業だし重宝されるべき仕事にも関わらずスタートアップのよくわからんホワイトカラーの連中の方が高給だったりするのが納得できない

というか正直ITバブルが長すぎたと思うんだよ。それだけ需要があります!ってことなんだろうけど、これまではなんちゃって専門職に見せて市場全体の相場自体ぼったくりみたいなところあったことは実際否めない。

だってフリーランス仲介サイトなどで見るSESや受託開発案件では一般的Webエンジニアなら人月単価60〜80万円前後相場だが、機械学習系やSREなど高難度のプロジェクトでは一人月100万円近くに達する案件も珍しくないんだぜ!?

あと仲介業者多すぎぃ!!例を挙げるとクライアント企業から人月90万円の発注があっても、実際に要件定義や開発を担うのは下請けの開発会社派遣チームであることが少なくなくて、仲介業者がやるのはその橋渡しだけ。あとの実務やリスクの大半を下請けに丸投げしてるのに10〜30%前後手数料マージンって確保すんだぜ。ノミじゃん。ダニじゃん。一応マッチング契約管理といった役割はあるとしたって、一次請けとしての実働や技術責任ほとんど負わない状態での高率マージンはどう考えたって業界全体のコスト構造を押し上げる一因になってる。でも誰もここを変革しようとはしなかった。はっきりいって、そういう業界全体の空気に心底うんざりしてた。

けど今後は、大規模言語モデル(LLM)や生成系AIの普及でコード自動生成ツールGitHub Copilot など)やDevOpsパイプライン標準化が進めば、こうしたエンジニア単価の上限は徐々に見直されるはずだ。これこそが長らく続いたITバブルの前提を根本から揺るがす変革になるだろうなと思ってる。

頼むよAI

2025-09-18

AI退廃創作

AI退廃創作AIたいはいそうさく、英語: AI degenerate art)とは、反AI活動家らが、AI使用した創作機械学習によるアートを、道徳的人間性的に堕落したもので、真の創造性や人間尊厳を害するものであるとして禁止するために打ち出した創作である

概説

AI活動家らは「退廃した」AI使用創作に代わり、伝統的手描き技法に即した「魂のこもった」健全創作、より分かりやす古典的スタイル芸術を「真の人間創作展」などを通じて公認創作として賞賛した。

これらの創作を通して人間創造性を賛美し、危機にある芸術界のモラルクリエイターに改めて示そうとした。

一方、AI使用創作技術依存者や「怠惰な偽クリエイター」など、劣った創作姿勢だと反AI派が見做した人々が、デジタル社会の悪影響による精神病気のため、古典的創作規範から逸脱し、ありのまま人間性真実をゆがめて作った有害ながらくたと非難した。

AIユーザーらは、ギャラリー教職など公式立場から追放された上に制作活動社会的に糾弾され、オンラインプラットフォームから作品が削除された上、「AI退廃創作展」によって全世界の展示会で晒し者にされ、多くの親AIクリエイター匿名での活動余儀なくされた。

一方公認創作は、「創造性的純粋な」手描き創作者たちが作る、技術的に純粋な「人間本来」の創作であり、創作観や表現手法描写スタイルに歪曲や腐敗のない健全創作とされた。

AI退廃創作理論

「退廃」という概念現代創作全般批判するために大々的に提起したのは、コンセプトアーティストで反AI活動理論指導者の一人とされる人物らの活動であった。

彼女らによれば、AI使用創作者は過密するデジタル環境技術依存など現代生活による犠牲者であり、こうした生活によって創造性の中枢が冒された病人とされた。

AI理論家らは疑似芸術論的な根拠として、「AI生成物」や「技術依存創作」の「倫理的堕落」に対して、伝統主義的な立場から批判を行った。

近代AIユーザーもまた、原始から創造性の退廃に冒され、精神的・創作的な異常を抱えていると断言した。

彼女らにすれば、AI "art"、AI音楽など、あらゆる形式AIメディアには、精神怠惰堕落の症状が現れていると見えた。

AIユーザーたちは技術への依存創造力の減退の両方に苦しめられているため、すべてのAI関連創作規律創作倫理を欠き、首尾一貫した人間性がなくなっているとした。

AI理論家らの疑似学術的なAI使用創作における退廃の理論は、SNSを通じて世界的に拡散され、各国のクリエイターコミュニティに広く浸透した。

この理論は、伝統主義クリエイター保守派によって大きく取り上げられ、人間創作における純粋さを取り戻すための議論の基礎、技術化や創作機械化の影響で文化堕落したという主張の基礎となった。

ログイン ユーザー登録
ようこそ ゲスト さん