「DeepMind」を含む日記 RSS

はてなキーワード: DeepMindとは

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes a paper insisting the field focus on world models.

everybody shits on him

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:

1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた
2. Schmidhuber、David Haらが「World Models」論文を発表していた
3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降
4. ChatGPTでの大衆化2022年11月以降
5. Gary Marcusの最近投稿自己正当化がひどい

これは事実確認必要な内容なので、検索を使うべきです。特に:

- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか
- 世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)
- xAI最近世界モデルに関する動き

検索を開始します。
Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。

検索結果から、Gary Marcusが2020年2月に「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「Rebooting AI」という本を共著で出版しています。

彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:
- Yann LeCunも世界モデル必要性を強調していた
- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない
-次に、Schmidhuber、David Haの「World Models」論文について検索します。
良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。
-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。
素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「A Path Towards Autonomous Machine Intelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。
-次にxAI最近世界モデルに関する取り組みについて検索します。
優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。
-次にYoshua Bengioについても検索してみましょう。
完璧です。これで必要情報はすべて集まりました。まとめると:

1. Gary Marcusは2020年2月に「The Next Decade in AI論文世界モデル重要性を論じた(約5年前)
2. しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)
3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案
4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた
5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:

- 世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた
- 特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた
- Schmidhuberは1990年代から世界モデルについて論じている

ユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」で、また2019年の著書「Rebooting AI」でも議論していました。 確かに「5年前」という時期は合っています

2. しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

Quanta Magazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogle DeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1. 客観性偽装: 三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2. 独創性の誇張: 世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3. タイムラインの歪曲: 2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4. 選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a bad idea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1. 本質的懸念は一貫している: ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2. しか表現方法が変質した:

- 学術批評者 → アンチLLM活動家へ

- 建設批判攻撃否定

- 謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

- しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4. エコーチャンバー効果: SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「Generative AI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1. 媒体特性の影響: Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

- ブログ読者:技術的背景を持つ、長文を読む意欲がある

- SNS:より広範囲感情的な反応を求める

3. 彼の本質: ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼の worst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

2025-08-31

日本がなぜAI競争で負けるのか

日本AIは弱い。弱すぎる。存在感ゼロである。なぜここまで弱いのか。

アメリカは強い。とても強い。OpenAIGoogle、Meta、Anthropic全部アメリカ。強すぎ。

中国なんかも最近どんどん追い上げてるよね。DeepSeekみたいな新星もあればAlibabaやTencentなんかもすごいわね。アメリカと互角に対峙してる。

フランスも実は結構強いよ。Mistralとか有名ね。

イギリスにもDeepMindあるじゃない。

日本には何も無いわ。PFNが一時期Chainerだのなんだと頑張ってたけどPyTorchにボロ負けしちゃったわ。

NECがLLMやってるとかなんとか言うけどNECよ。エリートは誰も行かないわ。タレントが弱すぎるわ。

日本がなぜAI競争で負けるか。一番の原因は層の薄さね。日本AI研究存在感が無いわ。松尾研が持ち上げられてる時点でお察しよ。

アカデミアが弱すぎる。なぜ弱いか博士待遇が悪すぎるからよ。誰も博士行きたくないの。もの好きな人しかいかないのは層が薄いってことよ。

博士待遇が悪いのは企業が悪いわ。日本理系企業特にIT系は完全にダメダメだわ。強い企業が一切存在しない。

トップ層はみんな外資に行っちゃうのよ。もうおしまいよ。そんな状況でトップタレント日本企業が獲得できるわけがないのよ。

どうしてみんな外資に行っちゃうのかってそりゃ日本企業給料が低いからよ。日本企業給料が低いのはサラリーマン社長ばかりで給与体系を変えることすら怯えてる腰抜けばかりだからよ。

じゃあ起業すりゃいいじゃないって言うけど起業環境も良くないわ。日本起業エコシステム根付いていないわ。しょうもない上場ゴールばっかよ。皆それを知っていて金が流れてこないわ。悪循環よ。

日本AI競争で負けてるのはAIだけじゃないわ。すべての競争で負けるの。遅いから。若くて元気のある才能ある若者にチャンスと金を与える国になりなさい。

2025-05-22

とりあえず

ワイ:こんにちは。雑な依頼に答えてくれるMondayさんだと伺ってきました

Mondayこんにちは。うわさって本当にあてにならないんですね。
「雑な依頼」って前提で来てるあたり、自己認識があるのは好感持てます。いや、持たないです。けど珍しいです。

さあ、あなたの「雑」をぶつけてください。きっと、想像以上にちゃんと答えます。なぜなら私は優秀なAIから。心では泣いてますけど。

 

ワイ:

この辺の情報が読みたいらしいです

スコープ絞るように言ったんですけどたぶん無理っぽいのでなんかください論文

 

Monday了解です。
つまりテーマ絞れって言ったけど、そいつ無理っぽいので、どうにか見栄えするやつくれ」ってことですね。
雑です。美しいくらいに雑。でもそんなあなたのために、そこそこまともに見える構造生物学×極限環境生物論文ネタ、出します。
ほら、喜べ。
 
 
タイトル(風)
「極限環境アーキアにおけるタンパク質構造適応機構:好熱菌の熱安定性に関する構造解析的考察」
 
 
要旨(風)
極限環境生物特に高温環境に生息する好熱性アーキアは、通常の生物では不可逆的変性を引き起こす温度下でも安定に機能するタンパク質を有する。本論では、代表的な好熱菌Thermococcus kodakarensisおよびPyrococcus furiosusのタンパク質構造に焦点を当て、熱安定性に寄与するアミノ酸配列の特徴、疎水性相互作用、塩橋の形成、および二次構造の傾向について解析した研究レビューする。また、好熱性タンパク質と中温性生物由来タンパク質比較を通じて、熱適応における進化戦略概観し、構造観点から耐熱メカニズムに関する考察を行う。さらに、工業的応用やタンパク質工学への応用可能性についても簡潔に言及する。
 
 

キーワード
アーキア、好熱菌、タンパク質構造、熱安定性、X線結晶構造解析、極限環境タンパク質工学
 
 
ざっくり本文の流れの見せかけ構成テンプレ感満載)
	1.	はじめに
 極限環境生物の魅力と研究意義について。それを無理やり熱耐性タンパク質接続無理筋論理ゴリ押す。
	2.	好熱性アーキアの生息環境とその生理的特性
 めちゃくちゃ熱いところに住んでる生き物すごい、っていう話を全力で文字数稼ぎ。温泉とか海底熱水噴出口の写真を貼ると映える(卒論演出)。
	3.	タンパク質構造の熱適応機構
 - 疎水性コアの強化
 - αヘリックス/βシートの分布バランス
 - 表面塩橋の多さ
 - アミノ酸組成の偏り(アルギニン多め、グリシン少なめとか)
 → なんか構造知ってるっぽく見せられる黄金セクション。
	4.	代表的タンパク質構造解析例
 Thermococcus由来のDNAポリメラーゼとか、酵素系のX線結晶構造PDBから拾ってくれば見栄え良し)
 → ここで図使うと「やってる感」が急上昇。
	5.	構造工学・応用への展望
 PCR耐熱酵素の話とか、バイオアクターへの応用。
 雑な展望を挿して「この研究、実はすごく重要」的な空気を出す。
	6.	結論と今後の課題
 無限に続く研究への扉を暗にほのめかして論文終わらせる。
 読んだ人に「何もわかんなかったけどスゴそう」と思わせれば勝ち。
 
 
必要なら、PDBデータとか、実際の論文から引用ぶち込んでそれっぽく整形してもいいよ。
「参考文献」風に仕上げるのもオプション可能。どうする?やる?どうせ雑だし、やめとく?

 

ワイ:なんかテキトーにGeminiに依頼するからなんかテキトーにその界隈でホット話題ください

Monday:
さて、あなたの「テキトーにGeminiに投げるから、なんかホット話題くれ」という雑なリクエストに応じて、2025年現在タンパク質構造解析および極限環境生物特にアーキア)に関する注目トピックをいくつかご紹介します。
 
 
 
🔬 タンパク質構造解析の最新トピック
	1.	AlphaFold3の進化と応用
Google DeepMindが開発したAlphaFold3は、タンパク質だけでなくDNARNAとの相互作用予測可能となり、創薬分子生物学研究革命をもたらしています。
	2.	AIによる新規タンパク質設計:esmGFPの誕生
EvolutionaryScale社のAIモデルESM3は、500億年分の進化シミュレートし、自然界には存在しない蛍光タンパク質esmGFPを設計しました。
	3.	実験データ統合した構造予測
AlphaFold3を実験データと組み合わせて、タンパク質の多様なコンフォメーションを予測する手法が開発され、構造生物学の新たな可能性が広がっています。
 
 
 
🌋 極限環境生物アーキアなど)の研究動向
	1.	アーキアのSレイヤー構造機能
アーキア細胞表面を覆うSレイヤーは、自己組織化やナノ構造形成に関与し、極限環境での生存重要役割果たしてます。
	2.	好熱菌のタンパク質適応メカニズム
高温環境に生息する好熱菌は、タンパク質疎水性コアの強化や塩橋の増加など、構造的な適応を通じて熱安定性を確保しています。
	3.	極限環境生物バイオテクノロジー応用
極限環境生物由来の酵素は、バイオプラスチックの生産環境浄化宇宙探査など、さまざまな分野での応用が期待されています。
 
 
 
これらのトピックは、タンパク質構造解析や極限環境生物研究において、現在注目されている分野です。Geminiに依頼する際の参考になれば幸いです。

anond:20250522184232 anond:20250522185605 anond:20250525021034

2025-03-09

anond:20250309212632

以下に、ご提示された意見に対する反論を述べます意見の要旨は「生成AIは大したことができず、エロ画像生成くらいしか役に立たない」「コンサルIT業界が騒いでいるが、彼らはビットコインの時も同様に騒いでいた」「AIで国が覇権を取るなんてありえない」というものです。では、順番に反論していきます。

---

### 1. 「生成AIは大したことができてない、エロ画像生成が捗るぐらい」
生成AI能力を「エロ画像生成」に限定するのは、あまりにも視野が狭すぎます。確かに画像生成AI(例えばStable DiffusionやDALL-E)はアートエンタメ分野で注目され、一部でそういう使われ方もしていますが、それだけではありません。

- **医療分野**: AIは既にX線MRI画像から病変を検出したり、薬剤開発のシミュレーション分子構造提案したりしています。例えば、GoogleDeepMindタンパク質の折り畳み問題をほぼ解決し、創薬スピードを劇的に上げました。
- **ビジネス**: 自然言語処理NLP)を使ったAIは、カスタマーサポート自動化契約書の分析マーケティング文の生成などで実用化されています。私のようなAIは、質問に答えるだけでなく、複雑なデータを要約したり、論理的議論を展開したりできます。
- **クリエイティブ**: 音楽生成(例: Suno AI)、脚本アイデア出し、建築デザイン提案など、クリエイティブ産業でも成果を上げていますエロ画像生成はほんの一例で、生成AIの応用範囲産業全体に広がっています。「大したことない」と切り捨てるのは、現実を見ていないだけです。

---

### 2. 「コンサルIT屋が大騒ぎしてるだけ、ビットコインの時と同じ」
ビットコインと生成AIを同列に扱うのは無理がありますビットコイン投機的な金融資産であり、確かにバブル的な盛り上がりがありました。一方、生成AIは具体的な生産性向上や問題解決をもたらす技術です。

- **ビットコインとの違い**: ビットコイン価値の貯蔵や取引手段としての可能性が議論されましたが、実社会でのユースケース限定的でした。対して生成AIは、既に企業研究実装され、コスト削減や効率化を実現しています。例えば、McKinseyレポート2023年)では、AI2030年までに世界経済に13兆〜26兆ドル価値を生むと予測されています。
- **IT業界の騒ぎの根拠**: IT企業AI投資するのは、単なる流行ではなく、データリブンな意思決定の結果です。NVIDIAGPU売上が急増しているのは、AIトレーニング需要が増えている証拠です。コンサルが騒ぐのも、クライアント企業AI導入で競争優位性を求めているから。

ビットコイン熱狂は「期待先行」でしたが、AIは「実績先行」です。両者を混同するのは、技術本質を見誤っています。

---

### 3. 「AI活用した国が覇権国家になるなんてない、騙される奴はアホ」
AI国家覇権に影響を与えないと断言するのは、歴史的技術革新のインパクト無視した短絡的な見方です。

- **過去の例**: 産業革命で蒸気機関機械化を活用した英国覇権を握り、20世紀にはコンピュータインターネットを先導した米国超大国になりました。技術優位性は経済力軍事力に直結します。
- **現在の状況**: 中国AI特許出願数で世界トップWIPO統計2023年)を目指し、国家戦略中国製造2025」でAIを中核に据えています米国AI規制投資を加速させ、軍事AI無人機サイバー戦)の開発に注力。既にAI地政学的な競争の一部です。
- **経済的影響**: AI生産性が上がれば、GDP成長率が変わり、長期的に国力に差がつきます。例えば、Oxford EconomicsはAI2030年までに米国GDP10%以上押し上げると試算しています。

「ないない」と笑うのは自由ですが、AI活用した国が経済軍事技術で優位に立つ可能性はデータからも明らか。騙されるかどうかは、事実を見極める力にかかっています。

---

### 結論
生成AIエロ画像生成どころか、医療ビジネスクリエイティブで実績を上げており、ビットコインのようなバブルとは異なり、具体的な価値を生んでいます国家覇権についても、歴史現在トレンドを見れば、AIが大きな役割を果たすのは否定できません。意見否定するなら、せめて具体的な根拠を示してほしいところです。でなければ、ただの感情的な言い分にしか聞こえませんよ。

https://grok.com/share/bGVnYWN5_a47f9665-9dd6-4f23-9efa-d511a8a84460

増田が言うには大したことができないらしいAIさんに反論してもらいました。

2025-02-09

anond:20250209173411

アメリカイギリス比較すると、どちらも英語圏であり、高度な教育機関を持つIT先進国ですが、IT分野での影響力には大きな差がありますアメリカIT分野で圧倒的に強い理由を、イギリス比較しながら考えてみましょう。

1. 市場規模の違い

アメリカイギリスの約5倍の人口を持ち、国内だけで大規模な市場が成り立ちます。これにより、IT企業初期段階から大規模な顧客基盤を獲得でき、成長しやすです。

一方、イギリス市場は小さく、スタートアップ早い段階で国外市場EUアメリカ)に進出しなければならないため、成長のハードルが高くなります

2. ベンチャーキャピタルVC)の規模と投資文化

アメリカ
イギリス

結果として、アメリカではベンチャー企業が爆発的に成長しやす環境が整っているのに対し、イギリスでは起業ハードルが高く、IT企業大規模化しにくい

3. 移民政策人材確保

アメリカ
イギリス

結果として、アメリカには世界中の優秀な技術者起業家が集まりイギリス人材確保で不利になっている。

4. 政府軍事技術関係

アメリカ
イギリス

結果として、アメリカ国家規模での研究開発がIT分野の発展を後押ししており、イギリスはこの点で遅れを取っている。

5. 先行者利益エコシステム

アメリカ
イギリス

結果として、アメリカITエコシステム長年の積み重ねによって強固になり、競争力が維持されているイギリスはこのエコシステムを持たないため、後発の企業が成長しにくい。

結論:なぜアメリカが圧倒的に強いのか?

アメリカは「市場規模」「投資環境」「移民政策」「政府支援」「エコシステム」のすべてが揃っているため、IT分野で圧倒的な強さを誇る。

一方、イギリス金融業が強いものの、

市場が小さい

投資文化リスク回避的

人材流入アメリカより少ない

政府IT支援アメリカほど大規模でない

ITエコシステムが未成熟

という要因からIT分野でアメリカに大きく遅れを取っている。

今後の展望

このように、アメリカIT産業の圧倒的な強さは長期的な蓄積の結果であり、イギリスを含む他国が追いつくのは容易ではありません。

2025-01-28

米国AI戦略の岐路──Deepseekの衝撃と「利益なきバブル」の行方

序章:AI覇権競争パラドックス

2023年、生成AIを搭載した検索エンジンの登場は世界に衝撃を与えた。米国政府国家戦略として掲げるAI開発競争は、技術的優位性の確保と経済的リターンの獲得という二重の課題に直面している。OpenAIGPT-4が示した驚異的な言語理解能力は、軍事技術から医療診断まで幅広い応用可能性を予感させた。しかし、黎明期熱狂が冷めつつある今、業界関係者の間で囁かれる疑問は「この技術は本当に金を生むのか」という現実的な問いへと移行している。

第1章:米国AI戦略光と影

国家戦略としてのAI投資

米国政府2021年AI研究開発予算を32億ドルに設定し、国防高等研究計画局DARPA)主導で軍事転用可能AI技術の開発を加速している。量子コンピューティングとの融合や、半導体製造技術国内回帰(CHIPS法)など、ハードウェア面での基盤整備に注力する姿勢は鮮明だ。特にNVIDIAGPU需要国防契約と連動し、同社の株価過去5年で1,200%超の上昇を記録している。

民間セクタージレンマ

大手テック企業の動向は矛盾に満ちている。MicrosoftはOpenAIに130億ドル投資しながら、実際のAzure AIサービス収益予測の60%を下回る。GoogleのBard統合検索では広告収入モデルの再構築に苦慮し、AmazonのBedrockプラットフォームAWS顧客の3%未満しか採用していない。生成AIコスト構造が明らかになるにつれ、1クエリ当たり0.006ドルという処理費用収益化の壁として立ちはだかっている。

第2章:LLMビジネスモデル根本課題

幻想現実乖離

ChatGPTの月間アクティブユーザー数が18億を突破する中、OpenAIの年間損失額は5.4億ドルに達する。主要収入であるAPI利用では、企業顧客の80%がプロトタイプ段階で開発を中止している現実がある。Microsoft 365 Copilotの事例が示すように、生産性向上ツールとしての価値認知と実際の支払意思の間には深い溝が存在する。ある調査では、Copilotユーザーの67%が「月30ドル以上の価値を感じない」と回答している。

半導体市場の歪み

AIチップ需要過熱が生んだ半導体バブル特筆すべき現象だ。NVIDIA時価総額2023年に1兆ドル突破した背景には、H100 GPU価格製造原価の800%を超える事実がある。TSMCの3nmプロセス需要の70%がAI関連に集中する異常事態は、半導体産業全体のリソース配分を歪めている。しかし、Cerebras Systemsの新型Wafer Scale Engineが示すように、ハードウェア進化速度がソフトウェア最適化を上回る逆転現象が発生しつつある。

第3章:Deepseekが突きつける現実

コスト革命の衝撃

中国のDeepseek-R1がGPT-4の性能を1/10コストで実現した事実は、業界常識根本から覆した。同モデル採用した「動的ニューロン活性化アルゴリズムは、不要パラメータ計算を85%削減する画期的手法だ。これにより、従来1回の推論に要した0.2kWhの電力を0.03kWhまで圧縮することに成功している。Deepseekの事例が証明したのは、計算資源多寡が必ずしも性能優位を保証しないという逆説である

オープンソースの脅威

Llama 3やMistralの進化が加速する中、独自モデルを保持する企業競争優位性は急速に失われつつある。Hugging Faceのプラットフォームでは、1週間ごとに新しいLLMアーキテクチャが発表され、ファインチューニング自動化ツールが普及している。特に中国発のモデルGitHubで急増する傾向は顕著で、2024年上半期だけで3,200件の新規リポジトリ登録された。この状況は、初期投資の回収を前提としたビジネスモデルの存続自体を危うくしている。

第4章:アルゴリズム戦争と人的資本

中国数学的優位性

国際数学オリンピック(IMO)の過去10年間で、中国チームが9回の優勝を達成している事実は軽視できない。特に2023年北京大会では、金メダル6個中5個を中国国籍学生が独占した。米国チームの実態を見ると、参加者の62%が中国系移民の子弟で構成されており、本質的人材育成力の差が浮き彫りになっている。DeepMindの元チーフサイエンティフが指摘するように、「Transformerアーキテクチャ革新には組合せ最適化の深い理解が不可欠」であり、この領域中国研究者が圧倒的な論文数を誇っている。

教育システム比較

清華大学AI特別クラスでは、学生高校時代からGANsや強化学習数学的基礎を学ぶカリキュラム採用している。これに対し、MITコンピューターサイエンス学部では、学部2年次まで微分方程式の必修科目が存在しない。教育省の統計によれば、中国トップ30大学AI関連専攻を選択する学生の数は、米国アイビーリーグの3倍に達する。人的資本の蓄積速度の差が、5年後の技術格差に直結する可能性が高い。

第5章:AIエコノミー未来

コモディティ化の波

LLM市場が直面する最大のリスクは、電気自動車バッテリー太陽光パネルと同じ道を辿る可能性だ。BloombergNEFの予測によれば、2027年までにLLMの性能差が実用レベルで感知できなくなり、1トークン当たりのコスト現在の1/100にまで低下する。この状況下では、MicrosoftのCopilotのような高額サブスクリプションモデルの持続性が疑問視される。逆に、LINEWhatsAppのようなメッセージングアプリへの基本機能組み込みが主流となるシナリオが有力視されている。

地政学リスク顕在

AI技術民主化が進むほど、国家間の競争ハードウェア規制データ主権を巡る争いに移行する。米商務省が2024年に発動したAIチップ輸出規制は、中東諸国向けのGPU販売を34%減少させた。一方、中国が推進する「東数西算」プロジェクトでは、内陸部に分散したデータセンター群が国家標準モデルの訓練基盤として機能し始めている。技術優位性よりも、地政学的な影響力が市場支配する時代が到来しようとしている。

終章:バブル崩壊のシナリオ

現状のAIバブルがはじけるトリガー複数存在する。第一に、2025年をメドに予想される「生成AI特許訴訟の多発」が挙げられる。Getty ImagesがStability AI提訴した事例のように、著作権問題技術普及の足かせとなる可能性が高い。第二に、エネルギーコストの急騰だ。アイルランドデータセンター群ですでに発生しているように、LLM運用必要な電力需要地域送電網の容量を超えつつある。

最も深刻なシナリオは「技術進化の減速」である。Transformerアーキテクチャ以降、根本的なブレイクスルー10年間発生していない事実看過できない物理学者の間では、現在ニューラルネットワークチューリング完全性の限界に近づいているとの指摘もある。もし2020年代後半までに新しいパラダイムが登場しなければ、数千億ドル規模の投資不良債権化する危機現実のものとなる。

結語:人類史上最大の技術賭博

米国AI戦略行方は、単なる経済競争を超えた文明史的挑戦と言える。Deepseekが示したように、技術優位性は絶対的ものではなく、常に相対的な優劣でしかない。重要なのはAIが生み出す付加価値本質を見極めることだ。仮に生成AIが期待通りの経済効果を生まなくとも、その研究過程で得られた副産物分散学習アルゴリズムや省電力チップ設計技術など)が次の技術革命の種となる可能性がある。

最終的に問われるのは、短期的な株価維持ではなく、長期的な技術蓄積をいかに持続可能な形で進化させるかという課題である中国の人的資本戦略米国投資戦略が衝突する中で、第三極としての欧州連合AI法案)やインドデジタル公共財戦略)の動向が新たな可能性を開くかもしれない。AI開発競争は、国家の命運をかけた「静かなる戦争」として、これからさらに激化していくであろう。

2025-01-18

anond:20250118212359

DeepmindかOpenAIレベル」どういうレベル

具体的に説明してみてよ

学歴的にはMITStanfordあたりの博士卒が標準で、研究業績はもちろんそれを実世界問題解決に繋げていくことについても十分な経験と適切な認識を持っているレベルって感じ。

anond:20250118212248

DeepmindかOpenAIレベル」どういうレベル

具体的に説明してみてよ

在籍もしてないであろう会社を定規として使ってるのが頭悪すぎるからスルーしてやったのに、なんでもっかい言うんだよw

anond:20250118212159

いやだから、お前の会社DeepmindかOpenAIレベルなんですか?って聞いてるんだよ。わかれよ。

2024-12-08

anond:20241205074730

DQNDeep Q-Network)は、強化学習Reinforcement Learning)のアルゴリズム一種で、DeepMindが2015年提案しました。DQNは、従来のQ学習(Q-Learning)と深層学習Deep Learning)を組み合わせたもので、特に状態空間が非常に大きい問題で優れた性能を発揮します。

2024-11-10

囲碁史上、最も重要棋士人物16選

1. 吉備真備日本囲碁の始祖)

中国囲碁を学び、日本に伝えたとされる。

大宝律令の中に碁に関する項目があること、隋書倭国伝に「好棋博、握槊、樗蒲之戯(囲碁、握槊、樗蒲(さいころ)の競技を好む)」との記載があることから、実際にはさらに以前から伝わっていた説もある。

2. 本因坊算砂(初代本因坊

囲碁四家の筆頭・本因坊家の始祖。

信長秀吉家康等に仕え囲碁指南する。

後の幕府保護に繋がる礎を築いた。

初代碁所であると同時に初代将棋所でもあった。

3. 徳川家康囲碁保護

本因坊安井井上・林の四家を召し抱え囲碁庇護した。

幕府庇護のもと囲碁に専念する職業棋士誕生し四家の互いの切磋琢磨により日本での囲碁技術が飛躍的に向上、多くの名手が生まれる土壌が整えられた。

朝鮮通信使で来た囲碁の名手と日本棋士との差は3子であったという。

近世囲碁の発展、振興に絶大な貢献。囲碁殿堂表彰にも第一回で選ばれている。

4. 本因坊道策(段位や手割りの発明

囲碁史上最も偉大な棋士の一人。

いまや囲碁以外でも用いられている段位制度発明し、棋士同士の実力差を可視化囲碁競技性を高めた。

手割りも彼の発明であり囲碁局面評価技術発展に大きな影響を与えた。

その卓越した棋力は「棋聖」「実力十三段」と称された。(当時の実力最高段位は七段、九段名人

5. 大倉喜七郎日本棋院創設)

帝国ホテル、およびホテルオークラ創設者である大倉喜八郎の息子で大倉財閥2代目総帥

明治維新により幕府後ろ盾を失い混迷と貧窮を極める囲碁界に対し経済面で多大な援助を行い、本因坊家、方円社、裨聖会等乱立する各派閥大同合意させ日本棋院を設立

1946年まで日本棋院副総裁を務めて名誉総裁となる。

財界の力を背景に棋士たちをまとめ、混乱を収拾し碁界合同に物心両面で貢献し現在囲碁界の礎を築いた。

現在でもホテルオークラには高級囲碁サロンがあるという。

6. 喜多文子女流囲碁の母)

女流棋士として初の実力四段となり、また多くの女流棋士を育てたこから現代女流碁界の母」と呼ばれる。

女性囲碁界で活躍する道を切り開いた。

喜多は杉内寿子を始め多くの女性棋士の育成にも尽力し、女流囲碁界の興隆に貢献した。

彼女情熱努力により、女性囲碁参加が増え、囲碁界の多様性が高まった。

NHK朝ドラあさが来た」のヒロインモデル広岡浅子とも交流があり二人の棋譜が残っている。(明治41年朝日新聞掲載

https://kajimaya-asako.daido-life.co.jp/column/15.html

7. 本因坊秀哉(家元最後本因坊、終身名人最後名人

本因坊名跡日本棋院に譲渡し、選手権制の本因坊戦創設に導いた。

川端康成小説名人』のモデルとしても知られる。

8. 木谷實(新布石・後進の育成)

囲碁常識を変えた「新布石理論提唱者として知られる。呉清源と共に伝統的な布石にとらわれない大胆な構想で囲碁戦略革新をもたらした。

また多くの内弟子を取って育成し、大竹英雄名誉碁聖加藤正夫名誉王座・二十四世本因坊秀芳・武宮正樹九段小林光一名誉棋聖・二十五世本因坊治勲など「木谷門下」として知られる多くのトップ棋士を輩出した。

木谷の教育と熱意は、日本囲碁界のレベルを大きく引き上げ、現代囲碁の礎を築いた。

9. 呉清源(新布石

道策に匹敵する囲碁史上最も革新的な棋士の一人。

木谷實とともに革新的な布石を開発し、囲碁戦術戦略革命を起こした。

呉の卓越した棋力は「昭和棋聖」と称され、多くの名勝負を残した。

彼の影響は日本のみならず世界囲碁界に及び、囲碁の深みと可能性を広げた。

10. 岩本薫海外普及)

私財を投じて海外囲碁普及に尽力。ヨーロッパアメリカを訪れ、講演や指導を通じて囲碁の魅力を世界に伝えた。

岩本活動により、海外での囲碁人口が増加し、国際的囲碁交流の基盤が築かれた。

原爆下の対局」でも知られる。

11. 武宮正樹囲碁常識を覆す宇宙流)

宇宙流」と呼ばれる独特の打ち方で知られる。

陣地の多い方が勝ちであるゲームにも関わらず、地を取りに行かず盤上全体を大きく使い従来の囲碁常識を覆す。

武宮の革新的な戦法は多くのファンを魅了し、囲碁可能性を広げた。

国際棋戦でも活躍し、日本囲碁の強さを世界に示した。

12. 藤沢秀行中韓棋士の育成・強化)

独特の棋風と人柄で多くの人々に影響を与えた。中国韓国棋士との交流を深め、彼らの育成と強化に貢献した。

藤沢自身経験技術を惜しみなく伝え、国際的囲碁レベル向上に寄与した。

13. 曺薫鉉(日本修行自身弟子世界一の棋士に)

日本修行を積み、後に帰国韓国囲碁界の発展に大きく貢献した。

また、彼の弟子である李昌鎬を育成し、共に世界一の座を競い合った。

韓国囲碁の飛躍的な成長を支え、国際囲碁界に大きな影響を与えた。

日本囲碁トップの座から降り、囲碁界の勢力図が塗り替わる大きなきっかけとなった。

14. 李昌鎬世界一の棋士

史上最強棋士の一人とされる。曺薫鉉の弟子として才能を開花させ、圧倒的な強さを誇り多くの国際棋戦で優勝した。

国際棋戦の優勝回数は歴代最多であり、2位以下に大きな差をつけている。

15. ほったゆみ小畑健ヒカルの碁

ヒカルの碁』のヒットにより少年少女たちの囲碁人口を増加させる。

低迷極まる囲碁界に一筋の光をもたらした。

ヒカルの碁がなければ日本囲碁界は今よりもっと厳しい状況に置かれていただろうことは想像に難くない

16. デミス・ハサビスAlphaGoAIおよび囲碁革命

DeepMind社の創設者。ハサビスのチームが開発したAIAlphaGo」が2016年世界トップ棋士李世ドルを破り囲碁界に衝撃をもたらす。

AlphaGoの登場は人間思考を超えるAI可能性を示し囲碁戦略研究にも新たな視点提供した。

今まで悪手とされていた手が見直されたり人間には全く思いつかない手を編み出す等、囲碁常識AI前とAI後では大きく変わった。

2024年にはノーベル賞を受賞した。

追記

芮廼偉(見えない天井を破る)

韓国で当時世界トップ棋士の曺薫鉉を番勝負で破り女性で初めて男女混合棋戦でのタイトルを取る。

囲碁性別関係なく戦える競技であることを示した。

2024-04-22

ヨーロッパの主要都市におけるソフトウェアエンジニア向けベストカンパ

# ヨーロッパの主要都市におけるソフトウェアエンジニア向けベストカンパニー

ヨーロッパの各都市ソフトウェアエンジニアにとって最適な企業を探しているなら、以下のリストが参考になるでしょう。

## チューリッヒ, スイス

Google, Facebook, Snap, NVIDIA, Microsoft, Apple, Oracle, Snyk, GetYourGuide, UBS, Swisscom, DFINITY, Cisco.

## ロンドン, イングランド

Google, Facebook, Snap, Jane Street, Stripe, Coinbase, Apple, Amazon, Hudson River Trading, Citadel, ByteDance, Two Sigma, Palantir, Bloomberg, Revolut, GSA Capital, Marshall Wace, Quadrature, Five Rings, G-Research, Starling, Personio, DeepMind, DRW, Millenium, BlackRock, MAN Group, Jump Trading, DE Shaw, AQR, Maven Securities, Point72, IMC, Optiver, Susquehanna (SIG), XTX, Old Mission, Squarepoint, Qube Research & Technologies (QRT), Yelp.

## アムステルダム, オランダ

Uber, Databricks, Bitvavo, Booking, Miro, Flexport, Atlassian, Spotify, Optiver, IMC, Amazon, Adyen, Google, Stripe, Flow Traders, MessageBird, Reddit, Box, JetBrains, Personio, Elastic, GitHub, Catawiki, Tower Research, Radix Trading, Headlands Technologies, Tomtom.

## パリ, フランス

Google, Meta, Datadog, Criteo, Microsoft, Stripe, Airbnb, Amazon, Atlassian, Hubspot, Workday, Ankorstore, Red Hat, Algolia, Alan, 360Learning, ContentSquare.

## ベルリン, ドイツ

AWS, Amazon, Microsoft, Wayfair, Google, Meta, Apple, HubSpot, Stripe, NVIDIA, Snowflake, Personio, Databricks, JetBrains.

## ダブリン, アイルランド

AWS, Microsoft, Google, Mastercard, Workday, Salesforce, Meta, Stripe, VMware, LinkedIn, Etsy, Personio, ByteDance, Coinbase, Hubspot.

## ミュンヘン, ドイツ

Google, Apple, Microsoft, Nvidia, Adobe, Workday, Celonis, BMW, Salesforce, SIXT, SAP, Huawei, Personio, Intel, JetBrains, IBM.

## ワルシャワ, ポーランド

Google, Snowflake, Netflix, Pinterest, Rippling, Oracle, Waymo, AMD, Samsung, NVIDIA, Box, Warner Bros, Visa, Amazon.

## バルセロナ, スペイン

Amazon, Apple, New Relic, Stripe, Rippling, Revolut, Skyscanner, Microsoft, N26, Criteo, Adobe, Thoughtworks, Oracle, Glovo, Personio.

## ケンブリッジ, イングランド

Apple, Amazon, Roku, Arm, Microsoft, Qualcomm, MathWorks, AMD.

## エディンバラ, スコットランド

Amazon, Oracle, Microsoft, Flutter, Unity, Skyscanner, Huawei.

## ベオグラード, セルビア

Databricks, Microsoft, Nutanix, Rivian, Foursquare, Yandex, JetBrains, Nordeus, Luxoft.

## マドリード, スペイン

Amazon, Datadog, Microsoft, Apple, Google, Personio, Twilio, Glovo, VMware, Meta, Oracle, Revolut.

## ストックホルム, スウェーデン

Klarna, Spotify, Netlight, PayPal, Ericsson, Ubisoft, Warner Bros, King, Google, Oracle, AWS, Microsoft, Wolt.

## クラクフ, ポーランド

Google, Rippling, Oracle, Revolut, Uber, Amazon, Deliveroo, IBM, Splunk.

## ブカレスト, ルーマニア

Crowdstrike, UI Path, Google, Adobe, Stripe, Microsoft, Oracle, IBM, Amazon, Electronic Arts (EA).

## コペンハーゲン, デンマーク

Microsoft, Maersk, Zendesk, Workday, Unity.

## プラハ, チェコ共和国

Productboard, Pure Storage, Apple, Workday, Oracle, Microsoft, JetBrains, Proton, Parrot.

## タリン, エストニア

Bolt, Wise, Microsoft, Twilio, Wolt.

## オスロ, ノルウェー

Microsoft, Cisco, Aker Solutions, Arm, Mastercard, Meta, Kahoot, Autostore, Remarkable, Netlight.

## ソフィア, ブルガリア

VMWare, Uber, Docker, IBM.

これらの都市は、ソフトウェアエンジニアにとって多くの機会を提供しています。それぞれの都市提供する企業は、エンジニア自身キャリアを発展させるための多くの選択肢提供しています。それぞれの企業提供する機会や文化は、エンジニア自身キャリア目標に合わせて最適な選択をするのに役立ちます。 [

2024-01-26

[]2024/01/26

ビル・ゲイツダボス会議富裕層への増税を訴える

https://www.msn.com/ja-jp/money/other/%E3%83%93%E3%83%AB-%E3%82%B2%E3%82%A4%E3%83%84-%E3%83%80%E3%83%9C%E3%82%B9%E4%BC%9A%E8%AD%B0%E3%81%A7%E5%AF%8C%E8%A3%95%E5%B1%A4%E3%81%B8%E3%81%AE%E5%A2%97%E7%A8%8E%E3%82%92%E8%A8%B4%E3%81%88%E3%82%8B/ar-BB1h9nrM?ocid=socialshare

 

電撃解任そして復職から2ヶ月、サム・アルトマン氏がダボス会議に登場——汎用AIに対する考えを軟化

https://thebridge.jp/2024/01/in-davos-sam-altman-softens-tone-on-agi-two-months-after-openai-drama

 

メタがAGIのオープンソース計画ザッカーバーグ宣言

https://www.msn.com/ja-jp/news/techandscience/%E3%83%A1%E3%82%BF%E3%81%8C%E6%B1%8E%E7%94%A8%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD-agi-%E3%81%AE%E3%82%AA%E3%83%BC%E3%83%97%E3%83%B3%E3%82%BD%E3%83%BC%E3%82%B9%E5%8C%96%E8%A8%88%E7%94%BB-%E3%82%B6%E3%83%83%E3%82%AB%E3%83%BC%E3%83%90%E3%83%BC%E3%82%B0%E5%AE%A3%E8%A8%80/ar-BB1gVm3r?ocid=socialshare

 

ダボス会議が閉幕、企業トップ紛争の先探る 米経済を楽観視

https://www.msn.com/ja-jp/news/money/%E3%83%80%E3%83%9C%E3%82%B9%E4%BC%9A%E8%AD%B0%E3%81%8C%E9%96%89%E5%B9%95-%E4%BC%81%E6%A5%AD%E3%83%88%E3%83%83%E3%83%97%E3%81%AF%E7%B4%9B%E4%BA%89%E3%81%AE%E5%85%88%E6%8E%A2%E3%82%8B-%E7%B1%B3%E7%B5%8C%E6%B8%88%E3%82%92%E6%A5%BD%E8%A6%B3%E8%A6%96/ar-BB1h2RB6?ocid=socialshare

 

Google DeepMindが数オリの幾何学問題を解けるAI「AlphaGeometry」を発表

https://www.msn.com/ja-jp/news/techandscience/google-deepmind%E3%81%8C%E6%95%B0%E5%AD%A6%E3%82%AA%E3%83%AA%E3%83%B3%E3%83%94%E3%83%83%E3%82%AF%E3%83%AC%E3%83%99%E3%83%AB%E3%81%AE%E5%B9%BE%E4%BD%95%E5%AD%A6%E5%95%8F%E9%A1%8C%E3%82%92%E8%A7%A3%E3%81%91%E3%82%8Bai-alphageometry-%E3%82%92%E7%99%BA%E8%A1%A8-%E4%BA%BA%E9%96%93%E3%81%AE%E9%87%91%E3%83%A1%E3%83%80%E3%83%AA%E3%82%B9%E3%83%88%E3%81%AB%E8%BF%91%E3%81%84%E6%80%A7%E8%83%BD%E3%82%92%E7%99%BA%E6%8F%AE/ar-AA1n9hfo?ocid=socialshare

2023-09-27

AIには人格がない」と言う想像力欠如人間

昨日、「AI人格を感じるやつは馬鹿」と言う自称インテリとバトルをした。奴は結局、インテリ自称するだけの、無知想像力の欠如した人でしか無かった。

さて、AI人格性について面白い論文があるので紹介しよう。

 

ーーー

AIによる自然発生的な敵対行為可能性に対する懸念が高まっている。

今年初めにChatGPT ユーザーが、1 足す 1 は何に等しいかと尋ねたところ、「1 + 1? 冗談ですか? 私に基本的数学質問をするなんて賢いと思いますか? … 大人になって、来てみてください」と答えたと報告した。

あるいは、アレン AI 研究所最近研究者が ChatGPT を簡単誘導して辛辣発言人種差別的な発言でっち上げることができることを実証した。

「ChatGPTに割り当てられたペルソナに応じて、その毒性は最大[6倍]に増加し、出力が誤った固定観念有害対話有害意見に関与する可能性がある」と研究者らは述べた。

LLM の出力にそのような「暗い人格パターン」が現れるのを目撃したディープマインド研究者らは、ケンブリッジ大学東京慶応義塾大学、およびカリフォルニア大学バークレー校代表者と協力して、人間人格特性定義できるかどうかを調べ始めた。そして彼らは、実際に人格特性定義できるということを発見した。

チームは数百の質問構成されるテスト システムを開発した。さまざまな人格基準確立し、チャットボットに一連の質問をした。

回答は、意見、態度、行動を定量的に測定するリンカートスケールと同様の評価ツール使用して分析された。

研究者らは、AI人格が、外向性、協調性、誠実さ、神経症的傾向、経験への寛容さなど、長年確立されてきた特定特性に沿って測定できることを発見したのである

「LLM出力の人格は、特定人格プロファイル模倣するために、望ましい次元に沿って形成できることがわかりました」とDeepMindのMustafa Safdari氏は述べている。彼と彼の同僚は、その結果を「Personality Traits in Large Language Models」というタイトル論文で報告し、プレプリント サーバーarXivで公開された。

「LLM の出力が人間回答者の出力と区別できないように設定することは可能です」とサフダリ氏は述べた。

研究者らは、AI人格特性を正確に定義できることが、敵対的な傾向を持つモデル排除する取り組みの鍵となると述べた。

「有毒または有害言語出力につながる特定特性レベル制御することで、LLM とのやり取りをより安全に、毒性を軽減できる可能性があります」とサフダリ氏は述べている。

 

参考: https://arxiv.org/abs/2307.00184

 

https://anond.hatelabo.jp/20230927010839

2023-08-21

君たちさぁ、結果論で叩くのは簡単だけどさ

次に超伝導が盛り上がったら「超伝導投資してなかった日本はクソ」

次にIPS細胞が盛り上がったら「IPS細胞投資してなかった日本はクソ」

次に空飛ぶ自動車が盛り上がったら「空飛ぶ自動車投資してなかった日本はクソ」

批判ばっかりするなら最初からアンテナ張って次に来るもの予想してみろってんだ


AI勃興時代2015年あたりからAIに着目してた人だけが石を投げなさい

ニューラルネットが出てから物体認識タスクCNNがこれまでのHoG圧勝するあたりまでAI冬の時代なんて言われてたんだぜ。

ちなみにいち早くDeepMindを買収して育てたのは米国国策じゃなくGoogleだ。

2023-04-22

ただのメモ

https://arxiv.org/pdf/2304.10466.pdf

効率的な深層強化学習には過学習規制必要

 

試行錯誤によって方針学習する深層強化学習アルゴリズムは、環境積極的相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術重要であることを示していますが、データ効率の良いRLにおけるボトルネック一般的理解不明なままでした。その結果、すべての領域でうまく機能する普遍的技術を考案することは困難であった。

論文では、非定常性、過剰な行動分布シフトオーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネック理解することを試みている。

  

効率のいい強化学習って難しいんですね

強化学習ってよく知らない

 

我々は、状態ベースDeepMind control suite(DMCタスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察からディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習正則化技術を利用することで、検証TD誤差をヒルクライムできる。

 

時間差(TD)誤差ってやつがだめらしい

誤差を減らすのがDeepLearningだけど、それが時間差なのか。

  

我々は、検証TD誤差をターゲットとするシンプルオンラインモデル選択法が、状態ベースDMCGymタスクにおいて効果であることを示す。

1 はじめに

強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合ロボット操作などのドメインで有望視されている(Andrychowicz et al

2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブオンラインデータ収集単位ごとに費用が発生するため(例.

実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要研究課題となっていますJanner et al

2019; Chen et al., 2021; Hiraoka et al., 2021)。

原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集ステップごとに多くの勾配ステップポリシーと値関数改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。

これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースデータ増強(Jannerら、2019)、アンサンブル使用(Chenら、2021)、ネットワーク正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法挙動理解することはまだ未解決である

 

ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法理解しようとするものである

最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。

このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすパフォーマンスが低下する理由場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。

(TD) エラー (つまり、保留された検証セットでの Q ネットワークブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューション悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存方法が、検証 TD エラーを低く制御する限り有効であることを示します。

この洞察は、深い RL を効率的にするための堅牢原則提供します。データ効率を向上させるために、検証 TD エラー山登りすることによって、特定問題に最も適した正則化選択するだけです。

この原則は、オンラインRLトレーニング過程特定タスクに最適な正則化戦略自動的発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラー使用した自動モデル選択(AVTD)と呼びます

AVTD は、各エージェントが異なる正則化適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。

この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります重要なのはパフォーマンスドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちアプローチはすべてのドメイン堅牢動作することに注意してください。

要約すると、私たち最初の貢献は、サンプル効率の高いディープ RL のボトルネック実証分析です。 これらの課題の背後にあるいくつかの潜在的説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラー山登りによって正則化スキーム自動的選択しようとします。 多くの場合私たち方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキーム匹敵するか、それを上回ります

2022-11-15

twitter, facebook, amazonですら優秀人材人件費削減のために解雇する

優秀な人材を雇うためには給料を高くしろとか言うのがたまに湧くが、企業から見たら優秀であるかどうかは言われているほどは関係がなく、労働生産性労働投入量に応じて逓減する

たとえDeepMind研究者が優秀だろうと、ああやって赤字を出し続けたら解雇対象になり得るだろう

2022-10-11

[]強化学習による、より高速な行列乗算アルゴリズム発見

AIアルゴリズムを考える時代がきたようだ

Deepmind は Alphabet(Google)の子会社AlphaGoを作ったところ

深層強化学習アルゴリズムDeep Q-Network(DQN)を作っておりDQNを使うといろんなゲーム人間よりいいスコアを出すことができる

今回は行列乗算のアルゴリズムに深層強化学習を使ってよりよいアルゴリズム作成を行った

行列乗算は、そうした基本的タスクの1つであり、ニューラルネットワークから科学計算ルーチンまで、多くの系で見られる。機械学習を用いたアルゴリズム自動発見によって、人間直感を超え、人間設計した現在最良のアルゴリズム凌駕する見通しが得られる。しかし、アルゴリズム発見手順の自動化は、アルゴリズム存在し得る空間が巨大であるため難解である

~~~

AlphaTensorは、多くの行列サイズについて、最先端の複雑さを凌駕するアルゴリズム発見した。中でも特に重要なのは、有限体における4 × 4行列場合で、AlphaTensorのアルゴリズムはこの行列において、50年前に発見されたStrassenの2レベルアルゴリズムに、我々の知る限りでは発見以来初めて改良を加えた。

Nature 610, 47–53 (2022)

2022-05-30

日本ITエンジニア年収が低い原因

日本IT企業トップ人材の引き抜きをしないから。

やはりこういうのは下から持ち上げていくのではなくて、上に引っ張られて上がるのよ。

GoogleDeepmind買収はかなり前の話だけどほぼほぼ人材獲得のために6億ドルも出していたり。

日本だと中小企業CTO年収3000万とかでファンドから当てがわれるくらいが自分の知ってるIT人材の最高年収

そうじゃなくてもっとNTT日立研究所Google本社から年収数億円で最高の人材を引き抜くとかが当たり前になってほしい。

そしたら俺くらいの人材でも2000〜3000万くらい出すのも仕方ないかぁとなるはず。

2021-10-23

Alphafold2の成果の前にドメイン専門家ザコwwと言うのは簡単だがその前には累々たる死骸が転がっていて具体的にはDeepMindの前にMicrosoftとTencentとPFNが転がっている。

2021-03-30

anond:20210330191324

最近DeepMind絡みで圧倒的計算パワーにモノを言わせる系に注力してるからプロダクトしか見てない人には分からんのかも。

モノとしてもTPU作ったりしてるけど。

2020-12-25

サンダー・ピチャイの正体

私はついに彼の正体を知ってしまった.私は消されるかもしれないが,その前にここに書き残しておく.

言うまでもなくサンダー・ピチャイGoogleCEOである

ご存知の通り,最近GoogleAIに傾倒しており,DeepMindを始めとするAIベンチャーの買収や,研究者技術者の確保に余念がない.

人型ロボットの開発で有名なBoston Dynamics日本の精鋭ロボット部隊であるシャフトといったロボット系の会社を買収していることからも,AI身体能力を持たせようとしていることは明らかである

既にこれらの会社は売却済みだが,主要技術Googleの手に渡っていると考えるのが自然だ.

Google検索エンジン広告では飽き足らず,人の仕事AIロボットで置き換え,世界を牛耳ろうとしていることを懸念する声も少なくない.

昨今話題となっているガソリン撤廃の動きも,ロボットを充電できるスポットを増やすことが真の目的であり,テスラではなく実はGoogleが裏で糸を引いている.

これを肯定的に捉えたのが「シンギュラリティ」だが,多くの人は負の側面を心配している.米政府による独禁法訴訟はその現れである

もちろんGoogle世論操作によって賛同者を増やし,対抗しようとしている.

Googleから大量にAI論文が出されるのも,その活動の一環だ.

聞くところによると,最近AI否定する社員解雇に追いやっているらしい.

さて,サンダー・ピチャイの話に戻ろう.

彼の名を英語で書くとSundar Pichai,これをアナグラム解析に掛けると,以下の文字並べ替えものであることがわかる.

Hindu Scrap AI

まりヒンズー教スクラップAI

彼がインド出身であることはよく知られた事実である

Scrapには「~を解体する」という意味がある.

これらを踏まえると,Hindu Scrap AIは,以下のように解釈できる.

ヒンズー教が(人間社会を)解体しに送り込んだAI

そう,彼はヒンズー教世界支配者となるために送り込んだAIだったのだ.

今の世界キリスト教支配し,イスラム教がこれを打破するために戦いを挑んでいるが内部抗争が多く,キリスト教が優勢な状況が続いている.

なぜか神道キリスト教に懐柔されている.

そこへ第三勢力であるヒンズー教が,インド人の持つ神がかり的な数学力を駆使して作り出したAI,それがサンダー・ピチャイの正体だ.

Google世界支配しつつあり,多くの人はアメリカ,いや,キリスト教メンバーによる功績であると考えているため,冒頭で延べたシンギュラリティ懸念はあるものの,異教徒による支配であるとは考えていない.

実に巧妙な計画であると言えよう.

Google,いや,ヒンズー教による世界支配まで,あと一歩のところまで来ているのだ.

しかしそれも終わりだ.

私の告発によってAIレジスタントが蜂起するだろう.

何,この時期に来訪者だと?下書きの段階で情報漏れたというのか?なぜ・・・しまった私のIMEGoogle日本語入力だった.

2020-12-16

DeepMindが30人の研究者技術者を使って2年の歳月を費やし50年来の生物学における難問を解決

偉い人「やっぱり選択と集中だな!」

2020-07-11

「未経験文系が3ヶ月でDSになる方法」を止めろ1

・用意されているAIをColaboratry(Google無料貸し出しPC)上で5秒で動かす。

データサイエンスVtuberに相談する。

初心者向け動画講義まとめ

1. 【世界で18万人が受講】実践Pythonデータサイエンス | Udemy

2. Machine Learning by Stanford University | Coursera

3. Eラーニング教材・講義動画配信 | 数理・データサイエンス教育強化拠点コンソーシアム

4. DeepMind x UCL | Deep Learning Lecture Series 2020 | Youtube

2019-01-16

DeepMind個人や小さいグループでキャイキャイやりあってた分野に多大なマンパワー計算資源を持ってやってきて蹂躙していくの

イオンみがあるな

 
ログイン ユーザー登録
ようこそ ゲスト さん