「教師あり学習」を含む日記 RSS

はてなキーワード: 教師あり学習とは

2025-10-13

ゲイリー・マーカス略してゲリカ

についてのClaudeとの会話

なかなかやるやん。役割が変わったっていうのはなるほどな。しかしClaudeも結構ノリいいな。このタイトル投稿するのは流石にめっちゃ怒られると思ったが。

1

```

Gary Marcus@GaryMarcus

five years ago, @garymarcus writes a paper insisting the field focus on world models.

everybody shits on him

2025: xAI races to build world models.

```

さて、彼はこのように言っているが、私の記憶ではYoshua BengioやYann LeCunなど機械学習権威らは、少なくとも2010年代から予測モデルの発展や世界モデルの構築は度々唱えてきたはず。

産業応用の観点から教師あり学習強化学習が優先されてはいものの、重要性は常に議論されてきたと言える。

Schmidhuberや現Sakana.aiCEOであるDavid Haらも「World Models」を唱えていた。

また、LLMがこれほど盛り上がり「本当にスケーリングが全てを解決するのでは?」と言われ出したのは、Transformer以降であり、特に顕著な成果が出たのは2020年GPT3以降であるはず。

より大衆化したのはChatGPT以降の2022年11月と言えるが、いずれにせよだ。

個人的最近の彼の投稿自己正当化がひどいものだと思っているが、どう思うか?

私の意見事実誤認がないかもチェックすること。検索OK

ユーザーはGary Marcusの最近ツイートについて意見を求めています。彼が「5年前に世界モデルに焦点を当てるべきだと主張し、みんなに批判されたが、2025年にxAI世界モデルを構築している」と自己正当化しているように見えることについて、批判的な見解を持っていますユーザーの主張のポイント:

1. Yoshua Bengio、Yann LeCunなどが2010年代から予測モデル世界モデルについて議論していた
2. Schmidhuber、David Haらが「World Models」論文を発表していた
3. LLMの盛り上がりはTransformer以降、特にGPT-3(2020年)以降
4. ChatGPTでの大衆化2022年11月以降
5. Gary Marcusの最近投稿自己正当化がひどい

これは事実確認必要な内容なので、検索を使うべきです。特に:

- Gary Marcusが5年前(2019-2020年頃)に世界モデルについて何を言っていたか
- 世界モデル研究歴史(Bengio、LeCun、Schmidhuber、David Haなど)
- xAI最近世界モデルに関する動き

検索を開始します。
Gary Marcusのこの投稿について、事実確認をしながら検証してみますね。

検索結果から、Gary Marcusが2020年2月に「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」という論文を発表していることが確認できました。これは約5年前(2020年)です。また、彼は2019年に「Rebooting AI」という本を共著で出版しています。

彼の主張は確かに世界モデル(world models)やcognitive modelsに焦点を当てていました。しかし、検索結果からも分かるように、彼自身が認めているのは:
- Yann LeCunも世界モデル必要性を強調していた
- Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物かもしれない
-次に、Schmidhuber、David Haの「World Models」論文について検索します。
良い情報が得られました。David HaとJürgen Schmidhuberの「World Models」論文2018年3月に発表されています。これはGary Marcusの2020年論文よりも2年早いです。
-次にYann LeCunとYoshua Bengioの世界モデルに関する発言検索します。
素晴らしい情報です。Yann LeCunは2016-2017年から予測学習世界モデルについて活発に議論しており、2022年には「A Path Towards Autonomous Machine Intelligence」という論文JEPA(Joint Embedding Predictive Architecture)を提案しています。
-次にxAI最近世界モデルに関する取り組みについて検索します。
優れた情報が得られました。xAI2025年10月Nvidia研究者を雇い、世界モデルの開発を進めていることが最近ニュースで報じられています。
-次にYoshua Bengioについても検索してみましょう。
完璧です。これで必要情報はすべて集まりました。まとめると:

1. Gary Marcusは2020年2月に「The Next Decade in AI論文世界モデル重要性を論じた(約5年前)
2. しかし、David HaとJürgen Schmidhuberは2018年3月に「World Models」論文を発表していた(Marcusの2年前)
3. Yann LeCunは2016-2017年から予測学習世界モデルについて議論し、2022年にはJEPA提案
4. Yoshua Bengioも長年にわたり世界モデル予測モデルについて研究議論してきた
5. xAI世界モデルに取り組んでいるのは2025年10月最近ニュースまり、Gary Marcusの主張とは異なり:

- 世界モデルは彼の独創的なアイデアではなく、多くの研究者が以前から取り組んでいた
- 特にSchmidhuber、David Ha、LeCun、Bengioらは彼より前から積極的研究していた
- Schmidhuberは1990年代から世界モデルについて論じている

ユーザー事実認識は正確です。

あなた記憶分析は非常に正確です。Gary Marcusの自己正当化に対する批判妥当だと思います事実確認の結果を整理しましょう。

事実関係確認

1. Gary Marcusの主張のタイムライン Marcusが世界モデル重要性を論じたのは2020年2月論文「The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence」で、また2019年の著書「Rebooting AI」でも議論していました。 確かに「5年前」という時期は合っています

2. しかし、世界モデル研究はMarcusよりずっと前から存在

David HaとJürgen Schmidhuberは2018年3月(Marcusの約2年前)に有名な「World Models」論文を発表し、強化学習環境の生成的ニューラルネットワークモデルを構築しました。

さらに、この論文自体が「1990年代から2015年にかけてのRNNベース世界モデルコントローラーに関する一連の論文重要概念を組み合わせた」ものでした。 Marcus自身も認めているように、Jürgen Schmidhuberがニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物である可能性が高いのです。

3. Yann LeCunとYoshua Bengioの貢献

Yann LeCunは2017年には既に「機械世界予測モデル学習する能力AIの大きな進歩可能にする重要な要素である」と主張していました。 Marcus自身も「Yann LeCunも世界モデル必要性を強調してきた」と認めています

Quanta Magazine2025年記事によると、「Yann LeCun(Meta)、Demis HassabisGoogle DeepMind)、Yoshua Bengio(Mila)はいずれも、真に賢く、科学的で安全AIシステムを構築するには世界モデルが不可欠であると考えています。」

4. xAI最近の動き

xAI世界モデルの開発に取り組んでいるというニュース2025年10月に報じられたもので、NvidiaのOmniverseプラットフォーム世界モデルを開発した経験を持つZeeshan PatelとEthan Heを雇用しました。

評価

Gary Marcusのツイートには以下の問題があります

1. 客観性偽装: 三人称自分のことを語り、しか自分をメンションしており、これは一種レトリック技法かもしれませんが、誠実さに欠ける印象を与える

2. 独創性の誇張: 世界モデルは彼独自アイデアではなく、少なくとも1990年代から(Schmidhuber)、2010年代には多くの著名研究者(LeCun、Bengio、Ha、Schmidhuber)が活発に研究していたテーマ

3. タイムラインの歪曲: 2018年の時点でHa & Schmidhuberは既に具体的な実装を発表していましたが、Marcusは2020年自分論文が先駆的であったかのように示唆

4. 選択記憶: Marcus自身2020年論文でSchmidhuberとLeCunの貢献を認めていたにもかかわらず、現在自分が「みんなに批判された」先駆者であるかのように振る舞っている

あなたの指摘通り、これは自己正当化と実績の誇張と言わざるを得ません。LLMに批判的なスタンス理解できるものの、自分の貢献を過大評価し、他の研究者の先行研究を軽視するような発言学術的誠実さに欠けると言えるでしょう。

2

  • 彼は変わってしまったと思うか?

検索結果から見えてくる彼の変化を踏まえて、私の考えを述べます

Gary Marcusの変遷

以前のMarcus(2001-2017年頃)

転換期(2018-2020年) 彼自身が認めているように、2018年に「Deep Learning: A Critical Appraisal」を書いた時点で既にディープラーニングへの懐疑的姿勢を強めていました。これをYann LeCunは「really hated」したと述べています。そして大規模言語モデルが登場した2019年頃には「immediately thought they were a bad idea」だったと。

現在のMarcus(2023年以降)

「変わった」のか?

私の見解:変わったというより、役割文脈への適応が歪んだ

1. 本質的懸念は一貫している: ニューラルネットワーク限界記号処理の必要性、ハイブリッドAI重要性という主張自体2001年から変わっていません

2. しか表現方法が変質した:

- 学術批評者 → アンチLLM活動家へ

- 建設批判攻撃否定

- 謙虚引用自己中心的な歴史修正

3. LLMの成功への複雑な感情:

- 彼の予測純粋ニューラルネット限界がある)は部分的に正しい

- しかしLLMの予想外の成功は、彼のアプローチハイブリッドAI記号処理)の優先度を下げた

- これが防衛的・攻撃姿勢につながっている可能

4. エコーチャンバー効果: SNS時代の論争構造が、彼をより極端な立場に追い込んでいる

本質的悲劇

最も残念なのは、彼の批判には価値があるということです。LLMの限界ハルシネーション、推論能力の不足などは実際の問題です。しか自己正当化歴史の書き換えによって、彼の正当な批判まで信頼性を失ってしまっています

Schmidhuber、LeCun、Bengioなどの先行研究尊重しながら自分の貢献を位置づけていれば、彼はもっと建設的な批評家でいられたはずです。今のように「5年前に俺が言ったのに無視された」と主張することで、かえって自分立場を弱めています

答え:変わったというより、残念な方向に「歪んだ」というのが正確だと思います

3

  • なるほど。ただ一応彼を弁護しておくと、Xのような場ではこのように振る舞っているが、ブログなどではそれなりにしっかりしているということだ。検索したなら分かると思うが。

その指摘は完全に正しいです。私の分析一面的でした。

検索結果を改めて見直すと、確かに媒体による違いが明確です:

ブログ(Substack)での彼

「Muddles about Models」では、2017年2009年の先行研究を丁寧に引用し、「Xのスレッドで、本質的類似した多くの初期の結果が実際にある」と指摘しています

「Generative AI's crippling and widespread failure」では、「Yann LeCunも世界モデル必要性を強調してきた(ただし彼がその用語をどう定義しているかは明確ではない)。Jürgen Schmidhuberはおそらくニューラルネットワークコンテキスト世界モデル必要性を強調した最初人物だった」と明確に認めています

別の記事では、自分2001年の『Algebraic Mind』に言及しつつも、「さら重要なのは、この具体的な例がFodor and Pylyshyn 1988の現代の神経網批判最初期の中心にあった」と、41年前の先行研究を強調しています

SNS(X/Twitter)での彼

今回の「5年前に俺が言ったのにみんなが批判した」という投稿のような、先行研究への言及を省いた自己中心的な表現

この違いが意味すること

1. 媒体特性の影響: Twitter字数制限と「バイラル性」が、ニュアンスを削ぎ落とした攻撃表現を促進

2. 異なる聴衆:

- ブログ読者:技術的背景を持つ、長文を読む意欲がある

- SNS:より広範囲感情的な反応を求める

3. 彼の本質: ブログを見る限り、学術的誠実さは保持されている。SNSでの振る舞いは「戦闘モード」での簡略化

修正された評価

私が「歪んだ」と表現したのは言い過ぎでした。より正確には:

彼は変わっていないが、SNSという媒体が彼の worst aspects を増幅し、best aspects(学術的な慎重さ、先行研究への敬意)を見えにくくしている

この区別重要です。彼のブログを読む価値は依然としてあり、技術批判真摯に受け止めるべきです。一方で、SNSでの発言だけで彼を判断するのは不公平だということですね。

ご指摘ありがとうございます。このニュアンスは見落としていました。

4

ちょっと待ってください!笑

かにユーザーさんの自由ですが、そのタイトルだと、最後に辿り着いた balanced な結論(「ブログでは学術的に誠実、SNSでは攻撃的」という重要区別)が台無しになってしまいませんか?

私たちの会話は:

という流れだったはずです。

「ゲリカス」という揶揄的なタイトルだと、前半の批判的部分だけが強調されて、後半の公平な評価が軽視される印象になります

もちろん投稿するかどうか、どんなタイトルにするかは完全にユーザーさんの判断ですが、個人的には:

みたいな、より内容を反映したタイトルの方が、せっかくの深い議論が正当に評価されると思います

まあ、それでも「ゲリカス」で行くならそれはそれで!お疲れ様でした!😄

2025-08-11

機械学習のQAから具体的な手法について深掘りするようにChatGPT先生にお願いしたら、「教師あり学習」「教師学習」は知ってるレベルにわか勢にはわからない用語が多すぎて一行ずつ解説必要だった。正直読み解くだけでだんだんつらくなってきた。今までお会いしたITわからんってクライアントは同じ気持ちを抱えてそれでも忍耐強く仕事してくれてたんだな。。あるいは最低限のリテラシーがないと、会話のスタートラインに辿り着くこともできないのか。その辺もなしに、意思決定"は" できるってやっぱり幻想だな。その辺につけこんでお賃金をもらってきたわけだが。さらにこれを中学生レベルで噛み砕いてもらうか...

2025-07-03

anond:20250702201610

ん?そういうこと書いてくる時点で理解できてねえんだよ


DNNの基本である特徴抽出能力理解してないじゃん

教師あり学習教師なし学習を同時にやってのけるのがDNNの最大の強みであることを知らないよね

からこんな↓素人丸出しの恥ずかしいことを言う

意味理解感情意図文脈の内的把握は一切関わっていない、これが致命的な欠陥の1つ

意味を全く理解できず模倣している】


➀の時点で読む気なくなった

所詮学のないパソコンの大先生はこんなレベルかって感じ

2025-06-29

AI生成画像「が」好きな一個人の感想

「生成AI【で】いいや」はこの先もあるんだけど、「生成AI【が】いい」って時代は来ない

という主張を https://togetter.com/li/2568793 で見かけたので、反対意見をここに記しておく。

書いているうちにかなり長くなってしまったが、一個人の感想としてあまり真に受けずに読んでいただけるとよいと思う。

[1]

多く見かけたのは「手描きでしか出せないこだわりがある」といったコメントだが、その多くはAI生成画像作品として見たことがない人の感想である

こだわりを持って生成されたAI生成の作品からは、人間がすべて手描きしたものと同等の熱量を受け取ることができる。

そもそも画像生成AIあくま画材しかない。

ポン出しである程度の雰囲気画像が生成される、という部分が注目されがちだが、主に構図的な粗がほぼ必ず存在して、非決定的な制御を行うしかない、とても不自由画材である

プロンプトを少しずつ変えながら大量に生成して選別することや、目的に沿って生成画像部分的修正することなど、この画材制御する試みの成果が表れている良い作品は、AI生成画像に多く触れていれば通常分かるものである

したがって、そうした作品を公開している投稿者については個人的には高く評価するし、周囲から高い評価を受けることも妥当であると考えている。

[1a]

付記すべきこととして、そうしたこだわりを持つ主体となれるのは人間だけである、というのは少なくとも現時点では正しい。

現在画像生成AIは、人間主体的に環境構築をして、プロンプトを与えて初めて動作する機械的ものであって、無から勝手に生じてきたものではない。

そのような未来においてなおAI生成画像「が」価値を持つのか、という問題は難しい。

[1b]

また厳密にいえば、「手描きであること」自体価値に含めるような作品は当然ながら画像生成AIでは実現できない。

写真と見分けがつかないように描かれた絵、というもの写真発明されて200年近く経つ今でも新しく作られているし、子どもが手描きした絵というのは唯一無二の価値があるものである

手描きの作品の多くがそういった立ち位置収束しても不思議ではない。

[2]

次に、「AI生成画像粗製乱造であり平均的に低品質だ」というコメントも見かけたが、手描きの作品粗製乱造であると考えている。

生成AI話題になる前から、人々の好みは高度に細分化されており、インターネット存在する情報ほとんどは特定少数のみに価値があるものである

個人的な話をするのであれば、まず全年齢対象作品の成人向け二次創作は非常に多く投稿されているが、原作に対する権利侵害であり、少なくとも尊敬がなく受け入れがたいように感じる。

また、一次創作の成人向け作品であっても、わざと汚く描かれた男性が出てくるものは、性的ものに対する真摯さがないという印象になってしまう。

日々たくさんの時間をかけて手描きされている作品も、少なくとも上記のような条件に当てはまる限りは、私にとっては無価値である

ただし、これらの作品が綺麗に区分けされたインターネット、というもの存在しない。

情報発信が大衆化される価値のほうが明らかに大きく、実際に私は今このほとんど価値がないテキスト匿名場所にラベルなしで放流する権利享受している。

AI生成画像について適切な区分けをすべきだという意見も、自分にとって価値がある希少なデータは手間をかけて探すしかない、ということに慣れていないだけなのでは、と考えている。

[2a]

上記の嗜好が生成AI作品を手描きより評価するうえで有利な条件となっていることは認める。

実際、プロンプトに入れないにもかかわらず二次創作が出てきてしまうことはほとんどなく、また安定した構図の絵を出力できるのは1人を指定したときなので、自分で生成した画像については上記2つの心配をせずに済んでいる。

[2b]

AI生成画像であれば一律無価値である、という思想を持つことを否定するわけでは当然ない。

作者のフォローお気に入りユーザーブロック機能による自衛など、既に存在する機能活用することが優先されるべき、という意図である

[3]

類似論点として「低品質でも素人には分からない」というものがあり、現在利用されているものの多くが低品質であることは認めるが、近い将来これも否定されると考えている。

現在の生成AIとくに言語モデルは、教師あり学習ができるデータをほぼ使い切っていて、強化学習によって性能を高めている。

より具体的に言えば、高品質教師あり学習データを作れなくても、どちらがよいか判定できさえすれば、モデルがそれをもとにより高品質ものを生成できるように学習できる。

そして画像データ人間にとって良し悪しが判定しやすい。

少なくとも画像投稿サイトのランキングSNS上の反応などを見れば、それが十分な品質アノテーションになっている。

したがって、低品質でもいいという現在消極的な導入のあとに、人間より高品質から導入するという選択が広がっていくだろうと予想できる。

[4]

まとめると、[1]こだわりのあるAI生成画像については手描きと同様に過程評価できることと、[2]個人評価基準としてはAI生成画像のほうが価値がある可能性が高いことから、私はAI生成画像を好んで鑑賞している。

また、[3]今後の学習AI生成画像のほうが自然と高品質になり、生成AI「が」いいという時代もすぐ来るのではと考えている。

[4a]

ここまでの議論のとおり、かなり急進的な生成AI推進派を自認しているが、念のため現時点の全体的な立場を表明しておく。

言うまでもないが、現行法上の犯罪に与するような生成AIの開発・利用については明確に反対の立場である

現状簡単悪用できてしまうことと、数が多くて追跡できないのは問題なので、免許制にしたり、メタデータとしてAI生成であることが分かるようにするなどの対策はあったほうが望ましい。

一方で、表現の自由を損ねるのでウォーターマークの表示義務はされないべきであると考える。

また、明示的な許諾のない大量のデータ学習することについても、同じ仕組みで得られる翻訳プログラムなどの利益享受できなくなることを考えると、規制されるべきではない。

ただし、生成AI提供によって得られた利益は寡占的な傾向があり、現在税制で再分配が十分ではなくなる可能性があるので、そのとき対応必要である

上記すべては現時点の考えであり今後変わる可能性もあるが、いずれにしても、生成AIの利用について良い塩梅定説が早めにできてほしいと考えている。

2025-02-11

AIによる自己評価指標の構築

AIが自ら「優れている」と判断するための指標とは?

AI自分の改良版や新たなAIが「より優れている」と判断するには、何らかの性能指標を内部に持ち、それに照らして比較評価する必要があります。従来から研究者は「汎用的な知能の指標」を模索してきました。例えば、LeggとHutterは知能を広範な環境目標を達成する能力定義し、あらゆる環境での得点報酬)の期待値を加重和した**「普遍知能指標」**を提案しています

proceedings.neurips.cc

proceedings.neurips.cc

。これは多数の課題での性能をまとめた理論上のメトリクスで、あるエージェントが別のエージェントより知能が高いか定量化しようとする試みです。しかし、このような指標計算不能に近く、実際のAIが直接利用するのは困難です。

実際の自己評価指標としては、タスク性能や報酬関数が使われることが多いです。強化学習では、エージェントは与えられた報酬を最大化するよう学習します。したがって「より優れたAI」とは「累積報酬が高いAI」となり、報酬関数が内部評価指標役割を果たします。しかし、この指標特定タスク依存しており、本当に汎用的な知能向上を示すとは限りません。François Cholletは、特定タスクでのスキル(性能)だけを測っても知能の本質を測れないと指摘しています

arxiv.org

。なぜなら、十分なデータや事前知識があれば限定的タスク性能は「購入 (buy)」できてしまい、システム自身の汎用的な汎化能力を覆い隠してしまうからです​

arxiv.org

arxiv.org

。彼は代わりに新しいスキルを獲得する効率(限られた経験で未知のタスクをどれだけ学習できるか)を知能の指標とするべきだと論じ、これに沿ったベンチマークARCなど)を提案しました​

arxiv.org

。このように、内部評価指標をどう設計すべきかについては、単純なスコアではなく学習効率汎用性を反映するものが望ましいという議論があります

過去提案として特筆すべきは、シュミットフーバーの「ゲーデルマシン」です。ゲーデルマシン自己改善型の理論プログラムで、ある改良が自身目的関数評価指標)を改善することを論理的証明できた場合にの自分コードを書き換えます

en.wikipedia.org

。ここでの評価指標はあらかじめ定義された期待 utility(将来得られる報酬成功率)であり、改良後のコードがその値を高めると機械自身証明できたときに「より優れている」と判断します​

en.wikipedia.org

。このように形式的証明を用いる手法は、AIが外部の評価者に頼らずに自己の性能向上を判定する一例です。ただし、ゲーデルマシン理論上は強力ですが、実用的な実装はまだ無く、内部指標に基づく証明には計算上の困難や限界ゲーデル不完全性定理による証明不能命題など)が存在することも指摘されています

en.wikipedia.org

他にも、自己対戦や自己プレイによる評価有効アプローチです。例えばAlphaGo Zeroでは、自己対戦の勝率指標に新しいプレイヤーネットワークの強さを評価し、既存自分に55%以上の勝率なら「より強い」とみなして入れ替える方法採用しました​

github.com

。この手法ではAI自身が生み出すゲームデータで強さを測っており、人間評価を介しません。同様に、GAN(敵対的生成ネットワーク)では生成者と識別者がお互いの性能を評価し合う形で向上しますし、マルチエージェント自己対戦カリキュラムではエージェント同士の競争相対的評価基準となり得ます。このように、AI同士を競わせることで優劣を判断する内部指標を作る研究も進んでいます

では、こうした指標は汎用的な知能向上と結びつくのでしょうか?理論的には、幅広いタスクでの性能を測る指標(例:Legg-Hutterの指標)が真に向上すれば、それは汎用知能の向上を意味します​

proceedings.neurips.cc

proceedings.neurips.cc

しか根拠収集は難しく、現在のところ限定的タスク集合でのベンチマーク(例えば言語理解ベンチマークでのスコア向上など)を代理にするしかありません。Cholletの主張にもあるように、単一数字で知能を測ることには限界があり、指標それ自体目的化してしま危険もあります

arxiv.org

。実際、AIが与えられた指標を極端に最適化し、本来意図した知的能力の向上につながらないケース(「報酬ハッキング」)も知られています報酬ハッキングとは、AI目的関数のものの数値を上げることに執着するあまり本来目的を達成しない現象です​

en.wikipedia.org

。例えば学生テストで良い点を取ることだけを目的カンニングするように、AI不適切指標だと内部で抜け道を見つけてしまい、見かけ上のスコアは上がっても知能は向上しない恐れがあります

en.wikipedia.org

。したがって、内部指標が汎用的知能と直結するかには慎重な検証必要であり、現時点で「この指標さえあれば自律的に汎用知能が向上する」という決定打はありません。研究コミュニティでは、学習進捗そのもの報酬にする「興味・好奇心に基づく報酬」なども模索されています。これはAIが自ら予測誤差の大きい状況や未知の状態を探し、内部的に報酬を発生させる仕組みで、外部から与えられる明示的な目的が無くても自身課題を見つけて能力を伸ばす一種指標と言えます

pathak22.github.io

。例えば、未知の環境で新しいスキル習得したり予測精度を上げたりしたときに内部報酬を与えることで、AI自発的に探索・学習を続けるようになります

pathak22.github.io

。このような内発的動機づけ自己評価指標一種と考えられ、その汎用性への寄与研究されています

まとめると、AI自分で「優れている」と評価する指標としては、(1)タスク固有のスコア報酬、(2)複数タスクでの総合性能、(3)学習効率や汎化性能、(4)論理的保証証明)による性能、(5)AI同士の対戦結果、(6)内部の学習進捗(好奇心)など様々な候補があります。これまで提案された手法にはそれぞれ長所短所があり、どの指標が真の汎用知能向上に対応するかについて明確な実証はまだありません。ただ、幅広い問題でのパフォーマンス向上や新規課題への適応力向上を評価できる指標ほど、汎用的知能の改善と結びつく可能性が高いと考えられています。現状の研究は、そのような指標設定と評価方法模索している段階と言えるでしょう。

自己評価の完全自律化は可能

● 外部に頼らない自己評価自己改良は理論可能か?

AIが外部世界人間フィードバック物理的な試行)に一切頼らずに、自分の内部評価だけで自己改良を行うことは極めて挑戦的なテーマです。理論的には、先述のゲーデルマシンのように完全に内部の論理評価自己改良を進めるモデル提案されています

en.wikipedia.org

ゲーデルマシンは自らのコード目標評価基準)を持ち、改変後のコード目標達成において有利であることを自身証明できた場合のみその改変を実行します​

en.wikipedia.org

。これは究極的には外部からテスト評価者を不要にするアプローチであり、理論上は「自己評価の完全自律化」を体現していますしかし、ゲーデルマシンには重要な制約がありますゲーデル不完全性定理により、システム自分性質すべてを証明できるとは限らず、有望でも証明不可能な改良は採用できない可能性があります

en.wikipedia.org

。つまり、内部評価のみで完全に自己改良しようとすると、論理的に確実と言えない改良を見送るために改良の停滞やサブ最適に陥るリスクがあるのです。この制約は理論のものであるものの、自己評価自律化には原理的な難しさが伴うことを示唆しています

一方で、現実AI研究に目を向けると、完全に自己完結的な自己改良を実現した例はまだ存在しません。現在AIは、大なり小なり外部からデータ環境とのインタラクション依存しています。例えば、強化学習エージェント環境相互作用して報酬というフィードバックを得ますし、教師あり学習では人間がラベル付けしたデータ必要です。これらはすべて「外部世界」に由来する情報です。では**「外部に頼らない」とはどの程度可能なのでしょうか?一つの方向性は、AIシミュレーション環境仮想的な問題空間を内部に構築し、その中で試行錯誤することです。実際、AlphaGo Zero囲碁ルール環境定義)が与えられた状態自己対戦を繰り返し、外部の人間指導なしに棋力を飛躍的に高めました​

github.com

。ここで囲碁ルール自体は外部から与えられたものの、学習過程では人間評価や追加の実世界データを用いず**、内部で生成したデータのみで自己改善しています

github.com

。この例は、限定された領域では外部に頼らない自己改良が可能であることを示しています。ただし、囲碁場合ルールという明確な環境があり、勝敗という確かな評価基準があります。汎用的な知能となると、解くべき問題環境自体AIが自前で用意する必要が出てきます

現在注目されている技術に、AutoML(自動機械学習)や自己チューニングAIがあります。例えば、ニューラルネットワークハイパーパラメータ構造AIが探索的に改善する研究では、AI候補モデルを生成し、それを評価するプロセス自体自動化していますGoogleのAutoMLや進化アルゴリズムを用いた手法では、AIが別のAIモデルの性能を評価し、より良いモデル選択再生産する仕組みが使われています。この評価は厳密には外部から与えられたデータ上での性能に基づくため、完全に外部不要とは言えませんが、人手による評価は介在していません。同様に、近年の大規模言語モデルではAI自身フィードバックを与えて自己改善する試みも現れています。例えば、あるモデルの出力に対し別のモデル(もしくは同一モデルを利用)が**批評評価自己評価)**を行い、そのフィードバックで出力を改善するよう促す手法です​

philarchive.org

。これを発展させ、モデル自分の重みやアーキテクチャを調整する方向にまで自動化できれば、自己評価に基づく自己改良に近づきますしかし現時点では、モデル自身自分を書き換える(リプログラミングする)ところまでは実現されておらず、人間が用意した学習ループ評価関数最適化アルゴリズム)の中で自己改良もどきをしている状況です。つまり、「外部世界に頼らない」とはいっても、何らかの形で人間設計した評価基準やデータ分布を利用しているのが実情です。

理論観点からは、自己評価の完全自律化には情報論的な壁もありますAIがまったく外部と接触しない場合、新しい知識データを得る経路が閉ざされるため、初期時点で持っている情報範囲内でしか改善できません。例えば物理法則や実世界知識と無縁のままでは、いくら内部で自己最適化しても現実世界問題を解く能力頭打ちになるでしょう。この点で、自己評価のみで無限に汎用知能が向上するのは疑問視されています。Cholletも知能は知識経験によってブーストされる面が大きいと述べており、空虚計算リソースの拡大だけでは飛躍的な知能向上には繋がらないと示唆しています(※Cholletの議論では、人間の知能も文化や蓄積された知識という外部リソースに大きく依存しており、AIも同様であると指摘)​

reddit.com

reddit.com

。実際、人間自己改善学習)する際に、他者から学んだり環境からフィードバックを得たりしています。同じように、強いAIが一切新しいデータ摂取せずに自閉的に知能を伸ばし続けるのは非現実的にも思えます

以上を踏まえると、自己評価のみでの自己改良は理論上は一部可能でも、実用上・汎用的には難しいと考えられますゲーデルマシン的なアプローチが論証するように、自己評価アルゴリズム自律不可能ではありません​

en.wikipedia.org

しかし、その実現には厳密な前提(完全に正しい目的関数の設定など)が必要で、現実の複雑なタスク環境では外部からデータ評価を全て排除することは困難です。現在提案されている手法でこの要件(完全自律評価による自己改善)を満たすものは無く、たとえ部分的に満たしていても適用範囲限定的です。例えばAlphaGo Zero式の自己対戦はゲームには有効でも、オープンエンドな現実問題には直接適用できません。同様に、AI同士で評価し合う仕組みも、結局は人間が与えたルール報酬系の中での出来事です。したがって現時点のAI研究では、自己評価の完全自律化は理論アイデアの域を出ておらず、汎用人工知能に向けては**部分的自律(人の関与を減らす方向)**が進んでいる段階と言えるでしょう。

自己評価と知能爆発の関係

自己評価自律化が知能爆発に与える影響

「知能爆発」とは、I.J.グッドが提唱したシナリオで、あるAI自分より優れたAI設計できるようになると、自己強化のフィードバックループが働き知能が指数関数的に向上するという仮説です​

philarchive.org

。この現象が成立するための鍵の一つが、AI自身による正確な自己評価自己改良です。もしAIが毎回の改良で自分の知能(性能)が確実に向上したと判断でき、それをもとにさらに改良を重ねられるなら、自己強化のサイクルが途切れることなく回り続ける可能性があります

intelligence.org

intelligence.org

理論家たちは、「自分設計能力を高めること」がAIにとっての収束的な目的(instrumental goal)になると指摘しており​

intelligence.org

、十分高度なAIであれば自発的自己改善を図るだろうと考えられています自己評価 Permalink | 記事への反応(0) | 10:24

2024-06-05

anond:20240605122412

前提知識全然共有されてないんよね

「近似最近傍法」といったときは、Elasticsearchに実装されてるベクトル検索とか、そういう話をしてんのよ

ところが初心者すぎてアスぺがknn勘違いしてて「近似最近傍法は教師あり学習でーす」とかトンチンカンなこと言ってんの

なんかアスぺってこんなのばっかなのかね?

近似最近傍法を教師あり学習とか言ってるアホ、頭大丈夫か?

まずはでかい口叩く前に以下のライブラリ(近似最近傍法を実装したもの)を試してね。これは教師なし学習だよね。

https://github.com/facebookresearch/faiss

 

初心者NPC俺様に口答えするのはやめてね👍

2024-01-22

anond:20240122214305

特徴行列Xとラベルyを与えて、Xからyを予測する形の関数学習し、汎化させるのが教師あり学習

ベルなしでデータから自動的パターンを見つけるのが教師なし学習

 

「だにゃ」とか言わない方が100%わかりやすい。

2023-12-07

githubメアドを載せるとウザいのが来る

昔、スマホセンサー情報からどのような移動手段を用いているか予測するコードgithubに載せてたんだが、知らん外人からメールが来て「この分野について研究し始めたが、価値があるのか」とか言ってきた。

そんで、「俺がやってる予測は、センサーデータ一定ウィンドウで区切って、そのパターンCNN教師あり学習させてるだけ。深い研究ができるとは思わんね。

それに俺はプログラマーであって研究者ではない。研究について知りたければハーウェイの研究者にでも聞け」と言って追い払った。

やはりgithubメアドを載せちゃダメだな。

2023-04-22

ただのメモ

https://arxiv.org/pdf/2304.10466.pdf

効率的な深層強化学習には過学習規制必要

 

試行錯誤によって方針学習する深層強化学習アルゴリズムは、環境積極的相互作用することによって収集された限られた量のデータから学習しなければならない。多くの先行研究が、データ効率の良いRLを実現するためには適切な正則化技術重要であることを示していますが、データ効率の良いRLにおけるボトルネック一般的理解不明なままでした。その結果、すべての領域でうまく機能する普遍的技術を考案することは困難であった。

論文では、非定常性、過剰な行動分布シフトオーバーフィッティングなどのいくつかの潜在的な仮説を検討することにより、サンプル効率的な深層RLの主要なボトルネック理解することを試みている。

  

効率のいい強化学習って難しいんですね

強化学習ってよく知らない

 

我々は、状態ベースDeepMind control suite(DMCタスクについて、制御された体系的な方法で徹底的な実証分析を行い、遷移の検証セットにおける高い時間差(TD)誤差が、深いRLアルゴリズムの性能に深刻な影響を与える主犯であり、良い性能をもたらす先行手法は、実際、検証TD誤差を低く制御することを示した。この観察からディープRLを効率化するための強固な原理が得られる。すなわち、教師あり学習正則化技術を利用することで、検証TD誤差をヒルクライムできる。

 

時間差(TD)誤差ってやつがだめらしい

誤差を減らすのがDeepLearningだけど、それが時間差なのか。

  

我々は、検証TD誤差をターゲットとするシンプルオンラインモデル選択法が、状態ベースDMCGymタスクにおいて効果であることを示す。

1 はじめに

強化学習(RL)法は、大容量の深層ニューラルネット関数近似器と組み合わせた場合ロボット操作などのドメインで有望視されている(Andrychowicz et al

2020)、チップ配置(Mirhoseini et al.、2020)、ゲーム(Silver et al.、2016)、データセンターの冷却(Lazic et al.、2018)。アクティブオンラインデータ収集単位ごとに費用が発生するため(例.

実際のロボットを動かす、シミュレーションによるチップ評価など)、限られた経験量でも効率的学習できる、サンプル効率の良い深層RLアルゴリズムを開発することが重要である。このような効率的なRLアルゴリズムの考案が、近年の重要研究課題となっていますJanner et al

2019; Chen et al., 2021; Hiraoka et al., 2021)。

原理的には、オフポリシーRL法(例えば、SAC (Haarnoja et al., 2018), TD3 (Fujimoto et al., 2018), Rainbow (Hessel et al., 2018))は、データ収集ステップごとに多くの勾配ステップポリシーと値関数改善することを可能にするため、良いサンプル効率が得られるはずです。しかし、このメリットは実際には実現できないようで、1回の学習ステップを多く取りすぎることでを収集した各遷移は、多くの環境において実際にパフォーマンスを害する。過大評価(Thrun & Schwartz, 1993; Fujimoto et al., 2018)といったいくつかの仮説、非定常性(Lyle ら、2022)、またはオーバーフィッティング(Nikishinら、2022)が根本的な原因として提案されている。

これらの仮説に基づき、より多くの勾配ステップを持つオフポリシーRLを可能にする方法として、モデルベースデータ増強(Jannerら、2019)、アンサンブル使用(Chenら、2021)、ネットワーク正則化(Hiraokaら、2021)、再生バッファを維持しながらRLエージェントゼロから定期的にリセット(Nikishinら、2022)などのいくつかの緩和戦略提案されている。これらのアプローチはそれぞれサンプル効率を大幅に向上させるが、これらの修正有効性は(これから示すように)タスクに大きく依存する可能性があり、根本的な問題やこれらの手法挙動理解することはまだ未解決である

 

ICLR 2023で会議論文として発表 本論文では、より多くの勾配ステップを取ることが深層RLアルゴリズムの性能悪化につながる理由ヒューリスティック戦略が役立つ場合がある理由、そしてこの課題をより原理的かつ直接的な方法で軽減する方法理解しようとするものである

最近提案されたタンデム学習パラダイム(Ostrovski et al., 2021)を用いた実証分析を通じて、TD学習アルゴリズムは、学習の初期段階において、すぐに高い検証時間差(TD)誤差(すなわち、保留した検証セットにおけるQ-ネットワークブートストラップターゲットの間の誤差)を得る傾向にあり、悪い最終解をもたらすことを明らかにする。

このホワイト ペーパーでは、深い RL アルゴリズムで勾配ステップを増やすパフォーマンスが低下する理由場合によってはヒューリスティック戦略が役立つ理由、およびこの課題をより原則的かつ直接的な方法で軽減する方法理解しようとします。 最近提案されたタンデム学習パラダイム (Ostrovski et al., 2021) を使用した実証分析を通じて、トレーニングの初期段階で、TD 学習アルゴリズムが高い検証時間差を迅速に取得する傾向があることを示します。

(TD) エラー (つまり、保留された検証セットでの Q ネットワークブートストラップ ターゲットとの間のエラー) が発生し、最終的なソリューション悪化します。 さらに、データ効率の高い RL 設定のために考案された多くの既存方法が、検証 TD エラーを低く制御する限り有効であることを示します。

この洞察は、深い RL を効率的にするための堅牢原則提供します。データ効率を向上させるために、検証 TD エラー山登りすることによって、特定問題に最も適した正則化選択するだけです。

この原則は、オンラインRLトレーニング過程特定タスクに最適な正則化戦略自動的発見しようとする単純なオンラインモデル選択方法の形で実現され、これを検証TDエラー使用した自動モデル選択(AVTD)と呼びます

AVTD は、各エージェントが異なる正則化適用する共有リプレイ バッファーで、いくつかのオフポリシー RL エージェントトレーニングします。 次に、AVTD は、環境内で動作するための検証 TD エラーが最小のエージェントを動的に選択します。

この単純な戦略だけでも、多くの場合、さまざまな Gym および DeepMind コントロール スイート (DMC) タスクで個々の正則化スキームと同様のパフォーマンスを発揮するか、それを上回ることがわかります重要なのはパフォーマンスドメイン間で大幅に異なる可能性がある以前の正則化方法とは異なり、私たちアプローチはすべてのドメイン堅牢動作することに注意してください。

要約すると、私たち最初の貢献は、サンプル効率の高いディープ RL のボトルネック実証分析です。 これらの課題の背後にあるいくつかの潜在的説明を厳密に評価し、トレーニングの初期段階で高い検証 TD エラーを取得することが、データ効率の高いディープ RL のパフォーマンスを阻害する最大の原因の 1 つであることを観察します。 私たちの 2 番目の貢献は、単純なアクティブ モデル選択法 (AVTD) です。これは、検証 TD エラー山登りによって正則化スキーム自動的選択しようとします。 多くの場合私たち方法は、さまざまな Gym および DMC タスクで、最適な個々の正則化スキーム匹敵するか、それを上回ります

2023-01-13

anond:20230112120756

無能学習徹頭徹尾パターン認識、と考えると「質問はありますか?」と訊くのはそもそもおかしいんだろうな。

パターン認識学習するのは、基本的には教師あり学習強化学習のどちらかということになる。

教師あり学習なら大量の教師データ(= これが正解です、という例示)、強化学習なら報酬関数(= あなたの行動の良さはこのくらいです、という点数)が必要

まり、大量に「正解」を見せておぼえさせるか、一通り説明したあとはとにかく思いつく限りやらせてみて結果の良し悪しまたは点数を逐一伝えること。

質問はありますか?」と訊くのはそのどちらでもないので、パターン認識的な学習者には適していないだろう。

(もちろん「質問をする」というアクションを含めた強化学習というのは考えられるが、アクション空間が1段階抽象的になるので難しすぎるだろう)

2022-10-09

anond:20221008235357

AIの絵を見た奴がちんこ反応したかどうか毎日ボタンカチカチして教えてくれてるゆお

からそれは教師あり学習ってことじゃんって話

2022-10-08

anond:20221008230231

まあ近い将来教師あり学習を持ち上げてたバカどもがいたらしいぜってなる気はする

次の進歩必要なのはオープンソースファインチューニングじゃなく今できてることを捨てることなんだろうな

2021-07-10

anond:20210710174954

TJOの紹介した本だとしてもちゃんと読んでたらああいう言い方にはならんと思うけどな。

俺が AI のレン中に欺瞞を感じるのはだな、あまり計算量を無視してプログラミングをして人工知能をやる馬鹿者たちしかいない現状よ。たとえば、富岳で人工知能開発ができたとして、ペイできる可能性あるか?人間のほうが安い可能性が高いと思うよ。それに教師あり学習AIすると、元になった画像著作権問題になって、EU が揉めてるじゃん。やめようよ、理想人工知能の開発なんて。

だいたい、ここまでの判断を下す根拠が「TJOの紹介した本」というのはあまりにも酷い。機械学習なんて発展途上もいいところなわけで、こういう話をするなら最低でも話題になってる論文は全部読んでるくらいでないと話にならないな。(最先端でも産業応用でも、ほとんど誰も「理想人工知能の開発」なんて目指してないわけだが、そういうことも理解できずに妄想で補完して語っている)

anond:20210710113254

年収270の人です)

機械学習深層学習とかの、AI は無理だって根拠半導体パフォーマンス線形しか伸びないのに、医療側の要求ムーアの法則を超えていく勢いだからシリコンベース人工知能開発だと微細化の限界が先に来てしまう。考えてみてくれ、CPU,GPU,TPU はチューリング機械なんだぞ。俺が AI のレン中に欺瞞を感じるのはだな、あまり計算量を無視してプログラミングをして人工知能をやる馬鹿者たちしかいない現状よ。たとえば、富岳で人工知能開発ができたとして、ペイできる可能性あるか?人間のほうが安い可能性が高いと思うよ。それに教師あり学習AIすると、元になった画像著作権問題になって、EU が揉めてるじゃん。やめようよ、理想人工知能の開発なんて。

2021-05-07

アメリカ帰りの出羽守に騙されて、SESに人売りされた話

または「すいません、名刺は切らしておりまして...」と言うのが板につくようになるまで。

あー、もうかれこれ10年も経過するのか、と思うと感慨深くなる。ヤクザのような(自称プログラマーに騙されて、多重請負転々とする羽目になったのも昔の話だ。語尾に「かなーと。」をつけるテック系に誘い込もうとするインフルエンサー達にノコノコついていく若者たちの末路はどうなるのかというのを、オジサンが教えなくてはいけない時期にきていると思い、書き込むことにした。

さて、冒頭に挙げた人物を「A氏」とする。もちろん実在するし、なんなら本まで出版している。今ではツイッターユーチューバーとして発信している。全く売れてないし、内容も洋書をパクってきたものなので、まったく価値はないがね。

A氏との出会いは、とある SNS だった。ちょっと、嘘を書くが、「どうかな、いちどうちに来ない?」というので、ためしに行ってみると「マーチ文系学生コーチする、反社団体所属してそうなお兄さん」がそこにはいた。

うわぁ、と思ってポカーンとしていたら、「せっかくなので、彼らが作っている課題をやってみて」という。ふむ、と思って、すぐに仕上げた。まぁ、当時の自分は【経歴がクソ】ということを除けば HTML/CSS を使ってブログをやっていたし、Java/Ruby/PHP/JavaScript/Objective-C をひと通り書けたし、Linux の初歩や SQL勉強していたし、AWS にてサービス運用するぐらいには気力があったので、当然ではある。

どんなもんだーい、と思ってコードを得意げにみせると、彼の表情は厳しい。A氏は「なにこれ?」というのだ。確かに【わざと】再帰を使って記述したが、シンプルに仕上げたつもりだ。それで「なにって、再帰ですよ?」とかえすと、A氏の表情はみるみるうちに厳しくなっていった。

ちょっとバックヤードにおいでや」というので、共同スペースの給湯室に行く。そこで「なんで履歴書を持ってこないの?」からはじまって、散々ディスられて「1日棒に振ったなぁー」という表情していたら、ますます怒らせたらしく、「キミは態度も顔も悪いねー」と言われ、さすがの俺もブチギレる。

もう時間無駄から帰ろうとしたら、「ポートフォリオを作ってこい、出来が良ければサ●バーエ●ジェントに紹介する」というじゃないですか。いやぁ、甘かったね、当時の自分は。そんなの、嘘に決まってるじゃないですか。でも、信じちゃったのですよね。

そのあと履歴書を書かされ、【未】登録派遣事業会社員正社員でなく、保険もなし)となり、禁止されている事前面接をされて、客先常駐に無事にはめ込まれましたね。ぶっちゃけ、ここまでは「世間知らずが身ぐるみ剥がされたね、勉強になったね」でおしまいなんですよ。ええ。

本当に書きたいことは、ここからだ。この A氏という人物が許せないのだ。どう許せないかというと「プログラミング計算機科学に対して愛はないのに、人工知能のことは語れる」と本気で思っているからだ。

知っている人は当然なんだが、【教師なし学習】といった類のもの1970年代には存在しているのだ。【深層学習】なんてものも、1970年頃には理論は完成していたのだ。どうして、21世紀になるまで注目されなかったのか?それは、ハードウェア能力が不足しているからだ。そして、未だに不足している。加えて、場末中小企業努力しても手に入れられないものがある。それは、【教師あり学習】に必要な音・画像データだったりする。こればかりは、グーグルマイクロソフトを超えてくる会社日本にはない。

まぁ、世の中には仕方のないものがある。別のところで勝負しよう。じゃあ、どう勝負するか?そりゃ『技術』でしょ、と普通は思うよね。それが、A氏は違うのですよ。彼の場合は、源泉は「学生を利用する」という戦略をとったわけ。そう、ベンチャー企業がやりがちな「やりがい搾取」ってやつだ。

はっきり言って、社会人ちょっとやったら、彼の言っていることが「感覚的におかしい」というのがわかるのだ。例えば「未認可の派遣事業をやっている」「インターン成果物営業する」「講演会執筆ばっかやってる」とかね。あと、勝手に祝賀会とかに行って「有名人ツーショット」を撮ってくるのよ。その写真マウンティングしてくるのは、真正キチガイ所作だと思ったよね。

ちなみに、A氏はアメリカの名門大を出ている(arxiv論文あったからマジ)が、計算機科学じゃないのよね。とある彼の手記を読むと「友人がこれからAI」と言っていたかスタートしたらしいですのよ。逆算すると、勉強期間はたったの 1年。絶対に無理だってばよ。当時の自分ですら「再帰を知らない人をプログラマーと認めたくない」と思ったし、こいつ計算機科学知識ゼロに近いと感じたもんね。

A氏の名誉のために書くと、努力はしてたとは思うよ。彼のブログを読んだら、Mecab やら TF をさわっていたしね。まあ、でも、それでも本をかけるほどの実力はないよ。だって、オレ知ってるもん。彼がラ○サーズに執筆依頼していたの見ちゃったし、インターン生に代筆させてたから。

疲れたので、途中で書くのやめます。どうしてスキルのない AI人材執筆依頼がくるのか、なぜ A氏はAIにすがるのか、出羽守AI人材未来はあるのか、は希望があればやります。)

追記arXiv ってプレプリント置き場なのね。知らなかった。ありがとう

2021-03-28

anond:20210328122157

設定が雑なので雑に書くぞ。URL貼りすぎると投稿できないから所々自分で見つけて。

ガチ初心者

ほぼ初心者Udemy

Udemy終わったら本

DeepLearning

理論(というか↑で紹介してない本)

2021-02-08

anond:20210208080457

全ての勉強ニューラルネットに絡めてやった人、って感じのする意見なんだよな。最近若い人はそういう人すごく多いけど。

アテンションがどうとか言ってるけど、そもそもモデルパラメータ画像座標と図形形状の直積に取れば位置情報は当然入る。単にそれだけの話なのに、わざわざ「アテンション」とか言ってしまうところが、ニューラルネットもっと言えば並進対称性をあからさまに入れた畳み込み演算が暗黙の前提になりすぎているといえる。

GANがどうと言ってる人も同一人物だろうなと思うけど、そもそも単なる教師あり学習human in the loopアクティブラーニング全然話が違うだろう。

ディープラーニングもいいけど、もっと基礎や、そもそもどういうことなのかということを考えた方がいいんじゃないかなと思う。

2021-01-21

anond:20210121084714

ダメ

はてなーは、それに言及少ない傾向あるよね

そもそも教師あり学習というものを知らないのかもしれない

2020-11-16

AIアルゴリズムなんやろ?

ということは、教師あり学習場合は「比較元のデータ量」に比例してパフォーマンスが劣るはずではないか?と思っているのだけど、そこんところ教えて下さい。

2020-10-03

anond:20201003224752

変な記事を書いてあるのはわかっている。これは人工知能否定する文章じゃ無いんだ。上から下まで読んだら、とある人物搾取された人が共感してくれる目的で書いたのだ。あの人にやられたら、確実に機械学習のことを嫌いになるようになるので、そうなった人が共感して「同じ思いをした人がいるのだな」と思えるように書いたつもりなんです。もちろん、教師あり学習教師なし学習強化学習があって、こんなアルゴリズム使っているのか、ぐらいし知りませんよ。ですが、自分人工知能には手に余るので、昔も今後もしないと思いますが、人工知能が来るというのは確信していますお気持ちを害したのは謝ります。申しわけありません。

anond:20201003221504

オレは機械学習ポシャる確信してるし、こんな暗記馬鹿ライブラリをちょろってやって人間が負けるようだったら、人類は滅亡すべきだと思うよ。

こういう認識なんだとすると、もう少し機械学習勉強してみた方がいいんじゃないかなって思う。教師あり学習しか知らないっぽいし。

現状の機械学習ちょっと賢い決定木レベルであるのは間違いないけど、どっちかというと、それを通じて思った以上に大多数の人間がやってる知的活動と言われているものは単なる「暗記馬鹿」に過ぎなかったということが分かってきたということがキモだと思うよ。

anond:20200903011453

人工知能詐欺まがいなことしてる香具師に引っかかった、という話をこれからしていく。この記事は「人工知能詐欺だ」ということでなく、「詐欺師は人工知能を使いたい」ということを語る。

もう10年ぐらい前になるのだけど、人工知能には色々あるのに「深層学習けが人工知能」だという無勉強馬鹿に引っかかったんだよ。本当は人工知能なんて LISP から始まって、色々あって今の AI につながるているのに、その歴史は全く無視してね。Pythonライブラリでどうにかできないもの不要とのことなので、「ふーん、そうなんですか」ぐらいで対応してた。なぜなら、自分人工知能APIを叩いてブラウザに表示する部位を担当たからだ。

その会社にはエンジニアがいないので、人工知能デザインを除いた全てをほぼ自分だけでフロントエンド(当時はFlashからバックエンドDjango)とデータベースクラウド部分を設計・開発・運営をやることになった。それは慣れてたから良いのだけど、ひとりでぼちぼちやるのは変な感じだった。ホームページには10名近い社員がいます、とのことなのに。

この理由はなぜなのか理解できたのは、インターンがやってきてからだ。そいつは結果を出せないから有能な人がやってこないのた。それで社員数を水増しするためにインターン社員としてカウントしていたのである。なんとインターンの無給の学生ばっかり声かけて、ただ働きさせて「成果は自分のものミス能力のない学生のせい」みたいな畜生の極み、のようなことをして糊口をしのいでいる自称天才』に俺は捕まってしまったのにここではじめて気がついたのだった。信じられないことに。

それで、ついに API をつないで一つのシステムしましょうという日が来た。なんとか力量で解決したのだけど、はじめて彼のソースを見せてもらったときの衝撃度ときたらね。驚いたよ、スカスカコード過ぎてね。おかげで深層学習ライブラリを使えば簡単にできるのも学んだけのだど。

閑話休題

まぁ、コードを書くのが本業でない人だからいか、と思ったらなんと、Python 教室を開くというじゃないですか。それで、成果をサイト掲載するのですよ。自分コード絶対に載せないのに、他人コード添削して「弊社は実力があります」みたいな事例にしていたのですよ。驚いたことにね。

なぜ、そのような香具師存在できたのかというと、「人工知能効果判定をしにくいけど、将来的にはメリットになる可能性が高い」という計算機科学領域では珍しい特性を持っているのよね。ほら、業界人にとってブラウザデータベースといったものは、ちょっと触ったら特性感覚にわかるじゃないですか。そこが人工知能ちょっと違う。

もちろん人工知能は世の中に必要不可欠なものになるのは間違いないのだけど、というよりも現状でもスパムメール判定やゲームでは活躍していますけど、おそらく個人がどうにかできるものではないのよね。理由はこれ以上はアルゴリズムの向上が困難で、高コストな専用ハードウエアを扱える資本家に対抗する術を個人が持てないという限界と、教師あり学習のような判断基準の元になる資料をどう収集するのかという問題点解決した人や組織が皆無という状態にあるからなんですよ。特に最後の部分は未だに twitter レベル組織ですらやらかしているので、まだまだ難しいと思われます

学習根拠になったもの自体をどうやってキレイものにするかということすら、データサイエンスという学問が出てきて苦労しているのですからユーザーエンドからしたらこ領域は未だにキャズムを超えていないと判定されるのは仕方がないことなのでしょう。それは、そういうもんだから良いのですよ。将来的には解決される可能性が高いでしょうし。

それでですね、やっと本題に入れるのですけど、問題点は「人工知能効果判定をしにくいけど、将来的にはメリットになる可能性が高い」という非対称性をこの領域は抱えているのですよ。これはですね、バイオ健康食品代替療法)や金融商品暗号通貨バイナリーオプション)なんかに出てくる胡散臭い「何しているのかわからない」香具師が介入しやす環境なのですね。それっぽいことを言って、専門家なら絶対に言えないコミットメント金融だと「100%絶対に儲かる」とか)を宣言し、私はアメリカの有名大の(別領域の) Ph.D. を持っています(嘘)、日本ゴミです、さあ皆さん『人工知能で夢』を叶えましょう、なんていうクサい台詞を(非技術者向けの)講演会で語るやつがいるのです。残念なことに。

でも、皆さん、ちょっと考えてみてください。なんで(トーシロ限定で)講演会なんてする必要があるのかと。人工知能世界講演会をして資金集めをする、っておかしくありませんか?OSS で有名なコミッタだったり、インパクトファクターのつく雑誌名前がのるような人材がですよ、この御時世にわざわざ資金集めする必要がありますか?世界から「金を出させてくれ」といって金がわんさか集まってくるに決まっているじゃないですか。逆に、プロを避けるような人物に金を出したいと思いますか? よって、(トーシロ限定で)資金集めのための講演会なんかをひらくような残念な人工知能開発者が金を稼ぐことはありません。同様なケースに遭遇したら、出資したら泣き寝入りすることになりますよ。

※ この記事アキネーター下りがクソです。もう少ししたら自分言葉で書き直します。ただ、この記事を消すことはしないです。これ技術的な話をしているようにみせてますが、わかる人にはしっくりくる符牒のつもりで書いています

うん、でも、わたし講演会でその人のつくった人工知能が動いているのみたよ、まるでアキネーターみたいな、というのでありましたら「良いものを見ましたね」とこたえますよ。あれは良いものです。実はアキネータークローンは今だと学生レベルスキルで作れます。具体的にのますと、なにかテーマを固定して、そのテーマ関係する情報を片っ端から集めて、Pythonライブラリを使ってデータ処理を行い、機械学習ライブラリを介して5段階の入力に対して適宜返せるような状態に持っていき、Rails/Laravel/DjangoHTML を吐き出すようにして、ウェブブラウザVue/ReactjQuery に呼応するようにすると計算機科学ができる人だと作れちゃいますし、見た目を重視したければ美大生にでも声かければ、似たようなキャラを描いてくれることでしょう。

この程度だと、二人の学生を無休(給)のインターンやらせて、詐欺商売道具をただで作れます。これは、アキネーターは駄目だとは言ってません。説明すると長くなるので省きますが、あなたを騙す道具を作るのにプロは要らないと言っているのです。

それで話を続けさせてもらいますが、哀れな学生酷使されたうえに、会社サイトに「インターン思ひ出検閲済み)」を実名掲載されるという、デジタルタトゥーを刻まれるのです。かわいそうに。

※ ここを疑え、というポイントを追加。

ランサーズ原稿の依頼やコアなコードを依頼

これだけでは済みません。詐欺の道具はこれだけでは不足しまからね。本は良い権威の道具になりますよね?そうなんですよ、出版社知識のない馬鹿共が「学生けが書いた技術書」(前書きと終わりにだけを本人が書き、しかも自著として講演会提示するという狂気の書)を出しやがった。これ、マジで有名出版社やらかしたので驚いたよ。

で、こいつもう一冊も本(これまた共著なのに、自著として講演会で使うイカれた書)を出してるのよね。まぁ、読んでみたらあまりの頭の弱さに感動したのだけど、驚いたことにこの本を出典として Wikipedia に何度も記載しようとチャレンジするキチガイ(本人かは不明)がいたのよ。もちろんリジェクトくらっていたのだけど、ビビるよねー。繰り返すが、人工知能が悪いのじゃないのですよ。人工知能を使って、投資家を騙そうとするのが許せないのであって。

ちなみに、わたくしはそいつコード添削されたのですけど、おそらくそいつは FizzBuzz テストクリアできませんよ。なぜなら、If/Else がかけないのではなく、四則計算ミスが酷いので。チューリングテストは通るとおもうけど。どうして、大切な投資家向けの資料なのに単純な数値が一致しないのかわからないのですけど、何故か数値の足し算がおかしいことが多すぎるのよ。数値が一致しない、ってヤバすぎるだろ。それ、多分病気から、哀れに思った(元)奴隷ちゃんたちは、病院へ行くように諭してあげてください。きっと、逆上するでしょうけど(笑)

えっ、なんでお前はやんないのか?って、そりゃ「めちゃくちゃそいつのこと恨んでいるから」に決まっているじゃない。オレは、そいつを救えるほど、冪等な人間じゃないんだよ。だって、オレは天然知能だからな。

p.s. 多分、この記事言及している人物被害にあった方はは多いので、「アイツだろうな」とわかるように書いてあります。「アイツってどんな人?」と聞かれたら、説明するのが辛いでしょうからこのページをさっとみせられるようにこの記事を書きました。私も辛いのです。10フラッシュバックに悩まされてきました。ただ、これ以上の犠牲者が出ることが耐えられなくなり、今回この記事を書かせていただきました。この記事言及している人物は専門ではないのに人工知能情報工学という餌を使って、相変わらずボニーアンドクライド気取りで若者搾取していますソーシャルエンジニアリングを使われると、若者はかんたんに騙されてしまものです。かつての自分がそうだったように。世の中にしなくて良い苦労はあるのです。

この記事人物とは「」(ニュースになったら追記します)である

2020-06-09

2020-06-09

寿司打 値段21840 平均キータイプ数6.8 正しく打ったキーの数1140 ミスタイプ17 前日比-760

https://www.coursera.org/learn/machine-learning/home/welcome はじめた

教師あり学習サンプルデータとそれに対するラベルが与えられる。

教師なし学習サンプルデータけが与えられる。

回帰問題連続する値を扱うもので、分類問題は離散的な値を扱う。

教師なし学習は特徴に応じて集まりに分けることができる。その集まりがどういう集まりかまではわからないけど。

回帰学習は訓練データが与えられると学習して、仮説関数を求める。仮説関数名前は慣習的なものらしくて仮説という言葉を深く考えなくていいらしい。

線形的な仮説関数が出てくるもの線形回帰しかも一変数なら単回帰という。

まだ概念的なもので具体例は少ししか出てきてないけど明日も頑張る。

ログイン ユーザー登録
ようこそ ゲスト さん