並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

orcaの検索結果1 - 12 件 / 12件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

orcaに関するエントリは12件あります。 MicrosoftLLMAI などが関連タグです。 人気エントリには 『ORCAの哲学が流れる「新型コロナウイルス接触確認アプリ」』などがあります。
  • ORCAの哲学が流れる「新型コロナウイルス接触確認アプリ」

    日経メディカル運営の「日本最大級」医師求人メディア。転職支援会社が扱う求人情報のほか、医療機関からの直接求人情報も掲載!

      ORCAの哲学が流れる「新型コロナウイルス接触確認アプリ」
    • Microsoftの研究者ら、比較的小さなサイズでもタスクによってはOpenAIのGPT-4を凌駕する言語モデル『Orca2』を開発 | AIDB

      Microsoft Researchのチームによって発表された『Orca2』は、OpenAIのGPT-4などの大規模言語モデル(LLM)に匹敵し、時には凌駕する性能を発揮するとのことです。 『Orca2』のような小規模モデルの登場により、計算リソースが限られた環境や、リアルタイム処理が求められるアプリケーションにおいても、高性能な言語モデルが利用できるようになるかもしれません。 なお、研究者らにより、将来的には大規模モデルと相互補完的に利用されるようになるべきと述べられています。 本記事では、『Orca2』の背景、特徴、技術、利用シーン、GPT-4との比較、展望、そして注意点について見ていきます。 参照論文情報 タイトル:Orca 2: Teaching Small Language Models How to Reason 著者:Arindam Mitra, Luciano Del Co

        Microsoftの研究者ら、比較的小さなサイズでもタスクによってはOpenAIのGPT-4を凌駕する言語モデル『Orca2』を開発 | AIDB
      • 【Orca-2-13b】Microsoftの最新小型LLMがLlama 2を超える性能を叩き出す | WEEL

        WEELメディア事業部テックリサーチャーの藤崎です。 2023年11月21日に、Microsoftから小規模言語モデルの「Orca-2-13b」が公開されました。 このモデルはmeta社が開発したLLAMA 2と呼ばれる言語モデルをベースにしており、推論能力を向上させるために開発されました。 Orca-2-13bを発表したMicrosoft Researchのツイートは早くも1000を超えるいいねを獲得しており、高い注目を集めていることがわかります。 この記事ではOrca-2-13bの導入方法や使い方、どこまでできるのかの検証を行います。 ベースとなったLLAMA-2とも比較しているので、ぜひ最後までご覧ください。 Orca-2-13bの概要 Orca-2-13bはMicrosoftが発表した小規模な言語モデルで、meta社が開発したLLAMA 2をベースにファインチューニングされており、

        • 医療機関のランサムウェア対策に、日本医師会ORCA管理機構推奨のNASと外付けHDDのセット「BCSP-XAUTN」シリーズ、アイ・オーが発売

            医療機関のランサムウェア対策に、日本医師会ORCA管理機構推奨のNASと外付けHDDのセット「BCSP-XAUTN」シリーズ、アイ・オーが発売 
          • 音楽,あるいはPotluck LabとOrca - 日常の進捗

            今年は個人的に様々な新しいことに取り組めた有意義な一年だった.中でも自分にとってもっとも大きかった「ベスト・オブ・ベスト2019」は音楽,DTMやライブコーディングとの出会いだった.実際のところ,自分はギターやベースといったバンド活動の先にある音楽というものを10代で選ばなかったが,あのときあっただろう音楽に触れているような感覚が,今どこかある.それは自分が圧倒的に初心者だからなのだろう.このエントリでは遅咲きのDTMer,ライブコーダーがどう爆誕したかという話を,あまり肩肘をはらず,思いつくままに書いていくことにする. 音楽はそれなりに聴くほう,というのはおそらく過去の話で,つまり,聴く方だった.ここ数年はSoundCloudに流れてくる楽曲を中心に,Spotifyのリコメンドに従い,誰ともつかぬ作り手の名も知らぬ楽曲を聴取しては気に入れば乱暴にプレイリストに投げ込むような生活をしていた

              音楽,あるいはPotluck LabとOrca - 日常の進捗
            • ORCA ACE - SHIPS OF THE PORT

              MOLの6,706台積み自動車運搬船 ORCA ACE です。 MOLの自動車船も新しいカラーに変わっています。 昨日アップした船のカラーも好きなんですが、こちらもなかなかいいですね。 次世代型自動車船「FLEXIEシリーズ」の2番船。 1番船の"BELUGA ACE"のプレスリリースに船体のことが詳しく書かれてあったので抜粋しました。 「既存自動車船のデザインから一新し、商船三井グループの英文略称“MOL”や、商船三井の自動車輸送サービスにおける世界統一ブランド“MOL ACE (MOL Auto Carrier Express)”を表す“A”、そしてお客様との長きにわたる関係を未来へつなぐ決意を表す白いラインを大胆に表現します。」 現行の自動車船に比べて約2%のCO2削減効果を見込めるということで、エコな船も多くなってきました。 IMO:9777814 船籍:パナマ 全長199.95m

                ORCA ACE - SHIPS OF THE PORT
              • Orca: Progressive Learning from Complex Explanation Traces of GPT-4

                Recent research has focused on enhancing the capability of smaller models through imitation learning, drawing on the outputs generated by large foundation models (LFMs). A number of issues impact the quality of these models, ranging from limited imitation signals from shallow LFM outputs; small scale homogeneous training data; and most notably a lack of rigorous evaluation resulting in overestimat

                • 100R — orca

                  Orbit Versions Operators Basics Projectors Variables Base 36 Table Golf License Make a pull request Orca is a two-dimensional esoteric programming language in which every letter of the alphabet is an operator, where lowercase letters operate on bang, uppercase letters operate each frame. The application is not a synthesiser, but a flexible livecoding environment capable of sending MIDI, OSC & UDP

                    100R — orca
                  • Orca : GPT-4の推論過程を模倣し、ChatGPTに匹敵する性能を有する13BのOSS言語モデル|AstroPomeAI

                    Orca : GPT-4の推論過程を模倣し、ChatGPTに匹敵する性能を有する13BのOSS言語モデル Orca: Progressive Learning from Complex Explanation Traces of GPT-4というMicrosoft Researchが発表した論文の一部を紹介します。 従来のinstruction-tuned model (Vicuna-13Bなど)とは異なり、GPT-4のような大規模言語モデルのステップバイステップの推論過程を学習させることで、軽量なモデルながらChatGPT (3.5)に匹敵する精度を実現したモデルとのことです。 要約( by ChatGPT)Microsoft Researchが開発した13億パラメータのモデルOrcaは、GPT-4からの豊富な信号、説明のトレース、ステップバイステップの思考過程を利用して、大規模基盤モデ

                      Orca : GPT-4の推論過程を模倣し、ChatGPTに匹敵する性能を有する13BのOSS言語モデル|AstroPomeAI
                    • 増田文化 on Twitter: "ウルフアロン選手の中学時代の作文すごい。こんなド硬派が21世紀にもいるのか...!漢気の塊みたいな強い気持ちに感動する。 https://t.co/4ORcA3Mase"

                      ウルフアロン選手の中学時代の作文すごい。こんなド硬派が21世紀にもいるのか...!漢気の塊みたいな強い気持ちに感動する。 https://t.co/4ORcA3Mase

                        増田文化 on Twitter: "ウルフアロン選手の中学時代の作文すごい。こんなド硬派が21世紀にもいるのか...!漢気の塊みたいな強い気持ちに感動する。 https://t.co/4ORcA3Mase"
                      • Orca 2: Teaching Small Language Models How to Reason

                        A few months ago, we introduced Orca, a 13-billion parameter language model that demonstrated strong reasoning abilities by imitating the step-by-step reasoning traces of more capable LLMs. Orca 2 is the latest step in our efforts to explore the capabilities of smaller LMs (on the order of 10 billion parameters or less). With Orca 2, we continue to show that improved training signals and methods c

                          Orca 2: Teaching Small Language Models How to Reason
                        • AWS CloudFormation Vulnerability | Orca Research Pod

                          Secure cloud native applications with a purpose-built platform

                            AWS CloudFormation Vulnerability | Orca Research Pod
                          1

                          新着記事