'; html_body += '
'; html_body += '' + title + ''; html_body += '' + summary + ''; html_body += '
'; dom_floating.innerHTML = html_body; /**/ dom_floating.getElementsByClassName('floating_box')[0].style.bottom = f_bottom + '.px'; /**/ var thumb_elem = dom_floating.getElementsByClassName('thumb')[0]; thumb_elem.addEventListener('click', function(){ location.href = link_url; }); var content_elem = dom_floating.getElementsByClassName('content')[0]; content_elem.addEventListener('click', function(){ location.href = link_url; }); var close_btn_elem = dom_floating.getElementsByClassName('close_btn')[0]; close_btn_elem.addEventListener('click', function(){ dom_floating.classList.add('content_hidden'); }); /**/ dom_ad_float.appendChild(dom_floating); } /** * */ window.AI.unsetF = function(){ } }());

Meta、テキストから音楽を生成するAIツール「AudioCraft」を発表

Sabrina Ortiz (ZDNET.com) 翻訳校正: 矢倉美登里 吉武稔夫 (ガリレオ)2023年08月04日 10時40分

 Meta Platformsは米国時間8月1日、テキストから「質の高いリアルな」音楽を生成できる生成人工知能(AI)ツール「AudioCraft」を発表した。

波長のイメージ
提供:Mr.Nngk Phakayaem/Getty Images

 AudioCraftは、Metaの3つの生成AIモデル、「MusicGen」「AudioGen」「EnCodec」で構成されている。MusicGenとAudioGenは、いずれもテキストからサウンドを生成するもので、MusicGenは音楽を、AudioGenは特定の音や効果音を生成する。

 「HuggingFace」で公開されているMusicGenにアクセスすれば、デモを再生できる。プロンプトには、聴きたいと思うあらゆる時代のあらゆる種類の音楽を記述できる。Metaは、「バックグラウンドでドラムとシンセサイザーが強く響く、80年代風の迫力あるポップソング」などの例を公開している。

 EnCodecは、オーディオを圧縮して入力信号を再構築するニューラルネットワークで構成されたオーディオコーデックだ。プレスリリースによると、Metaは、ノイズが少なく質の高い音楽生成を可能にする、改善されたバージョンのEncodecをリリースしたという。

 Metaは、事前にトレーニングされたAudioGenモデルもリリースした。ユーザーは、犬の吠える声や床のきしむ音のような環境音や効果音を生成できる。

 Metaはさらに、研究者や専門家が他のモデルをトレーニングするために利用できるよう、3つのオープンソースモデルすべてのウェイトとコードを公開した。

 「さらにうまく制御できれば、MusicGenは新種の楽器になれるだろう――初めて登場した時のシンセサイザーと同じように」とMetaは述べている。

Metaのプレスリリース

この記事は海外Red Ventures発の記事を朝日インタラクティブが日本向けに編集したものです。

CNET Japanの記事を毎朝メールでまとめ読み(無料)

-PR-企画広告

企画広告一覧

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]