AI搭載機器の
高性能・低電力・小型化に貢献
エッジAIに最適化した
カスタムメモリソリューションを
ビジネスの新機軸へ
ウィンボンド・エレクトロニクス
代表取締役社長
小林 平治氏
AI搭載機器の
高性能・低電力・小型化に貢献
ウィンボンド・エレクトロニクス
代表取締役社長
小林 平治氏
低・中容量メモリに特化した半導体メーカーのウィンボンド・エレクトロニクス(以下、ウィンボンド)は、2025年に「エッジAI」への適用に最適化した積層型のカスタムメモリソリューション(CMS)を市場投入。スマートカメラやIoT端末など、エッジ側の機器のシステム性能の向上、低電力化、省スペース化を後押しする。日本法人代表取締役社長の小林平治氏に詳細や展望を聞いた。
—改めて貴社の事業内容を、ビジネスの状況と合わせてお聞かせください。
小林 ウィンボンドは台湾に本社を置く、コード格納用フラッシュメモリや、スペシャリティ(特定用途)DRAMおよびカスタムメモリソリューション(CMS)にフォーカスした半導体メモリメーカーです。特にNOR型フラッシュメモリではグローバルで市場をけん引しています。当社が提供する低・中容量メモリは、パソコンやスマートフォンから、自動車、産業機器と幅広く活用いただいており、皆様の身近な存在として、世界中の産業を下支えしていると自負しています。
2024年は、2023年より低迷していた半導体市場が期待ほど回復しなかった影響で、業績としてはほぼ横ばいという状況でした。しかし、必須部品として当社製品のニーズは変わりませんので、技術革新を進めながら、来年、再来年の市場回復に期待しています。
また、当社の日本の売り上げのうち約40%は自動車関連が占め、次に産業機器関連が続きます。国内ではこれらの領域で拡販に注力しました。
—注力事業について教えてください。
小林 2022年末に稼働を開始した台湾の高雄工場でのCMS生産が順調に進んでいます。2024年には先進の20nmプロセス量産に注力。生産対象の中心をDDR3対応品から性能を向上したDDR4/LP DDR4対応品へと移しました。
日本市場では、増産体制が整ったLP DDR4対応品をスマート化が進む自動車産業向けに販売促進しました。インフォテインメントなどで利用されるSoCの世代が進むことで、より高速かつ低消費電力なDRAMの需要に対応した措置です。産業機器領域でも、ネットワーク関連やFA関連での需要が高まっており、ここでもDDR4/LP DDR4の需要が高まっています。
コード格納用のフラッシュについても、様々な機能の自動化が進んだことでシステム規模が大きくなり、より高速なI/O、より大容量の製品が求められるようになりました。当社では、2024年にOctal(×8)インターフェースを備える「Octal NOR Flash」を市場投入。従来のSPI(Serial Peripheral Interface)やDual(×2)、Qual(×4)に置き換えるべく、お客様に評価していただいています。今後は、AIの活用の拡大が予想されており、高速化・大容量化が進む傾向は加速していくと見ています。
—2025年の注力市場は。
小林 成長著しいAI関連市場の中で、クラウド側ではなくエッジ側にAI関連処理機能を搭載していく動きの加速に注目しています。スマートカメラやAR/VR機器、産業用のIoTシステムなど、処理のリアルタイム性と、セキュリティやプライバシーの保護などが重要になる応用機器において、「エッジAI」を導入する動きが顕在化しています。
一般に、AI処理を実行するシステムでは、プロセッサーとメモリの間でのデータ転送で極めて高い帯域幅が求められます。この点は、クラウドもエッジも同じですが、エッジAIのシステムに導入するAIモデルは、クラウドでGPUと併用されているHBM(広帯域メモリ)ほどの大容量は必要ありません。ところが、これまではエッジAIに適した仕様のDRAM製品が存在しませんでした。当社は、エッジAIの技術開発と量産の両面で強みを発揮できると大いに期待しています。
—ウィンボンドの飛躍につながる応用が立ち上がりつつあるのですね。
小林 当社は、「CUBE(Customized Ultra-Bandwidth Elements)」と呼ぶ、エッジAIに適した高速・低電力・省スペースを実現可能な、積層型CMSの新製品を投入します。お客様が開発するエッジAI処理用のSoCと組み合わせて1パッケージ化するCMS製品として、2025年中にはリリース予定です。
CUBEでは、20nmプロセスノードで生産するI/Oの帯域幅が16~256Gバイト/秒で容量が1~8Gビットのダイを利用。μバンプやハイブリッドボンディング、TSVを要求仕様に応じて使い分けて1~4枚を3D積層し、応用やSoCの仕様に合わせたDRAMを構成可能です。これによって、I/Oは最大1024Gバイト/秒、容量は最大32GビットまでのDRAMをスケーラブルにカスタム構成可能です。
AI処理では、消費電力低減が常に課題であり、エッジAIでは特に重要です。CUBEでは1pジュール/ビット未満という電力効率に優れたI/Oを採用し、この点からも競争力のある製品です。また、SoCとDRAMの間をつなぐI/Oの仕様はカスタマイズ可能であり、高いシステム性能を実現できます。
—時代の要請に応える製品ですね。どのような顧客を想定していますか。
小林 近年、自社システムの高付加価値化を狙って、ASICによって独自SoCを開発するシステムメーカーが増えてきています。また、SoCを開発・販売している半導体メーカーの中には、高速DRAMを1パッケージ化したくても、DRAMを自社開発・生産していない企業は多くあります。
こうしたお客様それぞれから明確な希望を汲み取り、求められる仕様のDRAMを開発・量産していきます。ただし、完全にメモリの仕様をカスタム化すれば、相応の工数が掛かってしまうため、当社ではセミカスタム対応の体制も整備しており、実績のある設計資産を有効活用した迅速な対応が可能です。
—CUBEの展望を聞かせてください。
小林 ウィンボンドでは、次世代16nmプロセスノードのCUBE開発を進めています。生成AIなど応用の高度化は留まることがありません。こうした将来技術を活用しながら、さらに高速化と大容量化を推し進めることで、発展著しいAI関連の応用での要求に応えていきます。
当社は最新の自社工場を持つ強みを生かし、お客様に長期供給を約束できるメモリサプライヤーとして、AIをはじめとする先進的ニーズに対応する製品を、求められるかたちで安定供給していきます。価値あるエッジAI応用システムの実現を目指して、より多くのお客様を支えることができればと思っています。
ウィンボンドのエッジAI用カスタムDRAMソリューション「CUBE」のカバー領域。