IBM Project Bob / WSL 環境の起動で Exec format error が出たときにまず試すこと

IBM のProject Bob(以降Bobと略します)、皆さんもう試しましたか?

Project Bobのウェイティングリスト

www.ibm.com

【参考】前回のファーストタッチ体験記

uepon.hatenadiary.com

watsonx Code Assistantの基盤技術としても注目されているBobですが、今回は難しめのタスクに挑戦しようと思い、WSL(Ubuntu) 上からBobを起動しようとしたところ……(ちなみにBobの起動コマンドはbobideです)

$ bobide .
/mnt/c/Users/xxxxx/AppData/Local/Programs/Bob-IDE/bin/bobide: 61: /mnt/c/Users/xxxxx/AppData/Local/Programs/Bob-IDE/Bob-IDE.exe: Exec format error

いきなりエラー。

エラーメッセージを見ると、bobide スクリプトの61行目で Bob-IDE.exe を実行しようとして失敗しているようです。

「インストール失敗した?パスがおかしい?」と思って、切り分けのために notepad.exe を叩いてみたんですが……

$ notepad.exe
-bash: /mnt/c/WINDOWS/system32/notepad.exe: cannot execute binary file: Exec format error

これも似たようなエラー。つまり Bob-IDE の問題ではなく、WSL から Windows の exe が一切起動できない状態です。

続きを読む

topやhtopは何を見ている?/procの仕組みを知れば自分でも作れる【シェルスクリプト実践】

Raspberry Pi 5でローカルLLMを動かすのが楽しくて仕方ありません。8GBモデルなら小さめのLLMも動きますし、何より「手元で動くAI」というロマンがあります🤩 ただ、LLMを動かしていると気になるのが 「今、どれくらいリソースを使っているんだろう?」 ということ。特にRaspberry Piは熱暴走でスロットリング(性能制限)がかかることもあるので、監視は必要です。

最初は定番のtopコマンドを使っていたのですが、正直見づらい...(みんなあれでわかるの?🙄)。そこで色々なツールを試し、最終的には、自分で作ってみることにしました!

続きを読む

【これなら実用できる!】Raspberry Pi 5 + llama.cpp + LFM 2.5でローカルLLM環境構築【実測値15tokens/s】

2026/01/21追記:CPU N100、12GBメモリのWindowsPCでllama.cppで動作したところ10tokens/sというスピードでした。

前回はGPUなしで動く!1GB小型LLM「LFM 2.5」の導入方法と実力検証という内容で、軽量なLLMモデルLFM 2.5をGPUのないノートPC環境で動かす方法を紹介しました。

uepon.hatenadiary.com

記事の最後にRaspberryPiでも動作を試してみたいという風に結んでいましたが、Ollamaではモデルが対応しておらず、LM Studioは動作しないので、どうやって試すかを考えていました。いろいろ考えて、そういえば…llama.cppが動作したのではと思いました🤔 個人的には、OllamaやLM StudioのようにWebインターフェース無いしな🥲…と思っていたのですが、昨年末辺りにllama.cppにもWebインターフェースが追加され、その上APIサーバーとしても動作するようになっていたようです。

そういうわけで、今回はllama.cppをRaspberry Piにインストールして試してみました。

続きを読む

GPUなしで動く!1GB小型LLM「LFM 2.5」の導入方法と実力検証

2026/01/21追記あり:LM Studioから直接モデルのダウンロードができる様になりました。 2026/01/21追記あり:N100CPUでの動作スピードを追記(約8tokens/s)。

最近、ローカルLLMを動かすためのGPUやメモリの価格が高騰していて、「新しくPC環境を揃えるのはちょっと厳しいな…」と感じることが増えました。「大きいモデルを動かすには、それなりのスペックが必要」という前提でやってきましたが、そろそろ別の戦略を考える必要がありそうです🤔

そんな中、最近よく耳にするようになったのが SLM(Small Language Model) という言葉です。小型だけど実用的なモデルが少しずつ増えてきていますね。今どんな感じなのか気になって情報を探していたところ、面白いモデルを見つけました。

Liquid AI が公開した 「LFM 2.5(Liquid Foundation Model 2.5)」 です。

www.liquid.ai

このモデル、何がすごいかというとファイルサイズが 約1GB 程度なんです。それでいて、GPT-3.5の初期状態に近い性能があるというのです。「これは試したい!🤩」と思いました。

最終的に個人的な興味としては、Raspberry Piなどのエッジデバイスで実用的に動くのか? という点です。今回はそこまでいけないのですが、今後は動作検証もしてみたいと思っています。

GPU非搭載のPCでの実際の使用感、「日本語モデル vs 汎用モデル」の比較まで試してみます。

続きを読む

StreamlitのLLM呼び出しが遅い?並列処理で爆速化する3つの方法を比較してみた

修論まだ終わってないのに…🥲🥲🥲🥲💦💦💦💦

現在、絶賛修論執筆中の身ですが、修論の研究でStreamlitでLLMを使った実験用のアプリを作っていたときに 「複数のLLM APIを呼び出して、結果が返ってくるの遅くない?」から始まった技術検証の話を書きます。

複数のプロンプトをLLMに投げる処理があると、どうしても待ち時間が気になるんですよね。1回のAPI呼び出しに1秒かかるとして、5回呼び出したら5秒。これ、並列にしたら1秒ちょっとで終わるんじゃないか?と。

というわけで、今回は順次処理、スレッド並列(ThreadPoolExecutor)、非同期並列(asyncio) の3パターンで実装して、実際にどれくらい速度差が出るのか検証してみました。

この記事でわかること!

  • Streamlitの基本的な使い方(初心者向けにすこし解説)
  • concurrent.futures.ThreadPoolExecutor による並列化
  • asyncio + aiohttp による非同期処理
  • 実際の速度比較
続きを読む
' } }) e.innerHTML = codeBlock; });