2026/05/03(日)2026-05-03

foundryでLocalLLMする

Snapdragonとか言う変態的なCPUを積んだNotePCをメインPCにしてしまったのでLocalLLMを愉しむのも一苦労したのでみんなちゃんとMacbook買おうね。さてSnapdragon搭載のWindowsでは現在一番まともに使えそうなのはfoundryだ。

PS C:\windows\system32> foundry model list
Alias                          Device     Task           File Size    License      Model ID
-----------------------------------------------------------------------------------------------
qwen2.5-coder-0.5b             CPU        chat, tools    0.80 GB      apache-2.0   qwen2.5-coder-0.5b-instruct-generic-cpu:4
--------------------------------------------------------------------------------------------------------------------------------
phi-4-mini-reasoning           CPU        chat           4.52 GB      MIT          Phi-4-mini-reasoning-generic-cpu:3
-------------------------------------------------------------------------------------------------------------------------
qwen2.5-0.5b                   CPU        chat, tools    0.80 GB      apache-2.0   qwen2.5-0.5b-instruct-generic-cpu:4
--------------------------------------------------------------------------------------------------------------------------
qwen2.5-1.5b                   NPU        chat, tools    2.78 GB      MIT          qwen2.5-1.5b-instruct-qnn-npu:2
                               CPU        chat, tools    1.78 GB      apache-2.0   qwen2.5-1.5b-instruct-generic-cpu:4
--------------------------------------------------------------------------------------------------------------------------
qwen2.5-coder-1.5b             CPU        chat, tools    1.78 GB      apache-2.0   qwen2.5-coder-1.5b-instruct-generic-cpu:4
--------------------------------------------------------------------------------------------------------------------------------
phi-4-mini                     CPU        chat, tools    4.80 GB      MIT          Phi-4-mini-instruct-generic-cpu:5
------------------------------------------------------------------------------------------------------------------------
qwen2.5-14b                    CPU        chat, tools    11.06 GB     apache-2.0   qwen2.5-14b-instruct-generic-cpu:4
-------------------------------------------------------------------------------------------------------------------------
qwen2.5-coder-14b              CPU        chat, tools    11.06 GB     apache-2.0   qwen2.5-coder-14b-instruct-generic-cpu:4
-------------------------------------------------------------------------------------------------------------------------------
qwen2.5-coder-7b               CPU        chat, tools    6.16 GB      apache-2.0   qwen2.5-coder-7b-instruct-generic-cpu:4
------------------------------------------------------------------------------------------------------------------------------
qwen2.5-7b                     NPU        chat, tools    2.78 GB      MIT          qwen2.5-7b-instruct-qnn-npu:2
                               CPU        chat, tools    6.16 GB      apache-2.0   qwen2.5-7b-instruct-generic-cpu:4
------------------------------------------------------------------------------------------------------------------------
gpt-oss-20b                    CPU        chat           12.26 GB     MIT          gpt-oss-20b-generic-cpu:1
----------------------------------------------------------------------------------------------------------------
phi-3-mini-128k                NPU        chat           2.78 GB      MIT          phi-3-mini-128k-instruct-qnn-npu:3
                               CPU        chat           2.54 GB      MIT          Phi-3-mini-128k-instruct-generic-cpu:3
-----------------------------------------------------------------------------------------------------------------------------
phi-3.5-mini                   NPU        chat           2.78 GB      MIT          phi-3.5-mini-instruct-qnn-npu:2
                               CPU        chat           2.53 GB      MIT          Phi-3.5-mini-instruct-generic-cpu:2
--------------------------------------------------------------------------------------------------------------------------
phi-4                          CPU        chat           10.16 GB     MIT          Phi-4-generic-cpu:2
----------------------------------------------------------------------------------------------------------
deepseek-r1-7b                 NPU        chat           3.71 GB      MIT          deepseek-r1-distill-qwen-7b-qnn-npu:2
                               CPU        chat           6.43 GB      MIT          deepseek-r1-distill-qwen-7b-generic-cpu:4
--------------------------------------------------------------------------------------------------------------------------------
phi-3-mini-4k                  NPU        chat           2.78 GB      MIT          phi-3-mini-4k-instruct-qnn-npu:3
                               CPU        chat           2.53 GB      MIT          Phi-3-mini-4k-instruct-generic-cpu:3
---------------------------------------------------------------------------------------------------------------------------
mistral-7b-v0.2                CPU        chat           4.07 GB      apache-2.0   mistralai-Mistral-7B-Instruct-v0-2-generic-cpu:3
---------------------------------------------------------------------------------------------------------------------------------------
deepseek-r1-14b                NPU        chat           7.12 GB      MIT          deepseek-r1-distill-qwen-14b-qnn-npu:2
                               CPU        chat           11.51 GB     MIT          deepseek-r1-distill-qwen-14b-generic-cpu:4
---------------------------------------------------------------------------------------------------------------------------------
qwen3-0.6b                     CPU        chat, tools    0.58 GB      apache-2.0   qwen3-0.6b-generic-cpu:4
PS C:\windows\system32>

現状これだけのモデルが使えてDeviceがNPUのものであればNPUを活用してLocalLLMが使えるようになる。 45TOPS程度なのでGPUゴリゴリのPCには当然負けるし、NPUが使えるモデルがまだまだ少ない現実なのでどこまで活用できる?と言われると微妙だなぁと言わざる得ない。

素直にCopilot+PCとして使う?

現状使ってみて便利かな?と思ったのは Recall で定期的に画面のスナップショットをローカルに保存して後から検索ができるなんとなくタイムマシンっぽいもの、Live Captionsがもう少し使えるようになるとうれしいかなぁ?と言う感じとClick to Do でテキストや画像の処理、程度のもの。

現状まだまだ微妙だよね。

MTerm

iOSで便利に使えるTerminalアプリケーション。Liquid Logicを愛用中だが、VLMを使う時に便利そうだったので購入した。が、数日前のupdateの際にアプリ内で管理する証明書が意図せずupdateされてしまった様で管理するサーバーに繋がらなく。

LiquidLogicでは繋げることが出来たので事なき得たがちょっと依存は危険そうだ。バックアップルートは用意しておかないといけないな。

おめざめ

0800 シャワってご飯食べてお散歩。

散髪

今日は床屋さんやってた。散髪に。