「マルチモーダルLLMをllama.cppとMiniCPMでローカル環境に実装する - Safie Engineers' Blog!」
最近のマルチモーダルAIの発展に伴い、ローカル環境でも手軽に動作させたいというニーズが増えています。MiniCPM-o-2_6 はオープンソースのマルチモーダルAIであり、ローカルでの実行も可能です。本記事では llama.cppを使用し、MiniCPM-o-2_6 をWindows 11 のローカル環境上で動かす手順をまとめました。
コンテンツ文字数:0 文字
見出し数(H2/H3タグ):0 個
閲覧数:6 件
2025-02-26 14:09:26