VPS上に Ollama + 軽量ローカルLLMを構築した手順
GPUなしのVPS上に、Ollama と軽量なローカルLLMを構築した記録です。今回は「中国製モデルは避けたい」「日本語に強いものがよい」という条件で、ELYZA 系の日本語モデルを採用しました。 6 vCPU / 11 GiB RAM / GPUなし のVPSでも、短文用途なら十分実用になります。 一
Tag
LLM に関する記事一覧です。
GPUなしのVPS上に、Ollama と軽量なローカルLLMを構築した記録です。今回は「中国製モデルは避けたい」「日本語に強いものがよい」という条件で、ELYZA 系の日本語モデルを採用しました。 6 vCPU / 11 GiB RAM / GPUなし のVPSでも、短文用途なら十分実用になります。 一
「今一番性能がいい LLM って何?」 「コーディングならどれ使えばいい?」 「結局ChatGPTでいいの?」 こういう質問、最近やたらと聞かれるんですよね。 でも正直に言うと、 この質問に明確な答えを出すのはもう無理ゲー だと思っています。 理由は単純で、状況が変わりすぎるから。 1週間前の「最強」が今日も最強とは限
Sponsored