VPS上に Ollama + 軽量ローカルLLMを構築した手順
GPUなしのVPS上に、Ollama と軽量なローカルLLMを構築した記録です。今回は「中国製モデルは避けたい」「日本語に強いものがよい」という条件で、ELYZA 系の日本語モデルを採用しました。 6 vCPU / 11 GiB RAM / GPUなし のVPSでも、短文用途なら十分実用になります。 一
Tag
VPS に関する記事一覧です。
GPUなしのVPS上に、Ollama と軽量なローカルLLMを構築した記録です。今回は「中国製モデルは避けたい」「日本語に強いものがよい」という条件で、ELYZA 系の日本語モデルを採用しました。 6 vCPU / 11 GiB RAM / GPUなし のVPSでも、短文用途なら十分実用になります。 一
この記事では、個人開発のサービス基盤として、 レンタルサーバー は選択肢に上がると感じた件を紹介します。 Webアプリケーション を レンタルサーバー で動かすのってアリなの?と思う方の参考になればと思います。 先日、 TANTAN LINK という URL短縮サービスをリリースしました。 /release tanta
Sponsored