IT女子 アラ美お疲れ様です!IT業界で働くアライグマです!
「Cursor×Ollamaは動かせたけど、どのモデルをいつ使えばいいのか分からない…」「コード補完と実装で別のモデルに切り替えたいけど運用が面倒…」。こうした使い分け・運用の悩みに直面しているエンジニアは多いはずです。
本記事では、Cursor×Ollamaの基本構築に加えて、タスク別のモデル選定基準・切り替え運用Tips・チーム共有のコツまで踏み込んで解説します。すでにOllamaを動かしているけど「もう一段生産性を上げたい」人向けの実践ガイドです。
モデル使い分けがもたらす3つのメリット



クラウドAPIを使ったAI開発は便利ですが、コスト・プライバシー・レイテンシの3つの課題があります。特にチーム開発では、メンバー全員がAPIを叩くとコストが膨らみやすく、機密性の高いコードを外部に送信することへの懸念もあります。
ローカルLLMを使えば、これらの課題を一気に解決できます。初期のハードウェア投資は必要ですが、ランニングコストはほぼゼロ。コードは自分のマシン内で完結するため、セキュリティ面でも安心です。
Cursor×Ollamaの初期セットアップ手順をまだ押さえていない方は、まずCursorでローカルLLMを使いこなす完全ガイドで基本構築を完了させてから本記事に戻ってきてください。本記事はその次のステップとして、動かした後のモデル使い分け・運用最適化に焦点を当てています。



用途別モデル選定の前提:Ollama環境の準備
それでは、実際にOllamaをインストールしてモデルをダウンロードしていきましょう。Ollamaは、ローカルLLMを簡単に動かすためのオープンソースツールです。Dockerのようにモデルをpull/runするだけで使えるため、複雑な環境構築が不要なのが特徴です。
推奨スペック
ローカルLLMを快適に動かすには、以下のスペックが目安になります。
- GPU:NVIDIA RTX 3060以上(VRAM 8GB以上推奨)
- RAM:16GB以上(32GB推奨)
- ストレージ:SSD 50GB以上の空き容量
- OS:Windows 10/11、macOS 12以上、Ubuntu 20.04以上
Apple Siliconを搭載したMacの場合、M1以上であれば十分な性能が出ます。
Ollamaのインストール
Ollamaのインストールは非常にシンプルです。公式サイトからインストーラをダウンロードするか、以下のコマンドを実行します。
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows(PowerShell)
winget install Ollama.Ollama
コード生成用モデルのダウンロード
Cursorと組み合わせる場合、コード生成に特化したモデルを選ぶのがポイントです。
# CodeQwen 7B(軽量で高速)
ollama pull codeqwen:7b
# DeepSeek Coder 6.7B(精度重視)
ollama pull deepseek-coder:6.7b
Ollamaと他のエディタとの連携については、Ollama×Voidエディタ設定ガイドも参考になります。
以下のグラフは、クラウドAPIとローカルLLMの月間コストを比較したものです。GPT-4oやClaude APIを日常的に使うと月額1万円以上かかりますが、Ollamaなら電気代程度で済みます。





タスク別モデル切り替えの実践設定
OllamaとCursorを連携させる設定を行いましょう。この設定により、Cursorのコード補完やチャット機能でローカルLLMを使えるようになります。CursorはOpenAI互換のAPIエンドポイントに対応しているため、Ollamaが提供するAPIをそのまま利用できます。
Ollamaサーバーの起動
まず、Ollamaをサーバーモードで起動します。
# Ollamaサーバーを起動
ollama serve
# 動作確認
curl http://localhost:11434/api/tags
# 利用可能なモデル一覧が返ってくればOK
Cursorの設定
Cursorを開き、設定画面からローカルLLMを使う設定を行います。
- Settings → Models → OpenAI API Baseに
http://localhost:11434/v1を入力 - Model Nameに
codeqwen:7bまたはdeepseek-coder:6.7bを入力 - API Keyは空欄または任意の文字列でOK(Ollamaは認証不要)
モデルの使い分け
実際の開発では、タスクに応じてモデルを使い分けるのが効果的です。
- CodeQwen 7B:日常的なコード補完や簡単なリファクタリングに最適。軽量で高速
- DeepSeek Coder 6.7B:複雑なロジックの実装やデバッグ支援に最適。精度が高い
- Llama 3.2:汎用的なタスクやドキュメント作成に便利。コード以外の質問にも対応
Cursorのセキュリティ設定については、Cursorのセキュリティ・プライバシー設定ガイドも確認しておくと安心です。



実装後の効果検証(ケーススタディ)



技術選定の裁量を持って自社のAI基盤を設計できる環境が手に入るわよ
社内SEを目指す方必見!IT・Webエンジニアの転職なら【社内SE転職ナビ】
山田さん(仮名・29歳・フロントエンドエンジニア・経験5年)のケース
状況(Before)
- 5人チームでGPT-4のAPIを使ったコード補完を利用し、月額約3万円のAPI費用が発生
- 機密性の高いクライアントコードを外部APIに送信することへのセキュリティ懸念
- ネットワーク環境によってはAPIレスポンスが遅く、コード補完の体験が不安定
行動(Action)
- チーム全員のマシンにOllamaをインストールし、CodeQwen 7Bをダウンロード
- CursorのAPI Base設定をlocalhost:11434に変更し、ローカルLLMに切り替え
- 複雑な実装時のみDeepSeek Coder 6.7Bに手動で切り替える運用ルールを策定
結果(After)
- APIコストが月額3万円からゼロに(年間36万円の削減)
- コードが外部に送信されなくなり、セキュリティ監査をクリア
- レスポンスがネットワーク非依存になり、コード補完の体感速度が約2倍に向上
山田さんは振り返ります。「最初は精度が心配でクラウドAPIとの併用を考えていたが、7Bモデルでも日常のコード補完には十分だった。まずローカルに切り替えてみて、足りない部分だけクラウドを使うのが正解だった」。
ローカルAI開発の経験を活かして技術選定の裁量がある環境に転職するなら社内SE転職エージェント3社比較ガイドも参考にしてください。



よくある質問(FAQ)
Q. GPUがないPCでもCursor×Ollamaは使えますか?
OllamaはCPU推論にも対応しているため、GPUがなくても動作します。ただし応答速度は大幅に低下するため、実用的にはApple Silicon搭載Mac(M1以上)かNVIDIA GPU搭載PCを推奨します。7Bモデルであれば、M1 MacBook Airでも実用的な速度でコード補完が動きます。
Q. CursorのPro版(有料版)とローカルLLMの併用は可能ですか?
可能です。CursorのPro版ではクラウドのClaude/GPT-4oと、ローカルのOllamaモデルを切り替えて使えます。日常的なコード補完はローカルLLMで処理し、複雑な設計相談はクラウドモデルを使うハイブリッド運用が効果的です。
Q. Ollamaのモデルはどのくらいのペースで更新されますか?
Ollama公式のモデルライブラリは頻繁に更新されており、新しいモデルが公開されたらollama pull モデル名で即座にダウンロードできます。既存モデルの更新も同じコマンドで差分ダウンロードが可能です。
自分のスキルを活かしてフリーランスとして独立したい方は、以下の5社を比較して最適なエージェントを見つけましょう。
| 比較項目 | techadapt | Midworks | フリーランスキャリア | フリーランスボード | IT求人ナビ |
|---|---|---|---|---|---|
| 単価帯 | 月60〜120万円高単価特化 | 月50〜90万円中〜高単価 | 月70〜100万円高単価エンド直 | 月40〜150万円30万件横断検索 | AI診断適正単価を自動提案 |
| マージン | 10〜20%公開 | 10〜15%公開 | 公開(案件個別) | —検索サイト | 案件ごと |
| 保障・福利厚生 | 限定的案件品質で勝負 | 正社員並み社保・交通費・研修 | 基本的福利厚生あり | —スカウト機能あり | 相談サポートチャット・オンライン |
| 対応エリア | 首都圏東京・神奈川中心 | 首都圏+関西大阪・名古屋 | 全国(リモート多)地方でもOK | 全国対応リモート・週3可 | 全国対応リモートあり |
| おすすめ度 | 経験3年以上 | 独立初期 | Aリモート派 | A相場把握に | B+初心者向け |
| 公式サイト | 案件を探す | 案件を探す | 案件を探す | 案件を検索 | AI診断する |



まとめ
本記事では、Cursor×Ollamaを組み合わせたローカルAI開発環境の構築方法を解説しました。
- コスト削減:クラウドAPIの月額数万円が、ローカルLLMなら電気代程度に
- プライバシー確保:コードを外部に送信せず、ローカルで完結
- 高速レスポンス:ネットワーク遅延なしで即座にコード補完が返る
- 推奨モデル:CodeQwen 7B(軽量高速)またはDeepSeek Coder 6.7B(精度重視)
まずはOllamaをインストールして、CodeQwen 7Bを試してみてください。インストールから動作確認まで30分もあれば完了します。












