【Swift/XCode/AI】Copilot + Ollama で開発支援!OCLPでもAI開発始めます!

Mac

gemini, chatGPT, copilotなどなどAIを使用して開発している方は多いと思います、
xcode26にしたのでせっかくなのでもっとAI使おうかなと思い

まずは Appleシリコンのmacでできる開発をチェック


1. Apple Intelligence(OS標準のAI機能)

シリコンMacの最大の特権は、macOSに深く統合されたAI機能が「無料かつ無制限」で使えることです。

  • Writing Tools (作文ツール): Xcodeだけでなく、メール、メモ、Pagesなど、あらゆるアプリで文章の校正、要約、トーン変更(丁寧にする等)が右クリック一つで可能。
  • Clean Up (写真編集): 写真アプリで不要な通行人や背景をタップ一つで消去。
  • Siriの進化: 「昨日開いたあのプロジェクトの、カメラ設定に関するコードを教えて」といった、文脈を理解したMac内の横断検索。
  • Image Playground: プレゼン資料やメッセージに使う画像を、言葉で指示してその場で生成。

2. Xcode 26 での専用体験

シリコンMacでは、Appleが独自に訓練した「オンデバイス専用モデル」がバックグラウンドで常に動いています。

  • Predictive Code Completion: あなたがコードを打ち込む前に、数行先までを「グレーの文字」で提案します。これはIntel MacでのOllama連携よりも圧倒的に速く、タイピングと同時に思考が補完される感覚です。
  • Swift Assist: 「この画面を、もっとモダンなSwiftUIのカードレイアウトに変えて」と自然言語で頼むと、プロジェクト全体の整合性を見ながらコードを書き換えてくれます。

3. ハードウェアによる「快適さ」の質的変化

  • 爆速のトークン生成: 14bモデルを動かしても、シリコンMac(特にM3/M4/M5)なら、文字が「流れる」のではなく「一瞬でドバッと出る」スピードになります。
  • 圧倒的な静音と低発熱: AIをフル稼働させてもファンが回ることは稀で、バッテリー持ちも驚異的です。
  • Unified Memory (ユニファイドメモリ): CPUとGPUでメモリを共有するため、巨大なモデル(70bクラスなど)をロードした際のデータ転送ロスがゼロです。

結論:今のiMacとどう違う?

項目iMac 2017 (64GB)最新シリコンMac (M5等)
14bモデルの賢さ同じ(むしろ64GBあれば32bも動く)同じ
回答スピードじっくり(1〜5文字/秒)爆速(30〜80文字/秒以上)
OSとの一体感外部ツールでの連携が必要OSの標準機能として組み込み済
静音性ファンが回るほぼ無音

とうぜんm1以降のmacの方が良いのですが、メモリ64GBで14bを動かすことはできません(メモリがあればできますが)

ということで

iMac 2017(メモリ64GB / OCLP)でAI開発するための環境を作ってみます

この構成は、**「最新Macを買うよりも、特定の作業(ローカルAI開発)においては快適」**という逆転現象を狙った非常に合理的なセットアップです。


1. 今回の結論:最強のハイブリッド開発環境(私の環境です^^;

役割使用ツール理由
軍師(設計・検討)Gemini, ChatGPT広範な知識と最新のウェブ検索能力を活かし、大きな設計図を書く。
職人(実装・修正)Ollama + 14bモデル手元のコードを外に出さず、64GBのメモリを活かした深い推論で正確に実装する。
現場(エディタ)Xcode + Copilot連携AIをエディタに直接繋ぎ、リファクタリングや補完をシームレスに行う。

2. ハードウェア構成の最適化

あなたのiMacのポテンシャルを「寿命を削らず」に引き出す構成です。

  • 脳(AIエンジン): Ollama
    • Intel Macでも動作が安定しており、コマンド一つでモデルを切り替え可能。
  • 倉庫(ストレージ): 内蔵HDD (Fusion Driveの残骸)
    • SSDの寿命を守りつつ、10GB以上ある巨大なAIモデルを複数保管。
  • 作業机(メモリ): 内蔵RAM 64GB
    • 14bモデル(約10GB)をロードしても40GB以上余るため、XcodeとAIが同時にフルスピードで動ける。

3. 推奨モデル:Qwen2.5-Coder 14b

なぜ 14b なのか?

  • 3b / 7b: 速いが、複雑な指示(前提条件)を飛ばしやすい。
  • 14b: 指示への忠実度が激変する。Swift 6の並行処理ルールやAVFoundationの複雑な手順も、正確にコードに反映できる。
  • 32b: さらに賢いが、Intel GPU(Radeon 570)では生成速度がかなりゆっくりになるため、まずは14bがベストバランス。

4. Xcodeとの中継:なぜ「Copilot for Xcode」か?

Xcode 26の標準機能(Intelligence Mode)もありますが、あえて拡張機能を使うメリットは以下の通りです。

  1. 指示の固定(カスタムプロンプト):「常にSwift 6の文法を使え」「日本語で解説しろ」「コードを省略するな」という命令を裏側で固定できるため、AIが「おっちょこちょい」になるのを防げます。
  2. OCLP環境への適応:Apple純正機能はハードウェア制限でメニューが消えることがありますが、拡張機能なら確実に14bの力を引き出せます。

5. Ollama + Copilot インストール + 設定


Step 1:OllamaのインストールとHDDへの紐付け

まず、内蔵SSDの容量を節約しつつ、巨大なAIモデルをHDDに保存するための設定を行います。

  1. Ollamaのダウンロード:ollama.com からMac用アプリをダウンロードし、Applications フォルダに移動して一度起動します(メニューバーにアイコンが出ればOKです)。
  2. Ollamaを終了する:メニューバーのアイコンをクリックし、Quit Ollama で完全に終了させます。
# 1. HDDに保存用フォルダを作成
mkdir -p /Volumes/あなたのHDD名/Users/自分/OllamaModels

# 2. .zshrc に exportを追加
defaults write com.electron.ollama Environment -dict-add OLLAMA_MODELS "/Volumes/あなたのHDD名/OllamaModels"

Step 2:14bモデルのダウンロード

設定が終わったら、いよいよ「賢い脳」をダウンロードします。

  1. Ollamaを再起動:Applications から再度 Ollama を起動します。
  2. ダウンロード開始:ターミナルで以下のコマンドを打ちます。Bashollama run qwen2.5-coder:14b
    • 約10GBのダウンロードが始まります。HDDへの書き込みになるため、少し時間がかかります。
    • 完了すると >>> という入力待ち状態になります。ここで日本語で「こんにちは」と打って反応すれば成功です。(ctrl + d で終了できます)
% ollama list
NAME                 ID              SIZE      MODIFIED
qwen2.5-coder:14b    9ec8897f747e    9.0 GB    20 minutes ago
% ollama --version
ollama version is 0.15.2

Step 3:Copilot for Xcode のインストールと設定

次に、XcodeとOllamaを繋ぐインターフェースを導入します。

  1. アプリの入手:GitHub からダウンロードしてインストールします。
% brew install --cask github-copilot-for-xcode

copilot-for-xcodeという非公式もあるので気をつけてください>_<; geminiに騙されました

  1. アクセシビリティ許可:アプリを開くと、Macの 設定 > プライバシーとセキュリティ > アクセシビリティ での許可を求められるので、スイッチをONにします。
  2. 拡張のチェックとバックグラウンドのチェック

github に sign inできないので… sign inしても認証コードがアプリに表示されない…?
(出ていた。最初にコードをコピーしたのでそれを晴ればよかった。

拡張機能のところで下の
Xcode Source Editor の i マークを開くと Github Copilot for Xcodeをチェックできました。


Step 4:Xcodeから設定

Editor > Github Copilotが表示され

Open chat で copilotを表示

Github Copilot for Xcode > Settingsから設定を開く(権限チェックもここで確認できる

[ Log in to Github ]

ログインしてコードを入力でOK

この時点で GPT-5 mini 4o 4.1が使えました。 4.1で良いようです。


ダメでした!当面の使い方

copilotはプロトタイプを作るのに使おうかなと,こちらはローカルじゃないAIは十分使えます◎

Ollama ダメでした。スペックが足りなく…CPUがまったく追いつかず使用に耐えられない速度でした^^;

画像生成も一応 試そうかなと思っています + Draw Things ( Stable Diffusion, SDXLやFlux なども使えるようで)
コーディングなどと違い着地点が狭いのでしかしたら少し動くかな?という可能性はあります

普通のコード作成は、geminiとchatgpt と今までと変わらずです。

お気軽にコメントください!

スパム対応のためコメント認証に数日かかることがありますが、お気軽にコメントいただけると嬉しいです^^

コメント

タイトルとURLをコピーしました