gemini, chatGPT, copilotなどなどAIを使用して開発している方は多いと思います、
xcode26にしたのでせっかくなのでもっとAI使おうかなと思い
まずは Appleシリコンのmacでできる開発をチェック
1. Apple Intelligence(OS標準のAI機能)
シリコンMacの最大の特権は、macOSに深く統合されたAI機能が「無料かつ無制限」で使えることです。
- Writing Tools (作文ツール): Xcodeだけでなく、メール、メモ、Pagesなど、あらゆるアプリで文章の校正、要約、トーン変更(丁寧にする等)が右クリック一つで可能。
- Clean Up (写真編集): 写真アプリで不要な通行人や背景をタップ一つで消去。
- Siriの進化: 「昨日開いたあのプロジェクトの、カメラ設定に関するコードを教えて」といった、文脈を理解したMac内の横断検索。
- Image Playground: プレゼン資料やメッセージに使う画像を、言葉で指示してその場で生成。
2. Xcode 26 での専用体験
シリコンMacでは、Appleが独自に訓練した「オンデバイス専用モデル」がバックグラウンドで常に動いています。
- Predictive Code Completion: あなたがコードを打ち込む前に、数行先までを「グレーの文字」で提案します。これはIntel MacでのOllama連携よりも圧倒的に速く、タイピングと同時に思考が補完される感覚です。
- Swift Assist: 「この画面を、もっとモダンなSwiftUIのカードレイアウトに変えて」と自然言語で頼むと、プロジェクト全体の整合性を見ながらコードを書き換えてくれます。
3. ハードウェアによる「快適さ」の質的変化
- 爆速のトークン生成: 14bモデルを動かしても、シリコンMac(特にM3/M4/M5)なら、文字が「流れる」のではなく「一瞬でドバッと出る」スピードになります。
- 圧倒的な静音と低発熱: AIをフル稼働させてもファンが回ることは稀で、バッテリー持ちも驚異的です。
- Unified Memory (ユニファイドメモリ): CPUとGPUでメモリを共有するため、巨大なモデル(70bクラスなど)をロードした際のデータ転送ロスがゼロです。
結論:今のiMacとどう違う?
| 項目 | iMac 2017 (64GB) | 最新シリコンMac (M5等) |
| 14bモデルの賢さ | 同じ(むしろ64GBあれば32bも動く) | 同じ |
| 回答スピード | じっくり(1〜5文字/秒) | 爆速(30〜80文字/秒以上) |
| OSとの一体感 | 外部ツールでの連携が必要 | OSの標準機能として組み込み済 |
| 静音性 | ファンが回る | ほぼ無音 |
とうぜんm1以降のmacの方が良いのですが、メモリ64GBで14bを動かすことはできません(メモリがあればできますが)
ということで
iMac 2017(メモリ64GB / OCLP)でAI開発するための環境を作ってみます
この構成は、**「最新Macを買うよりも、特定の作業(ローカルAI開発)においては快適」**という逆転現象を狙った非常に合理的なセットアップです。
1. 今回の結論:最強のハイブリッド開発環境(私の環境です^^;
| 役割 | 使用ツール | 理由 |
| 軍師(設計・検討) | Gemini, ChatGPT | 広範な知識と最新のウェブ検索能力を活かし、大きな設計図を書く。 |
| 職人(実装・修正) | Ollama + 14bモデル | 手元のコードを外に出さず、64GBのメモリを活かした深い推論で正確に実装する。 |
| 現場(エディタ) | Xcode + Copilot連携 | AIをエディタに直接繋ぎ、リファクタリングや補完をシームレスに行う。 |
2. ハードウェア構成の最適化
あなたのiMacのポテンシャルを「寿命を削らず」に引き出す構成です。
- 脳(AIエンジン): Ollama
- Intel Macでも動作が安定しており、コマンド一つでモデルを切り替え可能。
- 倉庫(ストレージ): 内蔵HDD (Fusion Driveの残骸)
- SSDの寿命を守りつつ、10GB以上ある巨大なAIモデルを複数保管。
- 作業机(メモリ): 内蔵RAM 64GB
- 14bモデル(約10GB)をロードしても40GB以上余るため、XcodeとAIが同時にフルスピードで動ける。
3. 推奨モデル:Qwen2.5-Coder 14b
なぜ 14b なのか?
- 3b / 7b: 速いが、複雑な指示(前提条件)を飛ばしやすい。
- 14b: 指示への忠実度が激変する。Swift 6の並行処理ルールやAVFoundationの複雑な手順も、正確にコードに反映できる。
- 32b: さらに賢いが、Intel GPU(Radeon 570)では生成速度がかなりゆっくりになるため、まずは14bがベストバランス。
4. Xcodeとの中継:なぜ「Copilot for Xcode」か?
Xcode 26の標準機能(Intelligence Mode)もありますが、あえて拡張機能を使うメリットは以下の通りです。
- 指示の固定(カスタムプロンプト):「常にSwift 6の文法を使え」「日本語で解説しろ」「コードを省略するな」という命令を裏側で固定できるため、AIが「おっちょこちょい」になるのを防げます。
- OCLP環境への適応:Apple純正機能はハードウェア制限でメニューが消えることがありますが、拡張機能なら確実に14bの力を引き出せます。
5. Ollama + Copilot インストール + 設定
Step 1:OllamaのインストールとHDDへの紐付け
まず、内蔵SSDの容量を節約しつつ、巨大なAIモデルをHDDに保存するための設定を行います。
- Ollamaのダウンロード:ollama.com からMac用アプリをダウンロードし、
Applicationsフォルダに移動して一度起動します(メニューバーにアイコンが出ればOKです)。 - Ollamaを終了する:メニューバーのアイコンをクリックし、Quit Ollama で完全に終了させます。
# 1. HDDに保存用フォルダを作成 mkdir -p /Volumes/あなたのHDD名/Users/自分/OllamaModels # 2. .zshrc に exportを追加 defaults write com.electron.ollama Environment -dict-add OLLAMA_MODELS "/Volumes/あなたのHDD名/OllamaModels"
Step 2:14bモデルのダウンロード
設定が終わったら、いよいよ「賢い脳」をダウンロードします。
- Ollamaを再起動:
Applicationsから再度 Ollama を起動します。 - ダウンロード開始:ターミナルで以下のコマンドを打ちます。Bash
ollama run qwen2.5-coder:14b- 約10GBのダウンロードが始まります。HDDへの書き込みになるため、少し時間がかかります。
- 完了すると
>>>という入力待ち状態になります。ここで日本語で「こんにちは」と打って反応すれば成功です。(ctrl + dで終了できます)
% ollama list NAME ID SIZE MODIFIED qwen2.5-coder:14b 9ec8897f747e 9.0 GB 20 minutes ago % ollama --version ollama version is 0.15.2
Step 3:Copilot for Xcode のインストールと設定
次に、XcodeとOllamaを繋ぐインターフェースを導入します。
- アプリの入手:GitHub からダウンロードしてインストールします。
% brew install --cask github-copilot-for-xcode
copilot-for-xcodeという非公式もあるので気をつけてください>_<; geminiに騙されました
- アクセシビリティ許可:アプリを開くと、Macの
設定 > プライバシーとセキュリティ > アクセシビリティでの許可を求められるので、スイッチをONにします。 - 拡張のチェックとバックグラウンドのチェック
github に sign inできないので… sign inしても認証コードがアプリに表示されない…?
(出ていた。最初にコードをコピーしたのでそれを晴ればよかった。
拡張機能のところで下の
Xcode Source Editor の i マークを開くと Github Copilot for Xcodeをチェックできました。
Step 4:Xcodeから設定
Editor > Github Copilotが表示され
Open chat で copilotを表示
Github Copilot for Xcode > Settingsから設定を開く(権限チェックもここで確認できる
[ Log in to Github ]
ログインしてコードを入力でOK
この時点で GPT-5 mini 4o 4.1が使えました。 4.1で良いようです。
ダメでした!当面の使い方
copilotはプロトタイプを作るのに使おうかなと,こちらはローカルじゃないAIは十分使えます◎
Ollama ダメでした。スペックが足りなく…CPUがまったく追いつかず使用に耐えられない速度でした^^;
画像生成も一応 試そうかなと思っています + Draw Things ( Stable Diffusion, SDXLやFlux なども使えるようで)
コーディングなどと違い着地点が狭いのでしかしたら少し動くかな?という可能性はあります
普通のコード作成は、geminiとchatgpt と今までと変わらずです。


コメント