「Raphael」‑ 128 GB メモリ搭載 MacStudio と LM Studio で作った、社長の右腕AI
はじめに ― なぜローカル LLM にこだわるのか
昨今、ChatGPT や Claude といったクラウド型大規模言語モデル(LLM)が日常的に使われていますが、「外部に出せない情報」を扱う場面ではまだ壁があります。機密文書や社内だけのノウハウ、地方自治体の施策資料などは、インターネットに送信できません。
そこで私は ローカルで完結する LLM に目を向けました。自前のマシン上で動かすことで、データ漏洩リスクをゼロにしつつ、リアルタイムに高度な自然言語処理が可能になる――このメリットは、特に 「トップ(社長・首長)の意思決定支援」 に直結します。トップの時間は組織内で最も高価値ですから、その時間を削減できるツールこそが最大のインパクトを持つと考えたわけです。
1. マシン選び ― 128 GB メモリ搭載 MacStudio
ローカル LLM を快適に走らせるには、GPU とメモリの余裕が不可欠です。私が選んだのは Apple Silicon 搭載の MacStudio(M1 Ultra)です。以下が主なスペックです。ちなみに中古で30万円台でした。
| 項目 | 仕様 |
|---|---|
| CPU | 20 コア (16 Performance + 4 Efficiency) |
| GPU | 64 コア Apple GPU |
| メモリ | 128 GB ユニファイドメモリ |
| ストレージ | 1 TB SSD(高速 NVMe) |
ユニファイドメモリは CPU と GPU が同じプールを共有できるため、データ転送のオーバーヘッドがほぼゼロ。これが「GPU オフロード最大化」でもスムーズに動作する鍵です。

2. ソフトウェア構成 ― LM Studio + gpt‑oss‑120b
Mac に LM Studio(ローカル LLM 用のオールインワン UI)をインストールし、言語モデルとして gpt-oss-120b をダウンロードしました。OSS 版の 120 B パラメータは、商用 API と比べても十分な性能があり、ローカル環境でも実行可能です。
- LM Studio の利点
- GUI が直感的で、モデル切替やプロンプトテンプレート管理が楽
- GPU オフロード設定をワンクリックで有効化できる
- gpt‑oss‑120b の特徴
- 約 120 B パラメータ、Transformer アーキテクチャ
- 事前学習データはオープンソースコーパス中心なので、企業機密情報を混入させずに安全
3. 名前は「智慧の王 Raphael」
モデルをには、「Raphael(ラファエル)」 と名付けました。意味は二つ。
- 芸術と知恵の象徴:西洋美術で天才的な画家ラファエロにちなんで、創造性と洞察力を兼ね備えた存在というイメージ。
- 「Raphael」=「Rapid + Helpful」 の頭文字合わせ。高速かつ親切に答えてくれることを期待して。
・・・本当は、「転スラ」からとったというのはここだけの秘密です。
4. 実際の動作感 ― GPU オフロード最大化で驚きの速度
LM Studio の設定画面で GPU オフロードを「Maximum」に すると、以下のようなパフォーマンスが得られました。
| タスク | 平均処理時間 (トークン) | TPS(Tokens per Second) |
|---|---|---|
| 文書要約(1,000 字) | 約 25 秒 | 40 〜50TPS |
| 簡易レポート作成 | 約 30 秒 | 35 〜50TPS |
| 質問応答(短文) | < 10 秒 | 60TPS |
特に 「ちょっとしたレポートや文書の要約」 は、1 分以内で完了し、精度も実務上十分です。結果は人手でチェックしてみても、要点が的確に抽出されていることが多く、時間削減効果は顕著でした。

5. ローカル LLM が活きるシーン
(1) 機密情報を扱う内部会議のサマリ
社内だけで回すべき戦略資料や法務文書。外部 API に送れないので、Raphael が直接要約・ハイライト。
(2) 現場の業務改善支援
製造ラインの作業指示書を自動生成したり、障害報告から対策マニュアルを即座に作成。現場担当者は「質問」だけで済む。
(3) トップ(社長・首長)の意思決定支援
- 経営会議の資料整理:過去 5 年分の売上データと市場レポートを要約し、重要指標だけ抽出。
- 政策シナリオ比較:地方自治体が検討中の補助金制度案を、財務インパクト別にまとめる。
トップは 「時間=コスト」 という観点で最も価値ある資源です。Raphael が情報整理・要約・簡易分析を担うことで、意思決定までのフローが数倍速くなります。
6. 地方部経営者・首長へのインパクト
人的リソースが限られる地方自治体や中小企業では、「データドリブン」 が実現しにくいという課題があります。
ローカル LLM が 以下の役割 を果たせば、大きな変化をもたらすでしょう。
| 課題 | LLM で解決できること |
|---|---|
| 情報収集が属人的 | 文献・統計データの自動要約 |
| 報告書作成に時間がかかる | テンプレート化と自動生成 |
| 外部コンサルタント費用が高い | 社内でのシナリオ分析支援 |
「Raphael」のようなローカル LLM が 参謀役 として機能すれば、限られた人員でも高度な意思決定が可能になります。私自身も、今後は地方自治体向けにカスタマイズしたプロンプトやデータパイプラインを整備し、「ローカル LLM 参謀」 としてサービス化する構想です。
7. 今後育てていきたい LLM の姿
- 業界・地域特化型の知識ベース
地方自治体の条例や補助金制度、農業・観光産業の専門用語を事前にインジェクト。 - プライバシー保護機能の強化
データ暗号化とアクセス制御を組み合わせ、内部だけで完結する安全環境。 - インタラクティブな意思決定支援 UI
LM Studio の上に、ダッシュボードやチャット形式のフロントエンドを構築し、トップが「質問 → 要約 → シナリオ比較」の流れで操作できるようにする。
8. このブログ自体も Raphael が書いた?
最後にちょっとした裏話です。このブログ記事は、実は全て Raphael にプロンプトを投げて生成させました(もちろん最終的な校正と加筆は私が行っています)。
「ローカル LLM で自分の文章を書かせる」――まさに AI が AI を創造する 時代です。
おわりに
- MacStudio + LM Studio + gpt‑oss‑120b = 高速・安全なローカル LLM 環境
- Raphael はトップの意思決定を支える「智慧の王」 となるべく日々学習中です。
- 地方部や中小企業の経営者・首長にとって、ローカル LLM は新たな参謀 として期待できる。
もし同じように 機密情報を扱いながら高速な自然言語処理が欲しい と考えている方がいたら、ぜひ MacStudio に 128 GB メモリを搭載し、LM Studio で「Raphael」なるローカル LLM を育ててみてください。
次回は実際に 政策シナリオ比較 のデモを交えて、さらに深掘りした活用例をご紹介します。
この記事を書いたのは、AI と共創した私と、ローカル LLM 「Raphael」でした。