「Raphael」‑ 128 GB メモリ搭載 MacStudio と LM Studio で作った、社長の右腕AI


はじめに ― なぜローカル LLM にこだわるのか

昨今、ChatGPT や Claude といったクラウド型大規模言語モデル(LLM)が日常的に使われていますが、「外部に出せない情報」を扱う場面ではまだ壁があります。機密文書や社内だけのノウハウ、地方自治体の施策資料などは、インターネットに送信できません。
そこで私は ローカルで完結する LLM に目を向けました。自前のマシン上で動かすことで、データ漏洩リスクをゼロにしつつ、リアルタイムに高度な自然言語処理が可能になる――このメリットは、特に 「トップ(社長・首長)の意思決定支援」 に直結します。トップの時間は組織内で最も高価値ですから、その時間を削減できるツールこそが最大のインパクトを持つと考えたわけです。


1. マシン選び ― 128 GB メモリ搭載 MacStudio

ローカル LLM を快適に走らせるには、GPU とメモリの余裕が不可欠です。私が選んだのは Apple Silicon 搭載の MacStudio(M1 Ultra)です。以下が主なスペックです。ちなみに中古で30万円台でした。

項目仕様
CPU20 コア (16 Performance + 4 Efficiency)
GPU64 コア Apple GPU
メモリ128 GB ユニファイドメモリ
ストレージ1 TB SSD(高速 NVMe)

ユニファイドメモリは CPU と GPU が同じプールを共有できるため、データ転送のオーバーヘッドがほぼゼロ。これが「GPU オフロード最大化」でもスムーズに動作する鍵です。


2. ソフトウェア構成 ― LM Studio + gpt‑oss‑120b

Mac に LM Studio(ローカル LLM 用のオールインワン UI)をインストールし、言語モデルとして gpt-oss-120b をダウンロードしました。OSS 版の 120 B パラメータは、商用 API と比べても十分な性能があり、ローカル環境でも実行可能です。

  • LM Studio の利点
    • GUI が直感的で、モデル切替やプロンプトテンプレート管理が楽
    • GPU オフロード設定をワンクリックで有効化できる
  • gpt‑oss‑120b の特徴
    • 約 120 B パラメータ、Transformer アーキテクチャ
    • 事前学習データはオープンソースコーパス中心なので、企業機密情報を混入させずに安全

3. 名前は「智慧の王 Raphael」

モデルをには、「Raphael(ラファエル)」 と名付けました。意味は二つ。

  1. 芸術と知恵の象徴:西洋美術で天才的な画家ラファエロにちなんで、創造性と洞察力を兼ね備えた存在というイメージ。
  2. 「Raphael」=「Rapid + Helpful」 の頭文字合わせ。高速かつ親切に答えてくれることを期待して。

・・・本当は、「転スラ」からとったというのはここだけの秘密です。


4. 実際の動作感 ― GPU オフロード最大化で驚きの速度

LM Studio の設定画面で GPU オフロードを「Maximum」に すると、以下のようなパフォーマンスが得られました。

タスク平均処理時間 (トークン)TPS(Tokens per Second)
文書要約(1,000 字)約 25 秒40 〜50TPS
簡易レポート作成約 30 秒35 〜50TPS
質問応答(短文)< 10 秒60TPS

特に 「ちょっとしたレポートや文書の要約」 は、1 分以内で完了し、精度も実務上十分です。結果は人手でチェックしてみても、要点が的確に抽出されていることが多く、時間削減効果は顕著でした。


5. ローカル LLM が活きるシーン

(1) 機密情報を扱う内部会議のサマリ

社内だけで回すべき戦略資料や法務文書。外部 API に送れないので、Raphael が直接要約・ハイライト。

(2) 現場の業務改善支援

製造ラインの作業指示書を自動生成したり、障害報告から対策マニュアルを即座に作成。現場担当者は「質問」だけで済む。

(3) トップ(社長・首長)の意思決定支援
  • 経営会議の資料整理:過去 5 年分の売上データと市場レポートを要約し、重要指標だけ抽出。
  • 政策シナリオ比較:地方自治体が検討中の補助金制度案を、財務インパクト別にまとめる。

トップは 「時間=コスト」 という観点で最も価値ある資源です。Raphael が情報整理・要約・簡易分析を担うことで、意思決定までのフローが数倍速くなります。


6. 地方部経営者・首長へのインパクト

人的リソースが限られる地方自治体や中小企業では、「データドリブン」 が実現しにくいという課題があります。
ローカル LLM が 以下の役割 を果たせば、大きな変化をもたらすでしょう。

課題LLM で解決できること
情報収集が属人的文献・統計データの自動要約
報告書作成に時間がかかるテンプレート化と自動生成
外部コンサルタント費用が高い社内でのシナリオ分析支援

「Raphael」のようなローカル LLM が 参謀役 として機能すれば、限られた人員でも高度な意思決定が可能になります。私自身も、今後は地方自治体向けにカスタマイズしたプロンプトやデータパイプラインを整備し、「ローカル LLM 参謀」 としてサービス化する構想です。


7. 今後育てていきたい LLM の姿

  • 業界・地域特化型の知識ベース
    地方自治体の条例や補助金制度、農業・観光産業の専門用語を事前にインジェクト。
  • プライバシー保護機能の強化
    データ暗号化とアクセス制御を組み合わせ、内部だけで完結する安全環境。
  • インタラクティブな意思決定支援 UI
    LM Studio の上に、ダッシュボードやチャット形式のフロントエンドを構築し、トップが「質問 → 要約 → シナリオ比較」の流れで操作できるようにする。

8. このブログ自体も Raphael が書いた?

最後にちょっとした裏話です。このブログ記事は、実は全て Raphael にプロンプトを投げて生成させました(もちろん最終的な校正と加筆は私が行っています)。
「ローカル LLM で自分の文章を書かせる」――まさに AI が AI を創造する 時代です。


おわりに

  • MacStudio + LM Studio + gpt‑oss‑120b = 高速・安全なローカル LLM 環境
  • Raphael はトップの意思決定を支える「智慧の王」 となるべく日々学習中です。
  • 地方部や中小企業の経営者・首長にとって、ローカル LLM は新たな参謀 として期待できる。

もし同じように 機密情報を扱いながら高速な自然言語処理が欲しい と考えている方がいたら、ぜひ MacStudio に 128 GB メモリを搭載し、LM Studio で「Raphael」なるローカル LLM を育ててみてください。
次回は実際に 政策シナリオ比較 のデモを交えて、さらに深掘りした活用例をご紹介します。


この記事を書いたのは、AI と共創した私と、ローカル LLM 「Raphael」でした。