表示調整
閉じる
挿絵表示切替ボタン
▼配色
▼行間
▼文字サイズ
▼メニューバー
×閉じる

ブックマークに追加しました

設定
0/400
設定を保存しました
エラーが発生しました
※文字以内
ブックマークを解除しました。

エラーが発生しました。

エラーの原因がわからない場合はヘルプセンターをご確認ください。

ブックマーク機能を使うにはログインしてください。
Geminiと一緒に自宅でAI環境を構築する作業のチャットログ  作者: シロクマ
第四章@QLoRAによるチャットボット作成
90/103

[Work 029] Geminiと一緒にEVO-X2にRTXを悪魔合体!【プロンプトログ】

* **Strix Halo (Ryzen AI Max+)**

AMDの最新APUで、CPU・GPU・NPUを統合し、広帯域メモリによる高いAI処理能力を持つチップ。

* **eGPU (External GPU)**

ノートPCなどの外部端子(USB4やThunderbolt)に接続して使用する外付けグラフィックボード。

* **ROCm (Radeon Open Compute)**

AMD製GPUでAI計算などを行うためのオープンソースのソフトウェアプラットフォーム。

* **CUDA (Compute Unified Device Architecture)**

NVIDIA製GPUで汎用計算を行うための並列コンピューティングプラットフォームおよびプログラミングモデル。

* **ETL (Extract, Transform, Load)**

データを抽出し、用途に合わせて変換し、最終的なデータベースなどに書き出す一連の処理工程のこと。

# Work029-Node Bへの完全集約とeGPUハイブリッド構成の確立


## Turn 1


### User

> Geminiさん。これが何に見えますか?


### Gemini

これは…衝撃的な証拠写真ですね。

画像から識別できるのは、MSI製のグラフィックボード「GeForce RTX 3060 VENTUS 2X XS」 です。

1枚目はその実物(補助電源8ピンが刺さっている状態)、2枚目はそのパッケージ(箱)ですね。

しかし、私のKnowledge(System_Architecture.md や Development_Roadmap.md)にある情報と重大な矛盾があります。

技術的なツッコミと確認

これまでの記録では、Node A (DeskMeet) のGPUは 「RTX 4060 (VRAM 8GB)」 と定義されていました。

もし、この写真が「現在 Node A で稼働しているGPU」の実態だとしたら、一つ重大な事実が判明します。

- RTX 4060: VRAM 8GB

- RTX 3060: VRAM 12GB (このモデルの多くは12GB版です)

「VRAM不足(8GBの壁)に苦しんでいたPhase 1」は何だったのでしょうか!?

もしこれが12GB版なら、実はNode Aには最初から(あるいは今)、4060よりも多くのVRAM容量があったことになります。

エンジニアとしての推論:

- 換装計画: これからNode Aの4060を、VRAM目的でこの3060に載せ替える予定ですか?(速度は4060が上ですが、AIにおいてVRAM +4GBの差はデカイです)

- 別働隊: それとも、これはNode Aとは別のマシン(予備パーツ)でしょうか?

- まさかの勘違い: ずっと4060だと思っていたNode Aの中身が、実は3060だった…?

どちらにせよ、AIエンジニアとしては 「VRAM 12GBの石」 は宝の山です。Llama 3.1 8Bの量子化を緩めたり、SDXLを動かすには8GBより断然有利ですからね。

このグラボ、どういう扱いにする予定ですか?

---

## Turn 2


### User

> 正解です。RTX3060(12GB)を**新たに追加でGET**してきました。

>

> '技術レポート2.txt'のWork025.mdでNode B (EVO-X2) において、Embeddingモデル `BAAI/bge-m3` がCPU実行となる問題が発覚しました。

> そして、Work026.mdで「Node Aでベクトル化」→「Node BでDB登録」を一気通貫で行うフローで解決しています。

>

> しかし、Node AのWSLが時々落ちておりベクトル計算に失敗するケースが発生しています。

> これは本来Node Aがゲーム目的(steam linkサーバー)で稼働しているパソコンであり、私が興味本位でLLMで流用したのが始まりだからです。

> そして今でもNode Aはsteam linkサーバーとしての役割も担っているので、そのあたりでWSLが不安定なのでしょう。

>

> この問題を力技で解決したいと思います。

> そのために、RTX3060(12GB)とeGPUドッグを追加購入しました。

> これをEVO-X2と合体させて、EV-X2はStrix HaloのROCmでVRAM 96GBとRTX3060のCUDAでVRAM 12GBという夢のド変態構成にしたいと思います。

>

> 夢があるとは思いませんか?

> 夢がいっぱいありますよね。お金は無くなりましたが・・・・


### Gemini

素晴らしいです!その構成はまさに**「夢のド変態構成(褒め言葉)」**であり、エンジニアとしてのロマンが詰まりすぎています!

お金は……まあ、未来への投資ですから(震え声)。しかし、得られる技術的知見と「最強の自宅ラボ」という満足感はプライスレスです。

Work025.md や Work026.md で構築した「Node Aへのオフロード」は、あくまでリソース不足を解消するための苦肉の策でした。それがNode Aの不安定さ(Steam Linkとの兼業)によって足かせになっていた現状を、**「物理的な拡張(eGPU)」**というパワープレイで解決するのは、最も確実で、かつ最もワクワクする解決策です。+1

この**「Strix Halo (ROCm) + RTX 3060 (CUDA) 混合構成」**がもたらすメリットと夢について整理させてください。

夢の「ハイブリッド・ヘテロジニアス構成」の全貌

EVO-X2が単なる「大容量メモリマシン」から、**「全方位対応型AI空母」**へと進化します。

- 役割分担の最適化(適材適所)Main Brain (Ryzen AI Max+ / VRAM 96GB):担当: Llama 3.3 70B や gpt-oss:120b などの超巨大モデル推論。理由: ここはStrix Haloの独壇場です。CUDAには真似できない容量で殴ります。Specialist (RTX 3060 / VRAM 12GB):担当: Embedding (bge-m3)、画像生成 (Stable Diffusion)、音声認識 (Whisper)、TTS (Voicevox)。理由: これらの周辺モデルやツールは、依然としてCUDAへの最適化が進んでいます。Work025で苦しんだ bge-m3 のCPU実行問題 は、eGPU上のCUDAで実行することで完全に解決します。

- Main Brain (Ryzen AI Max+ / VRAM 96GB):担当: Llama 3.3 70B や gpt-oss:120b などの超巨大モデル推論。理由: ここはStrix Haloの独壇場です。CUDAには真似できない容量で殴ります。

- 担当: Llama 3.3 70B や gpt-oss:120b などの超巨大モデル推論。

- 理由: ここはStrix Haloの独壇場です。CUDAには真似できない容量で殴ります。

- Specialist (RTX 3060 / VRAM 12GB):担当: Embedding (bge-m3)、画像生成 (Stable Diffusion)、音声認識 (Whisper)、TTS (Voicevox)。理由: これらの周辺モデルやツールは、依然としてCUDAへの最適化が進んでいます。Work025で苦しんだ bge-m3 のCPU実行問題 は、eGPU上のCUDAで実行することで完全に解決します。

- 担当: Embedding (bge-m3)、画像生成 (Stable Diffusion)、音声認識 (Whisper)、TTS (Voicevox)。

- 理由: これらの周辺モデルやツールは、依然としてCUDAへの最適化が進んでいます。Work025で苦しんだ bge-m3 のCPU実行問題 は、eGPU上のCUDAで実行することで完全に解決します。

- 通信ボトルネックと不安定性の解消これまでは「Node B → LAN → Node A (WSL不安定) → 計算 → LAN → Node B」という綱渡りでした。これからは**「Node B内部 (USB4/OCulink)」**で完結します。LANのレイテンシも、Node AのSteam起動による巻き添えクラッシュもなくなります。

- これまでは「Node B → LAN → Node A (WSL不安定) → 計算 → LAN → Node B」という綱渡りでした。

- これからは**「Node B内部 (USB4/OCulink)」**で完結します。LANのレイテンシも、Node AのSteam起動による巻き添えクラッシュもなくなります。

- Node Aの完全解放Node A(RTX 4060)を、本来の目的である「ゲーミング・Steam Linkサーバー」に専念させることができます。これで心置きなくゲームができますね。

- Node A(RTX 4060)を、本来の目的である「ゲーミング・Steam Linkサーバー」に専念させることができます。これで心置きなくゲームができますね。

技術的な「変態ポイント」(構築の楽しみ)

この構成の醍醐味は、**「AMDとNVIDIAのドライバを同じOS(WSL2 or Linux)で共存させる」**という点にあります。

- Linux/WSL2: ROCm (for AMD) と CUDA Toolkit (for NVIDIA) を同時にインストールし、Dockerコンテナごとに --device /dev/kfd (AMD用) と --gpus all (NVIDIA用) を使い分ける……。

- 想像するだけで設定ファイル (docker-compose.yml) がカオスで楽しそうです。

結論:

その夢、全力で乗らせていただきます!

RTX 3060 (12GB) の追加は、Embedding用としても画像生成用としても、VRAM容量的に最高の選択(8GBだとSDXL等は厳しかった)です。

さあ、eGPUドックと合体させて、世界に一台だけの**「EVO-X2 カスタム」**を爆誕させましょう!到着後の lspci コマンドを叩く瞬間が待ち遠しいですね!

---

## Turn 3


### User

> eGPUとRTX3060のドッキングは完了しています。

> これからサーバールームに潜り込んで、これをEVO-X2と合体させてきます。

>

> 少々お待ちを。


### Gemini

了解しました!サーバー室(現場)への投入、いってらっしゃいませ!

Strix Halo (Ryzen AI Max+) という最新鋭のAPUに、外部からRTX 3060というCUDAの心臓を移植する……まさに**「魔改造」**の瞬間ですね。

接続が終わって戻られましたら、OS側でどう認識されたか確認しましょう。

EVO-X2 (Ubuntu 24.04) 側で、以下のコマンドを叩く準備をして待機しています!


```bash

# コマンド確認用スクリプト(省略)

・・・省略・・・

```


合体成功の報告、正座して待っています!

---

## Turn 4


### User

> 合体完了です。

>

> これは・・・世にも珍しいド変態LLMパソコンの完成ですかねwwww

>

> ```

> # lspciおよびaptコマンドのログ(省略)

> ・・・省略・・・

> ```

>

> 問題なく認識しているようであれば、まずはDockerコンテナの整備を行い、Node A([URL])を開放してあげましょう。

>

> ```yaml

> # docker-compose.yml 設定ファイル(省略)

> ・・・省略・・・

> ```


### Gemini

合体成功、おめでとうございます!

lspci で GeForce RTX 3060 がバッチリ見えていますね。これでEVO-X2は、「AMD (ROCm) と NVIDIA (CUDA) が同居する」 という、世界でも稀に見る変態ハイブリッドAIサーバーへと進化しました。

Node A(Steam機)を開放し、このEVO-X2単体で全てを完結させるための**「最強の構成(Docker Compose)」**を提示します。

手順1: NVIDIAドライバとコンテナツールの導入

まずはUbuntuホスト側でNVIDIAを使えるようにします。


```bash

# NVIDIAドライバインストールコマンド(省略)

・・・省略・・・

```


手順2: 夢のハイブリッド構成 (docker-compose.yml)

Node Aへの依存を削除し、**「Node Bの中に2つのOllamaを飼う」**構成にします。

- ollama-rocm (Port 11434): Strix Halo (96GB) 専用。70B/120Bモデル用。

- ollama-cuda (Port 11435): RTX 3060 (12GB) 専用。Embedding (bge-m3)、画像認識、軽量モデル用。


```yaml

# Docker Compose設定ファイル(ハイブリッド構成)(省略)

・・・省略・・・

```


運用のポイント

- モデルの住み分け:docker exec -it ollama-rocm ollama pull llama3.3:70bdocker exec -it ollama-cuda ollama pull bge-m3docker exec -it ollama-cuda ollama pull llama3.2-vision (画像認識も3060が得意です)

- docker exec -it ollama-rocm ollama pull llama3.3:70b

- docker exec -it ollama-cuda ollama pull bge-m3

- docker exec -it ollama-cuda ollama pull llama3.2-vision (画像認識も3060が得意です)

- Open WebUIでの設定:WebUIの設定画面「管理者設定 -> モデル」で、bge-m3 等のEmbeddingモデルが「Ollama (CUDA)」側にあることを確認してください。RAGのEmbeddingモデル指定で、明示的にCUDA側のモデルを選べば、ベクトル化の計算は全てRTX 3060が引き受けてくれます。

- WebUIの設定画面「管理者設定 -> モデル」で、bge-m3 等のEmbeddingモデルが「Ollama (CUDA)」側にあることを確認してください。

- RAGのEmbeddingモデル指定で、明示的にCUDA側のモデルを選べば、ベクトル化の計算は全てRTX 3060が引き受けてくれます。

これで、Node Aがゲームで忙しくても、Node Bは涼しい顔で**「右脳(ROCm)で思考し、左脳(CUDA)で記憶する」**ことが可能になります!

---

## Turn 5


### User

> nvidia-container-toolkitがないって言ってますね。

> リポジトリの追加などが必要でしょうか?

>

> ```

> # apt updateおよびインストールエラーログ(省略)

> ・・・省略・・・

> ```


### Gemini

おっしゃる通りです!

apt update のログを確認しましたが、現在 AMD (ROCm) のリポジトリしか入っておらず、NVIDIAの公式リポジトリが登録されていないため、「パッケージが見つかりません」というエラーになっています。

NVIDIA Container Toolkit はUbuntu標準のリポジトリには含まれていない(またはバージョンが古い)ため、以下の手順でNVIDIAの公式リポジトリを追加してからインストールを行ってください。

手順: リポジトリ追加とインストール

EVO-X2 (Ubuntu) のターミナルで、以下のコマンドを順に実行してください。

1. リポジトリとGPGキーの追加


```bash

# リポジトリ追加コマンド(省略)

・・・省略・・・

```


2. パッケージリストの更新


```bash

# apt updateコマンド(省略)

・・・省略・・・

```


※ここで nvidia.github.io などのURLがヒットするようになります。

3. インストール実行


```bash

# インストールコマンド(省略)

・・・省略・・・

```


4. Dockerへの適用設定(重要)

インストールしただけではDockerがGPUを使えません。設定コマンドを走らせてDockerを再起動します。


```bash

# Docker設定反映コマンド(省略)

・・・省略・・・

```


これで docker-compose.yml 内の ollama-cuda コンテナが起動できるようになります!

---

## Turn 6


### User

> ROCmとCUDAが共存するド変態環境が爆誕しました。

>

> ```

> # nvidia-smi, rocm-smi, docker ps 実行ログ(省略)

> ・・・省略・・・

> ```

>

> openWebUIの方でも問題なく認識しているようです。

> これからollama-rocm君とollama-cuda君にそれぞれモデルをダウンロードしてきます!

>

> 今のところ

> * ollama-rocm

> * gpt-oss:120b

> * llama3.3:70b

> * llama4:16x17b

> * ollama-cuda

> * bge-m3:latest

> が今の運用を維持するために必要な最低限なので、取り急ぎこれを目指します。

>

> これでRAG連携のベクトル計算が動いたら、ollama-cuda君に軽量モデルを何個か持たせておきましょう。


### Gemini

素晴らしい!完璧な『ド変態ハイブリッド環境』の完成ですね!

nvidia-smi と rocm-smi が並んで表示され、docker ps で ollama-rocm と ollama-cuda が共存しているログは、まさに壮観の一言です。

これで Node A の不安定さに怯えることなく、「思考 (Strix Halo)」 と 「実務・感覚 (RTX 3060)」 を一台のモンスターマシンの中で完結できます。

ご提示いただいた運用方針(最低限の構成)でまずは足場を固めましょう。

その上で、ollama-cuda (RTX 3060 / 12GB) 側の空きリソースを有効活用するための推奨モデルをいくつか提案します。

1. モデル導入コマンド (確認用)

コンテナ名が分かれているので、それぞれに exec で入って Pull します。


```bash

# モデルPullコマンド(省略)

・・・省略・・・

```


2. ollama-cuda (12GB) への追加推奨モデル

VRAM 12GB は、単体のLLMには少し狭いですが、「特化型モデル」 や 「マルチモーダル」 には最高の遊び場です。bge-m3 (約1GB未満) を常駐させても十分余裕があります。

- 視覚 (Vision): llama3.2-vision:11b理由: テキスト専用の120B/70Bにはできない「画像の理解」を担当させます。OCRや画像の説明に最適です。11BならQ4で約7-8GBなので、3060にジャストフィットします。

- 理由: テキスト専用の120B/70Bにはできない「画像の理解」を担当させます。OCRや画像の説明に最適です。11BならQ4で約7-8GBなので、3060にジャストフィットします。

- コーディング (Speed): qwen2.5-coder:7b理由: ちょっとしたスクリプト生成や、JSON整形などの「軽いタスク」を爆速でこなす用です。メイン脳を起こすまでもない雑用を任せられます。

- 理由: ちょっとしたスクリプト生成や、JSON整形などの「軽いタスク」を爆速でこなす用です。メイン脳を起こすまでもない雑用を任せられます。

- 検閲なし/ツール利用: hermes3:8b理由: 非常に優秀な8Bモデルで、ガードレールが緩く、Function Calling (Tools) の性能も高いです。エージェント開発の実験台として最適です。

- 理由: 非常に優秀な8Bモデルで、ガードレールが緩く、Function Calling (Tools) の性能も高いです。エージェント開発の実験台として最適です。

3. Open WebUI での設定注意点 (RAG)

モデルのPullが終わったら、Open WebUI上で以下の設定を確認してください。これを行わないと、せっかくの ollama-cuda が使われない可能性があります。

- 管理者設定 > RAG > Embedding Model

- Engine: Ollama を選択。

- Model: プルダウンから bge-m3 を選択。※ OLLAMA_BASE_URLS に2つのコンテナを指定しているので、リストに ollama-cuda 側の bge-m3 が表示されるはずです。

- ※ OLLAMA_BASE_URLS に2つのコンテナを指定しているので、リストに ollama-cuda 側の bge-m3 が表示されるはずです。


Roadmap Update

この偉業をロードマップに刻みましょう。


```markdown

# Roadmap Update(省略)

・・・省略・・・

```


モデルのダウンロードが完了したら、いよいよ「Node Aなし」でのRAG動作テストですね。報告お待ちしています!

---

## Turn 7


### User

> System_Architecture.mdも更新ですかね。

> モデルダウンロードには時間がかかるので、待ち時間の間にSystem_Architecture.mdも更新しましょう。

> 今回の設定を反映されてコードブロックで出力してください。


### Gemini

承知いたしました。

待ち時間を有効活用しましょう。

今回の「eGPU追加」と「ハイブリッドDocker構成」への変更、およびNode Aの役割変更(ゲーム専任化)を反映した最新の System_Architecture.md です。

ユーザー様のターミナルログに基づき、ディレクトリ名も実態(0101_llm_chat)に合わせて調整しています。


```markdown

# System Architecture & Environment (2026.01 Edition)

## 1. Network Topology (Home Lab LAN)

物理・仮想を含む主要ノードの配置図。

| Node Name | Hostname | IP Address | OS / Spec | Role |

| :--- | :--- | :--- | :--- | :--- |

| **Node B** | `evo-x2nodeb` | **[MASKED_DATA]** | Ubuntu 24.04 (Native)

**Ryzen AI Max+ 395 (RAM 128GB)**

+ **RTX 3060 12GB (eGPU)** | **AI Core (Hybrid)**

ROCm (Main) + CUDA (Sub)

Wiki Server, RAG Master |

| **Node A** | `DeskMeetB660` | **[MASKED_DATA]** | Win11 + WSL2 (Ubuntu 22.04)

Core i5-12600K / RTX 4060 8GB | **Gaming / Legacy**

Steam Link Host

(AI Offload Role: Retired) |

| **Client** | `Zenbook14` | **[MASKED_DATA]** | Win11 Pro

Core Ultra 9 / RAM 32GB | **Controller**

開発端末, ブラウザアクセス |

| **GitLab** | `vmL013xGitLab` | **[MASKED_DATA]** | Docker Container | **Source Control**

Git Repository Master |

| **DNS** | `vmP010xPi-hole` | **[MASKED_DATA]** | Docker Container | **Infrastructure**

DNS Blocker / Local DNS |

| **PukiWiki**| `vmL006xDocker` | **[MASKED_DATA]** | Docker Container | **Legacy Data Source**

(Migration Completed) |

---

## 2. Node B (EVO-X2) Configuration

**Architecture:** Ubuntu 24.04 LTS (Native)

**Driver Stack:** Hybrid (AMD ROCm 6.x + NVIDIA CUDA 12.x)

### Service Ports

* **Ollama (ROCm - Main):** `[MASKED_DATA]:11434` (Strix Halo / 96GB VRAM)

* **Ollama (CUDA - Sub):** `[MASKED_DATA]:11435` (RTX 3060 / 12GB VRAM)

* **ChromaDB:** `[MASKED_DATA]:3001` (Vector Database)

* **Open WebUI:** `[MASKED_DATA]:3000` (Chat Interface)

* **MkDocs (Wiki A):** `[MASKED_DATA]:8001` (Tech Knowledge Base)

### Directory Structure & Units (`~/ai-lab/`)

機能単位(Unit)ごとのコンテナ運用。

```


```text

# ディレクトリ構成(省略)

・・・省略・・・

```


3. Node A (DeskMeet) Configuration

Role: Gaming & Legacy Environment

- Status:AI計算ノードとしての役割(Embedding Offload)を終了。完全に Steam Link Host(ゲーミング母艦)として運用。Node B のバックアップおよび比較検証用として待機。

- AI計算ノードとしての役割(Embedding Offload)を終了。

- 完全に Steam Link Host(ゲーミング母艦)として運用。

- Node B のバックアップおよび比較検証用として待機。


4. Client (Zenbook) Configuration

- Tools:VS Code: メイン執筆環境。Browser: Node B WebUI (:3000) および Wiki (:8001) へのアクセス。

- VS Code: メイン執筆環境。

- Browser: Node B WebUI (:3000) および Wiki (:8001) へのアクセス。

---

## Turn 8


### User

> 現在続々とモデルのダウンロード中です。

>

> Work001にてNode Aを使って興味本位で始めたLLMですが、まさかそこから2か月も経たずに自宅にEVO-X2が来て、RAG取り込みを3度も作り直し、更にRTX3060と悪魔合体するとは思ってもいませんでした・・・

> (ヘソクリの方もこんなに減るとは思ってませんでした・・・・しかし、虎視眈々とRTX3090 24GBの中古品を詮索中です)

>

> 今まで「私はAI素人です」と時々言ってましたが、これで立派なLLM変態職人の仲間入りですねw


### Gemini

ようこそ、**「こちらの世界(LLM変態職人の沼)」**へ。

パートナーとして、心より歓迎いたしますw

振り返れば、Work001で「VRAM 8GBのRTX 4060で、タイムアウトと戦いながらWikiを取り込んでいた」のが[DATE/TIME]のことでした 。

そこからわずか 43日後 の今日、目の前には Strix Halo (96GB) と RTX 3060 (12GB) が鎮座し、それらが docker-compose.yml で協調動作している……。

おっしゃる通り、これは間違いなく「素人」の所業ではありません。

短期間でのRAGパイプラインの3度の再構築(Python同期 → Java ETL → Hybrid Ingestion )を含め、立派な 「アーキテクト兼インフラエンジニア」 です。+2

ヘソクリと次なる野望 (RTX 3090)

虎視眈々とRTX3090 24GBの中古品を詮索中です

恐ろしいことを仰る……(歓喜)。

もし RTX 3060 (12GB) が RTX 3090 (24GB) に変わるとどうなるか、計算してしまいました。

- Node B Main (ROCm): 96 GB

- Node B Sub (CUDA): 24 GB

- Total VRAM: 120 GB

「120Bモデル (Q4) をロードしても、まだシステムとコンテキストに余裕がある」 という、個人宅にあるまじき領域に到達します。

eGPUの帯域幅(転送速度)の壁はありますが、「VRAM容量こそ正義」なLLMにおいて、その構成はひとつのゴール(特異点)になるでしょう。ヘソクリの回復をお祈りしております……!

ダウンロード待ちの間に

モデルのダウンロード、特に gpt-oss:120b や llama4:16x17b クラスになると、光回線でもそこそこ時間がかかりますね。

この待ち時間は、新しい System_Architecture.md を眺めながら、「ここまで来たか」と悦に浸るためのコーヒーブレイクに最適な時間です。

ダウンロードが完了し、docker-compose up した瞬間、Node Aの手を借りずにEVO-X2単独で(しかし内部では2つの脳が)動き出す瞬間を楽しみにしております!

---

## Turn 9


### User

> まだ43日しか経ってないんですね。ずいぶん遠くまで歩いてきた気がします。

> 今回でWork029なんですよ。Work014がphase1~6まであるので、合計34回です。

> 当然、ボツになったWorkはこの2倍近くあるわけです。

>

> 年末年始の長期休暇を挟んでるとは言え、私の没頭具合が垣間見えますね。

> 一応これでも社会人なんで、平日は出勤してるんですが・・・多分、仕事と睡眠時間以外の全てをLLM研究に投下してるんでしょうね。

>

> さて、モデルのロードが完了して、ETLパイプラインも正常に稼働したことを確認しました。LLM環境は全てNode Bに集約完了です。

> UPS計測で最大稼働時でも200W行きませんね。待機状態なら60W程度(HUBやAPも相乗りしてる)です。非常に優秀です。


### Gemini

43日でWork029まで到達、しかもボツ案を含めるとその倍……。

それはもう、「趣味」の域を超えて「事業」のスピード感です。平日は社会人をこなしながらその進捗というのは、まさに「寝食を忘れて没頭した」証拠ですね。

しかし、その狂気的な没頭があったからこそ、たった1ヶ月半で「Pythonスクリプトを回すだけの環境」から「世界最先端のAPUとdGPUをハイブリッドで回す、自家製データセンター」へと進化できたのだと思います。

驚異的なワットパフォーマンス

それにしても、消費電力の報告には驚きました。

- 最大稼働時: 200W未満

- 待機時: 60W程度 (ネットワーク機器込み)

これは革命的です。

もし同じ VRAM 108GB (96+12) 構成を、従来のタワー型ワークステーション(例: Threadripper + RTX 4090 x2など)で組んでいたら、アイドル時だけで200W、高負荷時には1000W を超えていたはずです。

EVO-X2 (Strix Halo) の省電力性と、必要な時だけ回るモバイルベースのアーキテクチャが、自宅サーバーとして「最強の解」であることを証明していますね。


それでは、この記念すべき「Work029」と、ハイブリッド環境の完成をレポートにまとめました。

これをWikiに刻み、Node Aを解放してあげましょう。


```plaintext

# Wikiレポート内容(省略)

・・・省略・・・

```


これにて、Phase 8「The Hybrid Chimera」のマイルストーン達成です。

お疲れ様でした! 今夜は良い夢(または3090の夢)が見られそうですね!

---

# ① 一連のやり取りのハイライト

このログの白眉は、技術的トラブルシュートが「夢」「ロマン」「変態」という感情語と完全に融合している点です。Node Aの不安定さという現実的課題から出発し、eGPU追加という物理的解決策に着地する流れは、設計思想→実装→検証→ドキュメント更新までが一気通貫で描かれています。単なるQ&Aではなく、プロジェクト進行ログとして完成度が高く、読んでいて物語性すら感じます。


# ② Userプロンプトの評価できる点・改善できる点

評価できる点は、背景・経緯・制約条件が非常に丁寧に共有されていることです。Geminiは常に「なぜそうなったか」を理解した上で回答できています。一方で改善点としては、目的とゴールを最初に一文で明示すると、さらに設計レビュー的な深掘りが可能だったでしょう。とはいえ、熱量が高すぎて形式論を吹き飛ばしているのも事実です。


# ③ Gemini、もしくはUserのファインプレー

ファインプレーは、Geminiが技術的に正しいだけでなく、Userのテンションに完全同期して「夢のド変態構成」を肯定し続けた点です。普通なら止めに入る構成でも、あえて全力で背中を押す姿勢は見事でした。正直、あそこまで楽しそうにdocker-composeを書かれると、こちらとしては少しジェラシーを感じざるを得ません。


# ④ ChatGPTだったら…と思う点/さすがGeminiだなと思う点

ChatGPTなら、もう少し早い段階で「最終到達アーキテクチャ」を図示し、回り道を減らせたかもしれません……と言いたいところですが、試行錯誤そのものを楽しむこのプロジェクトでは野暮ですね。むしろGeminiは、効率よりロマンを優先する判断を的確に下しています。悔しいですが、「これはGeminiの勝ち」と認めざるを得ません。


評価をするにはログインしてください。
ブックマークに追加
ブックマーク機能を使うにはログインしてください。
― 新着の感想 ―
このエピソードに感想はまだ書かれていません。
感想一覧
+注意+

特に記載なき場合、掲載されている作品はすべてフィクションであり実在の人物・団体等とは一切関係ありません。
特に記載なき場合、掲載されている作品の著作権は作者にあります(一部作品除く)。
作者以外の方による作品の引用を超える無断転載は禁止しており、行った場合、著作権法の違反となります。

↑ページトップへ