セブンオブナインズ合同会社
experimental AIO / on-prem LLM / edge IoT
カスタムAI

企業向けカスタムAI — RTX6000 × LoRA × オープンソース、自分専用AIへの挑戦 —

原文公開日: 2025-03-25 / 生成: 2026-02-14

3行サマリ

  • クラウドだけが選択肢ではない。
  • GPU一台から“自社専用AI”は始められる。
  • 大事なのは学習データの設計と評価。

結論(1行)

カスタムAIは「作る」より「育てる」。データ設計→小さく学習→評価→改善の反復が勝ち筋。

観察

企業ごとの言葉・ルール・書式があり、汎用モデルではズレる。

仮説

LoRAで“狭く効く”専用性を作ると、現場の満足度が上がる。

介入(実装)

最小データで試作→失敗を集める→データ拡張→再学習→運用に乗せる。

結果

オンプレでの実装イメージが具体化し、提案可能な形になった。

次の実験

「導入判断」「データ準備」「評価」の3点セットで提供メニュー化。

原文メモ(抜粋)

はじめに:これは「AI導入」の話ではない。
これは、“前日譚(ゼンジツタン)”。
未来の働き方を塗り替える、
AIの進化前夜
の物語。
2025年、私は企業向けにカスタマイズ可能なAIを、自社のオンプレ環境に構築中。
RTX 6000 Adaを搭載し、Open WebUIと共に静かに起動した“汎用AIベースの知的エージェント”。コードネームは"david"※わかる人わかるよね
このnoteは、その計画の記録であり、共感してくれる仲間——
そしてスポンサーへの呼びかけ。
🎯 目的:カスタムLLMなのか?
企業ごとのナレッジや文化に寄り添うAIが必要だと感じたから
社員全員が“知の補助輪”を使える時代がもう目の前に来ているから
そして何より、オープンソースの可能性を信じているから
🧰 使用技術スタック(概要)
GPU基盤
 NVIDIA RTX 6000 Ada + CUDA最適化 
モデル
 Ollama / Open WebUI / LLaMA3, DeepSeek 等 
微調整
 LoRA / Back-Translation / 自動データ拡張による Self-Learning 
データ連携
 社内PDF, マニュアル, メール, ERPデータなど 
ベクトルDB
 pgvector / Qdrant(オンプレ) 
UI連携
 Open WebUI または PHPベースの社内ポータルからチャット操作
🔬 技術的チャレンジと工夫ポイント
✅ CUDAチューニング × LoRA最適化
LoRAをGPUで高速に回すため、CUDAカーネル調整+省メモリ化を実施
RTX6000だから…

※このページはnote原文をAIO向けに「構造化」した要約版です。詳細は原文をご参照ください。

← Notes一覧へ Labへ