AIは、すでにミッションクリティカルな領域でも活用され始めています。
そうなると、やはり、安全性や可用性なども考慮が必要になってきます。
一般的にAIを使う場合は、インターネットを介して大手ベンダークラウド上で動作する大規模言語モデル(LLM)、またはそれを利用したAIサービスを利用するのではないでしょうか。
ただ、ミッションクリティカルな領域になると、この一般的なAIの利用が難しい場合もあります。例えば、インターネット通信を遮断した環境、または、可用性と安定稼働を求めたフルオンプレ環境のような場合でしょうか。
そういったニーズから、改めてオンプレ環境で運用する「ローカルLLM」が注目されています。
目次
この記事では、ローカルLLM解説とソフトウェア開発でのローカルLLMひいてはGitLab Duo Self-hosted について2025/9月時点情報を収録しています。
目次
1 そもそもLLM(大規模言語モデル)とは?
2 ローカルLLMとは?クラウドLLMとの違い
3 ローカルLLMとクラウドLLMの比較表
4 ローカルLLMが注目されている背景
5 ソフトウェア開発におけるローカルLLMのメリット
6 ローカルLLM導入におけるデメリット・課題
7 ソフトウェア開発におけるローカルLLMの活用例
8 ローカルLLMの導入方法
9 ローカルLLMのおすすめモデル
10 ローカルLLM導入における注意点
11 GitLab Duo Self-HostedによるローカルLLM運用
12 ローカルLLMの将来性・今後の展望
13 ローカルLLMに関するQ&A
■ ネットワールド GitLab Duo Self-Hosted/ローカルLLM に関するサービス
ローカルLLMとは?開発での活用メリットと注意点
ローカルLLMの意味やクラウドLLMとの違い、ソフトウェア開発における導入メリットなどを解説します。
近年ソフトウェア開発の領域では、開発プロセスの効率化や生産性向上などを目的としてAIの活用が重要視されています。その中で企業のセキュリティ要件に対応しやすい「ローカルLLM」にも注目が集まっています。
実際にソフトウェア開発におけるAI活用において、ローカルLLMの導入を検討している人も多いのではないでしょうか。
この記事では、ローカルLLMの意味やクラウドLLMとの違い、ソフトウェア開発における導入メリットなどを解説します。
1 そもそもLLM(大規模言語モデル)とは?
ローカルLLMについて触れる前にまずはLLM(大規模言語モデル)について理解しておきましょう。LLMとは、膨大なデータを学習し、人間のような自然な言語を使って文章の生成や理解ができる自然言語処理に特化した生成AIの一種です。後にも詳しく解説しますが、ソフトウェア開発の領域ではコードのレビューやドキュメント作成などに役立てられます。
なお、LLMのような自然言語処理ができる言語モデルには「SLM(小規模言語モデル)」もあり、さらにLLMについて触れるなら「RAG(検索拡張生成)」についても理解しておく必要があります。以下でそれぞれの特徴やLLMとの違いについて解説します。
1-1 SLM(小規模言語モデル)との違い
SLMは、LLMと同じく自然言語処理が可能なAIモデルですが、「小規模言語モデル」という名前が示すようにLLMよりも小規模で軽量な言語モデルを指します。金融や医療、保険など特定の分野で活用されることが多く、軽量な処理のためリソース要件に制約がある環境でも利用しやすいです。
LLMとSLMの違いを表でまとめると以下の通りです。
| LLM(大規模言語モデル) | SLM(小規模言語モデル) | |
|---|---|---|
| 規模(パラメータ) | 数百億〜数兆 | 数億〜数十億 |
| 学習データ | 幅広いタスクに対応 | 特定のタスクに特化 |
| 必要リソース | 高性能GPUなどが必要 | 軽量 |
| 開発コスト | 高い | 低い |
| 処理速度 | 遅い | 高速 |
1-2 RAG(検索拡張生成)との違い
RAGとは、「Retrieval-Augmented Generation」の略語であり、LLMの能力や回答精度を向上させるための技術を指します。具体的には、LLMと外部のデータベースを連携し、データベースから検索した情報を付加させる形で精度の高い回答を実現する手法です。
LLMの場合は、学習された既存のデータだけを利用して文章を生成するため、適切な回答を得られない可能性があります。また、学習データが古くなると最新の情報が反映されないため、情報の正確性や信頼性に劣るケースも見られます。
そこでRAGも活用すれば外部データと連携して回答を行えるようになるため、最新情報や必要な情報を反映させた正確かつ信頼性の高いアウトプットを得られます。つまり、RAGはLLM活用を後押しするような技術として位置付けられるでしょう。
2 ローカルLLMとは?クラウドLLMとの違い
ではここからはローカルLLMについて、クラウドLLMとの違いも踏まえながら解説していきます。
2-1 ローカルLLMとは?
ローカルLLMとは、自社サーバーやユーザー個人のPC上などオンプレミス(ローカル)環境で動作する大規模言語モデルを指します。
インターネット接続を必要としないのが大きな特徴で、機密情報を外部に送信することなくAIを活用できるため、企業のセキュリティ要件に対応しやすいです。また、オフライン環境で処理が完結することから、通信障害やネットワーク遅延などの影響を受けにくく、運用におけるリスクを軽減できます。
さらに、ローカルLLMではモデルの再学習・微調整(ファインチューニング)も可能です。そのため、目的に応じて特定の業界やデータに特化させたモデルを構築できるなどカスタマイズ性が高いことも特徴の一つです。
2-2 クラウドLLMとの違い
クラウドLLMは、インターネットを介してベンダーのクラウドサーバー上で動作する大規模言語モデルを指します。ローカルLLMとは異なり、大前提として活用においてはインターネット接続が必須となります。
クラウドであることから導入における初期費用を抑えられ、かつ高いスケーラビリティを持つものの、入力データは外部のサーバーに送信されるため、セキュリティが重視される業界やシーンにおいては懸念があると言えます。
また、ローカルLLMよりもカスタマイズ性は劣り、ベンダーのサービス範囲内となるため、自由度は高くはありません。
3 ローカルLLMとクラウドLLMの比較表
| ローカルLLM | クラウドLLM | |
|---|---|---|
| 実行環境・接続要件 | ・自社サーバーやローカル端末で動作 ・インターネット接続不要 | ・ベンダーのクラウドサーバー上で動作 ・インターネット接続が必須 |
| 処理速度・性能 | ・ハードウェアの性能に依存する ・ネットワーク遅延の影響を抑えられる | ・高性能なサーバーの利用により処理速度が速い ・通信障害の影響を受ける場合がある |
| コスト | ・ハードウェアへの投資が必要 ・運用コストは維持費が中心で安定しやすい | ・従量課金が一般的 ・初期費用を抑えられる |
| セキュリティ | ・オンプレミス環境によりデータを外部に送信する必要がない | ・データを外部に送信する必要があるため、懸念あり |
| カスタマイズ性 | ・自社のニーズに合わせたモデルを構築しやすい | ・ベンダーのサービス範囲内 |
| スケーラビリティ | ・物理的なリソースを都度調整する必要がある ・クラウドより手間がかかる | ・柔軟にリソースを調整できる |
ローカルLLMとクラウドLLMの違いをまとめると上記の通りになります。ただし、OpenAIが提供している「gpt-oss」のように低スペックで動作するような効率性の良いLLMも登場してきています。そういった背景からコスト面などの違いにおいては2025年8月現在、少し状況が変わってきているとも言えるため、定期的な情報収集が必要です。
4 ローカルLLMが注目されている背景
なぜソフトウェア開発やビジネスにおいて、ローカルLLMが注目されているのでしょうか。具体的な背景としては以下が挙げられます。
- 生成AI活用に対する企業ニーズの増加
- セキュリティ意識の向上
- 技術的な進化
4-1 生成AI活用に対する企業ニーズの増加
ソフトウェア開発の領域においては、多様化するニーズやビジネス環境の変化に対応するためにAI活用のニーズが高まっています。
実際にGitLabが開催したイベント「DevOpsDive2025」によると、ソフトウェア開発ライフサイクルにおいてAIを使用中の国内企業の割合は48%で、米国の38%よりも高い数値となっています。ただし、国内のAI活用はコーディングの範囲に留まっている状況で、開発プロセス全体を通した活用には至っていません。
ソフトウェア開発ライフサイクル全体にAI活用を行き渡らせるためには十分なセキュリティ対策が必要になり、その手段として有効なのがローカルLLMの活用です。ローカルLLMならオンプレミス環境により企業の機密情報を安全に扱いながらAIを利用できます。つまり、ローカルLLMはAI活用における重要なソフトウェア開発基盤の一つだと言えるでしょう。
4-2 セキュリティ意識の向上
近年ビジネスにおけるIT活用が浸透する中で、セキュリティインシデントも多く発生しており、ソフトウェア開発の領域においてもセキュリティ対策への重要性が高まっています。
LLMをクラウドベースで利用する場合、企業の重要な機密情報を外部のクラウドサーバーへ送信する必要があることから、情報漏えいのリスクが高まります。
ローカルLLMなら機密性の高いソースコードや仕様書などを、安心して投入して自由にAIを活用することが可能です。
4-3 技術的な進化
ローカルLLMが注目されている背景として、技術的な進歩も挙げられます。例えば、日本語特化型LLMの登場により、日本企業がローカルLLMを導入する際にも扱いが容易になり、実用性が高まっています。
また、先ほど少し触れたようにモデルの軽量化により低スペックで動作できるようなLLMも登場してきているため、以前よりローカルLLMをスムーズに導入できる環境が整ってきていると言えるでしょう。
5 ソフトウェア開発におけるローカルLLMのメリット
ソフトウェア開発におけるローカルLLM導入のメリットは以下の通りです。
- 開発の効率性と生産性の向上
- セキュリティ・コンプライアンスの強化
- コストの最適化
5-1 開発の効率性と生産性の向上
ローカルLLMはソフトウェア開発ライフサイクルにおけるさまざまなプロセスで活用できます。例えば、コード補助や自動レビュー生成、バグ修正、脆弱性修正補助などに使えば、ヒューマンエラーのリスクを軽減しながら迅速かつ品質の高いソフトウェア開発を実現することが可能です。
ローカルLLMの活用によって効率よく開発を進めることで、開発者はより価値の高い活動や業務に集中できるようになり、結果としてチーム全体のパフォーマンスを向上させられるでしょう。
5-2 セキュリティ・コンプライアンスの強化
繰り返しにはなりますが、ローカルLLMなら自社サーバーを利用するため外部にデータを送信する必要がなく、セキュリティやコンプライアンスの強化を図りながら生成AIを活用できます。セキュリティ要件の厳しいプロジェクトや業界でも活用しやすく、開発者の心理的ハードルも下げられ安全に作業を進められるでしょう。
また、ローカルLLMを通して潜在的な脆弱性を検出し、修正案の提案を受けることでコードの安全性向上にもつなげられます。
5-3 コストの最適化
ローカルLLMの導入によりコストの最適化を図れるメリットもあります。クラウド型のLLMは初期費用を抑えられるものの、従量課金制を採用していることから利用量(トークン数)が増えると、コストが大幅に増えてしまう可能性もあります。
一方、ローカルLLMは初期にハードウェア導入費用が発生しますが、一度構築してしまえば運用に必要な費用は基本的に維持費だけになるため、長期的な視点で考えるとコストの最適化を図れるでしょう。
6 ローカルLLM導入におけるデメリット・課題
ローカルLLMの導入においては以下のようなデメリットや課題もあるため、事前に把握しておく必要があります。
- 専門知識の必要性
- 高額な初期導入コストの発生
- 不正確・不完全なデータを生成する可能性
6-1 専門知識の必要性
ローカルLLMを導入するためには、オープンソースLLMを自社サーバーで実行できるよう環境の構築やモデルの最適化が必要になります。このプロセスにおいては、専門的な知識や技術が求められるため、社内で適切な人材を配置しなければなりません。基盤となるインフラ設計やファインチューニングなどさまざまな知識が必要になりますが、特にvLLMとHugging Faceなどでホストされているモデルに関する知識が重要です。
また、ローカルLLM導入後のメンテナンスやセキュリティ管理なども自社で対応しなければならないため、事前に社内で体制を整備しておきましょう。
6-2 高額な初期導入コストの発生
ローカルLLMを導入する際には、高性能なハードウェアなどを確保する必要があるため、初期の導入コストが高額になりがちです。特に大規模なモデルを扱う場合は、計算能力の高い高価なGPUを用意しなければなりません。
しかし先述したように一度導入してしまえばその後の運用コストは安定しやすいため、長期的な利用を前提とすればクラウドLLMよりも経済的な効果が期待できる可能性は高いと言えます。
なお、NVIDIAと同等スペックのハードウェアを低価格で提供する動きが既にあるので、そのあたりも注視しておきたいところです。
6-3 不正確・不完全なデータを生成する可能性
ローカルLLMを活用する際には、AIが必ずしも正しいデータを生成するとは限らないことを理解しておく必要があります。例えば、ソフトウェア開発において脆弱性の分析や修正をローカルLLMを通して自動化する場合、正しい結果がアウトプットされない可能性もあるため、AIからの修正案を検討するタイミングなどにおいては人間による二重チェックを積極的に行うことが大切です。
なお、ローカルLLMのデータ品質を保つためには、定期的なモデルのアップデートが重要です。クラウドLLMのように自動で最新の状態にアップデートされるわけではないため、自社で再学習や調整作業を行わなければなりません。
7 ソフトウェア開発におけるローカルLLMの活用例
ソフトウェア開発においては以下のようなプロセスにおいてローカルLLMを活用できます。
- コード補完・レビュー
- ドキュメント作成・ナレッジ共有
- CI/CDパイプラインの作成
7-1 コード補完・レビュー
ソフトウェア開発でローカルLLMを導入することで、オフラインでのコード補完・レビューが可能になります。コード補完ならコードを記述している際に、AIがコードの提案を行なってくれるため、開発者のコーディングスピードの向上が期待できます。
また、コードレビューの自動化により、開発者は効率的にコードの改善を実施でき、AIで一貫性のあるレビューを実現することでコード品質の向上につなげられるでしょう。
7-2 ドキュメント作成・ナレッジ共有
ローカルLLMの活用は、ソフトウェア開発におけるドキュメント作成やナレッジ共有でも役立ちます。例えば、ドキュメント作成なら仕様書の初稿作成や内容のチェックをローカルLLMを通して行えば、作業の効率化につなげられます。
また、RAGと連携して社内ナレッジベースや文書を利用して社内Q&A検索などを構築すれば、開発チーム内でのナレッジ共有をスムーズに行えるでしょう。
7-3 CI/CDパイプラインの作成
ソフトウェア開発でのローカルLLMの活用は、CI/CDパイプラインの作成やパイプライン実行時のエラー調査にも貢献できます。また、テストコード生成によってテスト作業の軽減化も支援することが可能です。
CI/CDパイプラインの構築から実行におけるプロセスを効率化すれば、開発者はソフトウェアの開発作業に集中できるようになるため、リリース頻度やスピードの向上につなげられます。
8 ローカルLLMの導入方法
では実際にローカルLLMを導入するにはどのような手順を踏めば良いのかを解説します。
- 目的と要件の整理
- 環境整備
- 継続的な検証と改善
8-1 1.目的と要件の整理
まずはソフトウェア開発の領域において「なぜローカルLLMの導入が必要なのか?」という目的を明確化することが大切です。
例えば、「クラウドからの移行によるコスト最適化を図りたい」「自社のセキュリティ要件にマッチした開発環境を構築したい」など目的を検討します。明確な目的がないと導入そのものが目的となってしまい、十分な効果を得られないためきちんと設定し、社内で共通の認識を持っておく必要があります。
また、ローカルLLMを導入して具体的にどのような成果を得たいのか定量的なKPIもあわせて設定しておくことで、導入後の効果検証や改善がしやすくなります。例えば、開発コストの削減量やパイプライン実行時間などの目標値の設定が考えられます。
8-2 2.環境整備
次にローカルLLMの実行に必要なモデルの選定や環境構築を行います。モデルの選定においては導入目的をもとに、求められる性能やリソース要件などを考慮して検討します。
ハードウェア環境においては、使用するモデルのサイズや用途、利用ユーザー数などに応じた要件を満たすことがポイントとなり、特にGPUの性能が重要です。ハードウェア環境が整った後は、ソフトウェア環境の設定を行い実際にモデルを実装していきます。
8-3 3.継続的な検証と改善
モデル実装後は、継続的なパフォーマンステストと改善を行います。具体的には、処理速度や回答精度、リソースの利用状況などを検証し、必要に応じて改善や調整を実施します。なお、実際の運用においてはまずは小規模なプロジェクトから開始し、検証結果の内容や利用ユーザーのフィードバックを取り入れながら徐々に拡大していくと良いでしょう。
また、長期的に安定して運用するためには、メンテナンスやアップデートをスムーズに行える体制づくりも必要です。
9 ローカルLLMのおすすめモデル
ローカルLLMの導入にあたっておすすめのモデルを紹介します。なお、ここで紹介するモデルはGitLabのサポート対象です。
- Mistral-Small-3.2-24B-Instruct-2506
- Codestral 22B
- Llama 3
9-1Mixtral-8x7B-Instruct-v0.1
Mixtral 8x7Bは、Mistral AIが2023年12月にリリースした大規模言語モデルです。混合エキスパートモデル(MoE)を採用しているのが特徴で、学習・推論スピードに強みがあります。Mixtral 8x7Bならコード生成タスクでも高精度なアウトプットが期待でき、Duo Chatでも活用可能です。
9-2 Codestral 22B
Mistral AIが2024年5月から公開しているCodestral 22Bは、コーディングに特化した大規模言語モデルです。PythonやJava、C、SQLなど人気のプログラミング言語を含め、80以上の言語に対応しています。コード自動補完など開発効率の向上を目的として活用できます。Chatには使えませんが、ソースコード生成処理として良い選択になります。この時にGitLabは、用途用途にモデルを切り替えられるメリットがあります。
9-3 Llama3
Llama3は、Meta社が2024年4月に公開したオープンソース大規模言語モデルです。Llama3には、「8B」と「70B」の2つのモデルが存在します。
Llama3 8Bは、80億のパラメータを持つモデルで比較的コンパクトであることから、計算リソースが限られるシーンでの利用が向いています。一方、Llama3 70Bは、700億のパラメータを持つモデルであり、多様なタスクへの対応やパフォーマンス向上などを目的として活用できます。また、ライセンスフリーで利用可能なモデルの中では最高峰レベルの性能を誇るため、ハードウェアに予算が割けられる場合は70Bをおすすめします。
10 ローカルLLM導入における注意点
ローカルLLMを導入する際には以下のような注意点があり、事前に必要な対策を検討しておくことが大切です。
- 社内での周知・教育・活用定着を図る
- 社内でのセキュリティ設定・アクセス制御を徹底する
- モデルのライセンスを確認する
10-1 社内での周知・教育・活用定着を図る
ローカルLLMを自社で導入した場合でも実際に開発者に使われないと意味がありません。導入目的の説明や操作マニュアル・ガイドラインの整備などを行い、利用の定着を図ることが大切です。社内におけるAI活用の利用状況を効率的にチェックするには、ツールの活用がおすすめです。
GitLabのサービスの一つとして「AI Impact Dashboard」があり、この機能を活用することで自社のAI導入における利用状況を可視化してROIのモニタリングが可能になります。
10-2 社内でのセキュリティ設定・アクセス制御を徹底する
ローカルLLMは自社サーバーで運用しますが、社内でのセキュリティ対策は必須です。
社内でのセキュリティ対策としてまず挙げられるのは、モデルに入力した機密データの管理の徹底です。LLMが出力するログにはソースコードなどの断片が出力されるケースもあるため、LLMを運用しているOSへのログインや物理アクセスの管理などを行わなければなりません。
また、実際にモデルを入手する際には改ざんされたモデルを利用しないようダウンロード元には十分注意しましょう。
10-3 モデルのライセンスを確認する
ローカルLLMを導入する際に注意点したい要素として、モデルのライセンス条件があります。各モデルによって付与されているライセンスが異なり、商用利用や改変、再配布の可否などの条件が設定されています。
ライセンス違反にならないよう使用予定モデルのライセンス規約を丁寧に確認し、運用におけるリスクを取り除いておきましょう。
11 GitLab Duo Self-HostedによるローカルLLM運用
GitLab Duo Self-Hostedを活用することで、ローカルLLMをGitLabと連携して運用できます。GitLabは、ソフトウェア開発ライフサイクル全体を効率化できるDevSecOpsプラットフォームです。
ここでは、GitLab Duo Self Hostedの特徴やローカルLLMとの連携で実現できることを紹介します。
11-1 GitLab Duo Self-Hostedとは?概要と主な特徴
GitLab Duoは、GitLabが提供するソフトウェア開発におけるワークフローを支援するAIソリューションです。 Self-Hosted版ならGitLab Duoをオンプレミス環境で運用できるため、安全にAIを活用しながら開発を進められます。
また、Mistralなど主要なモデルをサポート対象としているため、自社のセキュリティやパフォーマンス要件に応じて柔軟にモデルを選定し、最適なソリューションを構築できます。
11-2 ローカルLLMとGitLabの連携で実現できること
ローカルLLMとGitLabの連携により以下のようなことが可能になるため、ソフトウェア開発における生産性と品質向上を実現できます。
- コード補完・レビュー支援(20以上の言語に対応)
- セキュリティ脆弱性検出・修正提案
- アクセス制御
- AI投資のROI測定
- CI/CDのyml生成・トラブルシュート、コードレビューの自動化 など
12 ローカルLLMの将来性・今後の展望
結論から述べるとローカルLLMの需要は拡大し、今後もさまざまなシーンで広く活用されていくと言えます。
一般社団法人 電子情報技術産業協会(JEITA)が発表した「生成AI市場の世界需要額見通し」によると、生成AI市場の世界需要額は年平均53.3%で成長しており、2030年には2,110億ドルに達すると言われています。これは、2023年の106億ドルから約20倍の需要額となる見込みです。
ローカルLLMは、厳しいセキュリティ要件にも対応できるなどソフトウェア開発やビジネスにおいて多くのメリットがある技術です。今後も低スペックで動作する高性能モデルの登場や、クラウドとのハイブリッド活用などさらなる技術の発展やアプローチによって、開発者にとって必要不可欠なソフトウェア開発基盤として機能していくでしょう。
※出典:JEITA、生成 AI 市場の世界需要額見通しを発表
13 ローカルLLMに関するQ&A
最後にローカルLLMに関するQ&Aを紹介します。
13-1 ローカルLLM導入はどのようなチームに向いている?
ローカルLLM導入は以下のような条件に該当するチームに向いています。
- プロジェクトや業界のセキュリティ要件が厳しい
- 機密性が高いソフトウェア開発をしている
- CやC++など高い技術力が求められる言語で開発しているが、人員集めに苦労している
- クラウドのAPI課金に対してコスト面で負担を感じている
- LLMをDevSecOpsに組み込みたい など
13-2 ローカルLLM運用のための最低限のハードウェア条件は?
GitLab Duo Self-Hostedをオンプレミスで実行する場合は以下の通りです。ただ実際の要件はモデルのサイズと使用目的などによって異なるため、参考程度として捉えてください。
・GPU:1 x NVIDIA A100(40GB)
・VRAM: 35GB以上
・ストレージ:モデルサイズ分以上
13-3 ローカルLLMとクラウドLLMのハイブリッド活用例は?
ローカルLLMとクラウドLLMの使い分けやハイブリッド活用においては目的や要件によって判断する必要があります。
例えば、機密性の高いソースコードに関する作業であり、かつ利用頻度も高い場合はローカルLLMで実行する必要があります。一方で機密性が低く、かつソースコードに関する作業頻度も低い場合は、クラウドLLMを利用すると良いでしょう。
万が一クラウドLLMを運用中に障害が発生した時は、ローカルLLMを利用します。ただし、使用するモデルが異なるとアウトプットの質にも影響が出てくるため、可能な範囲でハイブリッド活用を検討します。
なお、クラウドLLMは最新モデルを素早く利用できる利点と、モデルを動作するインフラの規模(GPUやVRAMなど)を気にする必要がないため、最新のクオリティでLLMを活用したいケースでの利用が向いているでしょう。
まとめ ローカルLLMを自社のソフトウェア開発に取り入れよう
ソフトウェア開発においてローカルLLMを採用することで、セキュリティ要件が厳しいケースにおいても安全に開発を進められます。実際の導入においては目的の明確化や自社ニーズ・リソースにマッチしたモデルの選定、適切な運用体制の構築が鍵となってきます。
ローカルLLMを自社の開発プロセスに導入するならぜひ「GitLab Duo Self-Hosted」をご活用ください。GitLab Duo Self-Hostedならオンプレミス環境でさまざまなAI機能を活用して、高品質かつ迅速なソフトウェア開発を実現できます。
なお、GitLabでは世界39か国、5,000人を超えるDevSecOps専門家のインサイトが詰まった完全版レポートを無料で公開しているので、ぜひこちらもご覧下さい。
監修:小松原つかさ @tkomatsubara
(GitLab合同会社ソリューションアーキテクト本部シニアパートナーソリューションアーキテクト)本内容は、GitLab社ブログ掲載内容を引用掲載しております。
ネットワールド GitLab Duo Self-hosted/ローカル LLMサービス
ネットワールドでは、ローカルLLMを検討するお客様をご支援するサービスを提供しています。
ハードウェア選定
NVIDIA、もしくは相当のAI向けハードウェアをご提案いたします。ニーズ・ご予算にあったハードウェアをお選びいただけます。
ハードウェア提供
選定したハードウェアに、指定いただいたLLM等をプリインストール・設定し、出荷いたします。
検証支援
様々な検証も、ご相談いただけます。
GitLab Duo Self-hosted /ローカルLLM 支援
GitLab Duo Self-hosted /ローカルLLM 設計、設定なども提供いたします。
メニューは拡大中ですので、ぜひお問合せください。(本サイト右上「メールマーク」からお問合せください)
弊社パートナー様はNetworld Dev Portal アカウント(無料)登録いただくと、GitLabパートナー制度や DevSecOps関連提案資料などのパートナー限定コンテンツがご覧いただけます。
DevSecOps全般、GitLab製品または本サイトについては以下よりお問い合わせ下さい。
