DeepSeekをEC2のローカル環境で実行!セキュリティを確保しつつ使ってみた

最近話題の中国製の生成AIであるDeepSeekを触ってみたく、試行錯誤しています。
DeepSeekのアプリから直接、触ってみることも考えましたが、サーバが中国にあることを考えるとそのまま使おうという気にはなれませんでした
そこでDeepSeekはOSSということもあり、自前で立ててしまえばよいではないかと思い至り、この挑戦を実施してみます。
同じくDeepSeekを触ってみたいという人がいれば参考になれば幸いです。

DeepSeekとは?

Deepseekとは、中国にて開発された大規模言語モデル(LLM)の生成AIです。
OpenAIのGPT-4、AnthropicのClaudeなどの生成AIモデルが主流でしたが、高性能にも関わらず安価に利用可能ということで注目を浴びています。
また、DeepSeelはオープンソースというのも魅力の一つです。
生成AIの技術者達によってDeepSeekをベースに改良を加えられたモデルが今後公開されていくことが期待できます。

オープンソースということと、AWS Bedrockはカスタムモデルのインポートという機能があるので、外部から生成AIモデルを投入して使うことができます。
この方式を使えば、わざわざサーバを立てなくてもDeepSeekを使えます。
ただ、使えるリージョンに限定があり、2025年2月現在では、バージニアリージョンとオレゴンリージョンでしか利用できません。
東京リージョンでも使えるようになるのが待ち遠しいですね。

作業前提



インストール方法

Ollamaのインストール

①OllamaSetup.exeをダブルクリックします。

②画面に沿って「Install」を押します。


③インストールが完了すると右下に以下の起動中の表示がでます。


DeepSeek起動

①ModelFile作成
サーバ内に資材を配置した後、「DeepSeek-R1-Distill-Llama-8B-F16.gguf」が存在するフォルダに以下の内容で「Modelfile」というファイルを作成します。
FROM "<ggufファイルのパス>"


②生成AIモデルのインポート
以下のコマンドを実行して、Ollamaに生成AIモデルをインポートします。
cd <ggufファイルのパス>
ollama create DeepSeek-R1-Distill-Llama-8B


③DeepSeek起動
以下のコマンドを実行して、Ollamaに生成AIモデルを起動します。
もうこの状態になればプロンプトでそのままDeepSeekに問い合わせが可能です。
ollama run DeepSeek-R1-Distill-Llama-8B


セキュリティ確認

今回の動作確認環境は、資材の持ち込みにS3のVPCエンドポイントを使用しましたが、その後の作業は全てインターネットにつながらないオフライン環境で作業を行いました。
セキュリティグループは「10.0.0.0/8」のプライべートIPにのみつながる状態にしていますので、中国のDeepSeekサービスへの接続も完全に切ってあります。

まとめ

話題のDeepSeekの生成AIをお試ししてみました。
思ったより簡単に、DeepSeekをEC2上で動作させることができました。
ここであれば、EC2上に構築したDeepSeekを使用しているので、中国側にはデータは流出しません。
安全にDeepSeekを使える環境を自前で用意できますので試してみてはいかがでしょうか?