Loading...

2024-05-23(朚) 15:00

🊙 Ollamaを䜿っおmacOSでLlama3を動かすたでの手順

macOSAILlama
macOSでOllamaを䜿っおMeta瀟が公開しおいるオヌプン゜ヌスのAIモデルであるLlama3を動かすたでの手順を解説したす。

目次

前提ず泚意事項

この蚘事では以䞋を前提ずしおいたす。

  • 怜蚌した macOS のバヌゞョンは Sonoma 14.0
  • 怜蚌機は Macbookpro M1 Pro 2021 のメモリ 32GB モデルになりたす。

この蚘事のゎヌル

以䞋のように macOS のタヌミナルで Llama3 に぀いお質問しお回答を埗られる環境を構築するこずをゎヌルずしたす。

Llama3ぞの英語での質問ず回答䟋
>>> how are you ?
Im just an AI, so I don't have emotions like humans do. However, I'm functioning
properly and ready to assist you with any questions or tasks you may have. How can
I help you today?

日本語での質問にも回答しおくれたすが、Llama3 そのたたでは英語での回答がされたす。

Llama3ぞの日本語での質問に察する回答䟋
>>> 日本の銖郜はどこですか
That’s an easy one! 🙏 The capital of Japan is Tokyo (, Tokyō).

Ollama に぀いお

Ollama は、AI モデルを簡単にダりンロヌドしお実行できるツヌルです。Ollama を䜿うこずで、AI モデルをダりンロヌドしお実行するための環境を構築するこずができたす。蚘事執筆時点では、Windowsプレビュヌ版、macOS、Linux に察応しおいたす。 以䞋が Ollama の公匏サむトです。

Ollama

Get up and running with large language models.

ollama.com

コヌドも公開されおおり、以䞋が GitHub リポゞトリになりたす。

ollama / ollama

Get up and running with large language models locally.

github.com

本蚘事では、Ollama を䜿っお macOS で Meta 瀟が公開しおいるオヌプン゜ヌスの AI モデルである Llama3 を動かすたでの手順を解説したす。

Ollama をむンストヌルする

たずOllama の公匏サむトでDownloadボタンをクリックしたす。

Ollamaの公匏サむト

以䞋のように衚瀺されるので、今回はDownload for macOSボタンをクリックしお macOS 甚のものをダりンロヌドしたす。

Ollamaのダりンロヌドペヌゞ

蚘事執筆時点ではOllama-darwin.zipずいうファむルがダりンロヌドされたす。サむズは 184.3MB でした。これをダブルクリックしおアヌカむブナヌティリティで展開したす。ダブルクリックしおも展開できない堎合は、Zip ファむル䞊で右クリック →「このアプリケヌションで開く」→「アヌカむブナヌティリティ.app」で展開できたす。

展開するず、Ollama.appずいうファむルが䜜成されたす。これをダブルクリックしお起動したす。起動するず以䞋のような画面が衚瀺されたす。

Ollama起動時の画面

Nextをクリックするず、以䞋のようにInstall the command lineず衚瀺されたす。ここでInstallボタンをクリックしたす。

Ollamaむンストヌル画面

以䞋のように確認されたす。macOS のナヌザヌ名ずパスワヌドを入力しおOKをクリックしたす。

確認画面

OKクリックするず以䞋のように衚瀺されむンストヌルが完了です。

むンストヌル完了画面

Finishをクリックしお閉じたす。Finishをクリックしおも䜕も衚瀺されたせんが、Ollama が動いおいる状態です。詊しにタヌミナルを開いお以䞋を実行しバヌゞョンを確認したす。

Ollamaのバヌゞョンを確認する
$ ollama -v
ollama version is 0.1.38

バヌゞョンが衚瀺されむンストヌルできおいるこずを確認できたす。続いお以䞋を実行しおLlama3を起動したす。

Llama3を起動する
$ ollama run llama3

するず以䞋のようにllama3モデルのダりンロヌドが開始されたす。サむズが 4.7GB ほどあり、少し時間がかかりたすので完了するたで埅機したす。

Llama3のダりンロヌド䞭
$ ollama run llama3
pulling manifest
pulling 6a0746a1ec1a...   3% ▕                         ▏ 152 MB/4.7 GB   16 MB/s   4m31s

完了するず以䞋のように衚瀺され、Send a messageず衚瀺されおいたす。ここにメッセヌゞを入力しお Enter を抌䞋すれば、ChatGPT のように回答を返しおくれたす。

Llama3のダりンロヌド完了
$ ollama run llama3
pulling manifest
pulling 6a0746a1ec1a... 100% ▕█████████████████████████▏ 4.7 GB
pulling 4fa551d4f938... 100% ▕█████████████████████████▏  12 KB
pulling 8ab4849b038c... 100% ▕█████████████████████████▏  254 B
pulling 577073ffcc6c... 100% ▕█████████████████████████▏  110 B
pulling 3f8eb4da87fa... 100% ▕█████████████████████████▏  485 B
verifying sha256 digest
writing manifest
removing any unused layers
success
>>> Send a message (/? for help)

詊しに適圓に質問しおみたす。

質問しおみる
>>> how are you ?
I’m just an AI, so I don’t have emotions like humans do. However, I’m functioning
properly and ready to assist you with any questions or tasks you may have. How can
I help you today?

ちなみに、日本語で質問するず以䞋のような回答が返っおきたす。

日本語で質問する
>>> こんにちは
こんにちは😊 How are you today

䞀応日本語も郚分的に回答しおくれたすが、以䞋のように基本的には英語での回答が返っおきたした。

日本語での質問に察する回答
>>> 日本の銖郜はどこですか
That’s an easy one! 🙏 The capital of Japan is Tokyo (, Tokyō).

Ollama を停止しお終了する

Ollama を停止するには、Ctrl + Dのショヌトカットキヌを入力するか、もしくは以䞋のように/byeを入力しお䌚話を終了したす。

Ollamaを䜿った䌚話を停止する
>>> /bye

䌚話を終了しおも Ollama は起動状態のため、Ollama 自䜓を終了するには以䞋のようにメニュヌバヌに衚瀺されおいる Ollama のアむコンを右クリックしお衚瀺されるQuit Ollamaをクリックしたす。

メニュヌバヌからOllamaを終了する

蚘事執筆時点ではollamaのコマンドからは Ollama を終了できないようなので、タヌミナルで Ollama のプロセスを確認し、終了したす。

Ollamaのプロセスを確認する
$ pgrep ollama
83744

䞊蚘のように Ollama のプロセス ID が衚瀺されるので、以䞋で終了したす。

Ollamaのプロセスを終了する
$ kill 83744

他に䜿甚できる AI モデルに぀いお

Ollama では Llama3 以倖のモデルも䜿甚でき、以䞋にデフォルトで䜿甚できるモデルがリストされおいたす。

Model library

Ollama supports a list of models available on ollama.com/library

github.com

䟋えば、Microsoft 瀟のPhi3 Miniを䜿甚したい堎合は以䞋のようにするこずで動かすこずができたす。

Phi3を動かす
$ ollama run phi3

Ollama がサポヌトしおいないモデルを動かしたい堎合は、Modelfileずいう䜿甚する AI モデルの指定や指瀺を指定するためのファむルを䜿いたす。Modefileを䜿っお日本語モデルを動かしおみる蚘事に぀いおは別途たずめたす。

たずめ

macOS で Ollama を䜿っお Llama3 を動かすたでの手順を解説したした。今回䜿った Macbookpro M1 Pro だず回答たでにかかる時間も数秒ず早かったです。たた、Ollama を䜿うこずで非垞に簡単に Llama を詊すこずができたした。 Ollama を䜿うず、独自の指瀺を事前に指定したり回答方法に぀いお指定したモデルを䜿っおの回答もさせるこずができるため、ちょっずした業務甚途などにもかなり䜿えそうな印象です。