Ollamaコマンド集|ローカルLLM

65 アクセス

はじめに

この記事はOllamaでよく使うコマンドの備忘録

実行環境

MacBook Air
M3チップ
メモリ16GB

Ollamaのインストール

Homebrew を使っているなら下記のコマンドを実行するだけ

$ brew install ollama

Homebrewを使っていない人は公式サイトから→https://ollama.com/download

コマンド

バージョンの確認

ollamaが起動していないとWarningメッセージが出る

ヘルプの表示

利用できるコマンド一覧が表示される
さらに、ollama [コマンド名] –help でそのコマンドの情報を表示できる

モデルの一覧

インストール済みのリストが表示される

実行結果例

gemma2, llama3-elyza-jp-8b, phi3を過去にインストールしてあるため、このように表示された

モデルの実行

初めてのモデルはダウンロードが行われる(gemma2のときで2,3分ほどかかった記憶)
プロンプトを入力できるようになり、送信するとテキスト生成が行われる

実行例(phi3)

意味不明な文章が返ってきた

/byeと入力すれば閉じることができる

モデル情報の表示

実行結果

おわりに

今回はollamaにあるモデルをダウンロードして実行することを行った。
API使用料を払わずに自分の環境で動かせることがローカルLLMの魅力。

今後やってみたいこと↓
バイナリ形式のggufファイルをダウンロードしてモデル化
pythonプログラムから呼び出して実行

Tags:

Comments

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です