Intel Mac上でllama.cppのサーバ機能を使って日本語LLMを使ってみる
先日Intel Mac上でllama.cppを使って日本語LLM(ELYZA & Stabilityai beta)を使ってみるという記事を書きました。
その時はShell Script(Scriptというほどではないけど・・・)でパラメータをmainに渡してチャットを起動していましたが、やっぱりGUIで使ってみたいですよね。LLMをGUI経由で利用するためのソフトウェアとして、text-generation-webuiが有名ですが、実は、llama.cppには、独自のサーバー機能が同梱されています(知らなかった・・・)。
このあたり、Webにあまり情報がなかったこともあり、今回試してみたのでメモ。試すにあたり、Llama.cpp の HTTPサーバー機能を試す を参考にしています。ありがとうございます。
システム構成は次のとおり
Mac mini Late 2018
3.2GHz 6 cores Intel Core i7
64GB 2667MHz DDR4
Sonoma 14.1
また、リビジョンのhashが465219bのllama.cppを利用しています。


最近のコメント