Ollama / ローカルマシンでLLMを気軽に試せる Ollamaというツールを使って、ローカルマシンでLLMを動かしてみた。Ubuntuにインストールして試したが、READMEを見る限りMacやWindowsにも対応してそうだ。 github.com Llama 3 / Meta のモデル Quickstart に書…
引用をストックしました
引用するにはまずログインしてください
引用をストックできませんでした。再度お試しください
限定公開記事のため引用できません。