LLM: ollama install ubuntu 24.04: Difference between revisions

From OnnoCenterWiki
Jump to navigationJump to search
No edit summary
No edit summary
Line 20: Line 20:
Sebagai user biasa run & download model
Sebagai user biasa run & download model


ollama serve
  ollama pull llama3
  ollama pull llama3
  ollama pull bge-m3:latest
  ollama pull bge-m3:latest
  ollama pull all-MiniLM
  ollama pull all-MiniLM
  ollama run llama3
 
 
  systemctl status ollama





Revision as of 01:48, 22 March 2025

Sumber: https://www.jeremymorgan.com/blog/generative-ai/local-llm-ubuntu/

Pastikan:

  • OS bisa linux server, seperti ubuntu server.
  • Memory RAM pastikan cukup untuk menyimpan model-nya. Model llama3 butuh memory paling tidak 8GB.
  • Kalau mau lebih enak/lebih cepat sebaiknya pakai GPU, seperti nvidia telsa yang agak baru.


Install aplikasi pendukung

sudo su
apt update
apt install curl net-tools


Download

curl -fsSL https://ollama.com/install.sh | sh

Sebagai user biasa run & download model

ollama pull llama3
ollama pull bge-m3:latest
ollama pull all-MiniLM


systemctl status ollama


OPTIONAL: Sebagai super user,

sudo su
sudo snap install --beta open-webui


Contoh

curl http://localhost:11434/api/generate -d '{
  "model" : "llama3",
  "prompt" : "tell me a joke",
  "stream" : false
  }'
  


Referensi