<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://lms.onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=SLM%3A_Ubuntu_24.04</id>
	<title>SLM: Ubuntu 24.04 - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://lms.onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=SLM%3A_Ubuntu_24.04"/>
	<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=SLM:_Ubuntu_24.04&amp;action=history"/>
	<updated>2026-04-20T10:23:26Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.45.1</generator>
	<entry>
		<id>https://lms.onnocenter.or.id/wiki/index.php?title=SLM:_Ubuntu_24.04&amp;diff=72620&amp;oldid=prev</id>
		<title>Unknown user: Created page with &quot;Berikut adalah contoh implementasi Small Language Model (SLM) di Ubuntu 24.04, menggunakan LLaMA.cpp dan model Phi-2 (Microsoft) atau Mistral 7B (quantized) yang bisa dijalank...&quot;</title>
		<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=SLM:_Ubuntu_24.04&amp;diff=72620&amp;oldid=prev"/>
		<updated>2025-05-05T00:20:43Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;Berikut adalah contoh implementasi Small Language Model (SLM) di Ubuntu 24.04, menggunakan LLaMA.cpp dan model Phi-2 (Microsoft) atau Mistral 7B (quantized) yang bisa dijalank...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Berikut adalah contoh implementasi Small Language Model (SLM) di Ubuntu 24.04, menggunakan LLaMA.cpp dan model Phi-2 (Microsoft) atau Mistral 7B (quantized) yang bisa dijalankan secara lokal tanpa GPU besar:&lt;br /&gt;
&lt;br /&gt;
==Langkah-langkah Implementasi SLM di Ubuntu 24.04 (Tanpa GPU)==&lt;br /&gt;
&lt;br /&gt;
===1. Siapkan Dependensi===&lt;br /&gt;
&lt;br /&gt;
 sudo apt update&lt;br /&gt;
 sudo apt install build-essential cmake git python3-pip -y&lt;br /&gt;
&lt;br /&gt;
===2. Clone dan Build `llama.cpp`===&lt;br /&gt;
&lt;br /&gt;
 git clone https://github.com/ggerganov/llama.cpp&lt;br /&gt;
 cd llama.cpp&lt;br /&gt;
 mkdir build&lt;br /&gt;
 cd build&lt;br /&gt;
 cmake ..&lt;br /&gt;
 make&lt;br /&gt;
&lt;br /&gt;
✅ Ini akan menghasilkan file binary bernama `main` untuk menjalankan model SLM.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
===3. Unduh Model SLM (Contoh: Mistral 7B GGUF)===&lt;br /&gt;
&lt;br /&gt;
Cari model GGUF format di situs seperti:&lt;br /&gt;
&lt;br /&gt;
* [https://huggingface.co/TheBloke](https://huggingface.co/TheBloke)&lt;br /&gt;
* Contoh: `TheBloke/Mistral-7B-Instruct-v0.1-GGUF`&lt;br /&gt;
  Pilih file seperti `mistral-7b-instruct-v0.1.Q4_K_M.gguf` (ringan dan cepat)&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 mkdir ~/models/mistral&lt;br /&gt;
 cd ~/models/mistral&lt;br /&gt;
 wget https://huggingface.co/TheBloke/Mistral-7B-Instruct-v0.1-GGUF/resolve/main/mistral-7b-instruct-v0.1.Q4_K_M.gguf&lt;br /&gt;
&lt;br /&gt;
&amp;gt; ⚠️ Kamu butuh akun Hugging Face untuk mengakses beberapa model. Bisa pakai token gratis.&lt;br /&gt;
&lt;br /&gt;
===4. Jalankan Model Secara Lokal===&lt;br /&gt;
&lt;br /&gt;
 cd ~/llama.cpp&lt;br /&gt;
 ./main -m ~/models/mistral/mistral-7b-instruct-v0.1.Q4_K_M.gguf -p &amp;quot;Jelaskan apa itu Small Language Model dalam bahasa Indonesia.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
📌 Flag `-p` = prompt input yang akan dijawab model.&lt;br /&gt;
&lt;br /&gt;
===5. (Opsional) Gunakan WebUI Lokal seperti `llama-cpp-python` + Open WebUI===&lt;br /&gt;
&lt;br /&gt;
Jika ingin pakai antarmuka browser:&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Install `llama-cpp-python`&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
 pip install llama-cpp-python&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Jalankan server lokal&amp;#039;&amp;#039;&amp;#039;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 python3 -m llama_cpp.server --model ~/models/mistral/mistral-7b-instruct-v0.1.Q4_K_M.gguf&lt;br /&gt;
&lt;br /&gt;
Akses di browser via: [http://localhost:8000](http://localhost:8000)&lt;br /&gt;
&lt;br /&gt;
Atau hubungkan dengan Open WebUI (opsional via Docker).&lt;br /&gt;
&lt;br /&gt;
===Catatan Tambahan===&lt;br /&gt;
&lt;br /&gt;
* Untuk model lebih kecil dan super ringan, kamu bisa pakai:&lt;br /&gt;
&lt;br /&gt;
** `Phi-2` (2.7B, cocok untuk laptop low-end)&lt;br /&gt;
** `TinyLlama` (1.1B, super ringan)&lt;br /&gt;
&lt;br /&gt;
Model GGUF untuk keduanya juga tersedia di Hugging Face (TheBloke).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Kesimpulan==&lt;br /&gt;
&lt;br /&gt;
Kamu bisa menjalankan SLM seperti Mistral 7B atau Phi-2 secara lokal di Ubuntu 24.04, bahkan tanpa GPU, hanya dengan CPU dan RAM minimal 8–16GB. Tools seperti llama.cpp memudahkan proses ini dengan performa tinggi dan dukungan quantized model (GGUF).&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[SLM]]&lt;/div&gt;</summary>
		<author><name>Unknown user</name></author>
	</entry>
</feed>