<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://lms.onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=TF%3A_Penjelasan_Model_TensorFlow</id>
	<title>TF: Penjelasan Model TensorFlow - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://lms.onnocenter.or.id/wiki/index.php?action=history&amp;feed=atom&amp;title=TF%3A_Penjelasan_Model_TensorFlow"/>
	<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=TF:_Penjelasan_Model_TensorFlow&amp;action=history"/>
	<updated>2026-04-20T19:15:51Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.45.1</generator>
	<entry>
		<id>https://lms.onnocenter.or.id/wiki/index.php?title=TF:_Penjelasan_Model_TensorFlow&amp;diff=71978&amp;oldid=prev</id>
		<title>Unknown user: Created page with &quot;Model:   model = tf.keras.models.Sequential([    tf.keras.layers.Flatten(input_shape=(28, 28)),    tf.keras.layers.Dense(128, activation=&#039;relu&#039;),    tf.keras.layers.Dropout(0....&quot;</title>
		<link rel="alternate" type="text/html" href="https://lms.onnocenter.or.id/wiki/index.php?title=TF:_Penjelasan_Model_TensorFlow&amp;diff=71978&amp;oldid=prev"/>
		<updated>2025-03-17T00:13:06Z</updated>

		<summary type="html">&lt;p&gt;Created page with &amp;quot;Model:   model = tf.keras.models.Sequential([    tf.keras.layers.Flatten(input_shape=(28, 28)),    tf.keras.layers.Dense(128, activation=&amp;#039;relu&amp;#039;),    tf.keras.layers.Dropout(0....&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Model:&lt;br /&gt;
&lt;br /&gt;
 model = tf.keras.models.Sequential([&lt;br /&gt;
   tf.keras.layers.Flatten(input_shape=(28, 28)),&lt;br /&gt;
   tf.keras.layers.Dense(128, activation=&amp;#039;relu&amp;#039;),&lt;br /&gt;
   tf.keras.layers.Dropout(0.2),&lt;br /&gt;
   tf.keras.layers.Dense(10)&lt;br /&gt;
 ])&lt;br /&gt;
&lt;br /&gt;
Berikut adalah penjelasan dari setiap lapisan dalam model TensorFlow/Keras yang kamu berikan:&lt;br /&gt;
&lt;br /&gt;
==1. &amp;#039;&amp;#039;&amp;#039;Flatten&amp;#039;&amp;#039;&amp;#039;==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Flatten(input_shape=(28, 28))&lt;br /&gt;
&lt;br /&gt;
* Lapisan ini digunakan untuk mengubah (flatten) input dari bentuk &amp;#039;&amp;#039;&amp;#039;matriks 2D&amp;#039;&amp;#039;&amp;#039; menjadi &amp;#039;&amp;#039;&amp;#039;vektor 1D&amp;#039;&amp;#039;&amp;#039;.&lt;br /&gt;
* Dalam kasus ini, inputnya adalah gambar berukuran &amp;#039;&amp;#039;&amp;#039;28x28&amp;#039;&amp;#039;&amp;#039; piksel, yang akan diratakan menjadi &amp;#039;&amp;#039;&amp;#039;vektor 1D dengan panjang 784 (28×28)&amp;#039;&amp;#039;&amp;#039;.&lt;br /&gt;
* Flatten &amp;#039;&amp;#039;&amp;#039;tidak memiliki parameter yang dipelajari&amp;#039;&amp;#039;&amp;#039;, hanya mengubah bentuk data.&lt;br /&gt;
&lt;br /&gt;
==2. &amp;#039;&amp;#039;&amp;#039;Dense&amp;#039;&amp;#039;&amp;#039;==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Dense(128, activation=&amp;#039;relu&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
* Ini adalah &amp;#039;&amp;#039;&amp;#039;fully connected layer (dense layer)&amp;#039;&amp;#039;&amp;#039; dengan &amp;#039;&amp;#039;&amp;#039;128 neuron&amp;#039;&amp;#039;&amp;#039;.&lt;br /&gt;
* Setiap neuron menerima input dari semua elemen di lapisan sebelumnya (lapisan Flatten).&lt;br /&gt;
* Menggunakan fungsi aktivasi &amp;#039;&amp;#039;&amp;#039;ReLU (Rectified Linear Unit)&amp;#039;&amp;#039;&amp;#039; untuk memperkenalkan non-linearitas:&lt;br /&gt;
&lt;br /&gt;
 ReLU(x) = max(0, x)&lt;br /&gt;
&lt;br /&gt;
* Fungsi aktivasi ini membantu jaringan belajar representasi yang lebih kompleks.&lt;br /&gt;
&lt;br /&gt;
==3. &amp;#039;&amp;#039;&amp;#039;Dropout&amp;#039;&amp;#039;&amp;#039;==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Dropout(0.2)&lt;br /&gt;
&lt;br /&gt;
* Digunakan untuk &amp;#039;&amp;#039;&amp;#039;regularisasi&amp;#039;&amp;#039;&amp;#039; agar model tidak overfitting.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Dropout 0.2&amp;#039;&amp;#039;&amp;#039; berarti 20% dari neuron di lapisan sebelumnya (Dense 128) akan &amp;#039;&amp;#039;&amp;#039;dinonaktifkan secara acak&amp;#039;&amp;#039;&amp;#039; selama training.&lt;br /&gt;
* Ini membantu model untuk tidak terlalu bergantung pada fitur tertentu dan meningkatkan generalisasi pada data baru.&lt;br /&gt;
&lt;br /&gt;
==4. &amp;#039;&amp;#039;&amp;#039;Dense (Output Layer)&amp;#039;&amp;#039;&amp;#039;==&lt;br /&gt;
&lt;br /&gt;
 tf.keras.layers.Dense(10)&lt;br /&gt;
&lt;br /&gt;
* Lapisan ini memiliki &amp;#039;&amp;#039;&amp;#039;10 neuron&amp;#039;&amp;#039;&amp;#039;, sesuai dengan jumlah &amp;#039;&amp;#039;&amp;#039;kelas yang ingin diprediksi&amp;#039;&amp;#039;&amp;#039; (misalnya untuk klasifikasi digit 0-9 dalam dataset MNIST).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Tidak ada fungsi aktivasi&amp;#039;&amp;#039;&amp;#039; dalam lapisan ini karena biasanya &amp;#039;&amp;#039;&amp;#039;fungsi aktivasi softmax&amp;#039;&amp;#039;&amp;#039; akan diterapkan di luar model (misalnya dalam fungsi loss `SparseCategoricalCrossentropy` yang sudah mengandung softmax secara internal).&lt;br /&gt;
* Jika ingin eksplisit, kita bisa menambahkan `activation=&amp;#039;softmax&amp;#039;` agar output berupa probabilitas untuk setiap kelas.&lt;br /&gt;
&lt;br /&gt;
==&amp;#039;&amp;#039;&amp;#039;Kesimpulan&amp;#039;&amp;#039;&amp;#039;==&lt;br /&gt;
Model ini digunakan untuk klasifikasi gambar digit 28x28 piksel, kemungkinan besar dataset MNIST. Alurnya adalah:&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Flatten&amp;#039;&amp;#039;&amp;#039; → Meratakan gambar dari (28,28) menjadi vektor 784.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Dense (128 ReLU)&amp;#039;&amp;#039;&amp;#039; → Lapisan tersembunyi dengan 128 neuron dan aktivasi ReLU.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Dropout (0.2)&amp;#039;&amp;#039;&amp;#039; → Mengurangi overfitting dengan menonaktifkan 20% neuron secara acak saat training.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Dense (10 output tanpa aktivasi)&amp;#039;&amp;#039;&amp;#039; → Menghasilkan 10 nilai logit untuk klasifikasi ke 10 kelas.&lt;br /&gt;
&lt;br /&gt;
Jika model ini digunakan untuk klasifikasi, umumnya loss function yang digunakan adalah &amp;#039;&amp;#039;&amp;#039;SparseCategoricalCrossentropy&amp;#039;&amp;#039;&amp;#039; atau &amp;#039;&amp;#039;&amp;#039;CategoricalCrossentropy&amp;#039;&amp;#039;&amp;#039;, tergantung pada format label.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Pranala Menarik==&lt;br /&gt;
&lt;br /&gt;
* [[TensorFlow]]&lt;/div&gt;</summary>
		<author><name>Unknown user</name></author>
	</entry>
</feed>