PEMODELAN PROSES REVERSE OSMOSIS KINERJA MENGGUNAKAN JARINGAN SARAF BUATAN

PEMODELAN PROSES REVERSE OSMOSIS KINERJA MENGGUNAKAN JARINGAN SARAF BUATAN 

2.2. Jaringan saraf tiruan 

Jaringan saraf tiruan adalah teknik numerik yang mampu menangkap dan mewakili komplekshubungan masukan-keluaran. Mereka memiliki kemampuan untuk belajar linier, serta non-linearpola korelatif antara set data input dan nilai target yang sesuai, secara langsungdari kumpulan data yang dimodelkan. Mereka juga dapat berhasil digunakan dalam klasifikasimasalah, karena ada algoritma khusus yang tersedia untuk mengelompokkan pola inputcluster yang berbeda berdasarkan kesamaan-ketidaksamaan di antara mereka. ANN adalahditandai dengan unit pemrosesan (neuron) dan parameter yang dapat disesuaikan (bobot) [70].Dalam pendekatan JST, normalisasi data diperlukan sebelum memulai pelatihanproses, untuk memastikan bahwa pengaruh variabel input dalam proses pembuatan model adalahtidak bias oleh besarnya nilai asli mereka, atau rentang variasinya. NSteknik normalisasi yang digunakan terdiri dari transformasi linier dari variabel input/outputke kisaran [0,1] menggunakan ekspresi berikut (5)

di mana ijX ' menyatakan normalisasi variabel j untuk pola i dan ( ) min JX dan ( )maksimalJX adalah nilai minimum dan maksimum dari variabel tersebut dalam dataset masing-masing.

Untuk algoritma JST prediktif yang digunakan, kinerja model dievaluasi menggunakanindeks kualitas yang ditentukan secara khusus untuk setiap aplikasi tertentu. Apalagi rata-rata kesalahan absolut dan relatif, standar deviasi dari kesalahan absolut dan relatif bersama-sama dengan nilai maksimum kesalahan ini juga dilaporkan.

Back-propagation adalah metode pelatihan jaringan saraf yang didasarkan pada aliran maju informasi, dan koreksi kesalahan yang disebarkan kembali. Jaringan propagasi balik adalah biasanya diatur dalam lapisan neuron, seperti arsitektur yang disajikan pada Gambar 2.1.

Gambar 2.1. Arsitektur neuron multi layer.


Koneksi dibuat antara neuron dari lapisan yang berdekatan: neuron terhubung sehinggaitu menerima sinyal dari setiap neuron di lapisan sebelumnya dan mengirimkan sinyal ke masing-masing neuron di lapisan segera berikutnya. Biasanya, setidaknya ada tiga lapisan neuron:lapisan input yang menerima data input, satu atau lebih lapisan tersembunyi, dan lapisan output.Selain itu, neuron bias ( b ) yang memasok output invarian terhubung ke setiap neurondi lapisan tersembunyi dan keluaran

Setiap elemen pengolahan (neuron) menerima sejumlah masukan, iX . Jumlah tertimbang dari inisinyal dihitung, menggunakan bobot yang ditetapkan neuron iW , yang ditransformasikan oleh fungsi aktivasi f untuk menghasilkan sinyal keluaran tunggal Y , yang dikirim ke neuron dilapisan berikutnya. Output dari satu neuron dihitung menggunakan Persamaan. (2.2), seperti yang bisa disimpulkan dari sketsa yang diekspos pada Gambar 2.2: 


Fungsi aktivasi mendefinisikan output neuron dalam hal tingkat aktivitas padamemasukkan. Ekspresi yang berbeda dapat digunakan untuk fungsi aktivasi neuron, seperti langkah,sigmoid, sigmoid tangen atau fungsi linier, disajikan pada Gambar 2.3



Gambar 2.3. Fungsi aktivasi neuron yang berbeda: (a) langkah; (b) sigmoid; (c) linier; (d) sigmoid tangen.

Pelatihan backpropagation terdiri dari dua lintasan komputasi: lintasan maju dan aumpan mundur . Dalam lintasan maju, vektor pola input diterapkan ke neuron dilapisan masukan. Sinyal dari lapisan input merambat ke unit-unit di lapisan tersembunyi pertama,masing-masing menghasilkan output seperti dijelaskan di atas. Keluaran dari neuron ini adalah disebarkan menggunakan algoritma yang sama ke unit di lapisan berikutnya sampai sinyal mencapai lapisan keluaran dimana respon aktual jaringan terhadap vektor masukan diperoleh.Memperluas rumus untuk menghitung output dari satu neuron (Persamaan (2.2)) untuk umumkasus unit apa pun dari lapisan mana pun, mengarah ke:


di mana superskrip j mewakili nomor lapisan, sedangkan subskrip i dan k mewakiliindeks neuron di lapisan j-1 dan j , masing-masing. Bobot jaringan (,JikW ) , yang tetapselama operan maju, semua disetel selama operan mundur sesuai dengan asinyal kesalahan yang disebarkan kembali untuk meminimalkan fungsi kesalahan.

Untuk neuron lapisan keluaran, gradien kesalahan dihitung berdasarkan perbedaanantara nilai target dan keluaran neuron (Persamaan (2.4)), sedangkan untuk lapisan tersembunyineuron, gradien kesalahan ditentukan dengan menghitung jumlah kesalahan tertimbang padalapisan sebelumnya, seperti yang dinyatakan dalam Persamaan. (2.5).



Dalam Persamaan. (2.4) superskrip o mewakili lapisan keluaran, okδ adalah gradien kesalahan dari k thsaraf,Haidf adalah turunan dari fungsi aktivasi, kY adalah output dari neuron ke- k ,sementara kT adalah variabel target ke- k . Dalam Persamaan. (2.5),1JSayaδ -adalah gradien kesalahan neuron ke- i darilapisan j-1 , dan1Jdf-adalah turunan dari fungsi aktivasi lapisan j-1 .Prinsip yang digunakan untuk adaptasi bobot juga dikenal sebagai aturan delta umum. sekaligradien kesalahan dievaluasi untuk setiap lapisan, bias dan bobot diperbaruimenurut persamaan 

harga membran ro membran ro 2000 gpd harga membran ro 2000 gpd membran ro 100 gpd harga membran ro 1000 gpd merek membran ro terbaik membran ro 1000 gpd harga membran ro 500 gpd membran ro 500 gpd harga membran ro 400 gpd harga membran ro 100 gpd

di mana n adalah jumlah iterasi, sedangkan α dan β adalah dua parameter karakteristikproses pembelajaran. Di sini, β adalah tingkat pembelajaran dan α adalah istilah momentum diperkenalkan kemeningkatkan konvergensi dengan memperhitungkan pengaruh perubahan bobot dariiterasi sebelumnya.Metode yang lebih efisien digunakan untuk adaptasi bobot adalah algoritma Levenberg-Marquardt, yang merupakan kombinasi antara aturan penurunan gradien dan Gauss-Newtonmetode. Algoritme menggunakan parameter untuk menentukan ukuran langkah, yang mengambil nilai besar dalamiterasi pertama (setara dengan algoritma penurunan gradien), dan nilai-nilai kecil ditahap selanjutnya (setara dengan metode Gauss-Newton). Ini menggabungkan kemampuan keduanya metode (yaitu, konvergensi dari setiap keadaan awal dalam kasus penurunan gradien, dan rapid konvergensi ketika mencapai sekitar kesalahan minimum dalam kasus Gauss-Newton metode) sambil menghindari kekurangannya.

Untuk fase pembelajaran, data harus dibagi menjadi dua set: set data pelatihan, yaitu:digunakan untuk menghitung gradien kesalahan dan untuk memperbarui bobot, dan kumpulan data validasi,yang memungkinkan untuk memilih jumlah iterasi optimal di mana jaringan belajar informasi umum dari set pelatihan. Saat jumlah iterasi meningkat, pelatihan kesalahan turun sedangkan kesalahan set data validasi mulai turun, lalu mencapai minimumdan akhirnya meningkat. Melanjutkan proses pembelajaran setelah titik validasi kesalahan datang ke minimum mengarah ke proses yang disebut over-fitting, ketika jaringan menjadi khusus untuk vektor pola yang membentuk kumpulan data pelatihan. Setelah selesai belajar proses, kumpulan data lain (set uji) digunakan untuk memvalidasi dan mengkonfirmasi prediksi akurasi 

Self-Organizing Map (SOM) adalah alat untuk visualisasi dan klasifikasi dimensi tinggidata, dengan menerapkan pemetaan teratur ke grid berdimensi rendah biasa, sementaramelestarikan hubungan antara pola input [77,78]. Peta (jaringan) terdiri dari set unit (neuron atau sel), awalnya diatur dalam posisi fisik menurut afungsi topologi, karena peta dapat memiliki kotak persegi panjang atau heksagonal, dengan pelat,berbentuk silinder atau toroidal, seperti yang digambarkan pada Gambar 2.4. 

Selama proses pembelajaran, petamenyesuaikan diri untuk mewakili semua pola input yang tersedia yang dipesan pada grid sehingga serupasampel dekat satu sama lain dan yang berbeda jauh dari satu sama lain.

Gambar 2.4. Topologi SOM yang berbeda.


Pada awal proses pembelajaran, sebuah vektor prototipe (seringkali diinisialisasi secara acak) daridimensi yang sama dengan vektor data input ditetapkan untuk setiap unit peta. Saat menyajikan pola input saat ini, secara bersamaan dibandingkan dengan semua neuron peta, untuknyatakan perbedaan antara itu dan setiap prototipe dalam hal jarak umum fungsi, dalam sebagian besar kasus yang Euclidian. 

Unit pencocokan terbaik ( bmu ), yaitusel jaringan dengan prototipe yang paling mirip dengan input, dipilih (Gambar 2.5). Selanjutnya langkahnya adalah memperbarui bobot jaringan, dengan memindahkan unit yang paling cocok dantetangga topologi lebih dekat ke vektor input di ruang input. Aturan pembaruan untukvektor prototipe unit i adalah:


dimana akum adalah vektor prototipe unit i , t adalah langkah pelatihan, x adalah vektor input, ( ) tα adalah koefisien adaptasi juga disebut faktor kecepatan belajar, dan( ),bmu akuHt adalah fungsi lingkungan, sering dianggap sebagai fungsi Gaussian dinyatakan dalam Persamaan. (2.8)berpusat pada unit pemenang dilambangkan bmu 


Dalam Persamaan. (2.8), bmu R dan i r adalah posisi neuron bmu dan i , masing-masing, pada grid SOM dan ( )2 tσadalah varians dari Gaussian. Kedua () tαdan () tσberkurang secara monoton dengan waktu, dimulai dengan nilai yang lebih tinggi untuk fase pemesanan di mana klasifikasi kasardicapai, dan mencapai nilai yang lebih kecil dalam fase penyetelan ketika penyesuaian yang baik daripeta dilakukan .Pola masukan Unit pencocokan terbaik Pola masukanUnit pencocokan terbaik 

Gambar 2.5. Peta Self- Organizing.


Proses ini diulang sampai klasifikasi stabil, yaitu tidak ada lagi adaptasi diperlukan. Setelah SOM dilatih, beberapa metode dapat digunakan untuk memeriksa secara visualhasil dari proses clustering. Metode yang paling banyak digunakan didasarkan pada kesatuan matriks jarak (U-matriks), yang menunjukkan bentuk keseluruhan peta dengan carajarak antara vektor prototipe unit peta tetangga di grid asli. Arepresentasi grafis dari kontribusi setiap variabel dari vektor input keproses clustering diperoleh dengan mengekstrak bidang komponen (C-planes).Jumlah cluster yang terbentuk dapat ditemukan dengan menerapkan algoritma partisi, ke yang baru kumpulan data yang terdiri dari prototipe jaringan yang dilatih. Sebuah algoritma partisi mengatur kumpulan data ke dalam sejumlah cluster dengan meminimalkan beberapa kriteria atau kesalahan fungsi. Salah satu algoritma tanpa pengawasan yang paling sederhana untuk memecahkan masalah pengelompokan adalah yang k-means . Prosedur ini didasarkan pada pendefinisian k centroid ( c j ), satu untuk setiap cluster ( Q k ), dan kelompokkan kumpulan data ke dalam cluster-cluster ini dengan meminimalkan fungsi tujuan berikut ( E) :

Hal ini dapat dicapai dengan prosedur berulang yang terdiri dari mengasosiasikan setiap bentuk sampel kumpulan data ke cluster terdekat (dalam hal jarak ke cluster centroid), dan kemudian menghitung ulang centroid baru sebagai pusat gravitasi cluster yang dihasilkan dari yang sebelumnya melangkah. Proses ini harus diulang sampai centroid tidak mengubah lokasinya lagi.The k-means algoritma tidak selalu menemukan konfigurasi yang paling optimal, karenasangat sensitif terhadap centroid awal yang dipilih secara acak. Untuk mengurangi efek ini,prosedur dapat dijalankan beberapa kali

LAYANAN ADY WATER

Jual silica gel minimal pembelian 1 kg. Ukuran sachet silica gel yang dijual 1 gram, 2 gram, 5 gram, 10 gram, 25 gram, 50 gram, 100 gram, 250 gram, 500 gram, 1 kilogram. Jual silica gel curah per karung 25 kilogram. Sudah suplai silica gel untuk kebutuhan bandara, industri sepatu, makanan (FOOD GRADE), gas separasi / kromatografi kolom, aquarium, kebutuhan pribadi, dll

Ady Water jual membran RO merek: CSM, VONTRON, LUSO, FILMTEC. 

Ady Water jual membran RO ukuran 50 GPD, 75 GPD, 100 GPD, 200 GPD, 400 GPD, 500 GPD, 1000 GPD, 2000 GPD, 5000 GPD, 10000 GPD, dan ukuran yang lebih besar. 

Ady Water menerima PROJECT untuk instalasi mesin reverse osmosis dan membran reverse osmosis untuk industri. 

Aplikasi membran RO untuk industri AMDK, industri Food & Beverage, Depot Air Minum Isi Ulang, dll. Ada tiga jenis membran RO: SWRO (Sea Water Reverse Osmosis), TWRO (Tap Water Reverse Osmosis), BWRO (Brackish Water Reverse Osmosis)

Nomor WA Sales Yang Mudah Dihubungi

Senang dapat membantu Anda, Semoga kami dapat segera menyelesaikan masalah air yang sedang Anda hadapi. Terimakasih

1. Ghani 0821 2742 4060

2. Yanuar 0812 2165 4304

3. Rusmana 0821 2742 3050

4. Fajri 0821 4000 2080

5. Kartiko 0812 2445 1004

6. Andri 0812 1121 7411

Alamat kantor/gudang Ady Water yang bisa dikunjungi langsung. 

Silahkan Bapak/Ibu mengunjungi alamat kantor/gudang kami. Kami akan melayani Anda dengan senang hati dan semoga dapat membantu masalah air yang sedang Anda hadapi. 

1. Alamat Bandung:

Jalan Mande Raya No. 26, RT/RW 01/02 Cikadut-Cicaheum, Bandung 40194

2. Alamat Jakarta Timur

Jalan Tanah Merdeka No. 80B, RT.15/RW.5 Rambutan, Ciracas, Jakarta Timur 13830

3. Alamat Jakarta Barat

Jalan Kemanggisan Pulo 1, No. 4, RT/RW 01/08, Kelurahan Pal Merah, Kecamatan Pal Merah, Jakarta Barat, 11480

Katalog Ady Water

http://bit.ly/KatalogAdyWater

Comments

Popular posts from this blog

PRODUSEN KERTAS MENGURANGI PRODUKSI AIR LIMBAH

MASA DEPAN MAKANAN|JUAL MEMBRAN RO

ATASI AIR SADAH DENGAN FILTRASI MEMBRAN