Matriks rongga

Matriks rongga yang didapatkan ketika menyelesaikan metode elemen hingga dalam dua dimensi. Elemen matriks yang tidak bernilai nol ditandai oleh warna hitam.

Dalam analisis numerik dan komputasi, matriks rongga adalah matriks yang sebagian besar elemennya bernilai nol. Sebaliknya, jika sebagian besar elemennya bukan nol, maka matriks tersebut dianggap padat. Tidak ada definisi pasti berapa banyak elemen nol yang diperlukan untuk matriks dianggap rongga, namun kriteria yang sering digunakan adalah banyaknya elemen yang tidak nol kurang lebih sama dengan banyaknya kolom atau baris pada matriks. Sparsity dari matriks didefinisikan sebagai rasio banyaknya elemen yang bernilai nol dengan banyakn semua elemen matriks (contoh, m × n untuk matriks berukuran m × n).

Secara konseptual, sparsity berhubungan dengan sistem dengan sedikit interaksi berpasangan. Sebagai contoh, pertimbangkan bola-bola yang disusun berbaris dan dihubungkan oleh pegas dari satu ke yang berikutnya: ini adalah contoh sistem rongga karena hanya bola-bola yang saling bersebelahan saja yang digabungkan. Sebaliknya, jika setiap bola memiliki pegas-pegas yang dihubungkan ke banyak bola lainnya, sistem tersebut berkorespondensi dengan matriks padat. Konsep sparsity berguna dalam kombinatorika, dan memiliki penerapan pada bidang seperti teori jaringan dan analisis numerik; yang umumnya berurusan dengan sistem dengan kepadatan data atau koneksi yang rendah. Matriks rongga besar sering muncul dalam aplikasi ilmiah atau rekayasa ketika memecahkan persamaan diferensial parsial.

Ketika menyimpan dan memanipulasi matriks rongga di komputer, cukup bermanfaat dan seringkali diperlukan untuk menggunakan algoritme khusus dan struktur data yang menggunakan keuntungan dari struktur matriks rongga. Komputer yang terspesialisasi telah dibuat untuk berurusan dengan matriks rongga,[1] karena mereka sering ditemui dalam bidang pemelajaran mesin.[2] Operasi yang menggunakan struktur matriks biasa dan algoritma yang standar akan lebih lambat dan tidak efisien, bila diterapkan pada matriks rongga karena pemrosesan dan memori terbuang sia-sia. Data yang secara alami bersifat rongga lebih mudah dikompresi dan karenanya membutuhkan penyimpanan yang jauh lebih sedikit. Beberapa matriks rongga yang berukuran sangat besar tidak dapat dimanipulasi dengan menggunakan algoritma matriks padat yang umum.

  1. ^ "Cerebras Systems Unveils the Industry's First Trillion Transistor Chip". www.businesswire.com (dalam bahasa Inggris). 2019-08-19. Diakses tanggal 2021-03-04. WSE memiliki 400.000 compute cores yang dioptimalkan untuk AI. Disebut dengan SLAC™, singkatan dari Sparse Linear Algebra Cores, compute cores bersifat fleksibel, dapat diprogram, dan dioptimalkan untuk aljabar linier [matriks] jarang yang mendukung semua komputasi neural network 
  2. ^ "Argonne National Laboratory Deploys Cerebras CS-1, the World's Fastest Artificial Intelligence Computer | Argonne National Laboratory". www.anl.gov (dalam bahasa Inggris). Diakses tanggal 2021-03-04. WSE adalah chip terbesar yang pernah dibuat dengan luas 46.225 milimeter persegi, 56,7 kali lebih besar dari unit pengolah grafis terbesar. Chip ini berisi 78 kali lebih banyak compute core yang dioptimalkan untuk AI, kecepatan yang 3.000 kali lebih tinggi, memori on-chip, bandwidth memori yang 10.000 kali lebih banyak, dan bandwidth komunikasi yang 33.000 kali lebih banyak. 

From Wikipedia, the free encyclopedia · View on Wikipedia

Developed by Tubidy