Dalam analisis web kita akan
membahas tentang pengukuran web yang akan membahas tools-tools apa saja yang
digunakan untuk mengukur analisis web dan bagaimana menganalisis web itu
sendiri.
1. Tools-tools pengukur analisis web :
- SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine
- GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
- dapat membandingkan beberapa URL secara bersamaan.
- dapat menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.
Kekurangan
dari GTmetrix :
- dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.
- Keynote Internet Testing Environment (KITE)
alat
pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau
mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat
mudah untuk
digunakan dan sebagai salah satu alat yang sudah cukup terkenal
didunia.
- CloudStatus
CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja
utama
dari layanan-layanan cloud computing. CloudStatus terdiri dari 5 layanan
dasar yang
ditawarkan oleh amazon, dan memiliki kemampuan monitoring yang lebih baik.
- Jiffy
jiffy tersedia secara bebas (open source).
Cara kerja jiffy adalah dengan memasukan kode jiffy ke dalam halamanhalaman
web yang akan di telusuri. Dengan jiffy kita dapat mengukur page rendering times,
melaporkan hasil pengukuran dari web server, aggregate log into database, dan membuat laporan-laporan.
Pembahasan berikutnya tentang bagaimana sebuah web perlu dianalisis , yaitu :
- membantu mengetahui nilai yang akan didapat dari suatu web maupun blog
- membantu memantau beberapa lama pengunjung yang membuka situs web tersebut
- membantu mengoptimalkan situs web dalam hal penampilan dan menambah informasi.
CRAWLER
Proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern.
Proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern.
BEBERAPA CONTOH WEB CRAWLER
1.
Teleport Pro
Salah satu software web crawler untuk keperluan offline browsing.
Software ini sudah cukup lama popular, terutama pada saat koneksi internet
tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan
di http://www.tenmax.com.
2.
HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan
software yang dapat mendownload konten website menjadi sebuah mirror pada
harddisk anda, agar dapat dilihat secara offline. Yang menarik software
ini free dan dapat di download pada website resminya di http://www.httrack.com
3.
Googlebot
Merupakan web crawler untuk membangun index pencarian yang
digunakan oleh search engine Google. Kalau website anda ditemukan orang
melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau
konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling
ini.
4.
Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo
mengandalkan Yahoo!Slurp. Teknologinya dikembangkan
oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.
SEARCH ENGINE
adalah
program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas
yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group
dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search
engine merupakan perangkat pencari informasi dari dokumen-dokumen yang
tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang
seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas
suatu berkas yang disebut sebagai hits. Informasi yang menjadi target
pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs
web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga
diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu
basisdata ataupun direktori web.
Sebagian
besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan
algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer
adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan
mesin pencari dengan sumber terbuka (open source), contohnya adalah
Htdig, Nutch, Egothor dan OpenFTS.
CONTOH-CONTOH SE :
google
muncul pada akhir tahun 1997, dimana google memasuki pasar yang telah diisi
oleh para pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo,
Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan
tersebut mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan
pencarian internert. Hingga akhirnya Google mampu menjadi sebagai penyedia
mesin pencari yang cukup diperhitungkan didunia.
- YAHOO
Yahoo
raja directori di internet disamping para pengguna internet melihat DMOZ serta
LookSma berusaha menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah
tumbuh secara cepat dalam ukurannya mereka pun sudah memliki harga sehingga
mudah untuk memasukinya, dengan demikian mendapatkan sebuah daftar pada
direktori yahoo memang memiliki nilai yang tinggi.
Sumber : http://aisyahasmoro.blogspot.com/2013/05/analisis-web.html
Tool Gtmetrik sangat membantu kita untuk mengoptimalkan kecepatan loading blog kita... Alhamdulilah saya dah mencoba tool ini :-)
BalasHapus