WEB CONTENT
Content dalam website adalah segala sesuatu yang dapat
dilihat oleh pengunjung baik berupa gambar, tulisan, animasi, video, suara,
tombol navigasi dan sebagainya. Jadi jika kita mengunjungi suatu website
sebenarnya yang kita kunjungi adalah content. Pengaturan content ini dilakukan
pada saat pemograman website (coding), entah itu jenis contentnya, warna,
posisi dan sebagainya. Hal inilah yang mendasari perencanaan pembuatan website
harus dilakukan sebaik mungkin, karena content-content yang akan ditampilkan
pada website baik posisi maupun jenisnya akan ditentukan dari sini.
Media Standar Penggunaan Web Kontrol
Walaupun Internet dimulai dengan sebuah proyek penelitian
pemerintah AS pada akhir 1950-an, web dalam bentuk yang sekarang tidak muncul
di Internet sampai setelah Tim Berners-Lee dan rekan-rekannya di laboratorium
Eropa (CERN) mengusulkan konsep menghubungkan dokumen dengan hypertext. Tapi
itu tidak sampai Mosaic, pendahulu dari Netscape Navigator yang terkenal, tampak
bahwa internet menjadi lebih dari sebuah sistem yang melayani berkas.
Penggunaan hypertext, hyperlink dan model berbasis halaman berbagi informasi,
diperkenalkan dengan Musa dan kemudian Netscape, membantu untuk menentukan
konten web, dan pembentukan website. Sebagian besar, hari ini kita kategorikan
website sebagai jenis tertentu dari website sesuai dengan isi website berisi.
Model Generatif
Probabilitas dan statistik, model generatif adalah model
untuk menghasilkan data yang dapat diobservasi, biasanya diberikan beberapa
parameter tersembunyi secara acak. Ini menentukan distribusi probabilitas
bersama atas observasi dan urutan label. Model generatif yang digunakan dalam
pembelajaran mesin baik untuk pemodelan data secara langsung (yaitu, pengamatan
pemodelan menarik dari fungsi kepadatan probabilitas), atau sebagai langkah
menengah untuk membentuk fungsi kepadatan probabilitas bersyarat. Sebuah
distribusi bersyarat dapat dibentuk dari model generatif melalui aturan Bayes
'.
Model Retorika
Retorika berarti kesenian untuk berbicara baik (Kunst, gut
zu reden atau Ars bene dicendi), yang dicapai berdasarkan bakat alam (talenta)
dan keterampilan teknis (ars, techne), Dewasa ini retorika diartikan sebagai
kesenian untuk berbicara baik, yang dipergunakan dalam proses komunikasi
antarmanusia. Pada bahasa informatika model ini berarti berbicara antarmuka
melalui jaringan internet melalui website seperti: YM, Facebook, Skype, dll.
WEB ANNOTATION
Tags
Tags atau Keywords adalah penting dalam pemasaran di
Internet , dengan ini kemungkinan peselancar mangunjungi website bisa
diarahkan, dan sesuai dengan keyword “Informatika” maka anda dapat
membandingkan dari bermacam-macam search engine atau social bookmark. Berikut
ini adalah tinjauan bermacam-macam search engine yang merujuk pada keyword atau
tag yang sama yaitu “Informatika dan yang berkaitan”. Search engine itu antara
lain : Google Blog Search, Yahoo Search , Technorati Tags, Del.icio.us Tags,
LiveJournal Tags, 43 Things Tags, Buzzwords (Buzznet) Tags.
Metadata
Metadata biasa didefinisikan sebagai “data tentang data”
atau dapat juga disebut dengan “informasi mengenai suatu data”. Metadata
mendeskripsikan isi, kualitas, kondisi, dan karakteristik lainnya mengenai
suatu data yang ditulis dengan format standard.
Metadata memiliki fungsi yang sama seperti katalog yaitu
untuk:
- mengidentifikasi suatu data
- mengelompokkan data yang serupa
- membedakan data menurut kriteria tertentu
- memberikan informasi penting berkaitan dengan data
Rich Snippets
Rich Snippets adalah data tambahan dari blog/postingan kamu
yang akan ikut ditampilkan pada halaman mesin pencarian (SERP). Berbagai data
yang bisa dimasukkan seperti rating, vote, author, tanggal, file audio, resep
masakan, produk (harga, stok, dsb), event, dan banyak yang lainnya.
WEB DAN PERILAKU PENGGUNA /INTERAKSI MANUSIA KOMPUTER
Perilaku Navigasi
pada suatu situs (jual beli khususnya) penggunaan navigasi
yang baik sangat penting untuk dilakukan bagi para pembuat online. Para pembuat
situs website tersebut harus bisa membuat suatu navigasi agar pengunjung situs
tersebut tidak bosan dengan melihatnya. Ada dua tipe navigasi. Yang pertama
adalah yang standar, yang memberikan overview dan peta penjelajahan situs.
Biasanya bisa ditemukan secara konsisten baik di bagian atas, samping atau
footer. Yang kedua adalah navigasi versi advance. Jenis ini masih bertujuan
memberikan alat untuk menelusuri situs, namun dengan cara lebih spesifik. Misal
lewat kategori, pengarang, produsen, range harga, dan lain lain. Navigasi
semacam ini sebenarnya mirip dengan fitur search namun sudah diberi antar muka
yang lebih intuitif. Alih-alih model kotak isian teks kosong, calon pembeli
diberi beberapa nilai default yang bisa dipakai lewat link yang disediakan.
Lebih keren lagi, calon pembeli bisa melakukan penelusuran bertingkat,
misalnya: kategori buku, di-drilldown dengan topik “IT dan Marketing”, di-tune
lagi pada level berikutnya dengan range harga 100 ribu sampai 400 ribu, lalu
difinalisasi dengan “reviewed by NavinoT”. Calon pembeli pun akan sampai pada
apa yang benar-benar dia cari.
Permasalah dalam kaitan dengan:
- Para pemakai interface website tidak mengetahui daerah atau dalam hal ini lembaran-lembaran pada situs.
- Struktur lokasi tidak dapat ditemukan.
Pemakai interface situs seharusnya diberikan suatu pemahaman
dari struktur yang menyangkut dari suatu ruang dari informasi tersebut. Maka
sebaiknya disiapkan:
- Tabel Index (Peta Lokasi)
- Index
- Navigasi
- Fasilitas Pencarian (Search)
Perilaku Pencarian
Fitur pencarian internal tentunya telah di desain dengan
batasan tertentu. Ketika situs Anda tumbuh tentunya Anda akan semakin tahu pola
pemakaian oleh pengguna. Termasuk di dalamnya adalah pola pencarian dalam
rangka mendapatkan pengalaman terbaik dalam pemanfaatan situs.
REKOMENDASI WEB DAN PRILAKU SOSIAL
Web merefleksikan perilaku sosial
web pun dapat merefleksikan perilaki sosial masyarakatnya,
dengan adanya alat pengukur banyaknya orang/ IP address yang mengakses web
tersebut dapat menunjukkan bahwa web tersebut menarik perhatian masyarakat dan
pastinya akan mempengaruhi sikap sosial seaeoramg contohnya seseorang yang sering
mengakaksea situs belanja online akan mempunyai gaya hidup yang boros karena
tergiur oleh harga yang lebih murah daripada conter ataupun diskon-diskon yang
ada.
Web mempengaruhi perilaku sosial
Web sebagai salah satu bentuk teknologi dan informasi yang
sangat populer di masyarakat menjadi salah satu pemicu yang mempengaruhi
perilaku sosial masyarakat. ada dua dampak yang dimbulkan yaitu dampak positif
dan dampak negatif, dampak postifnya adalah :
- lebih cepat dan mudah dalam meyelesaikan pekerjaan dalam hal ini berarti membantu pekerjaan manusia
- dapat berkomunikasi dengan baik tidak peduli jarak dan waktu sehingga membuat manusia saling berinteraksi dengan mudah
- mudah mencari informasi serta berbelanja online pun dapat dilakukan.
dampak negatif :
- munculnya banyak penipu yang memanfaatkan internet
- adanya plagiatisme
- munculnya pencurian/hack
- munculnya banyak konyen-konten dewasa yang seharusnya tidak dilihat anak kecil dapat merusak mental
- bahaya kesehatan akibat radiasi yang ditimbulkan oleh komputer itu sendiri
STRUKTUR WEB
Link Structure, small world
Sebuah jaringan kecil dunia adalah
jenis grafik matematika di mana sebagian besar node tidak tetangga
satu sama lain, tetapi kebanyakan node dapat dicapai dari setiap lain oleh
sejumlah kecil hop atau langkah-langkah. Secara khusus, jaringan-dunia
kecil didefinisikan sebagai jaringan di mana L jarak khas antara dua
node yang dipilih secara acak (jumlah langkah yang diperlukan) tumbuh secara
proporsional dengan logaritma dari jumlah node N dalam jaringan,
yaitu:
Dalam konteks jaringan sosial, hasil ini dalam fenomena dunia kecil dari orang asing yang dihubungkan oleh saling kenalan. Banyak grafik empiris dengan baik dimodelkan oleh jaringan kecil dunia. Jaringan sosial , konektivitas dari internet , wiki seperti Wikipedia, dan jaringan gen semua karakteristik jaringan-dunia kecil pameran.
Social Networking
Social Networking adalah sebutan lain terhadap website
community. Social Networking adalah tempat untuk para netter berkolaborasi
dengan netter lainnya. Bentuk kolaborasi antara lain adalah saling bertukar
pendapat/komentar, mencari teman, saling mengirim email, saling memberi
penilaian, saling bertukar file dan yang lainnya. Intinya dari situs social
networking adalah interaktifitas. Contoh dari social networking yang sering
digunakan: Facebook, Friendster, MySpace, Twitter, dll.
Blogosphere
Blogosphere adalah suatu interkoneksi / interaksi antar blog
yangg tergabung dalam sebuah domain dan domain tersebut tergabung dalam
lingkup jaringan / internet, Contohnya, Technorati, Top of Blogs, Blog
Top site, blogspot termasuk juga dengan blog directory, sebuah
blogosphere biasanya diklasifikasikan menurut jenis postingan, ada berupa blog
berita, blog hoby , blog forum, blog komunitas, blog iformasi dll.Istilah
Blogosphere muncul pada tahun 1999 dan mulai populer tahun 2002, walaupun lahir
dari sebuah lelucon keberadaan Blogosphere kini menjadi sebuah ikon bagi
blogger, banyak blogger yang menganggap belum lengkap bila seorang blogger
belum tergabung ke dalam komunitas Blogosphere hingga jadi ikon
eksistensinya dalam dunia blogging.( apa benar begitu..??? )
Manfaat Blogosphere ini tak lepas kaitannya dari SEO (
Search Engine Optimization ), layaknya sebuah komunitas keberadaan
Blogosphere memberikan jalinan komunikasi antar blogger, membuat akses
posting yg popular dan menjadi sebuah trend, atau mengupdate suatu bahasa
dan kosakata untuk sebuah komunitas blog sehingga menjadi kepopuleran tersendiri.
Analisis Web
Tools-tools pengukur analisis web :
- SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.
- GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.
Kelebihan dari GTmetrix :
1.
dapat membandingkan beberapa URL
secara bersamaan
2.
dapat menjadwalkan pengecekan
web/blog secara otomatis dan dapat menyimpan laporan
Kekurangan dari GTmetrix:
1.
dalam penggunaan GTmetrix harus
menggunakan koneksi internet yang cepat.
Crawler
Adalah proses pengambilan sejumlah besar halaman web dengan
cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan
sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine
(Mesin Pencari), sebagai Aplikasi Information Retrieval Modern.
Cara kerja: suatu data dikumpulkan oleh web crawler kemudian
digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi
pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal
yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag,
konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs
adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada
bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus
mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan
mulai dengan merangkak halaman situs anda.
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian
akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan
tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang
dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian
digunakan oleh mesin pencari.
Beberapa Contoh Web Crawler :
1.
Teleport Pro
Salah satu software web crawler untuk keperluan offline
browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi
internet tidak semudah dan secepat sekarang. Software ini berbayar dan
beralamatkan di http://www.tenmax.com.
2.
HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro,
HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah
mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik
software ini free dan dapat di download pada website resminya di
http://www.httrack.com
3.
Googlebot
Merupakan web crawler untuk membangun index pencarian yang
digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui
Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya,
sebagian bandwidth anda akan tersita karena proses crawling ini.
Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka
search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh
Inktomi Corporation yang diakuisisi oleh Yahoo!.
5.
YaCy
Sedikit berbeda dengan web crawler lainnya di atas,
YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan
menggunakan java, dan didistribusikan pada beberapa ratus mesin computer
(disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi
index, sehingga tidak memerlukan server central. Contoh search engine yang
menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.
Search Engine
Adalah program komputer yang dirancang untuk melakukan
pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi
milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam
suatu jaringan. Search engine merupakan perangkat pencari informasi dari
dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk
daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio
pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi
target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti
halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin
pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan
dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan
swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di
antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada
beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source),
contohnya adalah Htdig, Nutch, Egothor dan OpenFTS.
contoh-contoh search engine :
1.
Google
google muncul pada akhir tahun 1997, dimana google memasuki
pasar yang telah diisi oleh para pesaing lain dalam penyediaan layanan mesin
pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana
perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg bergerak
dalam bidang layanan pencarian internert. Hingga akhirnya Google mampu menjadi
sebagai penyedia mesin pencari yang cukup diperhitungkan didunia.
2.
Yahoo
Yahoo raja directori di internet disamping para pengguna
internet melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak
tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya mereka pun
sudah memliki harga sehingga mudah untuk memasukinya, dengan demikian
mendapatkan sebuah daftar pada direktori yahoo memang memiliki nilai yang
tinggi.
Web Archiving
adalah proses mengumpulkan bagian dari WWW dan memastikan
koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk
diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya
ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk
pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan
ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara
arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium
organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki
nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia
bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk
berbagai keperluan.
Cara kerja web archiving
A.
Remote Harvesting
Merupakan cara yang plaing umum dalam web archiving dengan
menggunkana teknik web crawlers yang secara otomatis melakukan proses
pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses
halaman web sama semeprti user mengakses halaman web menggunakan wob
browser. Contoh web crawler yang digunakan dalam web archiving seperti :
- Heritrix
- HTTrack
- Wget
B.
On-Demand
Ada banyak layanan yang dapat digunakan sebagai sumber
archive web "on-demand", menggunakan teknik web crawling. Contohnya
seperti:
- Aleph Archives
- archive.is
- Archive-It
- Archivethe.net
- Compliance WatchDog by SiteQuest Technologies
- freezePAGE snapshots
- Hanzo Archives
- Iterasi
- Nextpoint
- Patrina
- PageFreezer
- Reed Archives
- Smarsh Web Archiving
- The Web Archiving Service
- webEchoFS
- WebCite
- Website-Archive.com
C.
Database archiving
Databasa Archiving mengacu pada metode untuk menarsipkan
konten database-driven websites. Hal ini biasanya memerlukan ekstraksi konten
database ke standard schema, sering menggunakan XML. Setelah disimpan dalam
format standar, konten yang diarsipkan dari beberapa databse dapat tersedia
untuk diakses dengan menggunakan single access system. Motode ini digunkanan
seprti pada DeepArc dan Xinq masiing masing dikembangkan oleh
Bibliothèque nationale de France dan National Library of Australia.
D.
Transactional archiving
Transactional archiving merupakan event-driven yang
mengumpulkan transaksi yang berlangsung antara web server dan web
browser. Hal ini terutama digunakan untuk menjamin keaslian dari isi
suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk
organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan
untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya
beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web
server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan
secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional
archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal
itu maka metode ini tidak dapat mengumpulkan konten dari remote website.
Sumber
:
http://ichaartikel.wordpress.com/pengertian-content-web-database/
http://essafadhil.blogspot.com/2013/07/web-science-tugas-4.html
Komentar
Posting Komentar