Senin, 23 Juni 2014

Web dan perilaku pengguna /Interaksi Manusia Komputer

1. Web dan Perilaku pengguna 

    A. Perilaku Navigasi
pada suatu situs (jual beli khususnya) penggunaan navigasi yang baik sangat penting untuk dilakukan bagi para pembuat online. Para pembuat situs website tersebut harus bisa membuat suatu navigasi agar pengunjung situs tersebut tidak bosan dengan melihatnya. Ada dua tipe navigasi. Yang pertama adalah yang standar, yang memberikan overview dan peta penjelajahan situs. Biasanya bisa ditemukan secara konsisten baik di bagian atas, samping atau footer. Yang kedua adalah navigasi versi advance. Jenis ini masih bertujuan memberikan alat untuk menelusuri situs, namun dengan cara lebih spesifik. Misal lewat kategori, pengarang, produsen, range harga, dan lain lain. Navigasi semacam ini sebenarnya mirip dengan fitur search namun sudah diberi antar muka yang lebih intuitif. Alih-alih model kotak isian teks kosong, calon pembeli diberi beberapa nilai default yang bisa dipakai lewat link yang disediakan. Lebih keren lagi, calon pembeli bisa melakukan penelusuran bertingkat, misalnya: kategori buku, di-drilldown dengan topik “IT dan Marketing”, di-tune lagi pada level berikutnya dengan range harga 100 ribu sampai 400 ribu, lalu difinalisasi dengan “reviewed by NavinoT”. Calon pembeli pun akan sampai pada apa yang benar-benar dia cari.

      Permasalah dalam kaitan dengan:
- Para pemakai interface website tidak mengetahui daerah atau dalam hal ini lembaran-lembaran pada situs.
- Struktur lokasi tidak dapat ditemukan.


Pemakai interface situs seharusnya diberikan suatu pemahaman dari struktur yang menyangkut dari suatu ruang dari informasi tersebut. Maka sebaiknya disiapkan:
- Tabel Index (Peta Lokasi)
- Index
- Navigasi
- Fasilitas Pencarian (Search) 


    B. Perilaku Pencarian

Fitur pencarian internal tentunya telah di desain dengan batasan tertentu. Ketika situs Anda tumbuh tentunya Anda akan semakin tahu pola pemakaian oleh pengguna. Termasuk di dalamnya adalah pola pencarian dalam rangka mendapatkan pengalaman terbaik dalam pemanfaatan situs.

A. Web merefleksikan perilaku sosial
        
web pun dapat merefleksikan perilaki sosial masyarakatnya, dengan adanya alat pengukur banyaknya orang/ IP address yang mengakses web tersebut dapat menunjukkan bahwa web tersebut menarik perhatian masyarakat dan pastinya akan mempengaruhi sikap sosial seaeoramg contohnya seseorang yang sering mengakaksea situs belanja online akan mempunyai gaya hidup yang boros karena tergiur oleh harga yang lebih murah daripada conter ataupun diskon-diskon yang ada. 

 B. Web mempengaruhi perilaku sosial
web sebagai salah satu bentuk teknologi dan informasi yang sangat populer di masyarakat menjadi salah satu pemicu yang mempengaruhi perilaku sosial masyarakat. ada dua dampak yang dimbulkan yaitu dampak positif dan dampak negatif, dampak postifnya adalah :
1. lebih cepat dan mudah dalam meyelesaikan pekerjaan dalam hal ini berarti membantu pekerjaan manusia
2. dapat berkomunikasi dengan baik tidak peduli jarak dan waktu sehingga membuat manusia saling berinteraksi dengan mudah
3. mudah mencari informasi serta berbelanja online pun dapat dilakukan

dampak negatif :
1. munculnya banyak penipu yang memanfaatkan internet
2. adanya plagiatisme
3. munculnya pencurian/hack
4. munculnya banyak konyen-konten dewasa yang seharusnya tidak dilihat anak kecil dapat merusak mental
5. bahaya kesehatan akibat radiasi yang ditimbulkan oleh komputer itu sendiri



2.    Struktur Web

 

•ink Structure, small world
Sebuah jaringan kecil dunia adalah jenis grafik matematika di mana sebagian besar node tidak tetangga satu sama lain, tetapi kebanyakan node dapat dicapai dari setiap lain oleh sejumlah kecil hop atau langkah-langkah. Secara khusus, jaringan-dunia kecil didefinisikan sebagai jaringan di mana L jarak khas antara dua node yang dipilih secara acak (jumlah langkah yang diperlukan) tumbuh secara proporsional dengan logaritma dari jumlah node N dalam jaringan.
Dalam konteks jaringan sosial, hasil ini dalam fenomena dunia kecil dari orang asing yang dihubungkan oleh saling kenalan. Banyak grafik empiris dengan baik dimodelkan oleh jaringan kecil dunia. Jaringan sosial , konektivitas dari internet , wiki seperti Wikipedia, dan jaringan gen semua karakteristik jaringan-dunia kecil pameran.

1. Link Structure
Keuntungan struktur situs web yang dibuat dengan baik :
·         Dapat mengkomunikasikan pesan yang ingin disampaikan kepada pengunjung situs.
·         Pengguna situs web dapat dengan mudah memahami situs web.
·         Mudah untuk dikembangkan pada waktu yang akan datang, termasuk mengupdate suatu halaman situs jika diperlukan.
·         Dapat menurunkan biaya cost pengunjung situs.

Struktur Situs Web :
·         Struktur Linear
·         Struktur Grid
·         Struktur Hierarki

Struktur Linear :
·         Struktur linear murni
·         Struktur linear dengan halaman tambahan
·         Struktur linear dengan halaman pilihan
·         Struktur linear dengan halaman alternatif

2. Small – World Network
Small World Network adalah sebuah tipe grafik matematikal yang dari banyaknya simpul , namun tidak berhubungan dengan simpul yang lainnya (berbeda) , tetapi banyak nya simpul bisa menjangkau setiap simpul kecil lainnya. Khususnya, small-world network didefinisikan sebagai jaringan di mana L jarak antara dua node yang dipilih secara acak (jumlah langkah yang diperlukan) tumbuh secara proporsional dengan logaritma dari jumlah node N dalam jaringan.Dalam konteks jaringan sosial, hasil dalam fenomena small world netwok untuk orang asing (orang tak dikenal) yang dihubungkan dengan cara berinteraksi.

•     Social network sites
Jejaring sosial adalah suatu struktur sosial yang dibentuk dari simpul-simpul (yang umumnya adalah individu atau organisasi) yang dijalin dengan satu atau lebih tipe relasi spesifik seperti nilai, visi, ide, teman, keturunan, dll. Analisis jaringan jejaring sosial memandang hubungan sosial sebagai simpul dan ikatan. Simpul adalah aktor individu di dalam jaringan, sedangkan ikatan adalah hubungan antar aktor tersebut. Bisa terdapat banyak jenis ikatan antar simpul. Penelitian dalam berbagai bidang akademik telah menunjukkan bahwa jaringan jejaring sosial beroperasi pada banyak tingkatan, mulai dari keluarga hingga negara, dan memegang peranan penting dalam menentukan cara memecahkan masalah, menjalankan organisasi, serta derajat keberhasilan seorang individu dalam mencapai tujuannya. Dalam bentuk yang paling sederhana, suatu jaringan jejaring sosial adalah peta semua ikatan yang relevan antar simpul yang dikaji. Jaringan tersebut dapat pula digunakan untuk menentukan modal sosial aktor individu. Konsep ini sering digambarkan dalam diagram jaringan sosial yang mewujudkan simpul sebagai titik dan ikatan sebagai garis penghubungnya.

•     Blogosphere
Blogosphere adalah suatu interkoneksi antarblog yg tergabung dalam sebuah  domain dan domain tersebut tergabung dalam Internet,  Contohnya, Technorati, Top of Blogs, Blog Top Site termasuk juga dengan blog directory, sebuah blogosphere biasanya diklasifikasikan menurut jenis postingan, ada berupa blog berita, hobiis, blog yg berisi tips dan trick dll.


Parameter Pengukuran Web:
Salah satu teknik mengukur dan menguji suatu kinerja web adalah dengan mengukur pengalaman seseorang atau user experience pengunjung situs yang berinteraksi dengan halaman-halaman web yang berada di internet (Keynote System, Inc 2010).

Kinerja suatu web atau web performance sangat dipengaruhi oleh beberapa komponen-komponen dasar yang dibagi menjadi dua bagian penting, yaitu (1) dilihat dari gambaran transaksi web atau perspective transaction dan (2) gambaran komponen aplikasi atau application component perspective (Keynote System, Inc 2010). Transaksi web atau web transaction lebih menitikberatkan pada sisi pengalaman pengguna atau user experience sedangkan komponen aplikasi lebih menitikberatkan pada komponen jaringan komputer atau computer network.

Pengalaman Pengguna (User experience), diantaranya adalah (Keynote System, Inc 2010) :
·         Time to opening page (time_to_opening_page), maksudnya adalah mengukur, dari sisi pengguna, waktu yang dibutuhkan pada saat pertama kali membuka halaman web. Waktu dimulai dari aksi pertama setelah internet agent memutuskan untuk berpindah ke halaman berikutnya. Waktu berakhir ketika pesan opening page ditampilkan di Web browser status bar.
·         Page download (page_download_time), maksudnya adalah waktu yang dibutuhkan antara ketika Web browser membuat sinyal opening page dan ketika Web browser akan menampilkan pesan done di status bar.


Komponen Jaringan
Komponen jaringan (network component) adalah salah satu hal yang mempengaruhi kinerja web. Beberapa komponen jaringan tersebut diantaranya adalah (Keynote System, Inc 2010):

·         DNS lookup (DNS_time), komponen ini berfungsi untuk menghitung waktu yang dibutuhkan untuk menterjemahkan host name (contoh, www.keynote.com) menjadi IP address (contoh, 206.79.179.108).
·         Initial connection (initial_connection), komponen ini mengukur waktu pulang pergi atau round-trip time (ukuran waktu yang dibutuhkan jaringan untuk melakukan perjalanan dari host sumber menuju host tujuan dan kembali lagi ke host sumber) koneksi jaringan antara browser dan server.
·         Request time (request_time), adalah jumlah waktu yang dibutuhkan oleh web browser untuk mengirim permintaan (request) ke internet.
·         Client time (client_time), adalah jumlah waktu untuk mengunduh elemen halaman web selama data dihantarkan.
·         Total measurement time (measurement_network), adalah jumlah waktu untuk mengunduh halaman web dilihat dari sudut pandang jaringan.

CRAWLER
Crawler adalah robot milik search engine yg tugasnya mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine.

Cara Kerja Crawler :
Pertama robot mengumpulkan informasi pada halaman blog/web dan semua media internet yg bisa diindeks oleh search engine. Robot tersebut kemudian membawa informasi yg didapatnya ke data center. Di data center, data tersebut kemudian di oleh sedemikian rupa, apabila memenuhi persyaratan, maka dia akan dimasukkan ke dalam indeks. Nah, proses yg dilakukan oleh user search engine adalah memanggil indeks-indeks tersebut, apabila indeks2 memiliki kesesuaian dengan yg dicari user (dan bila memiliki peringkat yg baik), di akan ditampilkan di halaman utama search engine (berperingkat).


Cara Agar Website/Blog masuk dalamCrawler :
·         Pertama : Membuat sitemap dan atau daftar isi
Sitemap (peta situs) blog berfungsi membantu search engine bot menjelajahi, menemukan dan mengindeks konten blog kita. Jika blog anda berplatform wordpress.org, cara paling mudah membuat sitemap adalah dengan memasang plugin bernama Google XML sitemaps. Sitemap sebenarnya hampir sama dengan halaman daftar isi yang sering kita buat di blog, hanya sitemap berisi kode-kode HTML yang dibaca oleh bot sedangkan daftar isi untuk dibaca oleh manusia. Jika anda ingin sitemap yang juga berfungsi sebagai daftar isi, gunakan plugin bernama Dagon Sitemap Generator. Beberapa themes seperti GoBlog Themes sudah menyediakan sitemap secara default seperti ini: Sitemap.


·         Kedua : Mendaftarkan sitemap di Google Webmaster Tools
Sitemap blog anda perlu didaftarkan di Google Webmaster Tools. Google webmaster sendiri penting diikuti oleh semua pemilik blog agar anda dapat menganalisa semua data yang berkenaan dengan blog anda. Melalui uji sitemap, kita bisa mengetahui konten mana di blog yang belum terindeks Google. Daftarkan dulu blog anda di Google Webmaster Tools,

SEARCH ENGINE
Berikut uraian singkat mengenai mesin pencari yang cukup populer, seperti Yahoo!, Alltheweb, MSN, AskJeeves, Google, AltaVista, dan Lycos.

Yahoo!
(http://www.yahoo.com)
Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.


Alltheweb
(http://www.alltheweb.com)
Keunggulan Alltheweb adalah pencarian file pada FTP Server. Tidak seperti web, FTP adalah teknologi internet yang ditujukan untuk menyimpan dan mendistribusikan file, biasanya program, audio atau video. Web sebenarnya lebih ditujukan untuk teks. Sejauh ini, hanya AllTheWeb yang menyediakan jasa pencarian file.


MSN
(http://search.msn.com)
Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Searchenginewatch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.


AskJeeves
(http://www.ask.com)
Situs mesin pencari yang satu ini mengunggulkan kemampuannya untuk memahami bahasa manusia. Pengguna bisa menggunakan kalimat lengkap, bukan kata kunci. Situs ini berguna untuk mengetahui jawaban dari pertanyaan(misal: when did world war II end?).


Google:
(http://www.google.com)
Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.


1. Tools-tools pengukur analisis web :

      a. SEO (Search Engine Optimization) adalah mengoptimalkan sebuah blog/web dengan memanfaatkan mesin pencari dan mendapatkan peringkat yang tinggi di halaman pertama mesin pencari dengan menggunakan keyword agar dibanjiri pengunjung yang datang dari search engine.

     b. GTmetrix merupakan sebuah situs dimana kita dapat mengetahui berbagai hal yang membuat blog/web kita lambat dan performa blog/web ketika akses, tersedia secara gratis dengan mengunakan yahoo Yslow dan Google page speed sebagai mesin penganalisa dan menampilkan hasil juga rekomendasi yang harus dilakukan.

     Kelebihan dari GTmetrix :
  
     1. dapat membandingkan beberapa URL secara bersamaan.
     
     2. dapt menjadwalkan pengecekan web/blog secara otomatis dan dapat menyimpan laporan.   
      

      kekurangan dari GTmetrix :
     
      dalam penggunaan GTmetrix harus menggunakan koneksi internet yang cepat.

     c. Keynote Internet Testing Environment (KITE)

alat pengujian dan pengukur berbasis desktop yang digunakan untuk merekam atau mengedittransaksi web dan menganalis kinerja dari aplikasi web. KITE sangat mudah untuk digunakan dan sebagai salah satu alat yang sudah cukup terkenal didunia.   

  d. CloudStatus 

CloudStatus adalah alat pengukur web yang berfungsi menelusuri kinerja utama

dari layanan-layanan cloud computing. CloudStatus terdiri dari 5 layanan dasar yang

ditawarkan oleh amazon, dan memiliki kemampuan monitoring yang lebih baik.

     e. Jiffy
jiffy tersedia secara bebas(open source).

Cara kerja jiffy adalah dengan memasukan kode jiffy ke dalam halamanhalaman web yang akan di telusuri. Dengan jiffy kita dapat mengukur page rendering
times, melaporkan hasil pengukuran dari web server, aggregate log into database, dan
membuat laporan-laporan.


Pembasan berikutnya tentang bagaimana sebuah web perlu dianalisis , yaitu :

1. membantu mengetahui nilai yang akan didapat dari suatu web maupun blog
2. membantu memantau beberapa lama pengunjung yang membuka situs web tersebut
3. membantu mengoptimalkan situs web dalam hal penampilan dan menambah informasi.   
     


                                               CRAWLER
DEFINISI :

proses pengambilan sejumlah besar halaman web dengan cepat kedalam satu tempat penyimpanan lokal dan mengindexnya berdasarkan sejumlah kata kunci. yakni sebuah komponen utama dalam sebuah Search Engine (Mesin Pencari), sebagai Aplikasi Information Retrieval Modern
  
CARA KERJA :

suatu data dikumpulkan oleh web crawler kemudian digunakan oleh mesin pencari untuk memberikan link situs yang relavan bagi pengguna ketika mereka melakukan pencarian. web crawler menangkap banyak hal yang berbeda ketika mereka memindai situs. Informasi diperoleh dari metatag, konten itu sendiri dan link. untuk mendapatkan ide yang baik dari apa situs adalah tentang. Crawler digunakan sebagai scan situs anda. jika ada bagian-bagian tertentu dari situs yang seharusnya tidak diindeks, mereka harus mencatat dalam file ini. setelah mendapat instruksi crawler dari file ini, akan mulai dengan merangkak halaman situs anda. 
Ini kemudian akan melanjutkan ke indeks konten, dan kemudian akhirnya akan mengunjungi link di situs Anda. Jika crawler mengikuti link dan tidak menemukan halaman, maka akan dihapus dari indeks. Informasi yang dikumpulkan dari situs Anda kemudian disimpan dalam database, yang kemudian digunakan oleh mesin pencari.

BEBERAPA CONTOH WEB CRAWLER :


1.Teleport Pro

Salah satu software web crawler untuk keperluan offline browsing. Software ini sudah cukup lama popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com.

2.HTTrack
Ditulis dengan menggunakan C, seperti juga Teleport Pro, HTTrack merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk anda, agar dapat dilihat secara offline. Yang menarik software ini free dan dapat di download pada website resminya di http://www.httrack.com

3.Googlebot
Merupakan web crawler untuk membangun index pencarian yang digunakan oleh search engine Google. Kalau website anda ditemukan orang melalui Google, bisa jadi itu merupakan jasa dari Googlebot. Walau konsekuensinya, sebagian bandwidth anda akan tersita karena proses crawling ini.

4.Yahoo!Slurp
Kalau Googlebot adalah web crawler andalan Google, maka search engine Yahoo mengandalkan Yahoo!Slurp. Teknologinya dikembangkan oleh Inktomi Corporation yang diakuisisi oleh Yahoo!.

5.YaCy
Sedikit berbeda dengan web crawler  lainnya di atas, YaCy dibangun atas prinsip jaringan P2P (peer-to-peer), di develop dengan menggunakan java, dan didistribusikan pada beberapa ratus mesin computer (disebut YaCy peers). Tiap-tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy ialah Sciencenet, untuk pencarian dokumen di bidang sains.
  

                                                 SEARCH ENGINE

  DEFINISI :


adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan dan basisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor dan OpenFTS

CONTOH-CONTOH SE :

1. GOOGLE

google muncul pada akhir tahun 1997, dimana google memasuki pasar yang telah diisi oleh para pesaing lain dalam penyediaan layanan mesin pencari, seperti Yahoo, Altavista , HotBot, Excite, InfoSeek dan Lycos. dimana perusahaan-perusahaan tersebut mengklaim sebagain perusahaan tabg bergerak dalam bidang layanan pencarian internert. Hingga akhirnya Google mampu menjadi sebagai penyedia mesin pencari yang cukup diperhitungkan didunia.

2. Yahoo

Yahoo raja directori di internet disamping para pengguna internet melihat DMOZ serta LookSma berusaha menurunkan nya diposisi puncak tersebut. akhir-akhir ini telah tumbuh secara cepat dalam ukurannya mereka pun sudah memliki harga sehingga mudah untuk memasukinya, dengan demikian mendapatkan sebuah daftar pada direktori yahoo memang memiliki nilai yang tinggi.


PERBEDAAN SEARCH ENGINE


1. Yahoo! dan bing : On page keyword merupakan faktor yang paling penting .

2. Google : linklah yang merupakan faktor yang sangat penting. halaman website google seperti wine semakin tua umurnya semakin bagus peringkatnya. Google akan secara otomatis melakukan pencarian dengan logika boolean dengan menggunakan batasan-batasan AND, NOT, PHRASE, dan OR. google tidak mendukung pemotongan, penambahan dan tidak membedakan bentuk huruf besar atau kecil. kelebihan google menggunakan relavansi dan linking, yaity jumlah tertentu halaman-halaman sejenis yang berhubungan dengan halamab yang dicari. Google juga menyediakan file-file berekstensi PDF yang jarang dihasilkan oleh alat-alat pencari lainnya.

3. Yahoo : untuk yahoo tidak mementingkan layaknya seperti google. yahoo tidak menggunakan robot dalam membuat direktori informasi, web ini bergantung pada jumlah website yang didaftakan di direktori mereka. Sekalipun demikian yahoo sangat selektif dalam menerima situs-situs yang didaftarkan. karena yahoo tidak mempunyai jangkauan yang luas, maka web ini menyediakan mesin pencari milik google sebagai pelengkap.

4. google dan Altavista : 
   1. Loading altavista lebih lama daripada google.
   2. Tampilan altavista kurang menarik
   3. Altavista lebih sulit dalam pengambilan data dibanding google.   
   
5. Alltheweb : metode pencarian dalam web ini menggunakan logika boolean. kita dapat membatasi pencarian hanya pada judul, teks, nama link, URL, link, bahasa, dan domain. Ranking pencarian didasarkan pada relavansi, analisa link, penempatan teks pada halaman tertentu, danpenggunaan kata kunci.


               WEB ARCHIVING
DEFINISI :



adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.

  
 CARA KERJA WEB ARCHIVING

 A. Remote Harvesting

Merupakan cara yang plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses halaman web  sama semeprti user mengakses halaman web menggunakan wob browser.  Contoh web crawler yang digunakan dalam web archiving seperti :

·         Heritrix
·         HTTrack
·         Wget


B. On-Demand

Ada banyak layanan yang dapat digunakan sebagai sumber archive web "on-demand", menggunakan teknik web crawling. Contohnya seperti
·         Aleph Archives
·         archive.is
·         Archive-It
·         Archivethe.net
·         Compliance WatchDog by SiteQuest Technologies
·         freezePAGE snapshots
·         Hanzo Archives
·         Iterasi
·         Nextpoint
·         Patrina
·         PageFreezer
·         Reed Archives
·         Smarsh Web Archiving
·         The Web Archiving Service
·         webEchoFS
·         WebCite
·         Website-Archive.com


C. Database archiving

Databasa Archiving mengacu pada metode untuk menarsipkan konten database-driven websites.  Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single access system. Motode ini digunkanan seprti pada DeepArc dan  Xinq masiing masing dikembangkan oleh Bibliothèque nationale de France dan  National Library of Australia.

D. Transactional archiving

Transactional archiving merupakan event-driven yang mengumpulkan  transaksi  yang berlangsung antara web server dan web browser.  Hal ini terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya beroperasi dengan memeriksa  setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat mengumpulkan konten dari remote website.

4.Ekonomi Web


·     Iklan, termasuk lintas laman iklan
Periklanan adalah sumber informasi bagi para konsumen dan sumber kekuatan pasar bagi para pengiklan.Periklanan telah dituduh merugikan masyarakat karena sepertinya ia lebih dari sekedar menjual produk-produk baru ia juga dapat membentuk kecenderungan dan sikap social secara kuat.Denagn intenet sebuah perusahaan dapat menyajikan kombinasi iklan ,informasi,dan hiburan yang berhubungan dengan produk mereka kepada konsumen.Para konsumen mampu mengendalikan penampakan produk pada mereka dan akhirnya memtutuskan apakah mereka ingin lebih mengetahuinya atau bahkan memesannya.Dengan mengetatnya anggaran periklanan pada tahun 1990-an keandalan menjadi lebih penting daripada sebelumnya.Para pengiklan internet mampu mencatat jumlah orang yang benar-benar melihat iklan mereka dan dari awal mengetahui berapa banyak biaya yang dibebani mereka setiap kunjungan situs Web.



Karakteristik Lingkungan Periklanan
• kekuatan lingkungan selalu berubah
• perubahan lingkungan menciptakan ketidakpastian, ancaman, peluang (dalam dinamika periklanan)
• tanggapan terhadap perubahan lingkungan:
* reaktif apabila tdk dpt mengendalikan elemen-2 lingkungan, caranya selalu menyesuaikan diri dgn perkembangan yg ada
* proaktif apabila memiliki sejumlah kendali dan resources, caranya dgn mengambil langkah-2 utk melakukan perubahan yg menghasilkan lingkungan yg lebih kondusif

Iklan Terhadap Pengaruh Ekonomi
1.    Iklan sebagai transaksi atau peristiwa yang ekonomi yang mampu mempengaruhi kehidupan ekonomi masyarakat.
• Iklan sebagai kegiatan jual beli (untuk menyampaikan pesan, pengiklan harus membayar media yang dipilih).
• Memberi keuntungan kepada agen iklan.
• Membuka lapangan kerja.
• Iklan menjaadi salah satu bidang bisnis yang menjanjikan.
• Industri periklanan menjadi salah satu pilihan kerja yang menjanjikan.
• Seiring dicanangkannya industri kreatif, iklan menjadi salah satu profesi bergengsi.
• Saat krisis ekonomi 1998, industri periklanan merupakan satu-satunya industri yang cepat keluar dari keterpurukan.
• Data AC Nielsen: belanja iklan 2001 Rp 9,717 triliun à 2002 Rp 12 triliun (ada kenaikan 200 % dari belanja iklan 1997). Fantastis! Tahun 1997 ada 179 merek yang diiklankan di media utama nasional à Tahun 2000 ada 237 merek (Cakram, Juni 2000). Artinya kalangan industri masih memberikan kepercayaan melakukan promosi produk melalui iklan.
• Periklanan mendatangkan pajak besar bagi daerah.

2.    Dampak (Cakram, Juni 2000). Artinya kalangan industri masih memberikan kepercayaan melakukan promosi .
·  pesan yang ditimbulkan.
·  Meningkatkan pemasaran produk.


·     Pencarian
Pencarian pada ekonomi web pada umunya adalah melalui penjualan online. Penjualan online adalah melakukan aktifitas penjualan dari mencari calon pembeli sampai menawarkan produk atau barang dengan memanfaatkan jaringan internet yang didukung dengan seperangkat alat elektronik sebagai penghubung dengan jaringan internet.

Pengaruhnya: 
  • Kehadiran e-commerce yang terus berkembang lambat laun akan merubah   kebiasaan bertransaksi sebagian masyarakat kita. Para produsen maupun konsumen akan terbiasa menjual maupun membeli produk dan jasa secara online ketimbang melangkahkan kaki ke outlet penjualan. Ruang dan waktu bukan lagi menjadi kendala. Sebuah perusahaan di Indonesia memiliki kesempatan yang sama dengan kalangan bisnis asing untuk menjalin kerjasama atau ingin mengakses pasar mancanegara.
  • seseorang lebih mudah untuk mengembangkan usahanya seperti dengan menjual barang dan jasa via online. Banyak sekali situs yang menyediakan jual beli online. Salah satu yang terbesar adalah TokoBagus(dot)com. Dengan adanya Internet pula kita tidak perlu repot pergi untuk membeli barang yang kita butuhkan. Tinggal pesan saja melalui transaksi ataupun dengan cash.
  • Kemajuan teknologi akan meningkatkan kemampuan produktivitas dunia industri baik dari aspek teknologi industri maupun pada aspek jenis produksi. Investasi dan reinvestasi yang berlangsung secara besar-besaran yang akan semakin meningkatkan produktivitas dunia ekonomi. Di masa depan, dampak perkembangan teknologi di dunia industri akan semakin penting. Tanda-tanda telah menunjukkan bahwa akan segera muncul teknologi bisnis yang memungkinkan konsumen secara individual melakukan kontak langsung dengan pabrik sehingga pelayanan dapat dilaksanakan secara langsung dan selera individu dapat dipenuhi.

•      Auctioning dalam pencarian dan online auctions
Online Auction adalah mekanisme pasar online dimana penjual menawarkan produk dan pembeli melakukan penawaran secara berurutan secara kompetitif hingga harga terakhir dicapai. Di Online Auction ini, mereka menggunakan teknologi informasi yang tidak dibatasi oleh jarak dan waktu.

Contoh:
amazone adalah ajang pasar online dunia. Di amazone, kita dapat melakukan transaksi online sebagai penjual atau pembeli.

Didalam Online Auction, menerapkan konsep dynamic pricing, yaitu harga yang berubah berdasarkan pada hubungan penawaran dan permintaan pada waktu tertentu. Ada 4 kategori utama dynamic pricing, yaitu:
1.      Satu pembeli, satu penjual
2.      Satu penjual, banyak pembeli potensial
3.      Satu pembeli, banyak penjual potensial
4.      Banyak penjual, banyak pembeli

Manfaat dari online auction dibagi menjadi 3 bagian, yaitu:
1.    Manfaat bagi penjual
•         Meningkatkan pendapatan dengan memperluas pasar dan mempersingkat waktu.
•         Menetapkan harga optimal yang ditentukan oleh pasar.
•         Meningkatkan hubungan dan loyalitas pelanggan.

2.      Manfaat bagi pembeli
•       Kesempatan untuk menemukan barang unik.
•       Hiburan bagi pembeli
•       Pembeli bisa menawar dari manapun, bahkan dengan telepon selular.

3.    Manfaat bagi auctioner
•       Pembelian yang lebih tinggi.
•       Pembeli cenderung untuk berkunjung lebih lama dan kembali lebih sering.
•       Ekspansi bisnis lelang.

Kekurangannya :
· Kurangnya keamanan,
· Kemungkinan adanya kecurangan,
· Serta terbatasnya partisipan.



0 komentar:

Posting Komentar