Sabtu, 23 April 2016

Archiving Web (Prilaku Web)

Web Archiving adalah proses mengumpulkan bagian dari WWW dan memastikan koleksi tersebut diawetkan dalam suatu arsip, misalnya situs arsip, untuk diakses peneliti, sejarawan, dan masyarakat umum pada masa datang. Besarnya ukuran Web membuat arsiparis web umumnya menggunakan web crawlers untuk pengumpulan secara otomatis. Organisasi pengarsip web terbesar yang menggunakan ancangan perangkak web ini adalah Internet Archive yang berupaya memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional, dan berbagai konsorsium organisasi lain juga terlibat dalam upaya pengarsipan konten Web yang memiliki nilai penting bagi mereka. Perangkat lunak dan layanan komersial juga tersedia bagi organisasi yang ingin mengarsipkan konten web mereka sendiri untuk berbagai keperluan.
Arsiparis web umumnya mengumpulkan berbagai jenis konten web termasuk halaman HTML Web, style sheet, JavaScript, gambar, dan video. Arsiparsi web menggunakan archive metadata untuk sumber daya yang dikumpulkan seperti access time, MIME type, dan content length. Metadata ini berguna dalam memjaga keaslian dan asal dari koleksi arsip.

Cara kerja Web Archiving :

a. Remote Harvesting
Merupakan cara yang plaing umum dalam web archiving dengan menggunkana teknik web crawlers yang secara otomatis melakukan proses pengumpulan halaman web. Metode yang digunakan web crawler untuk mengakses halaman web sama semeprti user mengakses halaman web menggunakan wob browser. Contoh web crawler yang digunakan dalam web archiving seperti :
• Heritrix
• HTTrack
• Wget

b. On-Demand
Ada banyak layanan yang dapat digunakan sebagai sumber archive web “on-demand”, menggunakan teknik web crawling. Contohnya seperti :
Aleph Archives
• archive.is
• Archive-It
• Archivethe.net
• Compliance WatchDog by SiteQuest Technologies
• freezePAGE snapshots
• Hanzo Archives
• Iterasi
• Nextpoint
• Patrina 
• PageFreezer
• Reed Archives
• Smarsh Web Archiving 
• The Web Archiving Service 
• webEchoFS
• WebCite
• Website-Archive.com

c. Database Archiving
Databasa Archiving mengacu pada metode untuk menarsipkan konten database-driven websites. Hal ini biasanya memerlukan ekstraksi konten database ke standard schema, sering menggunakan XML. Setelah disimpan dalam format standar, konten yang diarsipkan dari beberapa databse dapat tersedia untuk diakses dengan menggunakan single access system. Motode ini digunkanan seprti pada DeepArc dan Xinq masiing masing dikembangkan oleh Bibliothèque nationale de France dan National Library of Australia.

d. Transactional archiving
Transactional archiving merupakan event-driven yang mengumpulkan transaksi yang berlangsung antara web server dan web browser. Hal ini terutama digunakan untuk menjamin keaslian dari isi suatu website, pada tanggal tertentu. Hal ini sangatlah penting untuk organisasi atau perusahaan yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sistem yang digunakan pada transactional archiving biasanya beroperasi dengan memeriksa setiap permintaan HTTP dan respon dari web server, menyaring setiap aktifitas untuk menghilangkan konten yang duklikat dan secara permanen disimpan sebagai bitstreams. Sebuah sistem transactional archiving membutuhkan instalasi perangkat lunak pada web server, dan karena hal itu maka metode ini tidka dapat mengumpulkan konten dari remote website.

Web archiving beralih ke halaman ini. Untuk web.archive.org, lihat Wayback Machine. Untuk format file Safari, lihat webarchive. Untuk format file Sun Microsystems, lihat WAR (Sun format file).
Artikel ini berisi daftar referensi, namun tetap tidak jelas sumber karena memiliki inline citations cukup. Harap membantu memperbaiki artikel ini dengan memperkenalkan kutipan lebih tepat. (Januari 2010)
Web pengarsipan adalah proses pengumpulan bagian dari World Wide Web untuk memastikan informasi tersebut diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Arsiparis web biasanya menggunakan web crawler untuk menangkap otomatis karena ukuran besar dan jumlah informasi di Web. Organisasi web terbesar pengarsipan berdasarkan pendekatan merangkak massal adalah Internet Archive yang berusaha untuk memelihara arsip dari seluruh Web. Perpustakaan nasional, arsip nasional dan konsorsium berbagai organisasi yang juga terlibat dalam pengarsipan konten Web budaya penting. Web komersial pengarsipan perangkat lunak dan layanan juga tersedia bagi organisasi yang perlu arsip konten web mereka sendiri untuk warisan perusahaan, peraturan, atau tujuan hukum.

Arsiparis web jenis arsip umum berbagai konten web termasuk halaman web HTML, style sheet, JavaScript, gambar, dan video. Mereka juga arsip metadata tentang sumber daya dikumpulkan seperti waktu akses, tipe MIME, dan panjang konten. Metadata ini berguna dalam membangun keaslian dan asal dari koleksi arsip.

Metode pengumpulan

panen Jarak Jauh
Web yang paling umum pengarsipan teknik menggunakan web crawler untuk mengotomatisasi proses pengumpulan halaman web. Web crawler biasanya mengakses halaman web dengan cara yang sama bahwa pengguna dengan browser Web melihat, dan karena itu memberikan metode yang relatif sederhana dari konten web panen jarak jauh. Contoh web crawler yang digunakan untuk web pengarsipan meliputi:
1. Heritrix
2. HTTrack
3. Wget
4. On-demand
Ada banyak layanan yang dapat digunakan untuk sumber daya arsip web “on-demand”, menggunakan teknik web merangkak.
Aleph Arsip, menawarkan layanan web pengarsipan untuk kepatuhan peraturan dan eDiscovery bertujuan untuk perusahaan (pasar Global 500), industri hukum dan pemerintah.
archive.is, sebuah layanan gratis yang menghemat halaman dan semua gambar nya. Hal ini dapat menyimpan halaman Web 2.0.
Arsip-It, sebuah layanan berlangganan yang memungkinkan lembaga-lembaga untuk membangun, mengelola dan mencari arsip web mereka sendiri.

Archivethe.net, sebuah shared web-platform pengarsipan dioperasikan oleh Internet Research Memory, spin-off dari dasar memori internet (sebelumnya Eropa Arsip Yayasan). IM Situs
Kepatuhan Watchdog oleh SiteQuest Technologies, sebuah layanan berlangganan yang arsip website dan memungkinkan pengguna untuk menelusuri situs tersebut seperti yang muncul di masa lalu. Hal ini juga memonitor situs untuk perubahan dan personil kepatuhan peringatan jika perubahan terdeteksi.

freezePAGE snapshot, sebuah layanan gratis / langganan. Untuk melestarikan snapshot, membutuhkan login setiap hari tiga puluh untuk pengguna terdaftar, enam puluh hari untuk pengguna terdaftar.
Hanzo Arsip, menyediakan web pengarsipan, awan pengarsipan, dan media sosial pengarsipan perangkat lunak dan layanan untuk e-discovery, manajemen informasi, konten perusahaan sosial, Financial Industry Regulatory Authority, Amerika Serikat Securities and Exchange Commission, dan kepatuhan Food and Drug Administration, dan perusahaan warisan. Hanzo digunakan oleh organisasi terkemuka di banyak industri, dan lembaga pemerintah nasional. Web akses arsip adalah on-demand dalam format asli, dan termasuk pencarian teks lengkap, penjelasan, redaksi, kebijakan arsip dan browsing temporal. Hanzo terintegrasi dengan aplikasi terkemuka penemuan elektronik dan jasa.

Iterasi, Menyediakan web perusahaan pengarsipan untuk kepatuhan, litigasi, e-discovery perlindungan dan warisan merek. Bagi perusahaan perusahaan, organisasi keuangan, lembaga pemerintah dan banyak lagi.

NextPoint, menawarkan berbasis cloud otomatis, SaaS untuk kebutuhan pemasaran, kepatuhan dan litigasi terkait termasuk penemuan elektronik.

PageFreezer, berlangganan layanan SaaS untuk arsip, replay dan situs pencari, blog, web 2.0, Flash & media sosial untuk memenuhi pemasaran, eDiscovery dan peraturan dengan US Food and Drug Administration (FDA), Keuangan Industri Regulatory Authority (FINRA), US Securities and Exchange Commission, Sarbanes-Oxley Act federal Aturan Bukti dan hukum catatan manajemen. Arsip dapat digunakan sebagai bukti hukum.

Reed Arsip, menawarkan perlindungan litigasi, kepatuhan terhadap peraturan & eDiscovery dalam, industri perusahaan hukum dan pemerintah.

Smarsh Web Pengarsipan dirancang untuk menangkap, memelihara dan menciptakan kembali pengalaman web seperti ada setiap saat dalam waktu untuk kewajiban kepatuhan e-discovery dan peraturan. (Smarsh diperoleh menerus Mei 2012).

The Web Pengarsipan Layanan adalah layanan berlangganan dioptimalkan untuk lingkungan akademik dipandu oleh masukan dari pustakawan, arsiparis dan peneliti. WS menyediakan penjelajahan topikal, perbandingan perubahan dan situs-by-lokasi kontrol pengaturan penangkapan dan frekuensi. Dikembangkan dan diselenggarakan oleh University of California Pusat Kurasi di Perpustakaan Digital California.
webEchoFS, menawarkan layanan berlangganan yang diciptakan khusus untuk memenuhi kebutuhan perusahaan Jasa Keuangan peraturan periklanan subjek yang berhubungan dengan FINRA dan Investasi Act Advisors.

WebCite, sebuah layanan gratis khusus untuk penulis ilmiah, editor jurnal, dan penerbit untuk secara permanen arsip dan mengambil referensi dikutip Internet.

Situs-Archive.com, layanan berlangganan. Captures layar-tembakan halaman, transaksi dan perjalanan pengguna menggunakan “browser yang sebenarnya”. Layar-tembakan dapat dilihat secara online atau download dalam arsip bulanan. Menggunakan teknologi Cloud Pengujian.

database pengarsipan
Database pengarsipan mengacu pada metode untuk pengarsipan konten mendasari database-driven website. Hal ini biasanya memerlukan ekstraksi dari isi database ke skema standar, sering menggunakan XML. Setelah disimpan dalam format standar, isi arsip dari beberapa database kemudian dapat dibuat tersedia dengan menggunakan sistem akses tunggal. Pendekatan ini dicontohkan oleh alat DeepArc dan Xinq dikembangkan oleh Bibliothèque nationale de France dan Perpustakaan Nasional Australia masing-masing. DeepArc memungkinkan struktur database relasional yang akan dipetakan ke skema XML, dan konten diekspor ke dokumen XML. Xinq kemudian memungkinkan konten yang akan disampaikan secara online. Meskipun tata letak asli dan perilaku website tidak dapat dipertahankan dengan tepat, Xinq tidak memungkinkan query dasar dan fungsi pengambilan dapat direplikasi.

Transaksional pengarsipan
Transaksional pengarsipan adalah sebuah pendekatan event-driven, yang mengumpulkan transaksi yang sebenarnya yang terjadi antara web server dan browser web. Hal ini terutama digunakan sebagai sarana melestarikan bukti isi yang sebenarnya dilihat di situs web tertentu, pada tanggal tertentu. Hal ini mungkin sangat penting bagi organisasi yang perlu mematuhi persyaratan hukum atau peraturan untuk mengungkapkan dan mempertahankan informasi.
Sebuah sistem pengarsipan transaksional biasanya beroperasi dengan mencegat setiap permintaan HTTP untuk, dan tanggapan dari, server web, penyaringan setiap respon untuk menghilangkan duplikat konten, dan secara permanen menyimpan tanggapan sebagai bitstreams. Sebuah sistem pengarsipan transaksional memerlukan instalasi software pada server web, dan karenanya tidak dapat digunakan untuk mengumpulkan konten dari situs remote.

Sumber :
http://fryunfirst.blogspot.co.id/2013/05/web-archiving.html


Crawler Web (Prilaku Web)

Web crawler adalah suatu program atau script otomat yang relatif simple, yang dengan metode tertentu melakukan scan atau “crawl” ke semua halaman-halaman Internet untuk membuat index dari data yang dicarinya. Nama lain untuk web crawl adalah web spider, web robot, bot, crawl dan automatic indexer.
Web crawl dapat digunakan untuk beragam tujuan. Penggunaan yang paling umum adalah yang terkait dengan search engine. Search engine menggunakan web crawl untuk mengumpulkan informasi mengenai apa yang ada di halaman-halaman web publik. Tujuan utamanya adalah mengumpukan data sehingga ketika pengguna Internet mengetikkan kata pencarian di komputernya, search engine dapat dengan segera menampilkan web site yang relevan.

Ketika web crawl suatu search engine mengunjungi halaman web, ia “membaca” teks yang terlihat, hyperlink, dan konten berbagai tag yang digunakan dalam situs seperti meta tag yang banyak berisi keyword. Berdasar informasi yang dikumpulkan web crawl, search engine akan menentukan mengenai apakah suatu situs dan mengindex informasinya. Website itu kemudian dimasukkan ke dalam database search engine dan dilakukan proses penentuan ranking halaman-halamannya.
Namun search engine bukanlah satu-satunya pengguna web crawl. Linguist bisa menggunakan web crawl untuk melakukan analisis tekstual; yakni, mereka bisa menyisir Internet untuk menentukan kata apa yang paling umum digunakan hari ini. Peneliti pasar dapat menggunakan web crawl untuk menentukan dan memanipulasi trend pada suatu pasar tertentu. Ini semua merupakan contoh beragam penggunaan web crawl. Web crawl dapat digunakan oleh siapapun yang melakukan pencarian informasi di Internet.
Web crawl bisa beroperasi hanya sekali, misalnya untuk suatu projek yang hanya sekali jalan, atau jika tujuannya untuk jangka panjang seperti pada kasus search engine, mereka bisa diprogram untuk menyisir Internet secara periodik untuk menentukan apakah sudah berlangsung perubahan signifikan. Jika suatu situs mengalami trafik sangat padat atau kesulitan teknis, spider atau crawl dapat diprogram untuk mencatat hal ini dan mengunjunginya kembali setelah kesulitan teknis itu terselesaikan

Sumber :
https://djuyadi.wordpress.com/2010/03/06/web-crawl-web-spider-web-robot-bot-crawl-automatic-indexer/


Spider Web (Prilaku Web)

Apakah sebenarnya yang dimaksud dengan Spider Web? Ternyata maksud dari Spider Web adalah Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain..

Spider Web adalah salah satu informasi penting yang sangat berguna bagi anda yang membutuhkan informasi tentang Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain.. Terkadang informasi ini sangat sulit karena Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain. masih jarang tersedia informasinya secara lengkap di internet.
Walaupun demikian bukan berarti Spider Web sulit digali informasinya, terutama di dunia maya (internet). Informasi tentang Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain. bisa dengan mudah anda dapatkan jika anda mau jeli dalam mencarinya di internet.
Rekomendasi kami tentang informasi Spider Web sementara ini hanya masih sebatas beberapa website saja. Informasi Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain. yang anda inginkan silahkan akses di beberapa link website di bawah ini.
Jika masih belum bisa menemukan informasi tentang Spider Web yang berisi detail tentang Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain. silahkan mencari referensi di Google. Masukkan kata kunci yang berhubungan dengan Spider Web maka anda akan bisa menemukan berbagai website atau blog yang memuat tentang Seluruh peserta harus berpindah dari satu sisi ke sisi yang lain melalui sebuah jaring laba-laba raksasa dengan dibantu rekan yang lain. yang bisa anda ambil informasinya secara cuma-cuma.


Search Engine (Prilaku Web)

Mesin pencari web (web search engine) adalah program komputer yang dirancang untuk melakukan pencarian atas berkas-berkas yang tersimpan dalam layanan www, ftp, publikasi milis, ataupun news group dalam sebuah ataupun sejumlah komputer peladen dalam suatu jaringan. Search engine merupakan perangkat pencari informasi dari dokumen-dokumen yang tersedia. Hasil pencarian umumnya ditampilkan dalam bentuk daftar yang seringkali diurutkan menurut tingkat akurasi ataupun rasio pengunjung atas suatu berkas yang disebut sebagai hits. Informasi yang menjadi target pencarian bisa terdapat dalam berbagai macam jenis berkas seperti halaman situs web, gambar, ataupun jenis-jenis berkas lainnya. Beberapa mesin pencari juga diketahui melakukan pengumpulan informasi atas data yang tersimpan dalam suatu basisdata ataupun direktori web.
Sebagian besar mesin pencari dijalankan oleh perusahaan swasta yang menggunakan algoritma kepemilikan danbasisdata tertutup, di antaranya yang paling populer adalah Google (MSN Search dan Yahoo!). Telah ada beberapa upaya menciptakan mesin pencari dengan sumber terbuka (open source), contohnya adalah Htdig, Nutch, Egothor

Sejarah
Saat awal perkembangan internet, Tim Berners-Lee membuat sebuah situs web yang berisikan daftar situs web yang ada di internet melalui peladen web CERN. Sejarah yang mencatat sejak tahun 1992 masih ada hingga kini. Dengan semakin banyaknya situs web yang aktif membuat daftar ini tidak lagi memungkinkan untuk dikelola oleh manusia. Utilitas pencari yang pertama kali digunakan untuk melakukan pencarian di internet adalah Archie yang berasal dari kata "archive" tanpa menggunakan huruf "v". Archie dibuat tahun 1990 oleh Alan Emtage, Bill Heelan dan J. Peter Deutsch, saat itu adalah mahasiswa ilmu komputer Universitas McGill, Amerika Serikat. Cara kerja program tersebut adalah mengunduh daftar direktori serta berkas yang terdapat pada layanan ftp publik (anonim) kemudian memuatnya ke dalam basisdata yang memungkinkan pencarian.
Mesin pencari lainnya seperti Aliweb, muncul di 1993 dan masih berjalan hingga saat ini. Salah satu mesin pencari pertama yang sekarang berkembang menjadi usaha komersial yang cukup besar adalah Lycos, yang dimulai di Carnegie Mellon University sebagai proyek riset pada tahun 1994.
Segera setelah itu, banyak mesin pencari yang bermunculan dan bersaing memperebutkan popularitas. Termasuk di antaranya adalah WebCrawler, Hotbot, Excite, Infoseek, Inktomi, dan AltaVista. Masing-masing bersaing dengan menambahkan layakan-layanan tambahan seperti yang dilakukan oleh Yahoo.
Tahun 2002 Yahoo! mengakuisisi Inktomi, setahun kemudian mengakuisisi AlltheWeb dan Altavista kemudian meluncurkan mesin pencari sendiri yang didasarkan pada teknologi gabungan dari mesin-mesin pencari yang telah diakuisisinya serta memberikan layanan yang mengutamakan pencarian Web daripada layanan-layanan lainnya.
Di bulan desember 2003, Orase menerbitkan versi pertama dari teknologi pencari waktu-riilnya. Mesin ini memiliki banyak fungsi baru dan tingkat unjuk kerja yang jauh lebih baik.
Mesin pencari juga dikenal sebagai target investasi internet yang terjadi pada akhir tahun 1990-an. Beberapa perusahaan mesin pencari yang masuk ke dalam pasar saham diketahui mencatat keuntungan besar. Sebagian lagi sama sekali menonaktifkan layanan mesin pencari, dan hanya memasarkannya pada edisi-edisi enterprise saja, contoh Northern Light sebelumnya diketahui merupakan salah satu perintis layanan mesin pencari di internet.
Buku Osmar R. Zaïane From Resource Discovery to Knowledge Discovery on the Internet menjelaskan secara rinci sejarah teknologi mesin pencari sebelum munculnya Google. Mesin-mesin pencari lainnya mencakup a9.com, AlltheWeb, Ask Jeeves, Clusty, Gigablast, Teoma, Wisenut, GoHook, Kartoo, dan Vivisimo.

Cara Kerja Mesin Pencari
Mesin pencari web bekerja dengan cara menyimpan informasi tentang banyak halaman web, yang diambil langsung dari WWW. Halaman-halaman ini diambil dengan web crawler  browser web otomatis yang mengikuti setiap pranala/link yang dilihatnya. Isi setiap halaman lalu dianalisis untuk menentukan cara indeks-nya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data tentang halaman web disimpan dalam sebuah databaseindeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.
Selain halaman web, Mesin pencari juga menyimpan dan memberikan informasi hasil pencarian berupa pranala yang merujuk pada file, seperti file audio, file video, gambar, foto dan sebagainya, serta informasi tentang seseorang, suatu produk, layanan, dan informasi beragam lainnya yang semakin terus berkembang sesuai dengan perkembangan teknologi informasi.
Ketika seseorang mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan kadang-kadang sebagian teksnya.
Ada jenis mesin pencari lain: mesin pencari real-time, seperti Orase. Mesin seperti ini tidak menggunakan indeks. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal: informasi selalu mutakhir, (hampir) tak ada pranala mati, dan lebih sedikit sumber daya sistem yang diperlukan. (Google menggunakan hampir 100.000 komputer, Orase hanya satu.) Tetapi, ada juga kelemahannya: pencarian lebih lama rampungnya.
Manfaat mesin pencari bergantung pada relevansi hasil-hasil yang diberikannya. Meskipun mungkin ada jutaan halaman web yang mengandung suatu kata atau frasa, sebagian halaman mungkin lebih relevan, populer, atau autoritatif daripada yang lain. Kebanyakan mesin pencari menggunakan berbagai metode untuk menentukan peringkat hasil pencarian agar mampu memberikan hasil "terbaik" lebih dahulu. Cara mesin menentukan halaman mana yang paling sesuai, dan urutan halaman-halaman itu diperlihatkan, sangat bervariasi. Metode-metode nya juga berubah seiring waktu dengan berubahnya penggunaan internet dan berevolusinya teknik-teknik baru.
Sebagian besar mesin pencari web adalah usaha komersial yang didukung pemasukan iklan dan karenanya sebagian menjalankan praktik kontroversial, yaitu membolehkan pengiklan membayar agar halaman mereka diberi peringkat lebih tinggi dalam hasil pencarian.

Proses Pencarian
Melakukan pencarian dokumen yang dimuat pada suatu situs bisa begitu mudah dan kelihatannya mungkin sulit juga. apalagi mengingat begitu menyebarnya informasi di mana-mana, bahkan University of Calofornia menyebutkan saat ini telah terdapat lebih dari 50 miliar halaman web di internet, meskipun tidak ada ada satupun yang benar-benar tahu jumlah persisnya.
kesulitan yang mungkin terjadi adalah karena WWW tersebut tidak terdata dalam bentuk yang terstandardisasi isinya. tidak sama halnya dengan katalog yang ada di perpustakaan, yang memiliki standardisasi secara mendunia berdasarkan subjek dari judul buku, meskipun jumlahnya juga tidak sedikit.
Dalam pencarian di web, pengguna selalu memperkirakan kata apa yang di kira-kira terdapat pada halaman yang ingin anda temukan. atau kira-kira apa subjek yang dipilih oleh seseorang untuk mengelola halaman situs yang mereka kelola, topik apa saja kira-kira yang di bahas.
Jika pengguna melakukan apa yang dikenal dengan pencarian pada halaman web, sebenarnya tidaklah melakukan pencarian. tidak mungkin melakukan pencarian di WWWsecara langsung.
Pada web benar-benar terdiri dari banyak sekali halaman web yang ingin disimpan dari berbagai server diseluruh dunia. Komputer pengguna tidak langsung melakukan pencarian kepada seluruh komputer tersebut secara langsung.
Apa yang mungkin pengguna lakukan hanyalah melalui komputer untuk mengakses satu atau lebih perantara yang disebut dengan alat bantu pencarian yang ada saat ini. Melakukan pencarian pada alat bantu itu tadi ke database yang dimiliki. database tersebut mengkoleksi situs-situs yang ditemukan dan simpan.
alat bantu pencarian ini menyediakan hasil pencarian dalam bentuk hypertext link dengan URL menuju halaman lainnya. ketika anda klik link ini, dan menuju ke alamat tersebut maka dokumen, gambar, suara dan banyak lagi bentuk lainnya yang ada pada server tersebut disediakan, sesuai dengan informasi yang terdapat di dalamnya. layanan ini bisa menjangkau ke manapun di seluruh dunia.
Tidak mungkin seseorang untuk melakukan pencarian ke seluruh komputer yang terhubung internet ini, atau bahkan alat bantu pencarian yang mengklaim bahwa melakukannya, tidak benar

Prinsip Umum Dari Mesin Pencari
Sistem kinerja mesin ini ada beberapa hal yang perlu di perhatikan terutama keterkaitannya dengan masalah arsitekrut dan mekanismenya.

Spider

Merupakan program yang men-download halaman-halaman yang mereka temukan, mirip dengan browser. Perbedannya adalah bahwa browser menapilkan secara langsung informasi yang ada (baik tekas, gambar, dll). Untuk kepentingan manusia yang menggunakannya pada saat itu, sedangkan spider tidak melakukan untuk menampilkan dalam bentuk yang terlihat seperti itu, karena kepentingannya adalah untuk mesin, bukan untuk manusia, spider pun dijalankan oleh mesin secara otomatis. Kepentingannya adalah untuk mengambil halaman-halaman yang dikunjunginya untuk disimpan kedalam database yang dimiliki oleh search engine.

Crawler

Merupakan program yang dimiliki search engine untuk melacak dan menemukan link yang terdapat dari setiap halaman yang ditemuinya. Tugasnya adalah untuk menentukan spoder harus pergi kemana dan mengevaluasi link berdasarkan alamat yang ditentukan dari awal. Crawler mengikuti link dan mencoba menemukan dokumen yang belum dikenal oleh search engine.

Indexer

Komponen ini melakukan aktivitas untuk menguraikan masing-masing halaman dan meneliti berbagai unsur, seperti teks, headers, struktur atau fitur dari gaya penulisan, tagHTML khusus, dll.

Database

Merupakan tempat standar untuk menyimpan data-data dari halaman yang telah dikunjungi, di-download dan sudah dianalisis. kadang kala disebut juga dengan index dari suatu search engine.

Result Engine

Mesin yang melakukan penggolongan dan penentuan peringkat dari hasil pencarian pada search engine. Mesin ini menentukan halaman mana yang menemui kriteria terbaik dari hasil pencarian berdasarkan permintaan penggunanya, dan bagaimana bentuk penampulan yang akan ditampilkan.
Proses ini dilaksanakan berdasarkan algoritma perangkingan yang dimiliki oleh search engine tersebut, mengikuti kaidah perangkingan hakaman yang dipergunakan oleh mereka adalah hak mereka, para peneliti mempelajari sifat-sifat yang mereka gunakan, terutama untuk meningkatkan pencarian yang dihasilkan oleh serach engine tersebut.

Web Server

Merupakan komponen yang melayani permintaan dan memberikan respon balik dari permintaan tersebut. Web Server ini biasanya menghasilkan informasi atau dokumen dalam format HTML. Pada halaman tersebut tersedia layanan untuk mengisikan kata kunci pencarian yang diinginkan oleh usernya. Web Server ini juga bertanggung jawab dalam menyampaikan hasil pencarian yang dikirimkan kepada komputer yang meminta informasi.

Sumber :
https://id.wikipedia.org/wiki/Mesin_pencari_web

Navigasi Web (Prilaku Web)

Navigasi adalah petunjuk posisi dan arah perjalanan. Di dalam dunia web, navigasi dianggap penting agar user yang sedang berada di dalam halaman tertentu tidak tersesat dan mudah menemukan halaman-halaman lain dalam website Anda.
Menu adalah bagian dari website yang berisi link-link utama yang mengarah pada halaman tertentu di sebuah website Biasanya, pada sebuah website, navigasi tertampil pada menu dan link yang terstruktur. Seringkali, saat kita membuka sebuah website, kita merasa kesal karena tidak mendapatkan halaman website yang dicari dikarenakan navigasi yang ruwet dan tidak jelas.
Selain itu dapat diartikan, Menu navigasi adalah sebuah fasilitas yang diberikan oleh si pemilik situs dimana didalamnya berisi sekumpulan link-link penting. Menu navigasi juga berfungsi sebagai pemandu kepada pengunjung agar dapat lebih mudah dalam menentukan kategori yang diinginkan tanpa harus bersusah payah mencarinya.
Menu navigasi dapat berbentuk mendatar (horizontal) atau menurun (vertical) juga dapat dibuat bercabang dengan sub menu (dropdown) atau tidak, tergantung kebutuhan dari situs tersebut

Definisi Struktur Navigasi
Menurut Kurniawan (2010:213) Pada pengembangan aplikasi berbasis web, tentunya dalam membuat lebih dari satu halaman web, bahkan bisa ratusan jika aplikasi yang dibangun kompleks. Oleh karenanya navigasi adalah fitur yang harus disediakan. Navigasi berfungsi untuk berpindah dari satu halaman ke halaman yang lain pada suatu aplikasi berbasis web, yang juga digunakan untuk memberikan informasi lokasi halaman yang sedang dibuka.
Menurut Purnama (2004) Navigasi Web adalah bagian dari situs Web yang berguna untuk memandu pengunjung menjelajahi isi situs dan menghantarkan pengunjung pada isi yang mereka cari.
Menurut Sutopo (2007:6) Dalam pengembangan web, terdapat beberapa model navigasi dasar, yang harus dikenal dengan baik oleh desainer, Karena setiap model navigasi dapat memberikan solusi untuk kebutuhan yang berbeda.

Macam-macam struktur navigasi antara lain:

1. Linear Navigation Model
Sebagian besar website mempergunakan linear navigation model. Informasi diberikan secara sekuensial dimulai dari satu halaman.


2. Hierarchical model
Menurut Sutopo (2007:7) menerangkan bahwa “Hierarchical model diadaptasi oleh top-down design. Konsep navigasi ini dimulai dari satu node yang menjadi homepage. Dari homepage dapat dibuat beberapa cabang ke halaman-halaman utama”.



3. Spoke-and-hub model
Dalam spoke-and-hub model hanya ada dua macam link yaitu dari homepage ke halaman tertentu dan dari halaman tertentu ke halaman homepage. Spoke-and-hub model hanya menggunakan satu node untuk menghubungkan satu node ke node yang lain.


4. Full Web Model
Menurut Sutopo (2007:8) menerangkan bahwa “Full web model memberikan kemampuan hyperlink yang banyak. Full web model banyak digunakan karena user dapat mengakses semua topik dengan subtopik dengan cepat. Namun kelemahan dari model ini, yaitu dapat berakibat user kehilangan cara untuk kembali ke topik sebelumnya”.


Fungsi Navigasi
Fungsi Secara global
Unggah berkas (khusus pengguna terdaftar) ; digunakan untuk mengirimkan suatu berkas (biasanya gambar) ke server Wikipedia untuk dapat digunakan dalam suatu artikel.
Halaman istimewa; digunakan untuk mengakses fitur-fitur khusus di Wikipedia seperti daftar artikel terbaru, versi perangkat lunak, dll.

Fungsi spesifik
Pranala balik; digunakan untuk melihat halaman lain yang memuat pranala ke suatu halaman yang sedang ditampilkan.
Perubahan terkait; digunakan untuk melihat log perubahan dari halaman-halaman yang terkait dengan suatu halaman.
Pranala permanen; karena sifat halaman dalam Wikipedia yang dinamis dan cepat sekali berubah, kadang Anda membutuhkan referensi ke suatu halaman pada suatu versi atau saat tertentu. Gunakan menu ini untuk mendapatkan alamat URL yang dapat Anda pakai sebagai referensi ke suatu versi halaman pada saat Anda membacanya.
Kutip halaman ini; gunakan ini untuk mendapatkan teks yang dapat Anda gunakan jika Anda mengutip isi suatu halaman di Wikipedia. Ini berguna jika Anda membuat tulisan yang biasanya harus menyertakan keterangan mengenai sumber tulisannya.
rss atom; digunakan pada halaman istimewa yang berupa daftar untuk mendapatkan daftar tersebut dalam bentuk RSS atau Atom.
Sumbangan pengguna; digunakan jika Anda sedang mengakses suatu halaman pengguna lain untuk melihat daftar suntingan yang dilakukan pengguna tersebut.
Kirimi pengguna ini milis; digunakan jika Anda sedang mengakses suatu halaman pengguna lain untuk mengirimkan milis ke pengguna tersebut.
Informasi halaman; digunakan untuk menampilkan informasi halaman yang bersangkutan.
Item di Wikidata; digunakan untuk menghubungkan data penyimpanan item.

Manfaat Navigasi 
Beberapa manfaat dari menu navigasi :
1. Mempercepat Untuk Mendapatkan Sitelink ; Dengan adanya menu navigasi maka blog/web semakin cepat mendapatkan sitelink karena sebagian dari beberapa sitelinknya berasal dari menu navigasi
2. Dinilai Sebagai Web/Blog Profesional ; Mengapa dinilai sebagai profesional ? . karena kita telah menyusun rapih artikel artikel kita dan telah mengatur sekat antara post 1 dan post lainya serta kita telah mengatur web kita menjadi user friendly karena dengan mudah para visitor untuk menjelajahi blog kita dan dengan mudah mengunggah daya tarik pengunjung.
3. Dinilai Baik dari Google ; Dinilai baik oleh google karena kita telah memanjakan visitor dan google tau itu . maka dari itu google akan menilai lebih pada blog kita, Dari semua itu tidak menutup kemungkinan juga blog/web yang tidak memiliki menu navigasi bisa lebih baik dari blog/web yang memiliki menu navigasi , karena itu semua tergantung kita me-manage blog/web kita / apakah blog/web kita telah ditata dengan baik atau tidak.

Sumber :
http://nursalimrj.blogspot.co.id/2015/04/menu-navigasi-pada-sebuah-website.html

Generative Model (Web Content)

WEB CONTENT
Web content adalah isi dari website yang telah anda buat. Tanpa adanya file-file halaman web dan file pendukung, maka domain dan hosting yang telah Anda miliki tidak akan menampilkan apa-apa jika diakses. Ini seperti memiliki rumah baru yang sudah ada alamatnya tapi belum diisi perabot alias kosong.
Berbeda dengan domain dan hosting yang sangat mudah dimiliki serta tidak membutuhkan skill khusus, konten website membutuhkan penanganan dan skill khusus. Anda harus menyiapkan halaman web beserta file pendukungnya secara terstruktur agar berfungsi dengan baik, lalu menempatkannya di hosting Anda.

GENERATIVE MODEL
Generative models dan Discriminative models adalah dua model yang secara general dikenal di dunia pattern recognition. Biasanya setiap metode dapat dikategorikan ke dalam salah satu atau kedua model tersebut (dalam kasus hybrid methods). Perbedaan mencolok antara keduanya adalah, Generative models mengasumsikan bahwapembentukan setiap pattern di atur oleh set parameters. Di lain pihak, Discriminative models lebih fokus kepada pembentukan decision boundaries yang mana akan digunakan sebagai batas pembeda antar patterns. Dalam prakteknya decision boundaries bisa sangat kompleks, atau sangat mudah seperti sebuah garis linear. Perlu diketahui bahwa pembentukan decision boundaries tidak hanya ekslusif ada di Discriminative models. Generative models juga dapat membuat decision boundaries.
sumber :
https://dhozkiii24.wordpress.com/2013/08/26/penjelasan-web-content-media-standar-generative-model-model-retorika-di-web/

Model Retorika di Web (Web Content)

Pengertian content (web content) adalah istilah yang merujuk pada teks, grafik, gambar, video, dan audio yang terdapat pada web page.


MODEL RETORIKA DI WEB
Retorika berarti mempunyai keinginan untuk berbicara baik secara umum maupun khusus, yang dapat dilakukan dalam beberapa kelompok untuk mencapai suatu tujuan tertentu ( misalnya memberikan informasi data atau memberikan informasi). Oleh karena itu pembicaraan adalah suatu kemampuan khusus manusia. Untuk menyampaikan jalan pikirannya kepada orang lain.
Aristoteles mendefinisikan retorika sebagai “kemampuan untuk melihat atau mengidentifikasi dalam keadaan tertentu sarana yang tersedia persuasi.” Menganalisis retorika berfokus pada “bagaimana” dan “mengapa” persuasi daripada apa hal-hal tertentu orang katakan atau tulis agar persuasif . Salah satu cara komponen strategi retoris adalah dengan menggunakan Segitiga Retoris. Model ini menempatkan ke dalam kerangka umum interaksi antara berbagai aktor dan perangkat dalam persuasi. Tiga Banding retorik adalah strategi utama yang digunakan untuk membujuk penonton/audience dan juga perangkat penting untuk memahami ketika membangun atau mendekonstruksi argumen. Retorika adalah sebuah seni berkomunikasi efektif dengan wicara. Retorika merujuk pada suatu teknik pemakaian bahasa sebagai seni, yang didasarkan pada suatu pengetahuan yang tersusun baik.
Segitiga retoris memungkinkan Anda untuk secara efektif menganalisis teks yang berbeda sebuah argumen untuk strategi retoris dan perangkat. Model ini membentuk proses retoris menjadi bagian-bagian dikelola dan berbeda melalui Segitiga Retoris dan Tiga Banding Retoris:
Segitiga retoris terdiri dari tiga komponen yang hadir dalam setiap proses persuasif:
§  Penulis: orang yang menghasilkan teks.
§  Pemirsa: orang / orang yang menerima / teks.
§  Teks: pesan yang disampaikan dari penulis untuk penonton
Banding retoris:  tiga jalan utama dimana orang dibujuk.
§  Logos:  Strategi alasan, logika, atau fakta. Setiap jenis argumen yang menarik bagi sisi rasional seseorang adalah menarik untuk logo.
§  Ethos:  ” Karakter” Banding ke etos Strategi kredibilitas, wewenang, atau menunjukkan penulis kepercayaan, keahlian dan kejujuran dan berusaha untuk menempatkan penulis dalam cahaya yang lebih positif untuk penonton.
§  Pathos:  Strategi emosi dan mempengaruhi. Pathos menarik bagi rasa audiens kemarahan, kesedihan, atau kegembiraan.
Aristoteles berpendapat bahwa logos adalah bentuk terkuat dan paling dapat diandalkan dari persuasi, bentuk yang paling efektif persuasi, bagaimanapun, menggunakan ketiga banding.
Ethos pada halaman web merupakan identitas dari web tersebut yang disajikan oleh penulis atau pembuat web sebagai situs buatannya. dapat berupa warna, lambang dan ciri khas lainnya.

Sumber :
https://dhozkiii24.wordpress.com/2013/08/26/penjelasan-web-content-media-standar-generative-model-model-retorika-di-web/

Arsitektur Komputer dan Aplikasi Utama

Arsitektur Website adalah suatu pendekatan terhadap desain dan perencanaan situs yang, seperti arsitektur itu sendiri, melibatkan teknis, kriteria estetis dan fungsional. Seperti dalam arsitektur tradisional, fokusnya adalah benar pada pengguna dan kebutuhan pengguna. Hal ini memerlukan perhatian khusus pada konten web, rencana bisnis, kegunaan, desain interaksi, informasi dan desain arsitektur web. Untuk optimasi mesin pencari yang efektif perlu memiliki apresiasi tentang bagaimana sebuah situs Web terkait dengan World Wide Web.

Sejak web perencanaan isi, desain dan manajemen datang dalam lingkup metode desain, Vitruvian tradisional tujuan komoditas, keteguhan dan kesenangan dapat memandu arsitektur situs, seperti yang mereka lakukan arsitektur fisik dan disiplin desain lainnya. Website arsitektur akan datang dalam ruang lingkup estetika dan teori kritis dan kecenderungan ini dapat mempercepat dengan munculnya web semantik dan web 2.0. Kedua ide menekankan aspek struktur informasi. Strukturalisme adalah sebuah pendekatan untuk pengetahuan yang telah dipengaruhi sejumlah disiplin akademis termasuk estetika, teori kritis dan postmodernisme. Web 2.0, karena melibatkan user-generated content, mengarahkan perhatian arsitek website untuk aspek-aspek struktur informasi.

HTTP
Hypertext Transfer Protocol (HTTP) adalah sebuah protokol jaringan lapisan aplikasi yang digunakan untuk sistem informasi terdistribusi, kolaboratif, dan menggunakan hipermedia. Penggunaannya banyak pada pengambilan sumber daya yang saling terhubung dengan tautan, yang disebut dengan dokumen hiperteks, yang kemudian membentuk World Wide Web pada tahun 1990 oleh fisikawan Inggris, Tim Berners-Lee. Hingga kini, ada dua versi mayor dari protokol HTTP, yakni HTTP/1.0 yang menggunakan koneksi terpisah untuk setiap dokumen, dan HTTP/1.1 yang dapat menggunakan koneksi yang sama untuk melakukan transaksi. Dengan demikian, HTTP/1.1 bisa lebih cepat karena memang tidak perlu membuang waktu untuk pembuatan koneksi berulang-ulang.

Internet
Internet (kependekan dari interconnection-networking) adalah seluruh jaringan komputer yang saling terhubung menggunakan standar sistem global Transmission Control Protocol/Internet Protocol Suite (TCP/IP) sebagai protokol pertukaran paket (packet switching communication protocol) untuk melayani miliaran pengguna di seluruh dunia.Rangkaian internet yang terbesar dinamakan Internet. Cara menghubungkan rangkaian dengan kaidah ini dinamakan internetworking ("antarjaringan").

Server Web
Server web atau peladen web dapat merujuk baik pada perangkat keras ataupun perangkat lunak yang menyediakan layanan akses kepada pengguna melalui protokol komunikasi HTTP atau HTTPS atas berkas-berkas yang terdapat pada suatu situs web dalam layanan ke pengguna dengan menggunakan aplikasi tertentu seperti peramban web.
Penggunaan paling umum server web adalah untuk menempatkan situs web, namun pada prakteknya penggunaannya diperluas sebagai tempat peyimpanan data ataupun untuk menjalankan sejumlah aplikasi kelas bisnis.
Fungsi utama sebuah server web adalah untuk mentransfer berkas atas permintaan pengguna melalui protokol komunikasi yang telah ditentukan. Disebabkan sebuah halaman web dapat terdiri atas berkas teks, gambar, video, dan lainnya pemanfaatan server web berfungsi pula untuk mentransfer seluruh aspek pemberkasan dalam sebuah halaman web yang terkait; termasuk di dalamnya teks, gambar, video, atau lainnya.
Pengguna, biasanya melalui aplikasi pengguna seperti peramban web, meminta layanan atas berkas ataupun halaman web yang terdapat pada sebuah server web, kemudian server sebagai manajer layanan tersebut akan merespon balik dengan mengirimkan halaman dan berkas-berkas pendukung yang dibutuhkan, atau menolak permintaan tersebut jika halaman yang diminta tidak tersedia.
saat ini umumnya server web telah dilengkapi pula dengan mesin penerjemah bahasa skrip yang memungkinkan server web menyediakan layanan situs web dinamis dengan memanfaatkan pustaka tambahan seperti PHP, ASP.
Pemanfaatan server web saat ini tidak terbatas hanya untuk publikasi situs web dalam World Wide Web, pada prakteknya server web banyak pula digunakan dalam perangkat-perangkat keras lain seperti printer, router, kamera web yang menyediakan akses layanan http dalam jaringan lokal yang ditujukan untuk menyediakan perangkat manajemen serta mempermudah peninjauan atas perangkat keras tersebut.

User Generated Content
User Generated Content (UCG) adalah berbagai jenis content yang tersedia secara publik dan diproduksi oleh para end-user (Wikipedia.org) . Kunci utama dalam User Generated Content adalah sebuah participatory atau partisipasi. Para founder situs-situs di atas pasti berfikir, bagaimana agar jutaan pengguna internet tertarik untuk masuk dan berpartisipasi. Manfaat aplikasi web yang menarik, kemudahan penggunaan, interface yang nyaman, layanan terjamin, knowledge sharing mungkin bisa membuat pengguna tertarik untuk mencoba dan berpartisipasi di dalamnya.
Sebagian kalangan mengatakan User Generated Content ini sebagai Perbudakan 2.0. Mereka (para Founder) tidak perlu susah-susah untuk mengupdate konten situsnya sendiri, cukup membuat aplikasi web kemudian mempekerjakan jutaan pengguna internet untuk mengisi konten utamanya. Mereka (jutaan pengguna intenet) tidak dibayar dari menulis konten tapi founder mendapatkan banyak benefit dengan situs yang mereka tawarkan. Inilah Perbudakan 2.0.

Web Browsers
Penjelajah web (Inggris: web browser), adalah perangkat lunak yang berfungsi untuk menerima dan menyajikan sumber informasi di internet. Sebuah sumber informasi diidentifikasi dengan Pengidentifikasi Sumber Seragam (Bahasa Inggris: Uniform Resource Identifier (URI)) yang dapat berupa halaman web, gambar, video, atau jenis konten lainnya.
Meskipun penjelajah web terutama ditujukan untuk mengakses internet, sebuah penjelajah juga dapat digunakan untuk mengakses informasi yang disediakan oleh server web dalam jaringan pribadi atau berkas pada sistem berkas. Beberapa penjelajah web yang populer adalah Google Chrome, Firefox, Internet Explorer, Opera, dan Safari.

HTML
HyperText Markup Language (HTML) adalah sebuah bahasa markah yang digunakan untuk membuat sebuah halaman web, menampilkan berbagai informasi di dalam sebuah penjelajah web Internet dan pemformatan hiperteks sederhana yang ditulis dalam berkas format ASCII agar dapat menghasilkan tampilan wujud yang terintegerasi. Dengan kata lain, berkas yang dibuat dalam perangkat lunak pengolah kata dan disimpan dalam format ASCII normal sehingga menjadi halaman web dengan perintah-perintah HTML. Bermula dari sebuah bahasa yang sebelumnya banyak digunakan di dunia penerbitan dan percetakan yang disebut dengan SGML (Standard Generalized Markup Language), HTML adalah sebuah standar yang digunakan secara luas untuk menampilkan halaman web. HTML saat ini merupakan standar Internet yang didefinisikan dan dikendalikan penggunaannya oleh World Wide Web Consortium (W3C). HTML dibuat oleh kolaborasi Caillau TIM dengan Berners-lee Robert ketika mereka bekerja di CERN pada tahun 1989 (CERN adalah lembaga penelitian fisika energi tinggi di Jenewa).

Wiki
Wiki adalah sebuah situs web (atau koleksi dokumen hiperteks lainnya) yang memperbolehkan penggunanya menambah atau mengubah isi situs tersebut. Istilah ini juga dapat merujuk kepada software kolaboratif yang digunakan untuk menciptakan situs web semacam itu.
Ward Cunningham, pengembang perangkat lunak wiki yang pertama, WikiWikiWeb, mulanya mendeskripsikan wiki sebagai "basis data terhubung paling sederhana yang memiliki peluang untuk bekerja.
" Bus "Wiki Wiki" di Bandar Udara Internasional Honolulu.
Wiki (dengan huruf besar 'W') dan WikiWikiWeb kadang digunakan untuk merujuk kepada Portland Pattern Repository, wiki yang paling pertama diciptakan. Pendukung penggunaan ini mengusulkan penggunaan huruf kecil 'w' untuk membedakan istilah generik yang sedang dibicarakan di sini. Wiki wiki berasal dari istilah bahasa Hawaii untuk "cepat" atau "super-cepat"
Kadang istilah wikiwiki atau WikiWiki digunakan daripada wiki. Istilah-istilah ini dapat digunakan secara berganti-ganti meskipun perbedaan pandangan mengenai kapitalisasi juga dapat diterapkan dalam cara yang mirip.
Wikipedia merupakan aplikasi yang berbasiskan wiki dan merupakan situs wiki paling populer saat ini.

Web Security
Suatu tata cara mengamankan aplikasi web yg dikelola, biasanya yg bertanggung jawab melakukannya adalah pengelola aplikasi web tsb. Mengenai masalah yang berkaitan dengan keamanan di dalam era digital tidak lepas dari 3 prinsip utama yaitu Confidentiality, Integrity, dan Availability atau lebih dikenal dengan nama CIA. Sama halnya ketika bergelut dengan keamanan (security) sebuah website, princip CIA sudah selayaknya dijadikan pedoman yang harus dipahami apabila ingin website kita lebih aman dan sulit untuk diserang.

1. CONFIDENTIALITY
Confidentiality memiliki makna bahwa data-data ataupun informasi-informasi yang berada di dalam sebuah website hanya dapat di baca atau di akses oleh orang-orang yang memang memiliki kewenangan untuk mengaksesnya. Dalam era konsep Web 2.0 yang sedang berkembang beberapa tahun belakangan ini, sangat memungkinkan sebuah website untuk dapat memiliki lebih dari satu administrator. Contohnya adalah WordPress engine.

2. INTEGRITY
Integrity memiliki pengertian data-data yang berada didalam server atau website hanya dapat diubah ataupun di delete oleh orang yang memiliki kewenangan untuk melakukan hal itu. Sebagai contoh proses transfer dari server ke client atau sebaliknya (dapat berupa upload maupun download), ternyata mengubah file yang sedang di transfer tersebut, hal ini mengindikasikan bahwa sebuah aplikasi website yang sedang digunakan tidak aman (insecure). Sama halnya jika ada serangan sebuah virus yang dapat mengubah sebuah file, entah itu mengubah nama ataupun isinya.

3. AVAILABILITY
Jika confidentiality bermakna hanya user yang memiliki kewenangan yang dapat melihat data tertentu yang tersimpan didalam sebuah server atau website, availability memiliki makna bahwa website harus dapat diakses jika user ingin meggunakannya. Memang terkesan membingungkan dan tidak berbeda dengan prinsip pertama, namun kedua prinsip ini sangat jauh berbeda dikarenakan dilihat dari dua sudut pandang yang memang berbeda. Availability hanya menekankan kepada dapat diaksesnya sebuah website. Mengenai siapa yang dapat mengaksesnya itu telah dicover oleh prinsip confidentiality. Jika sebuah website dapat diakses tanpa adanya error, itu berarti website tersebut telah memenuhi prinsip availability ini. Hal ini memiliki makna bahwa sebuah website haruslah dapat diakses apabila memang dibutuhkan, dengan kata lain versi yang lebih mudahnya adalah, website harus available 24 jam 7 minggu (24/7)


Sumber :
http://hilmandroid.blogspot.co.id/2014/04/arsitektur-web-dan-aplikasi-utama.html