Pages

Friday, 3 May 2013

Web Archiving




Apa itu Web Archiving ?


Web Achiving atau pengarsipan adalah proses pengumpulan bagian dari World Wide Web (WWW) untuk memastikan informasi yang diawetkan dalam arsip bagi para peneliti di masa depan, sejarawan, dan masyarakat umum. Web terbesar pengarsipan organisasi berdasarkan pendekatan merangkak massal adalah Internet Archive yang berusaha untuk memelihara arsip dari seluruh Web Perpustakaan Nasional , Arsip Nasional dan berbagai konsorsium organisasi juga terlibat dalam pengarsipan konten Web budaya penting. Web komersial pengarsipan perangkat lunak tersedia untuk organisasi yang perlu arsip konten web.

Pengumpulan Web

Arsiparis web umumnya biasanya mengumpulkan arsip berbagai jenis konten web termasuk HTML halaman web, style sheet , JavaScript , gambar , dan video yang . Mereka juga arsip metadata tentang sumber daya dikumpulkan seperti waktu akses, tipe MIME , dan panjang konten. Metadata ini berguna dalam membangun keaslian dan asal dari koleksi arsip. Jangan lupa tak begitu saja arsiparis mengumpulkan arsip yang begitu banyak adanya, tentu saja ada metode-metodenya.

*maksudnya arsiparis diatas adalah orang yang mengelola, memelihara, dan memberikan informasi suatu dokumen/file. Oke silahkan simak metode dibawah ini :

Metode Pengumpulan web


1. Jauh panen

Yang paling umum teknik web pengarsipan bekerja sama dengan web crawler untuk mengotomatisasi proses pengumpulan halaman web . Web crawler biasanya mengakses halaman web dengan cara yang sama bahwa pengguna dengan browser melihat Web, dan karena itu menyediakan metode yang relatif sederhana konten web panen jauh. Contoh web crawler digunakan untuk web pengarsipan meliputi:

• Heritrix
• HTTrack
• Wget

2. On-Demand

Ada banyak layanan yang dapat digunakan untuk sumber arsip web "on-demand", namun menggunakan teknik web merangkak. Layanannya seperti berikut :

Aleph Arsip, layanan pengarsipan web untuk kepatuhan terhadap peraturan dan eDiscovery bertujuan untuk perusahaan industri hukum dan pemerintah.

Archive.is, sebuah layanan gratis yang menyimpan halaman dan semua gambar nya. Hal ini dapat menyimpan halaman Web 2.0.

Arsip-It, sebuah layanan berlangganan yang memungkinkan lembaga untuk membangun, mengelola dan mencari arsip web mereka sendiri.

Archivethe.net, shared web-platform pengarsipan dioperasikan oleh Internet Research Memory, spin-off dari memori internet dasar (sebelumnya Yayasan Arsip Eropa). IM Situs Web.

WatchDog oleh SiteQuest Teknologi, sebuah layanan berlangganan yang memungkinkan pengguna untuk menelusuri situs,  seperti yang muncul di masa lalu. Hal ini juga memonitor situs jika disitus tersebut terdapat perubahan.

Snapshot freezePAGE, sebuah layanan gratis / berlangganan. Untuk melestarikan snapshot.

NextPoint, menawarkan berbasis cloud otomatis, untuk kebutuhan terkait pemasaran, kepatuhan dan litigasi termasuk penemuan elektronik

Situs-Archive.com, layanan berlangganan. Menangkap layar-tembakan halaman, transaksi dan perjalanan pengguna menggunakan "browser yang sebenarnya". Layar-tembakan dapat dilihat secara online atau download dalam arsip bulanan. Menggunakan Pengujian Cloud teknologi.

• Dll, karna penyedia layanan situs archive ini sangatlah banyak.

Database Pengarsipan

Database pengarsipan mengacu pada metode untuk pengarsipan konten yang mendasari situs database-driven. Hal ini biasanya memerlukan ekstraksi dari basis data konten ke standar skema , sering menggunakan XML . Setelah disimpan dalam format standar, konten diarsipkan beberapa database kemudian dapat dibuat tersedia menggunakan sistem akses tunggal. Pendekatan ini dicontohkan oleh DeepArc dan Xinq alat yang dikembangkan oleh Bibliotheque nationale de France dan National Library of Australia.

Transaksional Pengarsipan

Transaksional pengarsipan merupakan pendekatan-event, yang mengumpulkan transaksi aktual yang terjadi antara server web dan browser web . Hal ini terutama digunakan sebagai sarana melestarikan bukti dari isi yang sebenarnya dilihat pada tertentu situs web , pada tanggal tertentu.

Sebuah sistem pengarsipan transaksional biasanya beroperasi dengan mencegat setiap HTTP request ke, dan respon dari, web server, penyaringan setiap respon untuk menghilangkan duplikat konten, dan secara permanen menyimpan tanggapan sebagai bitstreams. Sebuah sistem pengarsipan transaksional membutuhkan instalasi perangkat lunak pada server web, dan karenanya tidak dapat digunakan untuk mengumpulkan konten dari situs remote.

Crawler


Web arsip yang mengandalkan web merangkak sebagai sarana utama mereka mengumpulkan Web dipengaruhi oleh kesulitan merangkak web :

• Para robot protokol pengecualian dapat meminta crawler tidak dapat mengakses bagian dari sebuah situs web.

• Sebagian besar dari sebuah situs web mungkin tersembunyi di dalam Web . Misalnya, halaman hasil balik formulir web terletak pada dalam Web karena kebanyakan crawler tidak bisa mengikuti link ke halaman hasil.

• Perangkap Crawler, dapat menyebabkan crawler untuk men-download jumlah tak terbatas halaman, sehingga crawler biasanya dikonfigurasi untuk membatasi jumlah halaman dinamis sehingga tidak pesat kemajuannya.

Namun, penting untuk dicatat bahwa format web arsip asli, yaitu, dibrowse arsip web sepenuhnya, dengan link kerja, media, dll, hanya benar-benar mungkin menggunakan teknologi crawler.
Keterbatasan Umum

Tidak hanya harus arsiparis web menghadapi tantangan teknis web pengarsipan, mereka juga harus berhadapan dengan hukum kekayaan intelektual. Peter Lyman menyatakan bahwa "Meskipun Web Yang Populer Dianggap Sebagai Domain Publik Sumber Daya, Itu Hak Cipta , Dengan Demikian, Arsiparis Tidak Memiliki Hak Legal Untuk Menyalin Web ". Namun perpustakaan nasional di banyak negara memiliki hak legal untuk menyalin bagian-bagian dari web di bawah perpanjangan deposito hukum .

Beberapa arsip web nirlaba swasta yang dibuat dapat diakses publik seperti WebCite , yang Internet Archive atau memori internet memungkinkan pemilik konten untuk menyembunyikan atau menghapus konten diarsipkan bahwa mereka tidak ingin publik untuk memiliki akses ke. Arsip web lainnya hanya dapat diakses dari lokasi tertentu atau memiliki penggunaan diatur. WebCite mengutip gugatan baru terhadap caching Google.

Aspek Kurasi Web (menambahkan nilai dan memilih hanya konten yang paling relevan untuk pengguna spesifik)

Web yang memiliki kurasi, seperti kurasi digital, harus memiliki seperti :

• Sertifikasi kepercayaan dan integritas isi koleksi
• Mengumpulkan aset Web diverifikasi
• Menyediakan pencarian aset Web dan pengambilan
• Kontinuitas semantik dan ontologis dan komparatif dari isi koleksi

Dengan demikian, di samping membahas metode pengumpulan Web, mereka memberikan akses, sertifikasi, dan pengorganisasian harus disertakan. Ada satu set alat populer yang membahas langkah-langkah kurasi :

Sebuah suite alat untuk Web Kurasi oleh International Internet Preservation Consortium :

Heritrix - situs resmi - mengumpulkan aset Web
NutchWAX - pencarian Web arsip koleksi

Wayback (Open source Wayback Machine) pencarian koleksi arsip Web menggunakan NutchWax
Web Kurator Alat - Seleksi dan Pengelolaan Web Collection
• dll.


Kelompok Softskill :

52411111 Dimas Fachrian
51411941 Devie Eviani
53411645 Intan Octaviani
53411659 Iqbal Maulana
54411502 Mirza Fahmi A.

Wednesday, 1 May 2013

Analisis Web


Analisis Web Mengukur Website Menggunakan 3 Tools


Pembahasan kali ini yaitu tentang Analisis Web. Seperti namanya, analisis web itu berarti menganalisa suatu web. Maksudnya menganalisa yaitu mengetahui ataupun mengukur suatu web berdasarkan traffic atau algoritma. Disini saya akan membahas 3 Tools untuk Mengukur Sebuah Website.

1). Page Rank ( http://www.prchecker.info/check_page_rank.php )


PageRank adalah sebuah algoritma yang telah dipatenkan yang berfungsi menentukan situs web mana yang lebih penting/populer. PageRank merupakan salah satu fitur utama mesin pencari Google dan diciptakan oleh pendirinya, Larry Page dan Sergey Brin yang merupakan mahasiswa Ph.D. Universitas Stanford.

Kelebihan Page Rank :


•  Page rank dapat lebih stabil. Walau dalam beberapa kasus ada juga blog doFollow yang pageranknya bagus dan stabil.

•  Semakin bagus posisi di SERP, ini berhubungan dengan PageRank, semakin baik pagerank sebuah blog semakin baik pula posisinya di SERP

•  Aman dari gangguan spammers yang mencari backlink asal-asalan jadi Untuk komentar yang masuk pasti lebih nyambung alias tidak keluar dari topik yang sedang dibahas.

Kekurangan PageRank :


1. Bisa dibilang Blog akan sepi pengunjung karna Pengunjung yang datang hanya mencari informasi dari blog kita

2. Jarang atau tidak ada yang memberi komentar, kecuali postingan yang berkualitas/bermanfaat. Walau terkadang postingan yang bermanfaat pun tidak menjamin banyak dikomentari. Tapi dalam beberapa kasus, tidak sedikit blog NoFollow yang postingannya ramai komentar.

Cara kerja :

PageRank, memiliki konsep dasar yang sama dengan link popularity, tetapi tidak hanya memperhitungkan “jumlah” inbound dan outbound link. Pendekatan yang digunakan adalah sebuah halaman akan diangap penting jika halaman lain memiliki link ke halaman tersebut. Sebuah halaman juga akan menjadi semakin penting jika halaman lain yang memiliki rangking (pagerank) tinggi mengacu ke halaman tersebut.

Dengan pendekatan yang digunakan PageRank, proses terjadi secara rekursif dimana sebuah rangking akan ditentukan oleh rangking dari halaman web yang rangkingnya ditentukan oleh rangking halaman web lain yang memiliki link ke halaman tersebut. Proses ini berarti suatu proses yang berulang (rekursif). Di dunia maya, ada jutaan bahkan milyaran halaman web. Oleh karena itu sebuah rangking halaman web ditentukan dari struktur link dari keseluruhan halaman web yang ada di dunia maya. Sebuah proses yang sangat besar dan komplek.

Biasanya saya memakai Google Pagerank untuk mengetahui blog saya sudah pada rank berapa di google.

2). Alexa ( www.alexa.com )


Tool ini akan menampilkan score website kalian di Alexa. Jika kalian memilih tampilan grafik, kalian bisa melihat grafik pengunjung Anda setiap bulannya. Alexa merupakan website penyedia traffic monitoring untuk Blog atau website kita. Alexa akan selalu memonitoring dan memperbaharui (meng-update) aktivitas dan perkembangan website kita. Semakin tinggi Rank yang kita dapatkan di alexa maka semakin tinggi pula indek pencarian blog kita di search engine. Tapi untuk mendapatkan Rank di alexa itu tidak mudah seperti yang di bayangkan karna ada tips dan trik yang harus di pelajari.

Sebagai contoh, blog saya yang telah dipasang alexa maka akan menampilan seperti ini : 


Kelebihan Alexa :


1. Alexa rank menghitung lebih syariah dan Google fokus kepada backlink sehingga para vendor dan webmaster lebih menyukai Alexa.

2. Alexa mempunyai ranking yang tidak terlalu lama updatenya dibandingkan Google yang update ± 3 bulan sekali.

3. Keuntungan menggunakan Alexa adalah Alexa memberikan data real yand didapat dari jumlah kunjungan yang bersifat unik dan sangat baik untuk memonitor prestasi website dalam jumlah kunjungan.

Kekurangan Alexa :


1. Alexa rank sebagai ukuran populeritas situs itu bohong , terbukti alexarank tidak bisa baca populeritas situs yang tidak di pasang baner alexa .

2. Alexa rank tidak up to date perkembangan situs , mulai dari konten, baik  artikel, keyword dan diskripsi, silahkan cek situs anda masing masing dan perhatikan keyword jaman dulu masih muncul .

3. Laporan backlink alexa rank tidak akurat, silahkan buktikan buat situs baru dengan satu backlink atau beberapa backlink, cek di sana pasti tidak sama.


3). Seomoz ( www.seomoz.org )


Website ini akan mengukur Page Strength website Anda dengan menggunakan berbagai macam parameter, seperti Page Rank, Umur Domain, Score di Alexa, dan lain lain. Untuk memasang tool ini di website Anda lakukan test Page Strength.Setelah muncul hasilnya Anda akan diberi kode untuk di paste di website Anda.

Kelebihan Seomoz :


1. Aman dari gangguan spammers yang mencari backlink asal-asalan jadi Untuk komentar yang masuk pasti lebih nyambung alias tidak keluar dari topik yang sedang dibahas.

2. Saat situs kita sepi maka situs kita masih dihargai oleh Google selama backlinknya masih ada.

3. Beberapa orang mengatakan bahwa Alexa hanya menghitung kunjungan website yang menggunakan Alexa toolbar dsb, namun beberapa orang meyakini bahwa tidak perlu menggunakan toolbar, Alexa akan tetap menghitung rank website, namun dengan menggunakan toolbar maka perhitungannya lebih maksimal dan lebih cepat.

Kekurangan Seomoz :


1. Bisa dibilang Blog akan sepi pengunjung karna Pengunjung yang datang hanya mencari informasi dari blog kita

2. Laporan backlink alexa rank tidak akurat, silahkan buktikan buat situs baru dengan satu backlink atau beberapa backlink, cek di sana heheheh pasti tidak sama.

3. Tidak bisa baca populeritas situs yang tidak di pasang baner Seomoz

Pendapat pribadi mengenai tools yang memungkinkan untuk digunakan adalah page rank karena tingkat kestabilan nya yang dapat di jadikan sebuah acuan.

Kelompok Softskill :

52411111 Dimas Fachrian
51411941 Devie Eviani
53411645 Intan Octaviani
53411659 Iqbal Maulana
54411502 Mirza Fahmi A.


Web Crawler


Pengertian Web Crawler


Dalam rangka tugas softskil, kami ditugaskan untuk mencari beberapa ulasan seperti  Analisis Web, Search Engine, Web Archiving, dan Web Crawlers . Untuk Pembahasan yang pertama ini salah satunya yang akan kita bahas adalah Web Crawler. Mungkin kalian bertanya Tanya sebenernya Web Crawler itu apa sih ? trus fungsinya untuk apa ?    

Web Crawler bisa juga disebut sebagai bot pencarian atau spider ialah program yang berfungsi menelusuri web yang ada di dunia maya dan berkunjung ke web-web tersebut atas nama search engine, hasil dari spider ini untuk menemukan link baru dan halaman baru atau website baru. Biasanya pekerjaan bot adalah mengindex dan menyimpan data di database para pemilik botnya.

Tentu saja Web Crawler ini mempunyai fungsi pula, nah disini Ada dua fungsi utama Web Crawler, yaitu  :

Mengidentifikasikan Hyperlink.
Hyperlink yang ditemui pada konten akan ditambahkan pada daftar visit, disebut juga dengan istilah frontier.

Melakukan proses kunjungan/visit secara rekursif.
Dari setiap Hyperlink, web crawler akan menjelajahinya dan melakukan proses berulang, dengan ketentuan yang disesuaikan dengan keperluan aplikasi. Untuk gambarnya bisa dilihat dibawah :





Arsitektur Web Crawler



Cara Kerja Web Crawler
Crawler diawali dengan adanya daftar URL yang akan dikunjungi (seeds). Setelah crawler mengunjungi URL tersebut, kemudian mengidentifikasi semua hyperlink dari halaman itu dan menambahkan kembali ke dalam seeds (Crawl Frontier). Setelah web crawler mengunjungi halaman-halaman web yang ditentukan di dalam seeds, maka web crawler membawa data-data yang dicari oleh user kemudian menyimpannya ke sebuah storage.

Web crawler dapat dibuat untuk mencari informasi yang berhubungan dengan topic tertentu saja. Web crawler yang hanya mengumpulkan topic tertentu saja disebut topical web crawler. Web crawler dimulai dengan sekumpulan URL, kemudian di download setiap halamannya, mendapatkan link dari setiap page yang dikunjungi kemudian mengulangi kembali proses crawling pada setiap link halaman tersebut. Untuk gambar cara kerjanya lihat dibawah :



Beberapa Contoh dari Web Crawler :


1. Teleport Pro

Salah satu software web crawler untuk keperluan offline browsing, software ini cukup popular, terutama pada saat koneksi internet tidak semudah dan secepat sekarang. Software ini berbayar dan beralamatkan di http://www.tenmax.com/

2. HTTrack

Ditulis dengan menggunakan bahasa Pemrograman C, merupakan software yang dapat mendownload konten website menjadi sebuah mirror pada harddisk, agar dapat dilihat secara offline. Yang menarik dari software ini free dan dapat didownload pada website resminya di http://www.httrack.com .

3. Googlebot

Web crawler untuk membangun index pencarian yang digunakan oleh search engine google. Bila website Anda ditemukan oleh orang lain melalui Google, bias jadi itu dari Googlebot.

4. Yahoo! Slurp

Ini merupakan search engine Yahoo, teknologinya dikembangkan oleh Inktomi Corporation yang diakusisi oleh Yahoo!.

5. YaCy

Berbeda dengan yang lain , YaCy dibangun atas prinsip P2P (peer-to-peer), di develop dengan java, dan didistribusikan pada beberapa ratus mesin komputer (YaCy peers). Tiap peer di share dengan prinsip P2P untuk berbagi index, sehingga tidak memerlukan server central. Contoh search engine yang menggunakan YaCy ialah Sciencenet (http://sciencenet.fzk.de ), untuk pencarian dokumen di bidang sains.


Kelompok Softskill :

52411111 Dimas Fachrian
51411941 Devie Eviani
53411645 Intan Octaviani
53411659 Iqbal Maulana
54411502 Mirza Fahmi A.

Search Engine


Search Engine


Macam-Macam Search Engine
Mesin pencari Internet adalah satu-satunya yang membebaskan kita dari kebingungan dan kekacauan menjelajah Internet. Saat ini terlalu banyak penyedia informasi di Internet, dan memeriksanya satu persatu tanpa mesin pencari adalah pekerjaan mustahil.

Lalu apa saja keunggulan masing-masing mesin pencari tersebut? Berikut uraian singkat mengenai perbandingkan mesin pencari yang cukup populer, yaitu Yahoo!, MSN, dan Google.

Yahoo!

(http://www.yahoo.com)
Salah satu portal terbesar di Internet, selain MSN., dan juga salah satu mesin pencaru tertua. Halaman utamanya sendiri tidak terlalu ramah untuk pencarian, tetapi Yahoo! menyediakan search.yahoo.com untuk itu. Yahoo! menggunakan jasa Google untuk mencari informasi di web, ditambah dengan informasi dari databasenya sendiri. Kelebihan Yahoo! adalah direktorinya. Yahoo! juga menyediakan pencarian yellow pages dan peta, yang masih terbatas pada Amerika Serikat. Yahoo juga menyediakan pencarian gambar.

Fitur yahoo :
1. Tampilan awal bagus
2. Update berita-berita dunia dihalaman awal
3. Menyediakan list berbagai macam fitur lainnya (messenger, game, travel, news, dll)
4. Kecepatan mencari yang lebih cepat dari mesin pencari lainnya

MSN

http://search.msn.com
Mesin pencari dari Microsoft Network ini menawarkan pencarian baik dengan kata kunci maupun dari direktori. Pemakai Internet Explorer kemungkinan besar sudah pernah menggunakan mesin pencari ini. Situs Search engine watch mencatat MSN sebagai mesin pencari ketiga populer setelah Google dan Yahoo! Tak ada pencarian image, atau news. Menyediakan pencarian peta, yellow pages, white pages, pencarian pekerjaan, rumah.

Fitur msn :
1. Tampilan awal ramai
2. Update news terbaru di halaman awal
3. Menggunakan mesin pencari bing

Google

http://www.google.com
Selain pencarian web, Google juga menyediakan jasa pencarian gambar, pencarian ?berita serta pencarian pada arsip USENET (newsgroup), serta direktori, seperti Yahoo! Kelemahannya terletak pada tidak tersedianya pencarian file, video, dan audio. Keunggulan Google terutama adalah pada pencarian teks, terutama dari algoritma PageRank, database-nya yang besar serta banyaknya jenis file yang diindeksnya.

Fitur pada Google :
1. Perhitungan matematika sederhana.
2. Tampilan awal sangat simple
3. Konversi mata uang.
4. Melihat waktu di berbagai kota di seluruh dunia.
5. Konversi unit.
6. Cek ejaan.
7. Google translate

NLP

Natural Language Processing (NLP) adalah salah satu bidang ilmu komputer, kecerdasan buatan, dan bahasa (linguistik) yang berkaitan dengan interaksi antara komputer dan bahasa alami manusia, seperti bahasa Indonesia atau bahasa Inggris. Tujuan utama dari studi NLP adalah membuat mesin yang mampu mengerti dan memahami makna bahasa manusia lalu memberikan respon yang sesuai. Yahoo, google, dan msn juga sudah menggunakan Natural Language Processing.

Kelompok Softskill : 

52411111 Dimas Fachrian
51411941 Devie Eviani
53411645 Intan Octaviani
53411659 Iqbal Maulana
54411502 Mirza Fahmi A.



Monday, 1 April 2013

Arsitektur Web & Aplikasi Umum


Arsitektur Web & Aplikasi Umum


• HTML

HTML (Hyper Text Markup Language) adalah sebuah bahasa markup yang digunakan untuk membuat sebuah halaman web dan menampilkan berbagai informasi di dalam sebuah browser Internet. Bermula dari sebuah bahasa yang sebelumnya banyak digunakan di dunia penerbitan dan percetakan yang disebut dengan SGML (Standard Generalized Markup Language), HTML adalah sebuah standar yang digunakan secara luas untuk menampilkan halaman web. HTML saat ini merupakan standar Internet yang didefinisikan dan dikendalikan penggunaannya oleh World Wide Web Consortium (W3C).

HTML berupa kode-kode tag yang menginstruksikan browser untuk menghasilkan tampilan sesuai dengan yang diinginkan. Sebuah file yang merupakan file HTML dapat dibuka dengan menggunakan browser web seperti Mozilla Firefox atau Microsoft Internet Explorer. HTML juga dapat dikenali oleh aplikasi pembuka email ataupun dari PDA dan program lain yang memiliki kemampuan browser.

HTML dokumen tersebut mirip dengan dokumen teks biasa, hanya dalam dokumen ini sebuah teks bisa memuat instruksi yang ditandai dengan kode atau lebih dikenal dengan TAG tertentu. Sebagai contoh jika ingin membuat teks ditampilkan menjadi tebal seperti: TAMPIL TEBAL, maka penulisannya dilakukan dengan cara: <b>TAMPIL TEBAL</b>. Tanda <b> digunakan untuk mengaktifkan instruksi cetak tebal, diikuti oleh teks yang ingin ditebalkan, dan diakhiri dengan tanda </b> untuk menonaktifkan cetak tebal tersebut.

Secara garis besar, terdapat 4 jenis elemen dari HTML:
structural. tanda yang menentukan level atau tingkatan dari sebuah teks (contoh, <h1>Golf</h1> akan memerintahkan browser untuk menampilkan “Golf” sebagai teks tebal besar yang menunjukkan sebagai Heading 1 presentational.

Tanda yang menentukan tampilan dari sebuah teks tidak peduli dengan level dari teks tersebut (contoh, <b>boldface</b> akan menampilkan bold. Tanda presentational saat ini sudah mulai digantikan oleh CSS dan tidak direkomendasikan untuk mengatur tampilan teks, hypertext.

Tanda yang menunjukkan pranala ke bagian dari dokumen tersebut atau pranala ke dokumen lain (contoh, <a href="http://www.ilmukita.com/">IlmuKita</a> akan menampilkan IlmuKita sebagai sebuah hyperlink ke URL tertentu), Elemen widget yang membuat objek-objek lain seperti tombol (<button>), list (<li>), dan garis horizontal (<hr>).

Selain markup presentational , markup yang lin tidak menentukan bagaimana tampilan dari sebuah teks. Namun untuk saat ini, penggunaan tag HTML untuk menentukan tampilan telah dianjurkan untuk mulai ditinggalkan dan sebagai gantinya digunakan Cascading Style Sheets.

• HTTP

HTTP Singkatan dari Hypertext Transfer Protocol, yang mana adalah suatu protokol yang digunakan oleh World Wide Web. HTTP mendefinisikan bagaimana suatu pesan bisa diformat dan dikirimkan dari server ke client.

HTTP juga mengatur aksi-aksi apa saja yang harus dilakukan oleh web server dan juga web browser sebagai respon atas perintah-perintah yang ada pada protokol HTTP ini. Sebagai contoh, ketika Anda mengetikkan suatu alamat atau URL pada internet browser Anda, maka sebenarnya web browser akan mengirimkan perintah HTTP ke web server.

Web server kemudian akan menerima perintah ini dan melakukan aktivitas sesuai dengan perintah yang diminta oleh web browser (misalnya akses ke database, file, e-mail dan lain sebagainya). Hasil aktivitas tadi akan dikirimkan kembali ke web browser untuk ditampilkan kepada pengguna.

• Web Server

Web server merupakan software yang memberikan layanan data yang berfungsi menerima permintaan HTTP atau HTTPS dari klien yang dikenal dengan browser web dan mengirimkan kembali hasilnya dalam bentuk halaman - halaman web yang umumnya berbentuk dokumen HTML.

Macam - macam Web Server diantanya:
Apache Web Server - The HTTP Web Server
a) Apache Tomcat
b) Microsoft windows Server 2003 Internet Information Services (IIS)
c) Lighttpd
d) Sun Java System Web Server
e) Xitami Web Server
f) Zeus Web Server

Namun web yang terkenal dan yang sering digunakan adalah Apache dan Microsoft Internet Information Service (IIS).

• Browser

Pengertian browser secara sederhana adalah sebuah perangkat lunak yang manfaatnya adalah untuk menampilkan berbagai dokumen yang tersedia pada web server, proses menampilkan berbagai dokumen ini melewati sebuah interaksi antara browser dengan web server. Untuk lebih jelasnya mengenai pengertian browser, mungkin akan terjawab dengan studi kasus secara langsung tentang browser yang sudah umum kita gunakan.

Berikut beberapa pengertian browser menurut beberapa ahli:
1. Ali Zaki mengartikan browser sebagai sebuah program yang digunakan untuk mengakses website dan dijalankan pada komputer.
2. Smitdev Community mengartikan browser sebagai klien yang merupakan lawan kata dari server dan bertugas untuk menampilkan halaman website.
3. Gustav Pahala Frans mengartikan browser sebagai aplikasi/program yang digunakan untuk mengoprasikan internet, sebagai media surfing, browsing, dan menjelajahi dunia maya.
4. Rachmad Hakim S mengartikan browser sebagai aplikasi untuk menjelajahi dan berselancar di internet.

Fungsi dari browser antara lain adalah untuk melakukan atau menampilkan halaman web atau interaksi dengan dokumen yang disediakan oleh server.

Setiap jenis browser memiliki perbedaan, kelebihan serta kekurangan masing masing. Ini disebabkan perbedaan produsen atau perusahaan yang menyediakan browser tersebut. Berikut ini adalah beberapa macam browser :

1. Chrome
Browser yang disediakan oleh mesin pencari raksasa bernama Google ini adalah salah satu dari sekian banyak browser. Secara umum, chrome ini memiliki kelebihan :
 Memiliki teknologi yang canggih, walaupun secara tampilan terkesan minimal dan sederhana.
 Thumbnails otomatis dari daftar situs yang paling sering di akses. Hal ini memudahkan Anda untuk mengunjungi balik situs favorit Anda.
 Kotak alamat URL bisa digunakan sebagai kotak pencarian secara otomatis.

2. Opera
Yang ini berbeda dengan chrome, untuk urusan keunggulan pun memiliki perbedaan, yaitu:
 Bisa melakukan penjelajahan data dengan lebih cepat
 Memiliki fitur yang komplit serta canggih
 Disematkan unsur keamanan penjelajahan
 Alur/map serta akses navigasi yang mudah digunakan.
Browser opera ini disediakan untuk perangkat komputer ataupun perangkat mobile. Untuk mobile, kita pasti sering mendengar kata “opera mini”.

3. Mozilla firefox
Browser yang satu ini bisa diunduh di  www.mozilla.org

• Blog

Blog merupakan singkatan dari web log adalah bentuk aplikasi web yang menyerupai tulisan-tulisan (yang dimuat sebagai posting) pada sebuah halaman web umum. Tulisan-tulisan ini seringkali dimuat dalam urut terbalik (isi terbaru dahulu baru kemudian diikuti isi yang lebih lama), meskipun tidak selamanya demikian. Situs web seperti ini biasanya dapat diakses oleh semua pengguna Internet sesuai dengan topik dan tujuan dari si pengguna blog tersebut.

• User Generated content

User generated content mengacu pada konten website, dan terkadang berupa sumber media lainnya yang dihasilkan oleh pengguna website. User generated content berbeda dengan konten yang dituliskan oleh seorang webmaster profesional pada website perusahan (misalnya), melainkan konten yang dituliskan oleh banyak pengguna website (biasanya adalah amatir) tertentu.

User generated content saat ini telah menjadi semakin populer. Salah satu website populer yang menggunakan prinsip user generated content adalah Wikipedia, di mana setiap orang (pengguna) dapat menuliskan artikel apa saja, dan pengguna lainnya dapat menambahkan atau memodifikasi setiap tulisan yang terdapat di sana. Dengan kata lain, pengguna lainnya dapat mengevaluasi konten yang telah ada, menyarankan ubahan, atau bahkan melakukan ubahan.

Serupa dengan Wikipedia, contoh situs yang menerapkan user generated content lainnya adalah layanan video sharing YouTube, yang telah memiliki jutaan pengguna saat ini. YouTube memungkinkan penggunanya untuk memposting video, dan kemudian dapat memberikan komentar atau konten lainnya pada video tersebut. Pengguna lainnya juga dapat memposting konten video lainnya.

Namun tidak selamanya user generated content dapat menguntungkan, terutama jika tidak diawasi. Sebagai contoh, jika user generated content digunakan pada situs yang dibuat untuk tujuan penelitian. Pengguna dapat secara sengaja atau tidak sengaja menuliskan konten yang tidak tepat, oleh karena itu kemampuan kontrol sangat diperlukan.

• Wiki

Wiki adalah sebuah situs web (atau koleksi dokumen hiperteks lainnya) yang memperbolehkan penggunanya menambah atau mengubah isi situs tersebut. Istilah ini juga dapat merujuk kepada software kolaboratif yang digunakan untuk menciptakan situs web semacam itu.

• Folksonomy

Folksonomy itu sendiri adalah Bentuk sederhana dari kosa kata bersama tidak muncul dalam sistem bookmark social (folksonomy). Penandaan kolaborasi menunjukkan suatu bentuk system yang komplek atau mengorganisir diri dinamika. Meskipun tidak ada kosa kata terkontrol pusat untuk membatasi tindakan pengguna individu, distribusi tag yang menggambarkan sumber daya yang berbeda telah terbukti untuk berkumpul dari waktu ke waktu untuk stabil kekuatan hukum distribusi.

Setelah stabil seperti distribusi bentuk, kolerasi antara tag yang berbeda dapat diperiksa untuk membangun grafik folksonomy sederhana, yang dapat secara efisien dipartisi untuk mendapatkan bentuk kosakata masyarakat atau bersama. Sementara kosakata tersebut menderita beberapa masalah informalitas dijelaskan di bawah ini , mereka dapat dilihat sebagai muncul dari tindakan desentralisasi banyak pengguna.

• Social Networking

Social Networking adalah Social Networking adalah sebutan lain terhadap website community. Social Networking adalah tempat untuk para netter berkolaborasi dengan netter lainnya. Social Networking adalah kegiatan menjalin hubungan dengan orang lain melalui social media sites / situs jejaring sosial yang ada di internet. Bisa diakses di mana saja, kapan saja dan oleh siapa saja. Dan tidak jarang juga, orang-orang yang “maenan” situs semacam ini dibilang melakukan kegiatan yang ngga mutu. Padahal status update pun memiliki potensi dengan dampak yang luas.

Sayangnya, terlalu sering sebuah buku dinilai hanya dari sampulnya. Membuka lembaran pertama keinginan untuk Social Networking lahir dari kebutuhan dasar manusia. Manusia pada dasarnya emang sudah terkonfigurasi secara biologis untuk bersosialisasi. Kita semua ingin untuk bertatap muka dengan orang lain (kita bahkan memiliki kelebihan bawaan dari lahir untuk melakukan facial recognition!), berbagi satu sama lain, merasa terkoneksi, dan aspek-aspek lainnya dari kehidupan sosial.

Dulunya sangat susah bagi kita untuk bias bertemu dengan banyak orang. Palingan pakai surat atau telegram. Kemudian datanglah telepon dan kemudian handphone yang mengakibatkan dompet kurus kering. Di satu sisi, memang tagihan pulsa yang ngga karuan adalah hal yang buruk, tetapi bila dilihat di sisi yang lain, ini adalah bukti nyata kebutuhan dasar sebagai manusia untuk berhubungan dengan orang lain.
• XML

XML (Extensible Markup Language) adalah bahasa markup untuk keperluan umum yang disarankan oleh W3C untuk membuat dokumen markup keperluan pertukaran data antar sistem yang beraneka ragam. XML merupakan kelanjutan dari HTML (HyperText Markup Language) yang merupakan bahasa standar untuk melacak Internet.

XML didesain untuk mempu menyimpan data secara ringkas dan mudah diatur. Kata kunci utama XML adalah data (jamak dari datum) yang jika diolah bisa memberikan informasi. XML menyediakan suatu cara terstandarisasi namun bisa dimodifikasi untuk menggambarkan isi dari dokumen.Dengan sendirinya, XML dapat digunakan untuk menggambarkan sembarang view database, tetapi dengan suatu cara yang standar.

Tipe XML, XML memiliki 3 tipe file :
 XML, merupakan standar format dari struktur berkas (file).
 XSL, merupakan standar untuk memodifikasi data yang diimpor atau diekspor.
 XSD, merupakan standar yang mendefinisikan struktur database dalam XML.
Keunggulan XML
 Pintar (Intelligence). XML dapat menangani berbagai tingkat (level) kompleksitas.
 Dapat beradaptasi. Dapat mengadaptasi untuk membuat bahasa sendiri. Seperti Microsoft membuat bahasa MSXML atauMacromedia mengembangkan MXML.
 Mudah pemeliharaannya.
 Sederhana. XML lebih sederhana.
 Mudah dipindah-pindahkan (Portability). XML mempunyai kemudahan perpindahan (portabilitas) yang lebih bagus.

Contoh data XML sederhana :

<?xml version="1.0" encoding="UTF-8"?>
  <Resep nama="roti" waktu_persiapan="5 menit" waktu_masak="3 jam">
   <judul>Roti tawar</judul>
   <bahan jumlah="3" satuan="cangkir">tepung</bahan>
   <bahan jumlah="0,25" satuan="ons">ragi</bahan>
   <bahan jumlah="1,5" satuan="cangkir">air hangat</bahan>
   <bahan jumlah="1" satuan="sendok teh">garam</bahan>
   <Cara_membuat>
    <langkah>Campur semua bahan dan uleni adonan sampai merata.</langkah>
    <langkah>Tutup dengan kain lembap dan biarkan selama satu jam di ruangan yang hangat.</langkah>
    <langkah>Ulangi lagi, letakkan di loyang dan panggang di oven.</langkah>
    <langkah>Keluarkan, hidangkan</langkah>
   </Cara_membuat>
</Resep>

• RDF
Resource Description Framework (RDF) adalah keluarga dari World Wide Web Consortium (W3C) spesifikasi.awalnya dirancang sebagai metadata model data . Ia telah datang untuk digunakan sebagai metode umum untuk deskripsi konseptual atau model informasi yang diimplementasikan dalam sumber daya web , menggunakan berbagai notasi sintaks dan format data serialisasi. RDF memiliki fitur yang memudahkan data yang menggabungkan bahkan jika skema yang mendasarinya berbeda, dan secara khusus mendukung evolusi skema dari waktu ke waktu tanpa memerlukan semua konsumen data yang akan diubah.

RDF memperluas struktur menghubungkan dari Web menggunakan URI untuk nama hubungan antara hal-hal serta kedua ujung link (ini biasanya disebut sebagai "tiga"). Menggunakan model sederhana, memungkinkan data terstruktur dan semi-terstruktur untuk dicampur, terbuka, dan berbagi di seluruh aplikasi yang berbeda.

Struktur menghubungkan membentuk grafik, diarahkan label, di mana ujung-ujungnya merupakan link bernama antara dua sumber daya, yang diwakili oleh node grafik. Ini tampilan grafik adalah model mental termudah mungkin untuk RDF dan sering digunakan dalam mudah untuk memahami penjelasan visual yang.

RDF Data Model  mirip dengan klasik pendekatan model konseptual seperti
entitas-hubungan atau diagram kelas , karena didasarkan pada ide membuat pernyataan tentang sumber daya (khususnya sumber daya web ) dalam bentuk subjek objek predikat ekspresi. Ekspresi ini dikenal sebagai tiga kali lipat dalam
RDF terminologi. Subjek menunjukkan sumber daya, dan predikat menunjukkan sifat atau aspek sumber daya dan mengekspresikan hubungan antara subjek dan objek.

Sebagai contoh, salah satu cara untuk mewakili gagasan "Langit memiliki warna biru" di RDF adalah sebagai triple: a subjek yang menunjukkan "langit", sebuah predikat menunjukkan kemunculan "memiliki warna", dan sebuah objek yang menunjukkan "biru". Oleh karena itu RDF swap objek untuk subjek yang akan digunakan dalam notasi klasik dari model entitas-atribut-nilai dalam desain berorientasi obyek , obyek (langit), atribut (warna) dan nilai (biru). RDF adalah model abstrak dengan beberapa format serialisasi (yaitu, format file), dan sehingga cara tertentu di mana sumber daya atau tiga dikodekan bervariasi dari format ke format.

Mekanisme untuk sumber daya gambarkan adalah seorang mayor komponen dalam W3C Semantic Web kegiatan: tahap evolusi dari World Wide Web di mana perangkat lunak otomatis dapat menyimpan, pertukaran, dan menggunakan mesin-dibaca informasi yang didistribusikan di seluruh Web, pada gilirannya memungkinkan pengguna untuk menangani dengan informasi dengan efisiensi yang lebih besar dan kepastian . sederhana RDF ini data model dan kemampuan untuk model yang berbeda, konsep-konsep abstrak juga menyebabkan meningkatnya penggunaan dalam manajemen pengetahuan aplikasi yang tidak terkait dengan kegiatan Semantic Web.

Sebuah kumpulan pernyataan RDF hakikatnya merupakan , berlabel diarahkan multi-grafik . Dengan demikian, sebuah RDF berbasismodel data yang lebih alami cocok
untuk beberapa jenis representasi pengetahuan dari model relasional dan lainnya ontologis model.Namun, dalam praktiknya, RDF Data sering bertahan dalam database relasional atau representasi pribumi juga disebut Triplestores , atau toko Quad jika
konteksnya (yaitu grafik bernama ) juga bertahan untuk setiap tiga RDF. Sebagai RDFS dan OWL menunjukkan, seseorang dapat membangun tambahan bahasa ontologi pada RDF.

• OWL

The Web Ontologi Language (OWL) adalah keluarga dari representasi pengetahuanbahasa untuk authoring ontologi . Bahasa-bahasa yang ditandai dengan semantik formaldan RDF / XML berbasis serializations untuk Web Semantic . OWL yang didukung olehWorld Wide Web Consortium (W3C) dan telah menarik kepentingan akademis, medis dan komersial.

Pada bulan Oktober 2007, sebuah kelompok W3C baru bekerja dimulai untuk memperpanjang OWL dengan beberapa fitur baru seperti yang diusulkan dalam pengajuan 1.1 anggota OWL.W3C mengumumkan versi baru dari OWL pada tanggal 27 Oktober 2009. Ini baru versi, yang disebut OWL 2, segera menemukan jalan ke editor semantik seperti Anak didik dan Seseorang yang semantik seperti Pelet,RacerPro,  FAKTA + +dan Hermit.

Keluarga OWL mengandung banyak spesies, serializations, syntaxes dan spesifikasi dengan nama yang mirip. OWL dan OWL2 digunakan untuk merujuk pada 2004 dan 2009 spesifikasi, masing-masing. Nama spesies penuh akan digunakan, termasuk spesifikasi versi (misalnya, OWL2 EL). Ketika merujuk lebih umum, OWL Keluarga akan digunakan.

Bahasa ontologi Awal
Ada sejarah panjang ontologis pengembangan filsafat dan ilmu komputer. Sejak 1990-an, sejumlah upaya penelitian telah mengeksplorasi bagaimana ide representasi pengetahuan (KR) dari kecerdasan buatan (AI) dapat dibuat berguna di World Wide Web.Bahasa ini termasuk berdasarkan HTML (disebut SEPATU ), berdasarkan XML (disebut XOL, kemudian MINYAK ), dan berbagai berbasis frame KR bahasa dan pendekatan akuisisi pengetahuan.

Bahasa Ontologi untuk web
Pada tahun 2000 di Amerika Serikat, DARPA memulai pengembangan DAML dipimpin oleh James Hendler . Pada bulan Maret 2001, Uni Eropa / AS Bersama Komite Bahasa Markup Agen memutuskan bahwa DAML harus digabung dengan MINYAK. Uni Eropa / AS ad hoc Joint Working Group pada Bahasa Markup Agen diadakan untuk mengembangkan DAML + OIL sebagai bahasa ontologi web. Kelompok ini didanai bersama oleh DARPA (di bawah program DAML) dan Uni Eropa Teknologi Informasi Masyarakat(IST) pendanaan proyek. DAML + OIL ini dimaksudkan untuk menjadi lapisan tipis di atas RDFS ,dengan semantik formaldidasarkan pada logika deskripsi (DL). OWL dimulai sebagai penelitian berbasis  revisi MINYAK + DAML ditujukan pada web semantik.

Standar web Semantic
Semantic Web menyediakan kerangka kerja umum yang memungkinkan data yang akan dibagi dan digunakan kembali di seluruh aplikasi, perusahaan, dan batas-batas masyarakat.

• Microformat

Sebuah microformat (kadang-kadang disingkat) adalah web berbasis pendekatan markup semantik yang berusaha untuk menggunakan kembali ada HTML / XHTML tag untuk menyampaikan metadata [1] dan lainnya atribut dalam halaman web dan konteks lain yang mendukung (X) HTML, seperti sebagai RSS . Pendekatan ini memungkinkan software untuk memproses informasi ditujukan untuk pengguna akhir (seperti informasi kontak, koordinat geografis , peristiwa kalender, dan sejenisnya) otomatis.

Meskipun isi dari halaman web secara teknis sudah mampu "pemrosesan otomatis", dan telah sejak awal web, pemrosesan tersebut sulit karena tradisional tag markup yang digunakan untuk menampilkan informasi di web tidak mengambarkan informasi apa berarti. Microformats dapat menjembatani kesenjangan ini dengan melampirkan semantik , dan dengan demikian meniadakan lainnya, lebih rumit, metode pengolahan otomatis, seperti pengolahan bahasa alami atau menggores layar . Penggunaan, adopsi dan pengolahan Microformats memungkinkan item data yang akan diindeks, dicari, disimpan atau cross-referenced, sehingga informasi yang dapat digunakan kembali atau dikombinasikan.

Pada 2010 , Microformats memungkinkan encoding dan ekstraksi kejadian, informasi kontak, hubungan sosial, dan sebagainya.Microformats mapan seperti hCard yang dipublikasikan di web lebih dari alternatif seperti skema dan RDFa. Microformats muncul sebagai bagian dari gerakan akar rumput untuk membuat item dikenali data (seperti acara-acara, rincian kontak atau lokasi geografis) yang mampu pengolahan otomatis oleh perangkat lunak, serta langsung dibaca oleh pengguna-akhir. Link-based Microformats muncul pertama. Ini termasuk link suara yang mengekspresikan pendapat halaman terkait, yang search engine dapat menghitung dalam jajak pendapat instan.

CommerceNet , sebuah organisasi nirlaba yang mempromosikan perdagangan elektronik di Internet, telah membantu sponsor dan mempromosikan teknologi dan mendukung komunitas Microformats dalam berbagai cara.  CommerceNet juga membantu co-menemukan situs komunitas Microformats.org.

Baik CommerceNet atau Microformats.org beroperasi sebagai badan standar . Fungsi komunitas Microformats melalui terbuka wiki , mailing list, dan relay internet chat ( IRC ) saluran. Sebagian besar Microformats yang ada berasal di wiki Microformats.org dan milis terkait [ rujukan? ] oleh proses mengumpulkan contoh web-publishing perilaku, maka kodifikasi itu. Beberapa Microformats lainnya (seperti rel = nofollow dan unAPI ) telah diusulkan, atau dikembangkan, di tempat lain.

Penggunaan Microformat
Menggunakan Microformats dalam kode HTML menyediakan format tambahan dan data semantik bahwa aplikasi dapat digunakan.Misalnya, aplikasi seperti web crawler dapat mengumpulkan data tentang sumber daya on-line, atau aplikasi desktop seperti e-mail client atau perangkat lunak penjadwalan dapat mengkompilasi rincian. Penggunaan Microformats juga dapat memfasilitasi "mash up" seperti mengekspor semua lokasi geografis pada halaman web ke (misalnya) Google Maps untuk memvisualisasikan mereka spasial.

Beberapa ekstensi browser, seperti operator untuk Firefox dan keuletan untuk Internet Explorer , memberikan kemampuan untuk mendeteksi Microformats dalam sebuah dokumen HTML. Ketika hCard atau hCalendar terlibat, ekstensi browser seperti memungkinkan untuk mengekspor ke dalam format yang kompatibel dengan manajemen kontak dan kalender utilitas, seperti Microsoft Outlook .

Ketika berhadapan dengan koordinat geografis, mereka memungkinkan untuk mengirim lokasi untuk aplikasi peta seperti Google Maps. Yahoo! Query Language dapat digunakan untuk mengekstrak Microformats dari halaman web. Pada tanggal 12 Mei 2009, Google mengumumkan bahwa mereka akan parsing hCard tersebut, hReview dan Microformats hProduct, dan menggunakan mereka untuk mengisi halaman hasil pencarian. Mereka telah sejak diperpanjang ini untuk menggunakan hCalendar untuk acara dan hRecipe untuk resep masakan. Demikian pula, Microformats juga dikonsumsi oleh Bing  dan Yahoo! .  Bersama, ini adalah top dunia tiga mesin pencari.

Alex Faaborg merangkum argumen untuk menempatkan tanggung jawab untuk antarmuka pengguna microformat di web browser daripada membuat HTML lebih rumit:
 Hanya web browser tahu apa aplikasi yang dapat diakses oleh pengguna dan apa preferensi pengguna.
 Ini menurunkan hambatan untuk masuk bagi pengembang situs web jika mereka hanya perlu melakukan markup dan tidak menangani "penampilan" atau "tindakan" masalah.
 Mempertahankan kompatibilitas mundur dengan browser web yang tidak mendukung Microformats.
 Browser web menyajikan satu titik masuk dari web ke komputer pengguna, yang menyederhanakan masalah keamanan.

• Microdata

Microdata adalah WHATWG HTML spesifikasi yang digunakan untuk sarang semantik dalam konten yang ada pada halaman web. Search engine, web crawler, dan browserdapat mengekstrak dan memproses microdata dari halaman web dan menggunakannya untuk memberikan pengalaman browsing yang lebih kaya bagi pengguna.

Search engine keuntungan yang besar dari akses langsung ke data terstruktur karena memungkinkan mesin pencari untuk memahami informasi pada halaman web dan memberikan yang lebih relevan hasil kepada pengguna .microdata menggunakan kosakata mendukung untuk menggambarkan item dan nama-nilai pasangan untuk memberikan nilai pada sifat-sifatnya microdata adalah upaya untuk menyediakan cara sederhana annotating elemen HTMLdengan tag dapat dibaca oleh mesin daripada pendekatan serupa menggunakan RDFa dan Microformats.

Kosakata Microdata
Kosakata microdata menyediakan semantik , atau makna dari suatu Barang. Pengembang web dapat merancang sebuah kosakata kustom atau kosakata penggunaan yang tersedia di web. Sebuah koleksi kosakata markup umum digunakan disediakan oleh Schema.org skema yang meliputi: Orang, Event, Organisasi, Produk, Review, Ulasan-agregat, Breadcrumb, Offer, Penawaran-agregat. Mesin pencari utama seperti Google, Microsoft dan Yahoo! mengandalkan markup ini untuk meningkatkan hasil pencarian. Untuk beberapa tujuan, sebuah kosakata ad-hoc memadai. Bagi yang lain, kosakata akan perlu dirancang. Bila memungkinkan, penulis didorong untuk kembali menggunakan kosakata yang ada, karena hal ini membuat konten menggunakan kembali lebih mudah.

Contoh Microdata
The HTML5 berikut markup dapat ditemukan pada khas tentang informasi halaman yang berisi tentang seseorang:

<section> Halo, nama saya adalah John Doe, saya seorang asisten peneliti pascasarjana di
 Universitas of Dreams.
 Teman-teman saya memanggil saya Johnny.
 Anda dapat kunjungi situs saya di <a href = "http://www.JohnnyD.com"> www.JohnnyD.com </ a>.
 Saya tinggal di Hard 1.234 Peach, Warner Robins, Georgia. </ Section>
Berikut adalah markup sama dengan tambah microdata:
 <section itemscope ItemType = "http://schema.org/Person">
         Halo, nama saya
         <Rentang itemprop = "nama"> John Doe </ span>,
         Saya
         <Rentang itemprop = "jobTitle"> asisten penelitian </ span>
         di
         <Rentang itemprop = "afiliasi"> Universitas of Dreams </ span>.
         Teman-teman saya memanggil saya
         <Rentang itemprop = "additionalName"> Johnny </ span>.
         Anda dapat kunjungi situs saya di
         <A href = "http://www.JohnnyD.com" itemprop = "url"> www.JohnnyD.com </ a>.
         <section itemprop = "address" itemscope ItemType = "http://schema.org/PostalAddress">
                 Saya tinggal di
                 <Rentang itemprop = "StreetAddress"> 1.234 Hard Peach </ span>,
                 <Rentang itemprop = "addressLocality"> Warner Robins </ span>,
                 <Rentang itemprop = "addressRegion"> Georgia </ span>.
         </ Section>
 </ Section>

Seperti contoh di atas menunjukkan, item microdata dapat diulang. Dalam hal ini item jenis http://schema.org/Address yang bersarang di dalam item jenis http://schema.org/Person .

Web Security
Web Security adalah tata cara mengamankan aplikasi web yg dikelola, biasanya yg bertanggung jawab melakukannya adalah pengelola aplikasi web tsb.

Berbicara mengenai masalah yang berkaitan dengan keamanan di dalam era digital tidak lepas dari 3 prinsip utama yaitu Confidentiality, Integrity, dan Availability atau lebih dikenal dengan nama CIA. Sama halnya ketika bergelut dengan keamanan (security) sebuah website, princip CIA sudah selayaknya dijadikan pedoman yang harus dipahami apabila ingin website kita lebih aman dan sulit untuk diserang.

CONFIDENTIALITY
Confidentiality memiliki makna bahwa data-data ataupun informasi-informasi yang berada di dalam sebuah website hanya dapat di baca atau di akses oleh orang-orang yang memang memiliki kewenangan untuk mengaksesnya. Dalam era konsep Web 2.0 yang sedang berkembang beberapa tahun belakangan ini, sangat memungkinkan sebuah website untuk dapat memiliki lebih dari satu administrator. Contohnya adalah WordPress engine.

Idealisme Web 2.0 yang dapat mengajak siapa pun menjadi kontributor artikel-artikel di dalam sebuah website, membuat siapa pun dapat mengakses halaman administrator untuk memberikan kontribusinya baik dalam bentuk artikel maupun manajemen. Hal ini sangat berbahaya mengingat pada halaman administrator kita dapat mengedit file-file yang menjadi theme dari website yang bersangkutan. Dalam kasus WordPress, untuk mengantisipasi tangan-tangan jahil orang yang tak dikenal, developer WordPress sendiri telah mengantisipasi hal ini dengan cara membuat role-role dari setiap user yang dimiliki. Sebagai contoh, Role selain administrator tidak dapat mengubah theme dan/atau plugin website yang bersangkutan. Sehingga tidak mungkin pengubahan theme dilakukan oleh user selain administrator. Lebih lengkap mengenai fitur-fitur yang dapat diakses oleh role-role user dapat dilihat di artikel: Perbedaan Role pada WordPress.

Dengan pembagian Role seperti ini data ataupun informasi seperti list user-user hanya akan dapat dilihat oleh sang administrator sedangkan profile user dapat di akses oleh masing-masing user. Dengan demikian tingkat keamanan dapat dikatakan semakin tinggi.

INTEGRITY
Integrity memiliki pengertian data-data yang berada didalam server atau website hanya dapat diubah ataupun di delete oleh orang yang memiliki kewenangan untuk melakukan hal itu. Sebagai contoh proses transfer dari server ke client atau sebaliknya (dapat berupa upload maupun download), ternyata mengubah file yang sedang di transfer tersebut, hal ini mengindikasikan bahwa sebuah aplikasi website yang sedang digunakan tidak aman (insecure). Sama halnya jika ada serangan sebuah virus yang dapat mengubah sebuah file, entah itu mengubah nama ataupun isinya.

Terkadang user dengan Role yang lebih rendah dari administrator dapat (dengan cara tertentu, termasuk didalamnya karena ketidaksengajaan) melakukan hal ini sekalipun ia tidak dapat mengakses data yang sedang diubah ataupun dihancurkan itu. Tindakan ini terkadang adalah tindakan yang memang tidak di sengaja oleh user tersebut, namun tetap terjadi diakibatkan karena adanya error dalam applikasi web yang sedang digunakan.

Untuk membuat website menjadi lebih aman, hal ini tentunya harus dihindari. Salah satunya adalah dengan mengaplikasikan salah satu proses yang wajib ada dalam sebuah proses software engineering yaitu proses testing. Proses testing ini dibagi menjadi dua yaitu:
 Black box testing
 White box testing

Secara sederhana black box testing adalah mengetes aplikasi yang diperuntukkan oleh user yang memang mengakses website tersebut (act like enduser -bertindaklah sebagai seorang user/pemakai). Sedangkan untuk whitebox testing mengkhususkan diri kepada testing fungsi-fungsi yang telah ditulis dalam bahasa pemrograman tertentu (PHP, Perl, ASP, Javascript, dan lain sebagainya). Testing-testing ini dibagi menjadi tiga test berdasarkan input aplikasi atau fungsinya, yaitu test dengan menggunakan input value:
 Yang memang dikehendaki
 Pas diperbatasan
 Di luar batasan

Apabile memang terdeteksi error dari testing ini sebaiknya segera diperbaiki sebelum error ini ditemukan oleh hacker yang kemudian digunakannya untuk mengeksploit website kita.

AVAILABILITY
Jika confidentiality bermakna hanya user yang memiliki kewenangan yang dapat melihat data tertentu yang tersimpan didalam sebuah server atau website, availability memiliki makna bahwa website harus dapat diakses jika user ingin meggunakannya. Memang terkesan membingungkan dan tidak berbeda dengan prinsip pertama, namun kedua prinsip ini sangat jauh berbeda dikarenakan dilihat dari dua sudut pandang yang memang berbeda.

Availability hanya menekankan kepada dapat diaksesnya sebuah website. Mengenai siapa yang dapat mengaksesnya itu telah dicover oleh prinsip confidentiality.

Jika sebuah website dapat diakses tanpa adanya error, itu berarti website tersebut telah memenuhi prinsip availability ini. Hal ini memiliki makna bahwa sebuah website haruslah dapat diakses apabila memang dibutuhkan, dengan kata lain versi yang lebih mudahnya adalah, website harus available 24 jam 7 minggu (24/7). Website yang terkena serangan seperti DoS (Denial of Service) yang berarti menolak untuk memberikan service kembali dikarenakan traffic yang sangat padat sehingga membuat server menjadi down, memberikan bukti bahwa keamanan website tersebut telah jebol.

Sebuah website yang aman haruslah dapat mengantisipasi adanya serangan-serangan yang membuat website tidak beroperasi dikarena server yang digunakan telah down. Selain DoS ada juga Buffer Overflow yang membuat applikasi web tidak dapat bekerja, atau bahkan masalah kelebihan pemakaian bandwidth yang cenderung dilupakan karena lupa untuk mengkalkulasi target user dari hadirnya sebuah wesbite. Selain itu masalah kualitas perangkat-perangkat keras yang digunakan termasuk perangkat-perangkat lunak seperti Operating System ataupun driver-driver agar perangkat keras tersebut dapat berfungsi sebagaimana mestinya, juga harus mendapatkan prioritas yang tinggi. Kegagalan sebuah perangkat lunak ataupun keras dapat membuat website tidak dapat diakses atau dipergunakan sesuai dengan yang diharapkan.

Dengan hadirnya engine seperti WordPress, Joomla, Drupal, atau lainnya tampaknya seringkali masalah security ini terabaikan. Yang perlu diingat adalah fremework-framework ini memang dapat memecahkan masalah confidentiality dan sedikit integrity. Namun prinsip availability sebagian besar ditangani oleh server di mana website ini disimpan. Oleh karena itu, jika ingin website kita aman (secure), pertimbangan akan pemakaian hostingan juga perlu dilakukan dengan baik sebelum memilih hostingan yang memang cocok untuk mengantarkan website kita ke dunia maya.



Kelompok Softskill :
51411941 DEVIE EVIANI
52411111 DIMAS FACHRIAN NUGRAHA PUTRA
53411659 IQBAL MAULANA
53411645 INTAN OCTAVIANI
54411502 MIRZA FAHMI ANSHARI

Sejarah Web, Web Science & Metodologinya


Saat ini kehidupan sehari-hari kita tidak terlepas dari web. Bahkan sudah menjadi salah satu bagian kebutuhan yang sifatnya mendapatkan informasi. Web yang pada awalnya asing didengar dan hanya dapat digunakan oleh pengguna yang memiliki akses tertentu, saat ini web sangatlah popular dan mudah diakses, bukan hanya di kota tapi juga telah menjangkau pelosok desa.Tapi tahukah Anda Sejarah Web bermula?

Berbicara sejarah web, maka akan menyinggung juga keberadaan jaringan internet. Keduanya merupakan bagian yang saling berkaitan dan saling mendukung. Web tidak akan semakin popular tanpa adanya perkembangan internet. Semakin tinggi teknologi internet yang diterapkan, berbanding lurus dengan perkembangan teknologi web pula. Karena keberadaan jaringan internet layaknya landasan yang mampu membuat web bisa berjalan.

Internet sendiri awal berkembang pada tahun 1970, digunakan agar dua komputer atau lebih bisa melakukan komunikasi dan bertukar informasi. Pada saat itu pun perkembangan teknologi internet digunakan di lingkungan angkatan bersenjata Amerika Serikat. Perlahan penerapan jaringan internet merambah ke dunia pendidikan, hingga lahirlah terus inovasi dalam dunia internet. Salah satunya adalah teknologi web.

Sejarah web

Sejarah web, dikembangkan pertama kali oleh  Sir Timothy John ¨Tim Berners-Lee, hanya saja pada saat itu web masih berjalan tanpa terhubung jaringan. Web semakin popular ketika mulai terhubungan jaringan internet, yaitu pada akhir tahun 80-an. Saat itu di laboratorium CERN berlokasi di kota Geneva, Swiss menyatakan bahwa web bisa diakses melalui jaringan dan dimiliki oleh siapa saja.

Sejarah web juga berkaitan dengan sejarah perkembangan teknologi komputer. Karena pada awalnya tampilan web masih sangatlah sederhana, hanya menampilkan teks, lalu untuk hyperlink (link) pada saat itu masih menggunakan tampilan nomor yang menghubungkan antara satu halaman ke halaman lainnya.

Pada saat itu pun, teknologi web dikembangkan dan berjalan pada sistem operasi Unix, masih sangat jarang yang menggunakan teknologi windows. andaipun ada, teknologi windows masih sangat sederhana.

Perkembangan Teknologi Web

Lalu dengan semakin beragamnya tampilan dan penerapan teknologi berbasis desktop mendorong perkembangan teknologi sejarah web, baik berupa teknologi tampilan (GUI – Graphical User Interface), teknologi browser, teknologi bahasa yang digunaan untuk mengembangkan web, platform web dan beragam teknologi web lainnya. Seiring waktu keberadaan web pun meledak.

Dari hanya berjumlah ribuan, hingga mencapai jumlah jutaan bahkan milyaran. Fungsinya pun berkembang, bukan hanya sebagai media bertukar informasi, tapi juga mewujud berupa aplikasi sistem informasi berbasis web.

Dalam sejarah web, web browser digunakan sebagai media untuk berselancar, dan browser yang pertama kali popular digunakan yaitu Internet Explorer. Internet Explorer digunakan sebagai aplikasi untuk mengakses web melalui komputer. Seiring perkembangan saat ini sudah tersedia beragam web browser selain Internet Explorer, seperti mozilla firefox, google chrome, safari, opera dan sebagainya. Untuk bahasa pemrograman yang pada awalnya hanya terdapat beberapa bahasa, saat ini sudah beragam.

Salah satu bentuk bagian perkembangan sejarah web, lahir definisi web pada akhir tahun 90-an, yaitu yang disebut web 2.0. Web 2.0 ini didefinisikan sebagai web yang berfungsi kolaboratif, informatif, dengan tujuan membuat pengguna semakin dekat, salah satu cirinya ditandai dengan hadirnya wiki, blog, social network.

Lalu definisi Web 3.0 adalah sebagai sebuah sarana bagi mesin untuk membaca halaman-halaman Web generasi ketiga dari layanan internet  berbasis dengan tujuan mesin akan memiliki kemampuan membaca Web sama seperti yang manusia dapat lakukan sekarang ini.

Web 3.0 berkaitan dengan konsep Web Semantik untuk memungkinkan isi web dinikmati tidak hanya dalam bahasa asli pengguna, tapi juga dalam bentuk format yang bisa diakses oleh berbagai software. Beberapa ahli bahkan menamai Web 3.0 sebagai Web Semantik itu sendiri.
Konsep Web 3.0 adalah dimana manusia dapat berkomunikasi dengan mesin pencari. Kita bisa meminta Web untuk mencari suatu data spesifik tanpa bersusah-susah mencari satu per satu dalam situs-situs Web. Web 3.0 juga mampu menyediakan keterangan-keterangan yang relevan tentang informasi yang ingin kita cari, bahkan tanpa kita minta.

Web 3.0 menawarkan metode yang efisien dalam membantu komputer mengorganisasi dan menarik kesimpulan dari data online. Web 3.0 juga memungkinkan fitur Web menjadi sebuah sarana penyimpanan data dengan kapasitas yang luar biasa besar.

Web 3.0 sendiri terdiri dari Web semantik, Format mikro, Pencarian dalam bahasa pengguna, Penyimpanan data dalam jumlah besar, Pembelajaran lewat mesin, Agen rekomendasi, yang merujuk pada kecerdasan buatan Web.

Web 3.0 memiliki beberapa standar operasional untuk bisa menjalankan fungsinya dalam menampung metadata.

Bertolak dari sejarah web yang masih sangat sederhana digunakan, saat ini akses web bukan hanya dapat digunakan melalui komputer melainkan juga sudah menjangkau hingga berbasis mobile. Baik berupa laptop, netbook, smartphone hingga handphone. Dengan begitu kemudahan akses web melalui beragam media mana saja, semakin membuat web bagian dari kebutuhan hidup masyarakat secara luas.

Web Science

Web Science juga berarti cara-cara atau metode-metode yang digunakan dalam membuat website yang baik atau dengan kata lain bias di bilang Web Science adalah ilmu pengetahuan yang sudah dilakukan penelitian dari Web yang muncul melalui desentralisasi sistem Informasi. Dalam hal ini membutuhkan pemahaman akan Web dan juga fokus pada pengembangan terhadap kebutuhan komunikasi dan representasi. Sangat disadari bahwa World Wide Web atau yang sering disingkat (www) adalah teknologi yang baru berusia beberapa tahun. Asal-usul dari Web science dapat ditemukan dalam Penelitian Ilmu Web Science Research Initiative (WSRI) yang didirikan pada tahun 2006 yang kemudian mengubah namanya pada tahun 2009 menjadi Web Science Trust.

Proses dari web science sendiri terdapat beberapa tahapan, seperti yang dipaparkan didalam presentasi Tim Berners-Lee, berawal dari isu yang beredar atau masalah yang timbul di kalangan masyarakat sehingga dapat memunculkan berbagai ide manusia yang tentunya dapat memberikan manfaat bagi masyarakat social. Ide yang didapat kemudian dapat direalisasikan dalam bentuk teknologi yang kita ciptakan atau dengan mengembangkan teknologi yang sudah ada sebelumnya.

Setelah ide terealisasi, tentunya teknologi tersebut akan menimbulkat dampak atau efek mikro dan makro yang pada akhirnya akan membawa kita pada isu atau masalah baru. Dalam presentasinya, Tim Berners-Lee memberikan beberapa contoh yaitu proses terciptanya email dan blog.

Misalnya pada proses terciptanya sebuah email, berawal dari kebutuhan seseorang untuk berkomunikasi lebih lagi(Issues), dan dengan melihat kebutuhan serta keadaan yang ada dimana manusia memiliki masalah dengan jarak dan waktu untuk berkomunikasi, maka muncullah ide untuk membuat sebuah pesan yang dapat dikirim melalui internet (Idea), setelah itu dengan mengembangkan teknologi yang ada, terciptalah email yang menimbulkan dampak makro berupa interconnected academia yang menyebabkan timbulnya masalah atau issues baru.

Metodologi Web Science

Web Science merupakan kajian sains dari Web. Ketika Web telah bergerak ke ranah ilmu, maka pertanyaan mendasar adalah bagaimana keilmuan ini melakukan metodologi. Bagaimana peneliti atau engineer melakukan pendekatan terhadap Web untuk pemahaman dan relasinya dengan domain sosial secara luas dan inovasi apa yang dapat dilakukan.

Berbagai penelitian yang berlangsung saat ini melakukan pengembangan pada metodologi pemetaan (mapping) dan graph pada struktur Web dengan sampling sebagai kunci utamanya [Leung, 2001]. Sebagai contoh laporan riset [Fetterly, 2004] menyatakan bahwa 27% dari web di Jerman (.de) melakukan perubahan setiap minggu. Model lain adalah metodologi model analisis yang mengkombinasikan data empiris yang digunakan untuk melakukan determinasi probabilitas. Metodologi pada Web Science akan dipengaruhi oleh perekayasaan yang berlatar belakang industri maupun peneliti akademisi.

Kelompok Softskill :

51411941 DEVIE EVIANI
52411111 DIMAS FACHRIAN NUGRAHA PUTRA
53411659 IQBAL MAULANA
53411645 INTAN OCTAVIANI
54411502 MIRZA FAHMI ANSHARI

Tuesday, 22 January 2013

Aplikasi Pembelajaran Sejarah Untuk Tingkat SMP [SOFTSKILL]



Kali ini saya akan mempresentasikan aplikasi untuk tugas Softskill. Tugas Softskill kelompok kami yaitu Aplikasi Pembelajaran Sejarah untuk Tingkat SMP. Maksud dan tujuan kami membuat aplikasi ini adalah untuk mempermudah siswa SMP se-indonesia untuk mempermudah cara belajar mereka agar lebih mobile, karena sebagian siswa di indonesia rata-rata hampir tidak bisa lepas dari gadget, oleh karena itu kami berinisiatif untuk membuat aplikasi ini, semoga mendapat respon yang baik Berikut tahapan-tahapannya :

1. Tahapan Persiapan
• Di tahapan ini , mayoritas dari anggota kami ingin membuat aplikasi android. Berikutnya, kami memilih pelajaran sejarah SMP, karena pelajaran ini banyak sekali referensinya.

• Dipelajaran ini, kami memilih materi-materi  yang masih diajarkan di siswa/i smp. Berikut ini Materi yang kelompok kami masukkan :

     a) Kerajaan islam
     b) Kerajaan hindu budha
     c) Perang dunia ke 2
     d) G 30/s/pki
     e) Orde lama dan orde baru

• Didalam materinya tersebut, terdapat isi dan video. Sebenarnya kelompok kami ingin memasukkan langsung video ke aplikasi android tersebut, tapi salah satu dari anggota kami mengusulkan “ Bagaimana agar videonya di tembak aja ke youtube, jadi bila mau melihat video tersebut, gadget si pengguna harus terkoneksi ke internet.”.

• Kita mencari refrensi dari buku dan internet , tapi lebih banyak kelompok kami mencari di internet.


2. Tahapan Penelitian
• Yang pertama, kami mencari materi yang sudah diberikan ke masing-masing anggota.

• Kedua, kami merangkum atau meringkas materi” tersebut. Karna bila terlalu banyak juga bikin yang baca bosen juga kali yaa.

• Ketiga, mengumpulkan semua materi atau menggabungkannya menjadi 1 file, agar mudah dicari.

3. Tahapan Pembuatan
• Ditahapan ini, kami baru memulai membuat aplikasinya. Kelompok kami membuat aplikasi ini menggunakan Eclipse Helios 4.4 dengan menggunakan bahasa java.

4. Hasil Akhir
• Bila kalian ingin melihat aplikasinya langsung atau bagi yang penasaran. Silahkan anda download di sini. DOWNLOAD APLIKASI

Anggota dari Kelompok Softskill kami :
1. Arya Pramudya
2. Aida Fitria
3. Dion Wahyu Saputro
4. Febriyanto Prasetyo
5. Iqbal Maulana
6. Mahdhika Juliansyah
7. Massandi darajat
8. Muhammad Ardhi Yudhaprawira