Minggu, 15 Januari 2012

Planning 3 Tahun ke Depan


          Bila saya lulus dan wisuda setelah 4 tahun belajar di gunadarma, saya ingin melamar kerja ke perusahaan game entah itu game online ataupun game konsol seperti Playstation, Nintendo dan sejenisnya yang membutuhkan seorang bahasa pemrograman. Saya ingin membuat game atau mengembangkan game di Indonesia menjadi game yang layak untuk di mainkan oleh para gamers di tanah air ini dan tidak kalah dengan game-game yang di buat di luar negeri, jika sudah layak, game tersebut akan di publikasikan ke luar negeri dengan membawa nama Indonesia di dalamnya. Saya ingin sekali bilamana saya mempunyai skill yang cukup, saya akan membuat suatu program seperti OS buatan anak Indonesia yang bersifat open source, sehingga dapat menyaingi Linux dan juga Windows.

          Keinginan saya masuk ke jurusan IT karena saya suka dengan teknologinya dimana kebanyakan orang membutuhkan ahli komputer meskipun banyak juga persaingannya. Ini adalah salah satu keinginan saya untuk melamar kerja nanti bila orang tua saya tidak mendukung saya atau malah menginginkan saya untuk melamar ke bank atau kemanapun saya akan mencoba melakukannya, meskipun itu bukan keinginan saya untuk melamar ke sana.

          Ada satu keinginan lagi yang saya ingin penuhi jika saya telah mendapatkan upah yang cukup serta mental, yaitu “Berangkat ke Negara Jepang”, sudah dari SMP saya berkeinginan seperti ini, dikarenakan kakak saya yang suka sekali dengan lagu jepang dan komik jepang sehingga membuat saya menjadi ikut-ikutan suka dengan hal tersebut. Ini akan menjadi suatu kenangan yang terhebat buat saya bila saya berangkat kesana bersama teman saya sehingga perjalanan pun tidak membosankan, melihat bunga sakura dan juga pergi ke kota-kota bagus di Negara Jepang. Semua ini akan tercapai bila saya berusaha dengan keras agar tercapainya keinginan saya ini meskipun banyak sekali hambatan yang datang.

Potensi Diri


          Nama saya Mochamad Rizki Aribuana, dari kecil saya sudah di didik untuk bisa mandiri agar saat dewasa saya mampu untuk beradaptasi dengan lingkungan sekitar. Saat SD mungkin saya masih polos namun dengan kepolosan saya itu saya belajar banyak hal dari orang-orang sekitar yang dapat membuat saya mengerti akan apa yang mereka bicarakan. Saat SMP mungkin saya sedikit nakal namun dengan kenakalan saya, saya dapat mengerti perasaan setiap orang yang saya sakiti sehingga saya dapat memperbaikinya dan tidak mengulangi kesalahan yang sama lagi. Saat SMA teman saya bilang bahwa saya pintar namun apalah arti pintar jika kita sendiri tidak bisa bersosialisasi dengan orang lain layaknya seorang dokter yang tahu segala macam penyakit dan bisa mengobatinya tetapi dokter itu tidak bisa membuat pasiennya sendiri untuk makan.

          Saya mampu belajar dari semua hal-hal yang benar ataupun salah di masa lalu, sehingga saya ingin berpotensi untuk menjadi orang yang dapat membahagiakan orang tua saya sendiri. Banyak di dunia ini mereka yang mempunyai kemampuan, tapi banyak juga mereka yang tidak mengetahui kemampuan di dalam dirinya, padahal mereka telah melakukan sesuatu hal yang susah menjadi mudah, tetapi mereka tidak tahu.

          Sekarang saya sudah kuliah, dalam hal ini saya ingin mengubah cara hidup saya di masa lalu, di masa remaja menjadi masa-masa dewasa. Dengan apa yang saya perbuat, apa yang saya bisa, apa yang saya pelajari di masa lalu itu bisa mengubah saya menjadi orang yang bertanggung jawab untuk di masa sekarang dan juga di masa depan nanti.

Rabu, 16 November 2011

Pengertian Search Engine

Dalam dunia website/weblog sekarang ini, khususnya bagi para publisher dan blogger diperlukan pengetahuan tentang Search Engine Optimization, website/weblog yang telah sobat buat tugas selanjutnya adalah mendaftarkan website/weblog sobat ke mesin pencari Google atau yang lainnya. Sebelum mendaftarkan website/weblog yang telah dibuat; sekarang yang menjadi pertanyaan apa itu search engine optimization, cara kerja dan fungsi suatu search engine.

  1. Pengertian Search Engine
    Mesin pencari web atau yang lebih dikenal dengan istilah web search engine merupakan program komputer yang dirancang untuk mencari informasi yang tersedia didalam dunia maya. Berbeda halnya dengan direktori web (seperti dmoz.org) yang dikerjakan oleh manusia untuk mengelompokkan suatu halaman informasi berdasarkan kriteria yang ada, web search engine mengumpulkan informasi yang tersedia secara otomatis.
  2. Cara Kerja Search Engine
    Mesin pencari web bekerja dengan cara menyimpan hampir semua informasi halaman web, yang diambil langsung dari www. Halaman-halaman ini diambil secara otomatis. Isi setiap halaman lalu dianalisis untuk menentukan cara mengindeksnya (misalnya, kata-kata diambil dari judul, subjudul, atau field khusus yang disebut meta tag). Data
    tentang halaman web disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya. Sebagian mesin pencari, seperti Google, menyimpan seluruh atau sebagian halaman sumber (yang disebut cache) maupun informasi tentang halaman web itu sendiri.

    Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan query, biasanya dengan memasukkan kata kunci, mesin mencari indeks dan memberikan daftar halaman web yang paling sesuai dengan kriterianya, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.

    Mesin pencari lain yang menggunakan proses real-time, seperti Orase, tidak menggunakan indeks dalam cara kerjanya. Informasi yang diperlukan mesin tersebut hanya dikumpulkan jika ada pencarian baru. Jika dibandingkan dengan sistem berbasis indeks yang digunakan mesin-mesin seperti Google, sistem real-time ini unggul dalam beberapa hal seperti informasi selalu mutakhir, (hampir) tak ada broken link, dan lebih sedikit sumberdaya sistem yang diperlukan (Google menggunakan hampir 100.000 komputer, Orase hanya satu.). Tetapi, ada juga kelemahannya yaitu pencarian lebih lama rampungnya.
  3. Komponen utama dalam Search Engine
    Sebuah search engine memiliki beberapa komponen agar dapat menyediakan layanan utamanya sebagai sebuah mesin pencari informasi. Komponen tersebut antara lain :
    1. Web Crawler
      Web crawler atau yang dikenal juga dengan istilah web spider bertugas untuk mengumpulkan semua informasi yang ada di dalam halaman web. Web crawler bekerja secara otomatis dengan cara memberikan sejumlah alamat website untuk dikunjungi serta menyimpan semua informasi yang terkandung didalamnya. Setiap kali web crawler mengunjungi sebuah website, maka dia akan mendata semua link yang ada dihalaman yang dikunjunginya itu untuk kemudian di kunjungi lagi satu persatu.

      Proses web crawler dalam mengunjungi setiap dokumen web disebut dengan web crawling atau spidering. Beberapa websites, khususnya yang berhubungan dengan pencarian menggunakan proses spidering untuk memperbaharui data data mereka. Web crawler biasa digunakan untuk membuat salinan secara sebhagian atau keseluruhan halaman web yang telah dikunjunginya agar dapat dip roses lebih lanjut oleh system pengindexan. Crawler dapat juga digunakan untuk proses pemeliharaan sebuah website, seperti memvalidasi kode html sebuah web, dan crawler juga digunakan untuk memperoleh data yang khusus seperti mengumpulkan alamat e-mail.

      Web crawler termasuk kedalam bagian software agent atau yang lebih dikenal dengan istilah program bot. Secara umum crawler memulai prosesnya dengan memberikan daftar sejumlah alamat website untuk dikunjungi, disebut sebagai seeds. Setiap kali sebuah halaman web dikunjungi, crawler akan mencari alamat yang lain yang terdapat didalamnya dan menambahkan kedalam daftar seeds sebelumnya.

      Dalam melakukan prosesnya, web crawler juga mempunyai beberapa persoalan yang harus mampu di atasinya. Permasalahan tersebut mencakup :
      • Halaman mana yang harus dikunjungi terlebih dahulu.
      • Aturan dalam proses mengunjungi kembali sebuah halaman.
      • Performansi, mencakup banyaknya halaman yang harus dikunjungi.
      • Aturan dalam setiap kunjungan agar server yang dikunjungi tidak kelebihan beban.
      • Kegagalan, mencakup tidak tersedianya halaman yang dikunjungi, server down, timeout, maupun jebakan yang sengaja dibuat oleh webmaster.
      • Seberapa jauh kedalaman sebuah website yang akan dikunjungi.
      • Hal yang tak kalah pentingnya adalah kemampuan web crawler untuk mengikuti
        perkembangan teknologi web, dimana setiap kali teknologi baru muncul, web crawler harus dapat menyesuaikan diri agar dapat mengunjungi halaman web yang menggunakan teknologi baru tersebut.

        Proses sebuah web crawler untuk mendata link – link yang terdapat didalam sebuah halaman web menggunakan pendekatan regular expression. Crawler akan menelurusi setiap karakter yang ada untuk menemukan hyperlink tag html (<a>). Setiap hyperlink tag yang ditemukan diperiksa lebih lanjut apakah tag tersebut mengandung atribut nofollow rel, jika tidak ada maka diambil nilai yang terdapat didalam attribute href yang merupakan sebuah link baru.

    2. Indexing system
      Indexing system bertugas untuk menganalisa halaman web yang telah tersimpan sebelumnya dengan cara mengindeks setiap kemungkinan term yang terdapat di dalamnnya. Data term yang ditemukan disimpan dalam sebuah database indeks untuk digunakan dalam pencarian selanjutnya.

      Indexing system mengumpulkan, memilah dan menyimpan data untuk memberikan kemudahan dalam pengaksesan informasi secara tepat dan akurat. Proses pengolahan halaman web agar dapat digunakan untuk proses pencarian berikutnya dinakamakan web indexing. Dalam implementasinya index system dirancang dari penggabungan beberapa cabang ilmu antara lain ilmu bahasa, psikologi, matematika, informatika, fisika, dan ilmu komputer.

      Tujuan dari penyimpanan data berupa indeks adalah untuk performansi dan kecepatan dalam menemukan informasi yang relevan berdasarkan inputan user. Tanpa adanya indeks, search engine harus melakukan scan terhadap setiap dokumen yang ada didalam database. Hal ini tentu saja akan membutuhkan proses sumber daya yang sangat besar dalam proses komputasi. Sebagai contoh, indeks dari 10.000 dokumen dapat diproses dalam waktu beberapa detik saja, sedangkan penulusuran secara berurutan setiap kata yang terdapat di dalam 10.000 dokumen akan membutuhkan waktu yang berjam lamanya. Tempat tambahan mungkin akan dibutuhkan di dalam computer untuk penyimpanan indeks, tapi hal ini akan terbayar dengan penghematan waktu pada saat pemrosesan pencarian dokumen yang dibutuhkan.

    3. Search system
      Search system inilah yang berhubungan langsung dengan pengguna, meyediakan hasil pencarian informasi yang diinginkan. Ketika seorang pengguna mengunjungi mesin pencari dan memasukkan kata pencarian biasanya dengan beberapa kata kunci, search system akan mencari data dari indeks database, data yang cocok kemudian akan ditampilkan, biasanya disertai ringkasan singkat mengenai judul dokumen dan terkadang sebagian teksnya.

      Sumber pengertian search engine...