Optimisasi mesin pencari - Wikipedia

Pages

Optimisasi mesin pencari - Wikipedia

"SEO" dialihkan di sini. Untuk kegunaan lain, lihat Seo.

Search engine optimization (SEO)adalah proses meningkatkan kualitas dan kuantitas lalu lintas situs web ke situs web atau halaman web dari mesin pencari. [1] SEO menargetkan lalu lintas yang tidak dibayar (dikenal sebagai hasil "alami" atau "organik" ) daripada lalu lintas langsung atau lalu lintas yang dibayar. Lalu lintas yang tidak dibayar mungkin berasal dari berbagai jenis pencarian, termasuk pencarian gambar, pencarian video, pencarian akademis, dan mesin pencari vertikal khusus industri.

Sebagai strategi pemasaran Internet, SEO mempertimbangkan bagaimana mesin pencari bekerja, algoritma yang diprogram komputer yang mendikte perilaku mesin pencari, apa yang dicari orang, istilah pencarian aktual atau kata kunci yang diketik ke mesin pencari, dan mesin pencari mana yang disukai oleh audiens yang ditargetkan. SEO SEO Tangerang dilakukan karena sebuah situs web akan menerima lebih banyak pengunjung dari mesin pencari ketika situs web berperingkat lebih tinggi di halaman hasil mesin pencari (SERP). Pengunjung ini kemudian berpotensi dikonversi menjadi pelanggan. [3] Sejarah

Webmaster dan penyedia konten mulai mengoptimalkan situs web untuk mesin pencari pada pertengahan 1990-an, karena mesin pencari pertama membuat katalog Web awal. Awalnya, semua webmaster hanya perlu mengirimkan alamat halaman, atau URL, ke berbagai mesin yang akan mengirim crawler web untuk merayapi halaman itu, mengekstrak tautan ke halaman lain darinya, dan mengembalikan informasi yang ditemukan di halaman untuk diindeks. [4] Proses ini melibatkan spider mesin pencari yang mengunduh halaman dan menyimpannya di server mesin pencari sendiri. Program kedua, yang dikenal sebagai pengindeks, mengekstrak informasi tentang halaman, seperti kata-kata yang dikandungnya, di mana mereka berada, dan bobot apa pun untuk kata-kata tertentu, serta semua tautan yang berisi halaman. Semua informasi ini kemudian ditempatkan ke dalam penjadwal untuk merangkak di kemudian hari.

Pemilik situs web mengakui nilai peringkat tinggi dan visibilitas dalam hasil mesin pencari, menciptakan peluang bagi praktisi SEO topi putih dan topi hitam. Menurut analis industri Danny Sullivan, ungkapan "optimasi mesin pencari" mungkin mulai digunakan pada tahun 1997. Sullivan memuji Bruce Clay sebagai salah satu orang pertama yang mempopulerkan istilah tersebut. [6]

Versi awal algoritma pencarian mengandalkan informasi yang disediakan webmaster seperti meta tag kata kunci atau file indeks di mesin seperti ALIWEB. Meta tag memberikan panduan untuk konten setiap halaman. Namun, menggunakan metadata untuk mengindeks halaman ditemukan kurang dapat diandalkan, karena pilihan kata kunci webmaster dalam meta tag berpotensi menjadi representasi yang tidak akurat dari konten aktual situs. Data yang cacat dalam meta tag seperti yang tidak akurat, lengkap, atau salah atribut menciptakan potensi halaman yang akan salah digambarkan dalam pencarian yang tidak relevan. [7] [meragukan- diskusikan] Penyedia konten web juga memanipulasi beberapa atribut dalam sumber HTML halaman dalam upaya untuk peringkat yang baik di mesin pencari. Pada tahun 1997, perancang mesin pencari mengakui bahwa webmaster melakukan upaya untuk peringkat yang baik di mesin pencari mereka, dan bahwa beberapa webmaster bahkan memanipulasi peringkat mereka dalam hasil pencarian dengan mengisi halaman dengan kata kunci yang berlebihan atau tidak relevan. Mesin pencari awal, seperti Altavista dan Infoseek, menyesuaikan algoritma mereka untuk mencegah webmaster memanipulasi peringkat. [9]

Dengan sangat mengandalkan faktor-faktor seperti kepadatan kata kunci, yang secara eksklusif berada dalam kendali webmaster, mesin pencari awal menderita penyalahgunaan dan manipulasi peringkat. Untuk memberikan hasil yang lebih baik kepada pengguna mereka, mesin pencari harus beradaptasi untuk memastikan halaman hasil mereka menunjukkan hasil pencarian yang paling relevan, daripada halaman yang tidak Jasa SEO terkait diisi dengan banyak kata kunci oleh webmaster yang tidak bermoral. Ini berarti bergerak menjauh dari ketergantungan besar pada kepadatan istilah ke proses yang lebih holistik untuk mencetak sinyal semantik. Karena keberhasilan dan popularitas mesin pencari ditentukan oleh kemampuannya untuk menghasilkan hasil yang paling relevan untuk setiap pencarian tertentu, kualitas buruk atau hasil pencarian yang tidak relevan dapat menyebabkan pengguna untuk menemukan sumber pencarian lainnya. Mesin pencari merespons dengan mengembangkan algoritma peringkat yang lebih kompleks, dengan mempertimbangkan faktor-faktor tambahan yang lebih sulit bagi webmaster untuk dimanipulasi.

Perusahaan yang menggunakan teknik yang terlalu agresif dapat membuat situs web klien mereka dilarang dari hasil pencarian. Pada tahun 2005, Wall Street Journal melaporkan sebuah perusahaan, Traffic Power, yang diduga menggunakan teknik berisiko tinggi dan gagal mengungkapkan risiko tersebut kepada kliennya. [11] Majalah Wired melaporkan bahwa perusahaan yang sama menggugat blogger dan SEO Aaron Wall karena menulis tentang larangan tersebut. Google Matt Cutts kemudian mengkonfirmasi bahwa Google sebenarnya melarang Traffic Power dan beberapa kliennya. [13]

Beberapa mesin pencari juga SEO Website telah menjangkau industri SEO, dan sering menjadi sponsor dan tamu di konferensi SEO, webchat, dan seminar. Mesin pencari utama memberikan informasi dan panduan untuk membantu optimasi situs web. [14] Google memiliki program Sitemaps untuk membantu webmaster mengetahui apakah Google mengalami masalah dalam mengindeks situs web mereka dan juga menyediakan data tentang lalu lintas Google ke situs web. Bing Webmaster Tools menyediakan cara bagi webmaster untuk mengirimkan sitemap dan feed web, memungkinkan pengguna untuk menentukan "crawl rate", dan melacak status indeks halaman web.

Pada tahun 2015, dilaporkan bahwa Google sedang mengembangkan dan mempromosikan pencarian seluler sebagai fitur utama dalam produk masa depan. Sebagai tanggapan, banyak merek mulai mengambil pendekatan yang berbeda untuk strategi pemasaran Internet mereka. [17] Hubungan dengan Google

Pada tahun 1998, dua mahasiswa pascasarjana di Stanford University, Larry Page dan Sergey Brin, mengembangkan "Backrub", sebuah mesin pencari yang mengandalkan algoritma matematika untuk menilai keunggulan halaman web. Angka yang dihitung oleh algoritma, PageRank, adalah fungsi dari kuantitas dan kekuatan inbound link. PageRank memperkirakan kemungkinan bahwa halaman tertentu akan dicapai oleh pengguna web yang secara acak menjelajahi web, dan mengikuti tautan dari satu halaman ke halaman lainnya. Akibatnya, ini berarti bahwa beberapa tautan lebih kuat daripada yang lain, karena halaman PageRank yang lebih tinggi lebih mungkin dijangkau oleh surfer web acak.

Page dan Brin mendirikan Google pada tahun 1998. Google menarik pengikut setia di antara semakin banyak pengguna Internet, yang menyukai desainnya yang sederhana. Faktor off-page (seperti PageRank dan analisis hyperlink) dianggap serta faktor on-page (seperti frekuensi kata kunci, meta tag, judul, link dan struktur situs) untuk memungkinkan Google untuk menghindari jenis manipulasi yang terlihat di mesin pencari yang hanya dianggap faktor on-page untuk peringkat mereka. Meskipun PageRank lebih sulit untuk permainan, webmaster telah mengembangkan alat membangun link dan skema untuk mempengaruhi mesin pencari Inktomi, dan metode ini terbukti sama berlaku untuk game PageRank. Banyak situs berfokus pada pertukaran, pembelian, dan penjualan tautan, seringkali dalam skala besar. Beberapa skema ini, atau peternakan link, melibatkan penciptaan ribuan situs untuk tujuan tunggal spamming link. [21]

Pada tahun 2004, mesin pencari telah memasukkan berbagai faktor yang tidak diungkapkan dalam algoritma peringkat mereka untuk mengurangi dampak manipulasi tautan. Pada bulan Juni 2007, The New York Times 'Saul Hansell menyatakan Google peringkat situs menggunakan lebih dari 200 sinyal yang berbeda. Mesin pencari terkemuka, Google, Bing, dan Yahoo, tidak mengungkapkan algoritma yang mereka gunakan untuk peringkat halaman. Beberapa praktisi SEO telah mempelajari pendekatan yang berbeda untuk optimasi mesin pencari, dan telah berbagi pendapat pribadi mereka. Paten yang terkait dengan mesin pencari dapat memberikan informasi untuk lebih memahami mesin pencari. Pada tahun 2005, Google mulai mempersonalisasi hasil pencarian untuk setiap pengguna. Bergantung pada riwayat pencarian mereka sebelumnya, Google membuat hasil untuk masuk ke pengguna. [25]

Pada tahun 2007, Google mengumumkan kampanye melawan link berbayar yang mentransfer PageRank. Pada tanggal 15 Juni 2009, Google mengungkapkan bahwa mereka telah mengambil langkah-langkah untuk mengurangi efek dari PageRank memahat dengan menggunakan atribut nofollow pada link. Matt Cutts, seorang insinyur perangkat lunak terkenal di Google, mengumumkan bahwa Google Bot tidak akan lagi memperlakukan tautan nofollow, dengan cara yang sama, untuk mencegah penyedia layanan SEO menggunakan nofollow untuk memahat PageRank. Sebagai akibat dari perubahan ini penggunaan nofollow menyebabkan penguapan PageRank. Untuk menghindari hal di atas, insinyur SEO mengembangkan teknik alternatif yang menggantikan tag nofollowed dengan JavaScript yang dikaburkan dan dengan demikian memungkinkan memahat PageRank. Selain itu beberapa solusi telah disarankan yang mencakup penggunaan iframes, Flash dan JavaScript. [28]

Tidak ada komentar :

Posting Komentar