ترزوب ، طراحی سایت

ارائه بهترین راهکار برای کسب وکار شما

logo

بهینه‌سازی موتور جستجو

Images 25

بهینه‌سازی موتور جستجو، (به انگلیسی: Search engine optimization)، به اختصار سئو (به انگلیسی: SEO)، یک روند مناسب برای بهبود دید یک وب سایت یا یک صفحه وب در نتایج یک موتور جستجوی طبیعی و یا الگوریتمی است. بطور کلی وب گاه‌هایی که بالاترین مکان و بیشترین تکرار در صفحه نتایج جستجو را دارند، بازدید کننده بیشتری از طریق موتورهای جستجو بدست می‌آوردند. «سئو» توانایی انواع جستجو را دارد، از جمله: جستجوی تصاویر، مکانی، جستجوی ویدئو، جستجوی علمی، جستجوی خبری و صنعت خاص در رأس موتور جستجو هستند.

به عنوان یک استراتژی بازاریابی اینترنتی، «سئو» به چگونگی کارکردن موتورهای جستجو و اینکه چه چیزی جستجو می‌شود، رسیدگی می‌کند و همین‌طور کلمات کلیدی تایپ شده و اینکه کدام یک از موتورهای جستجو توسط مخاطبان مورد توجه قرار می‌گیرد را مورد بررسی قرار می‌دهد. بهینه‌سازی وب سایت شامل توسعه مطالب موجود در خود سایت و اچ‌تی‌ام‌ال و برنامه‌نویسی مربوط به هر دو و همچنین ارتباط بین کلمات کلیدی و حذف موانع مربوط به فعالیتهای نمایه سازی در موتور جستجو و ترویج یک سایت برای افزایش تعداد لینک دهنده و یا لینک‌های ورودی، از دیگر تاکتیک‌های جستجوگرها است. در کل «سئو» به معنی بهینه‌سازی موتور جستجو است.

محتویات

۱ تاریخچه
۲ ارتباط با موتورهای جستجو
۳ روش‌ها
۳.۱ فهرست‌شدن
۳.۲ جلوگیری از خزش
۳.۳ افزایش برتری
۴ تکنیک‌های کلاه سفید در مقابل تکنیک‌های کلاه سیاه
۵ به عنوان یک استراتژی بازاریابی
۶ بازارهای بین‌المللی
۷ سوابق حقوقی
۸ جستارهای وابسته
۹ منابع
۱۰ پیوند به بیرون

تاریخچه

از اواسط دهه ۱۹۹۰ میلادی که نخستین موتورهای جستجو اقدام به فهرست کردن وب نخستین کردند، مدیران وب سایت‌ها و تولیدکنندگان محتوا، شروع به بهینه‌سازی سایت‌ها برای موتورهای جستجو نمودند. در ابتدا تمام کارهایی که مدیران وب سایت‌ها باید انجام می‌دادند، ارسال آدرس صفحه به موتورهای مختلفی که یک «عنکبوت» جهت «خزش» آن صفحه می‌فرستادند، استخراج لینک‌های صفحه به سایر صفحات از درون صفحه، و بازگرداندن اطلاعات یافت شده در صفحه جهت ایندکس شدن بود. فرایند به این صورت است که عنکبوت موتور جستجو، یک صفحه را دانلود و آنرا در سرور موتور جستجو ذخیره می‌کند و یک برنامه دیگر موسوم به ایندکس کننده، اطلاعات مختلفی را دربارهٔ صفحه استخراج می‌کند؛ اطلاعاتی از قبیل واژه‌های موجود و محل قرارگیری آنها در صفحه، و نیز وزن خاص واژه‌های بخصوص، و تمام لینک‌های موجود در صفحه، که سپس جهت خزش در زمانی دیگر، در دستور کار قرار می‌گیرد.

مدیران سایت‌ها شروع به بازشناسی ارزش رتبه بالای سایت خود و در دید قرارگرفتن آن در نتایج موتورهای جستجو نمودند که این امر، فرصتی را برای هکرهای غیر مخرب و مخرب شاغل در بخش بهینه‌سازی موتور جستجو مهیا کرد.

طبق نظر یک تحلیل گر صنعتی به نام دنی سالیوان عبارت بهینه‌سازی موتور جستجو احتمالاً در سال ۱۹۹۷ مورد استفاده قرار گرفت. در ۲ ماه می ۲۰۰۷، جیسون گمبرت تلاش کرد تا دفتر ثبت علائم تجاری آریزونا را متقاعد کند که «سئو» فرایندی است شامل دستکاری واژگان کلیدی و نه یک سرویس بازاریابی و از این طریق واژه «سئو» را به عنوان علامت تجاری ثبت کند. وکیل بررسی کننده پرونده، استدلال نامنسجم وی را مبنی بر اینکه «وقتی «سئو» نمی‌تواند ثبت تجاری شود آن هم به دلیل اینکه به یک فرایند عمومی دستکاری واژگان کلیدی اطلاق می‌گردد، می‌تواند یک علامت خدماتی برای تأمین خدمات بازاریابی در حوزه کامپیوتر باشد».
تصویر صفحهٔ نتایج موتور جستجو
یک نمونه از صفحه نتایج موتور جستجو

نسخه‌های اولیه الگوریتم‌های جستجو به اطلاعات فراهم شده توسط مدیران وب سایت‌ها نظیر متا تگ واژه‌های کلیدی، یا فایل ایندکس موتورهای جستجو مانند ای‌ال‌آی‌وب اعتماد و اتکا می‌کردند. متاتگ‌ها یک راهنمایی برای محتوای هر صفحه فراهم می‌کنند. با این‌حال، استفاده از داده‌های متا در صفحات ایندکس، کمتر قابل اطمینان بود زیرا انتخاب واژگان در یک متاتگ توسط وب سایتها، بالقوه می‌تواند یک نمایش غیر دقیق از محتوای واقعی وب سایت باشد. داده‌های نادرست، ناقص و ناسازگار در متا تگ‌ها می‌تواند موجب رتبه‌بندی شدن صفحه برای جستجوهای غیر مرتبط گردد. تولیدکنندگان محتوای شبکه همچنین تعدادی از ویژگی‌های منبع اچ‌تی‌ام‌ال یک صفحه را دستکاری کردند تا رتبه صفحه را در موتورهای جستجو بهبود بدهند.

با تأکید بر عواملی مانند تراکم واژه کلیدی، که بطور انحصاری تحت کنترل مدیر وب سایت است، موتورهای جستجوی اولیه از سوء استفاده و دستکاری رتبه‌بندی رنج می‌بردند. به منظور ارائه نتایج بهتر به کاربران خود، موتورهای جستجو باید انطباق یافته و از نتایج صفحاتی اطمینان یابند که نتایج مرتبط تری دارند، نه نتایج مربوط به صفحاتی که نامربوط بوده و توسط مدیران شبکه بدون وجدان کاری و با استفاده از کلمات کلیدی متعدد پر شده‌اند. از آنجایی که موفقیت و محبوبیت یک موتور جستجو از طریق توانایی آن در تولید نتایج مرتبط تر در قبال هر جستجوی صورت گرفته مشخص می‌شود، کیفیت پایین یا نتایج نامرتبط می‌تواند سبب سوق دادن کاربران به منابع جستجوی دیگر شود. موتورهای جستجو با توسعه الگوریتمی رتبه‌بندی پیچیده‌تر به این عمل پاسخ دادند؛ که در آن عوامل بیشتری مورد توجه قرار می‌گیرند و دستکاری را برای مدیران شبکه، سخت‌تر می‌سازند. لری پیج و سرگئی برین دو دانشجوی فارق التحصیل دانشگاه استنفورد یک موتور جستجو موسوم به بک‌روب را توسعه دادند که جهت ارزیابی برجستگی صفحات وب، به یک الگاریتم ریاضیاتی تکیه داشت. عددی که توسط الگوریتم محاسبه می‌شد، یعنی «رتبه صفحه»، تابعی است از مقدار و قدرت لینک‌های ورودی. رتبه صفحه میزان یک صفحه معین را که توسط یک کاربر که بصورت تصادفی شبکه را جستجو می‌کند مورد دسترسی قرار گرفته، تخمین می‌زند و لینک‌های یک صفحه به صفحه دیگر را دنبال می‌کند. در واقع، این بدان معناست که برخی لینک‌ها از سایر لینک‌ها قوی تر بوده، رتبه صفحه بالاتر احتمال دیده شدن صفحه توسط وب گردهای تصادفی را افزایش می‌دهد.

پیچ و برین، گوگل را در سال ۱۹۹۸ بنیان‌گذاری کردند. گوگل درمیان کاربران فزاینده اینترنت، هواداران ثابت قدمی را به خود جذب کرد که طراحی ساده آن را دوست داشتند. عوامل خارج از صفحه (مانند رتبه صفحه و تجزیه تحلیل لینک) نیز همانند عوامل داخل صفحه (فراوانی واژه‌های کلیدی، متاتگ‌ها، عنوان‌ها، لینک و ساختار وب سایت) مورد توجه قرار گرفتند تا گوگل را قادر به این امر سازند که از نوعی دستکاری که در موتورهای جستجویی دیده می‌شود که تنها به عوامل داخل صفحه توجه می‌کنند، اجتناب نماید. علی‌رغم اینکه به بازی گرفتن رتبه صفحه سخت‌تر بود، مدیران شبکه سرانجام ابزارها و طرح‌های تولید لینک را جهت تحت تأثیر قرار دادن موتور جستجوی اینکتومی توسعه دادند، و این روش‌ها ثابت کردند که به طریقی مشابه می‌توان رتبه صفحه را تحت تأثیر قرار داد. بسیاری از وب سایت‌ها روی تبادل، خرید و فروش لینک در حجم زیاد و وسیع متمرکز هستند. بعضی از این طرح‌ها یا مزارع لینک، موجب ایجاد هزاران وب سایت برای فروش هرزنگاری لینک‌ها می‌شوند.

تا سال ۲۰۰۴، موتورهای جستجو، طیف گسترده‌ای از عوامل نامعلوم را در الگوریتم‌های رتبه‌بندی خود جای داده بودند تا اثر دستکاری لینک‌ها را کاهش دهند. در ژوئن ۲۰۰۷، یک گزارشگر از نیویورک تایمز بنام سول هنسل گفت که گوگل، رتبه‌بندی سایت‌ها را با استفاده از بیش ۲۰۰ علامت مختلف انجام می‌دهد. موتورهای جستجوی پیشرو یعنی گوگل، بینگ و یاهو الگوریتم‌های رتبه‌بندی‌های خود را افشا نمی‌کنند. برخی از شاغلان در سئو روش‌های مختلفی را جهت بهینه‌سازی موتور جستجو مورد مطالعه قرار داده و نظرات شخصی خود را منتشر نموده‌اند. ثبت اختراع‌های مربوط به موتورهای جستجو می‌تواند اطلاعاتی را برای درک بهتر موتورهای جستجو فراهم نماید.

در سال ۲۰۰۵، شروع به شخصی‌سازی نتایج جستجو برای هر کاربر نمود. بر اساس تاریخچه جستجوهای قبلی آنها، گوگل اقدام به ایجاد نتایج برای کاربرانی نمود که وارد حساب کاربری خود شده‌اند. در سال ۲۰۰۸، بروس کلی گفت که «رتبه‌بندی مرده است» زیرا جستجوی شخصی شده سبب آن می‌گردد. او احضار کرد که بحث در مورد نحوه رتبه‌بندی یک وب سایت بی‌معنی است؛ زیرا رتبه یک وب سایت، بالقوه برای هر کاربر و هر جستجو می‌تواند متفاوت باشد.
در سال ۲۰۰۷، گوگل کمپینی به راه انداخت علیه لینک‌هایی که در ازای پرداخت پول، رتبه صفحه را منتقل می‌کنند. در ۱۵ ژوئن ۲۰۰۹، گوگل فاش کرد که اقداماتی در پیش گرفته تا با استفاده از ویژگی‌های نوفالو در لینک‌ها، اثر مدلسازی رتبه صفحه را کاهش دهد. مت کاتس یک مهندس نرم‌افزار شناخته شده در گوگل، اعلام کرد که عنکبوت خزنده گوگل دیگر به طریق مشابه به لینک‌های دنبال نشده نمی‌پردازد تا تأمین کنندگان خدمات سئو را از استفاده از آن در تعیین مدلسازی رتبه صفحه منع نماید. در نتیجه این تغییر استفاده از نوفالو منجر به از دست رفتن رتبه صفحه می‌شود. به منظور اجتناب از این امر، مهندسان سئو تکنیک‌های جایگزینی را توسعه دادند که تگ‌های نوفالو شده را با جاوا اسکریپت مبهم جایگزین کرده و در نتیجه، مدلسازی رتبه صفحه را میسر می‌سازد. بعلاوه چند راه حل پیشنهاد شده است که شامل استفاده از آی‌فریم، فلش، جاوا اسکریپت می‌شود.
در دسامبر ۲۰۰۹، گوگل اعلام کرد که از سوابق جستجوی تمام کاربرانش جهت جمع‌آوری نتایج جستجو استفاده خواهد کرد.

در ۸ ژوئن ۲۰۱۰ از یک سیستم ایندکس گذاری جدید موسوم به گوگل کافئین رونمایی شد. گوگل کافئین تغییری بود در روش به روز شدن ایندکس گوگل به منظور نمایش سریعتر نتایج گوگل نسبت به گذشته. این سیستم طراحی شد تا به کاربرها اجازه یافتن سریعتر از قبل نتایج جدید، پستهای فورم‌ها و سایر مطالب را بلافاصله پس از انتشار آنها بدهد. Carrie Grimes مهندس نرم‌افزاری که به گوگل، سیستم کافئین را معرفی کرد، معتقد است که این سیستم جستجوهای شبکه را ۵۰ درصد نسبت به ایندکس پیشین بهبود می‌دهد.

گوگل اینستنت، یا جستجوی زمان واقعی، در اواخر سال ۲۰۱۰ در تلاشی به منظور به‌هنگام‌تر و مرتبط نمودن جستجوها ارائه شد. به‌طور تاریخی، ادمین‌های وب سایت‌ها، ماه‌ها و یا حتی سالها روی بهینه‌سازی یک وب سایت و ارتقای رتبهٔ جستجوی آن زمان گذاشته‌اند. با گسترش عمومیت وب سایت‌ها و وبلاگ‌های رسانه‌های اجتماعی، موتورهای جستجوی پیشرفته در الگوریتم‌های خود تغییراتی ایجاد کردند تا مطالب تازه به سرعت در میان نتایج جستجو رتبه‌بندی شوند.

در فوریه ۲۰۱۱، از آپدیت پاندا خبر داد که وب سایت‌هایی را که حاوی محتوای تکثیر شده از وب سایت‌ها و منابع دیگر باشند، جریمه می‌کند. بطور تاریخی، وب سایت‌ها محتوا را از یکدیگر کپی کرده و از آن در رتبه‌بندی موتورهای جستجو بهره‌مند شده‌اند. با این حال، گوگل یک سیستم جدید پیاده‌سازی کرد که سایتهایی را که حاوی محتوای منحصر به فرد نیستند، جریمه می‌کند.

در آوریل ۲۰۱۲، گوگل از آپدیت گوگل پنگوئن رونمایی کرد که هدف آن، جریمه کردن وب سایت‌هایی بود که از روش‌های دستکاری جهت بهبود رتبه خود در موتورهای جستجو استفاده می‌کردند.

در سپتامبر ۲۰۱۳، کمپانی گوگل از آپدیت الگوریتم مرغ مگس خوار رونمایی کرد؛ یک الگوریتم که جهت بهبود پردازش زبان طبیعی گوگل و درک معنایی صفحات وب طراحی شد.
ارتباط با موتورهای جستجو

تا سال ۱۹۹۷، طراحان موتورهای جستجو دریافتند که مدیران وب سایتها تلاش می‌کنند که در موتورهای جستجوی آنها رتبه بهتری داشته باشند. آنان همچنین متوجه شدند که برخی از مدیران وب، حتی رتبه‌های خود در نتایج جستجو را از طریق لبریز نمودن صفحات خود با واژگان کلیدی بسیار زیاد یا نامرتبط، دستکاری می‌کردند. موتورهای جستجوی اولیه، نظیر آلتا ویستا یا اینفوسیک، الگوریتم‌های خود را جهت جلوگیری مدیران وب در دستکاری رتبه‌ها، مجدداً سازگار کردند.
در سال ۲۰۰۵، یک کنفرانس سالانه موسوم به بازیابی اطلاعات خصمانه در وب (AIRWeb) تا شاغلان و محققان مرتبط با موتورهای جستجو و بهینه‌سازی آن را به هم مرتبط سازد.

وب سایت‌های مشتری کمپانی‌هایی که از تکنیک‌های بیش از حد تهاجمی استفاده می‌کنند، می‌توانند در نتایج جستجو مسدود گردد. در سال ۲۰۰۵، وال استریت ژورنال گزارش داد که کمپانی ترافیک پاور، به گفته برخی افراد، از تکنیک‌های دارای ریسک بالا استفاده کرده و آنرا به مشتری‌های خود اطلاع نداده است. مجله Wired گزارش داد که همان کمپانی از آرون وال، وبلاگ نویس و سئو، بخاطر نوشتن در مورد بستن و تحریم شکایت کرده است. مت کاتس از کمپانی گوگل بعدها تأیید کرد که گوگل عمداً شرکت ترافیک پاور و برخی از مشتریان آنرا توقیف کرده است.

برخی از موتورهای جستجو نیز به صنعت سئو دست زده و تبدیل به حامیان مالی پر رفت‌وآمد و مهمان در کنفرانس‌ها، چت‌ها و سمینارهای سئو شده‌اند. موتورهای جستجوی اصلی، اطلاعات و دستورالعمل‌های چگونگی بهینه‌سازی وب سایت را فراهم می‌سازند. کمپانی گوگل برای کمک به مدیران شبکه، یک برنامه نقشه سایت دارد که در صورت وجود هر مشکلی در ایندکس نمودن وب سایت‌های مدیران شبکه، به آنها اطلاع داده و نیز داده‌های ترافیک گوگل مربوط به وب سایت آنها را در اختیارشان قرار می‌دهد. بینگ وبمستر تول به مدیران شبکه امکان ارسال یک نقشه سایت و فیدهای شبکه را داده و کاربرها را نیز قادر به تشخیص میزان خزش ردیابی وضعیت ایندکس صفحات وب می‌سازد.
روش‌ها
فهرست‌شدن
موتورهای جستجو از الگوریتم‌های ریاضیاتی پیچیده‌ای استفاده می‌کنند تا وب سایت‌های مورد جستجوی کاربر را حدس بزنند. در این نمودار، اگر هر حباب نشان دهنده یک وب سایت باشد، برنامه‌هایی که گاهی عنکبوت نامیده می‌شوند، بررسی می‌کنند که کدام سایت‌ها به کدام سایت‌های دیگر لینک شده‌اند که آنرا با فلش‌هایی که بیانگر این امر است، نمایش می‌دهد. وب سایت‌هایی که لینکهای ورودی بیشتر یا لینک‌های قوی تری می‌گیرند، فرض می‌شود که مهمتر باشند و همان چیزی مفروض می‌شوند که کاربر، جستجو می‌کند. در این مثال، چون وب سایت B تعداد زیادی لینک ورودی دریافت می‌کند، در رتبه بالاتری در یک جستجوی وب قرار می‌گیرد؛ و لینک‌های مکمل مانند وب سایت C، علی‌رغم اینکه فقط یک لینک ورودی دارد، یک لینک ورودی از یک سایت بسیار محبوب (B) دارد؛ در حالیکه سایت E چنین لینکی ندارد. توجه: درصدها گرد شده‌اند.

موتورهای جستجوی پیشرو مانند جستجوگر گوگل، بینگ، یاهو! جستجو از خزنده‌ها جهت پیدا کردن صفحات مرتبط با نتایج جستجوی الگوریتمیک خود استفاده می‌کنند. صفحاتی که از صفحات ایندکس شده یک موتور جستجوی دیگر لینک می‌شوند، نیازی به ارسال ندارد زیرا بطور خودکار پیدا می‌شوند.

دو دایرکتوری عمده یاهو دایرکتوری، دی‌موز نیازمند ارسال دستی و بازنگری انسانی هستند. شرکت گوگل Google Webmaster Tools را پیشنهاد می‌دهد که یک فید نقشه سایت اکس‌ام‌ال می‌تواند برای آن ایجاد و بطور رایگان ارسال شود تا این اطمینان حاصل شود که تمامی صفحات خصوصاً آنهایی که با دنبال کردن خودکار لینک‌ها قابل شناسایی نیستند، قابل دستیابی هستند. در گذشته یاهو! یک سرویس ارسال پرداختی داشت که خزش را به ازای مقداری هزینه در هر کلیک تضمین می‌کرد که در سال ۲۰۰۹، این سرویس متوقف شد
خزنده‌های موتور جستجو می‌توانند هنگام خزش یک وب سایت، به تعداد عوامل مختلفی توجه کنند. هر صفحه‌ای توسط موتور جستجو ایندکس نمی‌شود. فاصله صفحات از دایرکتوری اساسی ممکن است یک عامل در خزش یا عدم خزش در صفحات باشد.
جلوگیری از خزش

به منظور جلوگیری از محتوای نامطلوب در ایندکس‌های جستجو، مدیران شبکه می‌توانند به عنکبوت‌ها دستور بدهند که فایل‌ها یا دایرکتوری‌های خاصی را درون فایل استاندارد robots.txt در دایرکتوری اصلی دامنه، مورد بررسی و خزش قرار ندهند. بعلاوه، یک صفحه می‌تواند صراحتاً از پایگاه‌داده‌ها مورد جستجو خارج شود که این عمل از طریق استفاده از متاتگ‌های مخصوص به ربات‌ها صورت می‌گیرد. هنگامی که یک موتور جستجو از یک سایت بازدید می‌کند فایل robots.txt واقع در دایرکتوری اصلی، نخستین جایی است که مورد خزش قرار می‌گیرد. سپس فایل robots.txt تجزیه شده و به ربات دستور داده می‌شود که کدام صفحات نباید مورد بررسی و خزش قرار می‌گیرد. از آنجایی که خزنده موتور جستجو ممکن است که یک نسخه از این فایل را نگه دارد گاهی ممکن است که صفحاتی مورد خزش قرار می‌گیرند که مدیر شبکه تمایلی به آنها ندارد. بطور معمول، صفحاتی که از خزش خارج می‌شوند عبارتند از صفحات ورودی خاص مانند صفحات مربوط به کارتهای خرید و صفحات مربوط به محتوای شخصی کاربر نظیر نتایج جستجوی حاصل از جستجوهای داخلی. در مارس ۲۰۰۷، گوگل به مدیران شبکه هشدار داد که باید از ایندکس شدن نتایج جستجوی داخلی جلوگیری کنند زیرا این صفحات، هرزنامه جستجو هستند.
افزایش برتری

روش‌های گوناگونی می‌توانند برتری یک صفحه وب را در میان ننتایج جستجو افزایش دهند. لینک کردن متقابل صفحات یک وب سایت جهت فراهم نمودن لینک‌های بیشتر به صفحات مهمتر، می‌تواند شانس در دید بودن آن را افزایش دهد. نوشتن محتوایی که شامل کلمات کلیدی باشد، به نحوی که متن حاصل، به طیف گسترده‌ای از ورودی‌های جستجو مرتبط باشد، می‌تواند سبب افزایش ترافیک شود. به روز رسانی محتوا بمنظور خزش مکرر توسط موتورهای جستجو می‌تواند یک وزن اضافی به سایت بدهد. اضافه نمودن کلمات کلیدی مرتبط با فرا داده‌هایی که یک صفحه وب شامل تگ عنوان و فرا توضیح، می‌تواند منجر به بهبود رابطه لیست‌های جستجوی یک وب سایت و در نتیجه افزایش ترافیک شود. نرمالیزه کردن نشانی اینترنتی صفحات وب در دسترس نشانی‌های اینترنتی متعدد، با استفاده از عنصر لینک متعارف یا از طریق ریدایرکت‌های ۳۰۱، می‌تواند این اطمینان را فراهم آورد که لینک به نسخه‌های مختلف آدرس جهت محاسبه نمره محبوبیت لینک صفحه، مورد توجه و استفاده قرار می‌گیرد.
تکنیک‌های کلاه سفید در مقابل تکنیک‌های کلاه سیاه

تکنیک‌های سئو می‌توانند به دو گروه عمده طبقه‌بندی شوند: تکنیک‌هایی که موتورهای جستجو به عنوان بخشی از یک طراحی خوب توصیه می‌کنند، و تکنیک‌هایی که مورد تأیید موتورهای جستجو نیست. موتورهای جستجو تلاش می‌کنند که اثر دسته دوم را کاهش دهند هرز آگهی‌ها از آن جمله هستند. مفسران صنعتی و شاغلانی که از این تکنیک‌های سئو استفاده می‌کنند، آنها را به سئو کلاه سفید یا کلاه سیاه طبقه‌بندی کرده‌اند. تکنیک‌های کلاه سفید تمایل به تولید نتایجی دارند که مدت زمان زیادی برقرار هستند، در حالیکه تکنیک‌های کلاه سیاه پیش بینی می‌کنند که وب سایت‌های آنها در نهایت ممکن است بطور موقت یا دائم توقف گردد؛ هنگامی که موتورهای جستجو سر از کارشان درآورند. یک تکنیک سئو کلاه سفید تلقی می‌شود، اگر از دستور العمل‌های موجود جستجو پیروی کرده و فریبی در کارش نباشد. از آنجاییکه دستورالعمل‌های موتور جستجو به عنوان مجموعه‌ای از قوانین نوشته نشده است، این یک تمایز مهم و قابل توجه است.

تکنیک سئو کلاه سفید تنها دربارهٔ تبعیت از دستورالعمل‌ها نیست، اما در مورد حصول اطمینان از این امر است که محتوایی که یک موتور جستجو ایندکس کرده و سپس رتبه‌بندی می‌کند، مشابه همان محتوایی باشد که یک کاربر خواهد دید. مشاوره کلاه سفید در مجموع جهت ایجاد محتوا برای کاربران مورد استفاده قرار می‌گیرد، نه برای موتورهای جستجو. سپس، آن محتوا به جای تلاش جهت تحریک نمودن الگوریتم و فریب دادن آن از اهداف مورد نظر خود، به سادگی در دسترس عنکبوت‌ها قرار می‌گیرد. تکنیک‌های کلاه سفید در بسیاری جهات شبیه توسعه وب هستند که در دسترس بودن را ارتقاء می‌دهد؛ هرچند که این دو یکسان نیستند.

تکنیک‌های سئو کلاه سیاه تلاش می‌کنند تا رتبه‌بندی را از طریق فریب از روش‌ها و راه‌هایی که مورد تأیید موتور جستجو نیست، بهبود دهند. یک تکنیک کلاه سیاه از متن پنهان شده به عنوان متن رنگ آمیز شده مشابه با پس زمینه یک div نامرئی، یا بعنوان متنی در خارج از صفحه نمایش استفاده می‌کنند. تکنیک دیگر، تکنیکی موسوم به کلاکینگ است که بسته به اینکه یک صفحه توسط بازدید کننده انسانی فراخوانی شود یا توسط یک موتور جستجو، صفحه متفاوتی را بدست می‌دهد.

دسته دیگری که گاهی مورد استفاده قرار می‌گیرد، سئو کلاه خاکستری است. این تکنیک بین کلاه سفید و سیاه است که از روش‌هایی استفاده می‌کند که از مجازات سایت جلوگیری می‌کند، اما با این وجود، بهترین محتوا را برای کاربر مهیا نکرده و ترجیحاً روی بهبود رتبه‌بندی‌های موتور جستجو تمرکز می‌کند.

موتورهای جستجو ممکن است سایت‌هایی را که از روش‌های کلاه سیاه استفاده می‌کنند را جریمه کنند، که این امر از طریق کاهش دادن رتبه آنها، یا حذف کردن لیست‌های آنها از دیتابیس‌های خود و یا همه موارد می‌تواند صورت گیرد. چنین مجازات‌هایی می‌توانند بطور خودکار توسط الگوریتم‌های موتور جستجو یا از طریق بازنگری دستی سایت صورت پذیرد. یک نمونه، حذف ریکو و بی‌ام‌دبلیو از گوگل در فوریه ۲۰۰۶ به دلیل استفاده از شیوه‌های فریبنده بود. با این حال، هر دو کمپانی به سرعت عذرخواهی کرده و با اصلاح نمودن صفحات متخلف، به لیست گوگل بازگشتند.
به عنوان یک استراتژی بازاریابی

سئو یک روش و استراتژی بازاریابی مناسب برای همه وب سایت‌ها نیست و بر اساس هدف گردانندگان یک وب سایت، استراتژی‌های بازاریابی اینترنتی دیگر مانند تبلیغات از طریق پرداخت کلیکی می‌تواند مؤثرتر باشد. همچنین، یک کمپین تبلیغات اینترنتی موفق می‌تواند به ساختن صفحات وب دارای کیفیت بالا بستگی داشته باشد که بکارگیری نرم‌افزارهای تحلیل را ترغیب می‌نماید تا صاحبان سایت‌ها قادر به ارزیابی نتایج، و بهبود نرخ تبدیل سایت شوند.

سئو ممکن است بازگشت سرمایه مناسب و کافی بدست دهد. با این حال، موتورهای جستجو بخاطر ترافیک جستجوی اصلی وجهی دریافت نمی‌کنند، الگوریتم‌های آنها تغییر می‌کند و تضمینی برای ارجاعات پیوسته آنها وجود ندارد. با توجه به این عدم تضمین و اطمینان، کسب و کاری که شدیداً وابسته به ترافیک موتور جستجو است، می‌تواند دچار زیان‌های عمده ایی شود؛ اگر موتور جستجو از فرستادن بازدیدکننده دست بکشند. موتورهای جستجو می‌توانند الگوریتم‌های خود را تغییر داده، جایگاه یک سایت را تحت تأثیر قرار دهند و احتمالاً در از دست دادن جدی ترافیک یک سایت، نقش ایفا کنند. بر اساس اعلام Eric Schmidt مدیر عامل گوگل، این کمپانی در سال ۲۰۱۰ بیش از ۵۰۰ تغییر در الگوریتم خود ایجاد کرده است؛ یعنی حدود ۵/۱ تغییر در هر روز. این یک اقدام کاری عاقلانه برای اپراتورهای وب سایت‌ها است که خود را از وابستگی به ترافیک موتور جستجو رها نمایند.
بازارهای بین‌المللی

تکنیک‌های بهینه‌سازی شدیداً متناسب با موتورهای جستجو غالب در بازار هدف تنظیم می‌شوند. سهام بازار موتورهای جستجو از بازاری به بازاری دیگر و مانند وجود یک رقابت، تغییر می‌کنند. در سال ۲۰۰۳، دنی سالیوان اظهار کرد که گوگل حدود ۷۵ درصد کل جستجوها را انجام داده است. در بازارهای خارج از آمریکا، سهم گوگل اغلب بیشتر است و از سال ۲۰۰۷، گوگل در جایگاه موتور جستجوی غالب در سراسر جهان باقی‌مانده است. از سال ۲۰۰۶، گوگل ۸۵ تا ۹۰ درصد سهم بازار آلمان را در اختیار دارد. در حالیکه صدها شرکت سئو در آن زمان در آمریکا وجود داشت، فقط حدود ۵ مورد از آن در آلمان کار می‌کرد. از ژوئن ۲۰۰۸، بر اساس اعلام هیت‌وایس، سهم گوگل از بازار بریتانیا نزدیک به ۹۰ درصد بوده است. آن عدد از طریق چند کشور حاصل می‌شود.

از سال ۲۰۰۹، تنها چند بازار بزرگ وجود دارد که گوگل در آنها، موتور جستجوی پیشرو نیست. در اغلب موارد، هنگامی که گوگل در یک بازار خاص، پیشرو نیست، پشت سر یک رقیب محلی قرار دارد. قابل توجه‌ترین نمونه‌های این موارد، کشورهای چین، ژاپن، کره جنوبی، روسیه و جمهوری چک هستند که به ترتیب، بایدو، یاهو! , ژاپن، ناور، یاندکس و شزنم پیش روی بازارها هستند.

بهینه‌سازی جستجوی موفق برای بازارهای بین‌المللی، ممکن است نیازمند ترجمه حرفه‌ای صفحات وب، ثبت یک دامنه با یک دامنه سطح بالا در بازار هدف و میزبانی است که آدرس IP محلی را فراهم نماید. در غیر این صورت، بدون توجه به زمان، عناصر اساسی بهینه‌سازی جستجو، اساساً مشابه هستند.
سوابق حقوقی

در ۱۷ اکتبر ۲۰۰۲، سرچ‌کینگ در دادگاه منطقه‌ای آمریکا در منطقه غربی اوکلاهاما، دادخواستی علیه موتور جستجوی گوگل داد. او ادعا کرد که تاکتیک‌ها و روش‌های گوگل در جلوگیری از هرزآگهی‌ها، موجب ایجاد یک تداخل زیان آور با روابط قراردادی شده است. در ۲۷ می ۲۰۰۳، دادگاه شکایت علیه گوگل را رد کرد زیرا سرچ‌کینگ نتوانست ادعایش را که می‌توانست منجر به دریافت خسارت شود، اثبات کند.

در مارس ۲۰۰۶، کیندراستارت به دلیل رتبه‌بندی‌های موتور جستجوی گوگل، در دادگاه طرح دعوی کرد. پیش از این اقامه دعوی، وب سایت کیندراستارت از ایندکس گوگل خارج شد و ترافیک سایت تا ۷۰ درصد کاهش یافت. در ۱۶ مارس ۲۰۰۷، دادگاه منطقه‌ای آمریکا در منطقه شمالی کالیفرنیا (بخش سن خوزه) شکایت کیندراستارت را رد کرده و این شرکت را مکلف به پرداخت بخشی از هزینه‌های حقوقی گوگل کرد.

منبع

Copyright © 2017 | کلیه حقوق مادی و معنوی این سایت متعلق به ترز وب می باشد