همانطور که در قسمت اول گفتیم، موتور جستجوگر ماشینی پاسخ‌دهنده است. آن‌ها برای کشف، درک و سازمان‌دهی محتوای موجود در اینتنت طراحی شده‌اند تا از این طریق بتوانند مرتبط‌ترین نتیجه را به سوالاتی که جستجوگران دارند، ارائه دهند.

قسمت دوم: موتور جستجوگر چگونه کار می‌کند ؟ Indexing , Crawling , Ranking یعنی چه؟

اول از هرکاری، باید قابل دیده‌شدن باشید!


برای اینکه در میان نتایج جستجو دیده شوید، محتوای شما در مرحله اول باید برای موتور جستجوگر قابل درک باشد. این مسلما مهم‌ترین قسمت از پازل سئو است. اگر سایت شما نتواند پیدا شود، هیچ راهی برای دیده شدن در SERP (صفحه نتایج موتور جستجو) ندارید.

موتور جستجوگر چگونه کار می‌کند؟

موتورهای جستجوگر ۳ وظیفه اصلی دارند:

۱. Crawl یا همان خزیدن: آن‌ها اینترنت را زیر و رو می‌کنند و به هر لینکی که می‌رسند، درون آن دنبال کد یا محتوا می‌گردند.

۲. فهرست‌بندی یا ایندکس: بعد از فرایند خزیدن، محتوایی که پیدا شده باید فهرست‌بندی شود. وقتی یک صفحه فهرست بندی یا اصطلاحا index شود، آماده نمایش داده شدن در SERP است.

۳. رتبه بندی یا Rank: محتوایی را که بهترین پاسخ به سوال جستجوگر است نشان می‌دهد، به این ترتیب که نتایج نمایش داده شده از مرتبط‌ترین به بی‌ربط‌ترین چیده می‌شوند.

خزیدن یا Crawling در موتورهای جستجوگر یعنی چه؟

خزیدن یک پروسه همانند اکتشاف است که موتور جستجوگر تعدادی ربات (خزنده Crawlers و spiders) را برای پیدا کردن محتوای تازه و به‌روزشده وارد میدان می‌کند. محتوا می‌تواند متفاوت باشد. محتوا ممکن است یک صفحه وب، یک عکس، ویدیو، ‌PDF و … باشد. ولی بدون توجه به فرمت آن، محتوی از طریق لینکش شناسایی می‌شود.

خزیدن موتور جستجوگر چیست؟ Crawling یعنی چه؟

ربات‌های گوگل ابتدا جذب چند صفحه وب می‌شوند و سپس لینک‌های درون این صفحات را دنبال می‌کنند تا به لینک‌ها یا URL های جدید برسند. با پرش در این مسیر لینک‌ها، ربات خزنده (Crawler) می‌تواند محتوای جدید را پیدا کند و به فهرست خود که اصطلاحا کافئین (پایگاه‌داده‌ای عظیم از لینک‌ها) نامیده می‌شود اضافه کند. از این طریق بعدا که شخصی دنبال اطلاعات است، موتور جستجوگر لینکی را که مرتبط‌ترین محتوی را دارد تحویل می‌دهد.

index یا فهرست موتور جستجوگر چیست؟

موتور جستجوگر، اطلاعاتی را که در فهرست خود دارد، پردازش و ذخیره می‌کند. ایندکس یا همان فهرست یک دیتابیس عظیم از تمامی محتواییست که موتور جستجوگر پیدا کرده و به اندازه کافی برای پاسخ به سوالات جستجوگر مناسب است.

رتبه‌ بندی در موتور جستجوگر

وقتی کسی اصطلاحا سرچ می‌زند، موتور جستجو فهرست خود را برای یافتن مرتبط‌ترین محتوا الک می‌کند و سپس به امید اینکه کاربر به پاسخ پرس‌وجوی خود برسد، آن‌ها را به ترتیب می‌چیند. این ترتیب چینش بر اساس مرتبط بودن، به رتبه‌بندی مشهور است. به صورت کلی باید اینگونه فرض کنید که هرچه موتور جستجوگر محتوا را مرتبط‌تر به پرس‌وجوی کاربر تشخیص دهد، رتبه بهتری نسیب آن وبسایت خواهد شد.

این امکان وجود دارد که از خزنده‌ها (Crawler) بخواهید که بخشی یا همه وبسایت شما را پوشش ندهند یا به موتورهای جستجوگر آموزش دهید که از ذخیره‌‌سازی صفحاتی خاص در فهرستشان جلوگیری شود. در حالی که ممکن است این کار از قصد انجام شود، با این حال اگر بخواهید که محتوایتان توسط جستجوگران پیدا شود، اول باید مطمئن شوید که محتوی برای ربات خزنده (Crawler)  قابل دسترسی و قابل فهرست‌بندی است. در غیر این صورت، محتوای شما نامرئی تلقی می‌شود.

در پایان این قسمت شما زمینه لازم برای کار کردن با موتور جستجوگر را به جای اینکه با آن بجنگید، بدست می‌آورید.

گاهی این سوال پیش می‌آید که چرا همه توجهات در سئو به گوگل است. در این مورد باید گفت که بیش از ۹۰ درصد از جستجوها در وب، توسط گوگل انجام می‌شود.

Crawling: آیا موتور جستجوگر می‌تواند صفحات شما را پیدا کند؟

همانطور که یاد گرفتید، اطمینان از اینکه ربات‌ها به سایت شما دسترسی پیدا کنند و آن را فهرست‌بندی کنند، پیش‌زمینه‌ای برای دیده شدن در SERP است. اگر هم‌اکنون وبسایتی دارید، شروع کردن به پیدا کردن تعداد صفحاتی از آن که در نتایج جستجو فهرست‌بندی شده اند، کار خوبیست.

این به شما کمک می‌کند که ببینید آیا گوگل در همه صفحاتی که می‌خواهید ایندکس شوند می‌خزد یا نه.

یکی از راه‌هایش این است که از عبارت “Site:” پیش از آدرس وبسایتتان در جعبه جستجوی گوگل استفاده کنید.  این عملگر تمامی صفحاتی را که گوگل از این سایت در پایگاه‌داده خود ذخیره نمایش می‌دهد.

موتور‌های جستجوگر چگونه صفحات شما را پیدا‌ می‌کنند؟ Crawlingتعداد نتایجی که گوگل در بالای صفحه نشان می‌دهد، دقیق نیست ولی به طور کلی به شما نشان می‌دهد که چه صفحاتی از وبسایتتان در گوگل ذخیره شده‌اند.

برای داشتن اطلاعات دقیق‌تر، باید از گزارشاتی که ابزار سرچ کنسول گوگل (Google Search Console) می‌دهد استفاده کرد. اگر هنوز این ابزار را ندارید، شما می‌توانید به صورت رایگان در گوگل سرچ کنسول ثبت نام‌ کنید. با استفاده از این ابزار، شما می‌توانید “نقشه سایت” یا همان Sitemap خود را برای وبسایتتان ارسال کنید و ببینید که چه صفحاتی که شما درخواست کرده‌اید واقعا به فهرست گوگل اضافه شده‌اند.

اگر در نتایج جستجو اثری از شما نیست، چند اتفاق ممکن است که افتاده باشد:

  • سایت شما کاملا جدید است و هنوز Crawl نشده است.
  • سایت شما به هیچ وبسایت دیگری لینک نشده است.
  • ناوبری وبسایت شما کار را برای ربات گوگل جهت خزیدن در آن سخت کرده است.
  • سایت شما حاوی کدهای ساده‌ایست که به Crawler directives معروفند و جلوی موتورهای جستجوگر را می‌گیرد.
  • سایت شما توسط تاکتیک‌های جلوگیری از اسپم گوگل جریمه شده است.

به موتور جستجوگر بگویید که چگونه در وبسایت شما بخزد!

اگر از گوگل سرچ کنسول یا عملگر “site:” استفاده کردید و متوجه شدید که بعضی از مهم‌ترین صفحات شما فهرست‌بندی نشده‌اند یا تعدادی از صفحاتی که چندان مهم نیستند، اشتباها در نتایج وجود دارند، برای اینکه ربات‌های گوگل را بهتر راهنمایی کنید، راه‌حل‌هایی وجود دارد. کمک به موتورهای جستجوگر برای اینکه بدانند چگونه در وبسایت شما بخزند، می‌تواند کمک کند که کنترل بیشتری روی صفحاتی که ذخیره می‌شوند داشته باشید.

اکثر افراد به اطمینان از اینکه گوگل می‌تواند صفحات مهمشان را پیدا کند فکر می‌کنند، ولی خیلی راحت یادشان می‌رود که ترجیح می‌دهند چه صفحاتی از دید گوگل پنهان بماند. این صفحات شامل لینک‌ها یا URLهای قدیمی که محتوایی ضعیف دارند، لینک‌های دابلیکیت شده (مثل صفحات چینش و فیلترهایی که در وبسایت‌های فروشگاهی وجود دارد)، صفحات تست و … هستند.

برای هدایت ربات گوگل جهت دوری از این صفحات، از فایل Robots.txt استفاده کنید.

Robots.txt

فایل Robots.txt در همان پوشه اصلی وبسایت وجود دارد و پیشنهاد می‌دهد که چه بخش‌هایی از سایت شما توسط موتور جستجوگر Crawl شوند یا نشوند، همچنین سرعتی که ربات‌ها سایت شما را بررسی می‌کنند نیز قابل تعیین است.

ربات‌های گوگل چگونه از فایل Robot.txt استفاده می‌کنند؟

اگر ربات گوگل نتواند فایل robots.txt را پیدا کند،‌ همینطور به خزیدن در وبسایت ادامه می‌دهد.

اگر ربات گوگل فایل robots.txt را برای یک سایت پیدا کند، معمولا از پیشنهادات موجود در آن اطاعت می‌کند و طبق آن در سایت Crawl می‌کند.

اگر ربات در حالی که برای دسترسی به فایل robots.txt تلاش می‌کند به ارور یا خطا برخورد کند و نتواند تشخیص دهد که آیا این فایل وجود دارد یا نه، در سایت نمی‌خزد. (عمل Crawling انجام نمی‌شود)

بودجه خزیدن را بهینه کنید!

بودجه خزیدن یا همان Crawl budget میانگینی از تعداد لینک‌هایی است که ربات گوگل قبل از ترک وبسایتتان بررسی می‌کند. بهینه کردن بودجه خزیدن این اطمینان را می‌دهد که ربات گوگل وقتش را با خزیدن میان صفحاتی که مهم نیستند تلف نکند. برای وبسایت‌هایی که صدهاهزار لینک دارند، این موضوع اهمیت بیشتری پیدا می‌کند، ولی به طور کلی این ایده که Crawlerها را از دسترسی به صفحات بی‌اهمیت دور کنید ضرری نمی‌زند.

تعیین پارامترهای URL در گوگل سرچ کنسول

برخی از وبسایت‌ها (اکثر فروشگاه‌های اینترنتی) یک محتوای یکسان را از طریق اضافه کردن چند پارامتر، با چند آدرس (URL) مختلف نشان می‌دهند. اگر خرید اینترنتی کرده باشید، احتمالا جستجوی خود در یک فروشگاه را با اضافه کردن چند فیلتر، محدود به کالاهایی خاص کرده باشید. برای مثال فرض کنید که در وبسایت یک فروشگاه کلمه “کفش” را جستجو می‌کنید، سپس با انتخاب سایز، رنگ و استایل مورد نظرتان، نتایج را محدودتر می‌کنید تا راحت‌تر محصولات مورد نظرتان را ببینید. هر بار که نتایج را محدود می‌کنید یا اصطلاحا یک فیلتر اضافه می‌کنید، URL یا همان آدرس وبسایت به شکل‌های زیر تغییر می‌کند:

/www.example.com/products/women/dresses/green.htm

https://www.example.com/products/women?category=dresses&color=green

https://example.com/shopindex.php?product_id=32&highlight=green+dress
&cat_id=1&sessionid=123$affid=43

گوگل چگونه باید بفهمد که کدام یک از ورژن‌های URL را ایندکس کند؟ گوگل به خودی‌خود بسیار عالی انتخاب می‌کند که کدام لینک را نمایش بدهد، ولی شما می‌توانید از ابزار URL Parameters در گوگل سرچ کنسول استفاده کنید تا به گوگل بگویید که دقیقا شما ترجیح می‌دهید که چگونه صفحاتتان را ایندکس کند. اگر از این ابزار استفاده کنید و به ربات گوگل دستور بدهید که لینک‌های حاوی پارامتری خاص را Crawl نکند، در واقع این صفحات از میان نتایج گوگل حذف می‌گردند. زمانی که این پارامترها باعث ایجاد چند صفحه یکسان در نتایج جستجو شده باشند یا اصطلاحا به مشکل Duplicate page برخورده باشید، باید این کار را انجام بدهید. با این حال اگر ترجیح می‌دهید که این صفحات ایندکس شوند، کار ایده‌آلی نیست.

آیا Crawler یا خزنده‌های گوگل می‌توانند محتوای مهم شما را پیدا کنند؟

حالا که از وجود تکنیک‌هایی جهت دور نگه داشتن خزنده‌ها از صفحات بی‌اهمیت خود باخبر شدید، نوبت به بهینه‌سازی‌هایی رسیده که به ربات گوگل جهت پیدا کردن صفحات مهمتان کمک می‌کند.

گاهی اوقات موتور جستجوگر می‌تواند با خزیدن در وبسایتتان، بخشی از آن را پیدا کند. ولی بعضی صفحات یا بخش‌ها ممکن است به دلایلی مبهم باشند. مهم است که مطمئن شوید موتورهای جستجوگر نه تنها صفحه خانه وبسایت، بلکه توانایی پیدا کردن تمامی محتوایی که می‌خواهید ایندکس شوند را دارند.

این سوال را از خود بپرسد، آیا ربات می‌تواند در میان وبسایت شما بخزد، نه اینکه فقط واردش شود؟

آیا محتوای شما برای دیده شدن نیاز به پر کردن فرم “ورود” دارد؟

خزنده قطعا نمی‌تواند در وبسایت شما اکانت بسازد که بخواهد واردش شود! اگر برای دیدن محتوای شما، بینندگان وبسایتتان مجبور شوند فرم “ورود” را پر کننده، موتورهای جستجوگر نمی‌توانند آن محتوی را تشخیص دهد.

آیا وضعیت شما جوریست که حساب زیادی روی “فرم جستجو” باز کرده‌اید؟

ربات‌ها نمی‌توانند از فرم‌های جستجو استفاده کنند. برخی افراد فکر می‌کنند که اگر یک جعبه جستجو در وبسایتشان بگذارند، موتورهای جستجوگر می‌توانند هر‌آنچه که بیننده‌ها در‌ آن‌جا وارد می‌کنند‌ را ببینند! اینطور نیست.

آیا محتوای شما پشت محتوای غیر متنی قایم شده است؟

محتوای غیر متنی مانند عکس، ویدیو، GIF و … نباید به عنوان متنی که شما تمایل دارید ایندکس شود، نمایش داده شود. با وجود اینکه موتورهای جستجوگر در حال پیشرفت برای تشخیص بهتر عکس‌ها هستند، هیچ تضمینی وجود ندارد که آن‌ها توانایی خواندن آن عکس و درکش را فعلا‌ داشته باشند. همیشه بهترین راه استفاده از متن‌ در صفحات وبسایت است.

آیا موتورهای جستجوگر می‌توانند منوی وبسایت شما را دنبال کنند؟

همانطور که Crawlerها سایت شما را از طریق لینک‌هایی دیگر وبسایت‌ها به شما داده‌اند پیدا می‌کنند، در وبسایت خودتان هم باید یک مسیر از لینک‌ها وجود داشته باشد تا خزنده را از یک صفحه به صفحه دیگر هدایت کند. اگر شما در وبسایتتان صفحه‌ای باشد که لینکش در هیچ صفحه دیگری وجود نداشته باشد، بدانید که آن صفحه برای موتور جستجو نامرئیست! بسیاری از وبسایت‌ها این اشتباه را می‌کنند و به گونه‌ای وبسایت را طراحی می‌کنند که امکان دسترسی به موتورهای جستجوگر را به همه صفحات نمی‌دهد.

توانایی خواندن وبسایت توسط خزنده‌ها crawlers


اشتباهات متداولی که مانع از دیده شدن تمام وبسایت شما از دید خزنده‌های گوگل می‌شود:

  • داشتن منوی موبایلی متفاوت نسبت به حالت دسکتاپ که محتوایی متفاوت نشان می‌دهد.
  • هرگونه منویی که ساختار HTML نداشته باشد، مثل منوهایی که جاوا‌سکریپت در آن‌ها فعال است. گوگل برای درک بهتر جاواسکریپت پیشرفت کرده، ولی هنوز به تکامل نرسیده است. بهترین راه این است که HTML استفاده کنید.
  • شخصی‌سازی یا نشان دادن منوهای متفاوت به کاربرانی خاص نسبت به دیگران، ممکن است در صورت انجام این کار حتی جریمه شوید.
  • فراموشی لینک کردن یک صفحه در وبسایت. یادتان باشد که لینک‌ کردن راهیست که خزنده‌های گوگل را به صفحات جدید می‌رساند!

به همین دلایل است که وبسایت شما باید منوها و طراحی‌ای واضح داشته باشد که به Crawlerها کمک کند.

آیا معماری اطلاعات شما واضح است؟

معماری یا ساختار اطلاعات، کاریست که طی آن از طریق سازماندهی و برچسب زنی بر روی محتوای وبسایت، کارایی و قابلیت یافتن محتوا برای کاربر آسان می‌شود. بهترین نوع معماری، معماری شهودی است. به این معنا کاربران برای پیدا کردن مطالب وبسایت شما یا چرخیدن در آن، نیاز به فکر کردن زیادی نداشته باشند.

آیا از نقشه وبسایت یا همان sitemap استفاده می‌کنید؟

سایت‌مپ یا نقشه وبسایت تعریفش به سادگی اسمش است. منظور از sitemap لیستی از لینک‌های وبسایت شماست که خزنده‌ها از آن استفاده می‌کنند تا محتوی شما را ذخیره کنند. یکی از ساده‌ترین راه‌ها برای اطمینان از اینکه گوگل مهم‌ترین صفحات شما را پیدا کند این است که sitemap شما با استانداردهای گوگل انطباق داشته باشد و از طریق google search console آن را ثبت کنید. اگرچه قرار دادن نقشه‌ سایت در گوگل نمی‌تواند جایگزین یک منو و طراحی خوب باشد، قطعا می‌تواند به خزنده‌ها کمک کند که مهم‌ترین صفحات شما را دنبال کند.

مطمئن شوید که تنها لینک‌هایی را در این فایل گنجانده‌اید که می‌خواهید توسط موتور جستجوگر ذخیره شود و مطمعن شوید که به خزنده‌ها مسیری ثابت برای دسترسی بدهید. برای مثال لینکی را که در فایل robots.txt بلاک کرده‌اید، در سایت‌مپ قرار ندهید.

اگر هیچ سایت دیگری به وبسایت شما لینک نداده است، با ثبت نقشه‌ سایت یا همان Sitemap در ابزار گوگل سرچ کنسول، ممکن است بتوانید ایندکس شوید. هیچ تضمینی برای این مسئله وجود ندارد، ولی ارزش امتحان را دارد.

آیا خزنده‌ها هنگام دسترسی به لینک‌های شما با خطا یا ارور مواجه می‌شوند؟

در فرایند خزیدن میان لینک‌های وبسایت شما، خزنده ممکن است با مشکل مواجه شود. برای یافتن ارورهایی که ممکن است رخ داده باشند، می‌توانید به بخش “Crawls Errors” ابزار گوگل سرچ کنسول مراجعه کنید. این بخش به شما گزارشی از ارورهایی که بدست آمده می‌دهد. از طریق فایل لاگ سرور نیز می‌توان به این خطاها دسترسی پیدا کرد ولی چون این فرایند پیچیده است، وارد آن نمی‌شویم.

قبل از اینکه کار خود را شروع کنید، مهم است که بدانید ارورهای سرور و “not found” را بشناسید.

کدهای ۴xx: وقتی خزنده‌های موتور جستجوگر نمی‌توانند به محتوای شما به خاطر خطای کاربر دسترسی پیدا کنند.

ارورهای ۴xx به خطای مشتری مشهورند، به این معنی که URL ساختار بدی دارد یا اینکه نمی‌تواند پیدا شود. یکی از متداول‌ترین این ارورها، “۴۰۴ – not found” است. این خطا ممکن است به خاطر خطای تایپی در URL، حذف شدن صفحه و … باشد. وقتی موتور جستجوگر به ارور ۴۰۴ برخورد می‌کند، نمی‌تواند به لینک دسترسی پیدا کند. وقتی کاربر به ارور ۴۰۴ برخورد کند، کلافه و ناامید می‌شود و وبسایت را ترک می‌کند.

کدهای ۵xx: وقتی موتور جستجوگر به خاطر خطای سرور نمی‌تواند به محتوا دسترسی پیدا کند.

ارورهای ۵xx مربوط به سرور هستند، در ابزار گوگل سرچ کنسول، یک تب مخصوص این ارورها وجود دارد. این ارورها معمولا به این دلیل رخ می‌دهند که سرور قطع شود، بنابرین ربات گوگل هم از خزیدن در آن لینک منصرف می‌شود.

خوشبختانه راهی وجود دارد که هم به کاربران و هم به موتورهای جستجوگر فهماند که صفحه شما منتقل شده است، از طریق ساختن لینک‌های بازگشتی ۳۰۱!

صفحات ۴۰۴ اختصاصی بسازید!

صفحه ۴۰۴ خود را با اضافه کردن لینک‌ به صفحات مهمتان سفارشی‌سازی کنید.  این باعث می‌شود که کاربران کمتر از حالتی که با ارور ۴۰۴ خالی روبه‌رو شوند ناامید شوند و وبسایت را ترک کنند.

تغییر مسیر ۳۰۱ | Redirect 301فرض کنید که یک صفحه با لینک example.com/young-dogs را به  example.com/puppies/ تغییرمکان داده‌اید. موتورهای جستجوگر و کاربران به یک پل بین لینک قدیمی و جدید نیاز دارند. این پل ۳۰۱ redirect است.

وقتی از ۳۰۱ استفاده می‌کنید: ارزش لینک خود را که از صفحه قبلی بدست آمده، به لینکی جدید منتقل کنید.
وقتی از ۳۰۱ استفاده نمی‌کنید: بدون ۳۰۱، اعتباری که از لینک قبلی بدست آمده، به لینک جدید منتقل نمی‌شود.

وقتی از ۳۰۱ استفاده می‌کنید: به گوگل کمک می‌کند که نسخه جدید صفحه را پیدا و ایندکس کند.
وقتی از ۳۰۱ استفاده نمی‌کنید: وچود ارور ۴۰۴  تنها به عملکرد جستجوی شما ضربه نمی‌زند، ولی ارورهای ۴۰۴ زیاد باعث حذف آن‌ها از ایندکس گوگل می‌شود. حال ممکن است این لینک‌ها رتبه‌ و ترافیکی خوبی هم داشته باشند. چقدر بد!

وقتی از ۳۰۱ استفاده می‌کنید: مطمعن می‌شوید که کاربران صفحه‌ای که می‌خواهند را می‌بینند.
وقتی از ۳۰۱ استفاده نمی‌کنید: اجازه می‌دهید که کاربران بر روی لینک‌های مرده کلیک کنند که به جای رساندن آن ها به چیزی که می‌خواهند، به صفحه ارورها هدایت می‌شوند. این می‌تواند بسیار نا امید کننده باشد.

مراقب باشید که استفاده از زنجیره تغییر مسیرها را محدود کنید! فرض کنید لینک ۱ را به ۲ تغییر مسیر می‌دهید بعد ۲ را هم به ۳. بهترین راه این است که مستقیما ۱ را به ۳ انتقال دهید. در غیر این صورت کار برای ربات‌های گوگل سخت می‌شود.

فهرست‌بندی، ایندکس کردن یا indexing: موتور جستجوگر چگونه صفحات را ذخیره می‌کند؟

وقتی مطمئن شدید که وبسایت شما قابل خزیدن است، مرحله بعدی این است که مطمعن شوید در فهرست گوگل جای می‌گیرید. درست است، تنها به این دلیل که وبسایت شما قابل دسترسی و خزیدن است، به این معنی نیست که گوگل قطعا آن را به فهرست خود اضافه می‌کند. در بخش قبلی راجع به crawling، در مورد اینکه موتورهای جستجوگیر چگونه صفحات وب را پیدا می‌کنند، صحبت شد. ایندکس یا فهرست جایی است که صفحات قابل پیدایش شما ذخیره می‌شوند. بعد از اینکه ربات صفحه‌ای را پیدا می‌کند، موتور جستجوگر دقیقا مثل مرورگر شما، آن را ارائه می‌دهد. در این پروسه، موتور جستجوگر محتوای صفحه را تجزیه تحلیل می‌کند و تمام این اطلاعات در فهرست آن ذخیره می‌شود.

ذخیره‌سازی و ایندکس کردن صفحات توسط گوگلبه خواندن این مطلب ادامه دهید تا در مورد فرایند ایندکس کردن بیشتر یاد بگیرید و بفهمید که چگونه می‌توانید کاری کنید که وبسایت شما هم در پایگاه‌داده گوگل ثبت شود.

آیا می‌توانم ببینم که ربات خزنده گوگل چگونه صفحات من را می‌بیند؟

بله، نسخه کش شده صفحه شما، یک تصویر از آخرین باری که ربات گوگل در آن خزیده است نشان می‌دهد.

گوگل می‌خزد و با سرعت‌هایی مختلف صفحات وب را ذخیره می‌کند. سایت‌های مشهور مثل خبرگزاری‌ها، بیش‌تر از بقیه سایت‌ها مثل بیزینوس، توسط ربات‌های گوگل بررسی می‌شوند.

آیا ممکن است صفحات از فهرست گوگل حذف شوند؟

بله، صفحات می‌توانند از فهرست یا ایندکس گوگل حذف شوند. بعضی از دلایل اصلی که منجر به حذف لینک از ایندکس می‌شود، به این ترتیب هستند:

  • ارور ۴۰۴ یا ۵xx، ممکن است لینک صفحه عوض شده باشد و از ۳۰۱ هم استفاده نشده باشد و این اتفاق بیفتد.
  • لینک متا تگ noindex دارد، این تگ می‌تواند توسط صاحب سایت اضافه شود تا موتور جستجوگر را راهنمایی و به حذف صفحه‌ای که نمی‌خواهد ایندکس شود، کمک کند.
  • جریمه‌های گوگل و سرپیچی از قوانین گوگل باعث حذف شدن کامل لینک می‌شود.
  • به خاطر نیاز به پسورد جهت دیدن صفحه، لینک حذف شده است.

اگر فکر می‌کنید که یکی از صفحات شما که قبلا در فهرست نتایج گوگل وجود داشته، دیگر نیست، می‌توانید از ابزار URL Inspection در گوگل کنسول استفاده کنید که این امکان را جهت ذخیره کردن صفحات به صورت تکی در گوگل می‌دهد.

به موتورهای جستجوگر بفهمانید که چگونه وبسایت شما را ایندکس کنند.

دستورات متا برای ربات‌ها

دستورات متا یا همان “متا تگ”، دستورالعمل‌هایی هستند که شما می‌توانید به موتورهای جستجوگر جهت درک بهتر اینکه چگونه با صفحات شما رفتار کنند، بدهید.

شما می‌توانید به ربات‌ها دستوراتی از جمله عدم ذخیره یک صفحه را بدهید. این دستورات با استفاده از متا تگ‌های ربات در قسمت <head> صفحات HTML یا توسط X-Robots-tag در قسمت هدر HTTP قابل اجرا هستند.

متا تگ ربات‌ها یا Robots meta tag

متا تگ ربات‌ها را می‌توان از طریق <head> واقع در کدهای HTML صفحه وب، اجرا کرد. در زیر متداول‌ترین دستورات متا و زمان‌های استفاده آن‌ها را آورده‌ایم.

index یا noindex به موتور جستجوگر می‌گوید که آیا این صفحه باید Crawl شود و در فهرست موتور جستجوگر باقی بماند. اگر انتخاب شما استفاده از “noindex” بود، به ربات‌ها اعلام کرده‌اید که می‌خواهید این صفحه از میان نتایج گوگل حذف شود. در حالت پیش‌فرض، موتور جستجوگر فرضش بر این است که می‌تواند تمام صفحات شما را ذخیره کند، پس استفاده از عبارت index ضروری نیست.

  • زمانی که می‌توانید استفاده کنید: ممکن است برای تر و تمیز کردن فهرست گوگل از وبسایت شما، بخواهید که صفحات ضعیف را از آن حذف کنید. مثلا پروفایل کاربران.

follow/nofollow به موتور جستجوگر اعلام می‌کند که آیا لینک‌های موجود در صفحه باید دنبال شوند، یا خیر. استفاده از follow باعث می‌شود که گوگل لینک‌های موجود در صفحه شما را بررسی کند و اعتبار لینک مادر را در میان آن‌ها پخش کند. عبارت nofollow به موتور جستجوگر اعلام می‌کند که هیچ‌یک از لینک‌های موجود در صفحه را دنبال نکند و اعتبار خود را به آن‌ها نبخشد. در حالت عادی، فرض بر این است که تمامی صفحات از خاصیت follow استفاده می‌کنند.

  • زمانی که می‌توانید استفاده کنید: nofollow معمولا همراه با noindex در زمانی که می‌خواهید یک صفحه ایندکس نشود و خزنده هم وارد لینک‌های موجود در صفحه نشود، استفاده می‌گردد.

noarchive برای محدود کردن موتور جستجوگر از ذخیره نسخه کش شده صفحه است. در حالت عادی، موتور جستجوگر از صفحاتی که ایندکس کرده، چندین نسخه کپی‌شده حفظ می‌کند و در دسترس کاربران قرار می‌دهد.

زمانی که می‌توانید استفاده کنید: اگر فروشگاه دارید و قیمت‌های شما مدام تغییر می‌کند، باید تگ noarchive را درنظر بگیرید تا کاربران قیمت‌های قبلی را نبینند.

در اینجا نمونه استفاده از noindex و nofollow آورده شده است:

<!DOCTYPE html>
<html>
<head>
<meta name="robots" content="noindex, nofollow" />
</head>
<body>...</body>
</html>

در این نمونه، جلوی تمام موتورهای جستجوگر از ایندکس کردن صفحه و دنبال کردن و خزیدن در لینک‌های موجود در آن، گرفته می‌شود. همچنین می‌توانید به یک موتور اجازه این‌ کار را دهید و به یکی دیگر نه.

x-Robots-Tag

x-Robots-tag در قسمت هدر HTTP لینک شما قرار دارند و انعطاف‌پذیر‌تر و اگر دنبال جلوگیری از خزیدن ربات‌ها در صفحات زیادی هستید، کابردی‌تر از متا تگ‌ها هستند.

مثلا می‌توانید یک سری فولدر یا نوعی از فایل‌ها را همگی باهم از موتور جستجوگر حذف کنید.

درک اینکه چگونه با راه‌های مختلف می‌توانید از بر روی پروسه Crawling و indexing اثر بگذارید، به شما کمک زیادی خواهد کرد و مشکلات متداولی که باعث ایندکس نشدن صفحات مهمتان می‌شود را نیز نخواهید داشت.

Ranking یا رتبه بندی: موتورهای جستجوگر چگونه رتبه می‌دهند؟

موتورهای جستجوگر چگونه مطمعن می‌شوند که نتیجه‌ای مرتبط با عبارتی که کاربر جستجو کرده تحویل می‌دهند؟ این فرایند به رتبه‌بندی یا رنکینگ، یا منظم کردن نتایج از بیشترین ارتباط به کمتری ارتباط برای یک جستجوی خاص مشهور است.

رتبه‌ بندی سایت‌ها توسط گوگلبرای تعیین ارتباط، موتورهای جستجوگر از الگوها استفاده می‌کنند. طی یک فرایند، اطلاعاتی که ذخیره شده‌اند، در قالب‌های معنی‌دار، تحویل داده می‌شوند. این الگوها طی سال‌های اخیر تغییر زیادی کرده‌اند تا کیفیت نتایج را بهبود بخشند. برای مثال گوگل هر روز الگوهای خود را تنظیم می‌کند، برخی از این به‌روزرسانی‌ها نامحسوس هستند، بعضی دیگر گسترده‌تر هستند و هسته‌ الگو تغییر می‌کند تا مشکل خاصی را حل کنند. مثلا آپدیت پنگوئن برای مبارزه با لینک‌های اسپم مطرح شد.

چرا این الگوها تغییر می‌کنند؟ آیا گوگل فقط تلاش می‌کند که به ما استرس بدهد؟ با این حال که گوگل معمولا توضیح نمی‌دهد که چه می‌کند، ولی همه ما می‌دانیم که وقتی الگوها تنظیم می‌شوند، گوگل به دنبال بهبود کلی کیفیت نتایج است. به همین خاطر در پاسخ به سوالات راجع به به‌روزرسانی الگوها، گوگل همواره تاکید می‌کند که “ما همیشه آپدیت‌های کیفیتی داریم”

این نشان می‌دهد که اگر بعد از یک به‌روزرسانی وبسایت شما صدمه دید، کافیست که با همان دستورالعمل‌های کیفی گوگل مقایسه کنید تا متوجه شوید موتورهای جستجوگر چه چیزی از شما می‌خواهند.

موتورهای جستجوگر چه می‌خواهند؟

موتورهای جستجوگر همیشه یک چیز را می‌خواهند. آن هم تآمین پاسخ‌هایی کاربردی به سوالات جستجوگر در بهترین فرمت ممکن است. اگر این درست باشد، پس چرا سئو هر سال با سال گذشته متفاوت است؟

به این فکر کنید که کسی در حال یادگیری یک زبان جدید است.

ادر آغاز کار، درک او از زبان بسیار ابتدایی است. با گذر زمان، درکش از زبان عمیق‌تر می‌شود و معناشناسی در او تقویت می‌گردد تا ارتباط بین کلمات و جملات را بهتر بفهمد. کم‌کم با تمرین بیشتر، این دانش‌اموز زبان را به این اندازه خوب یاد می‌گیرد که تفاوت‌های ظریف هم برایش قابل فهم می‌شود. حتی توانایی ارائه پاسخ‌ به سوالات مبهم را هم بدست می‌آورد.

وقتی موتورهای جستجوگر تازه شروع به یاد گرفتن زبان ما کرده بودند، کار برای بازی با سیستم آن‌ها و استفاده از حقه‌ها و تکنیک‌ها در جهت کسب رتبه بهتر بر خلاف دستورالعمل‌های موتور، بسیار ساده بود.

برای مثال به کی‌وردها یا همان کلمات کلیدی فکر کنید. مثلا اگر می‌خواستید رتبه خوبی برای کلمه کلیدی “جک بامزه” بگیرید، کافی بود که در مطلب خود بارها “جک بامزه” را بیاورید و آن را برجسته کنید.

این تاکتیک به تجربه‌کاربری افتضاحی ختم شد! در نهایت به جای خندیدن به جک‌های بامزه، مردم با متن‌ بدی که قابل خواندن هم نبود، بمب باران می‌شدند. این تکنیک شاید در گذشته جواب می‌داد، ولی این هرگز چیزی نبود که موتورهای جستجوگر می‌خواستند.

نقش لینک در سئو

وقتی در مورد لینک‌ها صحبت می‌کنیم، منظورمان دو چیز است. بک‌لینک یا همان “inbound link” که از طریقشان وبسایت‌های دیگر به وبسایت شما اشاره می‌کنند. در حالی که لینک‌های درونی، لینک‌هایی در وبسایت خودتان هستند که به صفحات دیگر وبسایتتان اشاره دارند.

نقش لینک در سئولینک‌ها نقشی بزرگ در تاریخچه سئو داشته‌اند. از همان ابتدا موتورهای جستجوگر برای درک اینکه چه لینک‌هایی نسبت به دیگران بیشتر قابل استناد هستند و رتبه بهتری باید بگیرند، به کمک نیاز داشتند. محاسبه تعداد لینک‌هایی که به یک سایت اشاره دارند، به آن‌ها کمک کرد که این کار را انجام دهند.

فرض کنید می‌خواهیم در دنیای واقعی یک کافی‌شاپ خوب پیدا کنیم. بک‌لینک‌ها بسیار شبیه به ارجاع‌ها یا معرفی‌‌هایی هستند که در زندگی واقعی به یکدیگر ارائه می‌دهیم.

ارجاعی که دیگران می‌دهند=نشانه خوبی از اعتبار

  • مثال: بسیاری از مردم گفته‌اند که کافی‌شاپ ایکس بهترین کافه شهر است.

ارجاع از سوی خودتان=جانبدارانه به نظر می‌رسد، پس نشانه خوبی از اعتبار نیست

  • مثال: آقای ایکس ادعا می‌کند که کافه‌شاپ ایکس بهترین کافه در شهر است.

ارجاع از سوی منابع بی‌ربط یا کم کیفیت=نشانه‌ خوبی از اعتبار شما نیست و حتی می‌تواند شما را نقره داغ کند

  • مثال: آقای ایکس به چند نفر که هرگز کافی‌شاپش را ندیده بودند پول می‌داد که به بقیه بگویند کافی‌شاپش خوب است.

بدون ارجاع=اعتباری نا‌معین

  • کافی‌شاپ ایکس ممکن است خوب باشد، ولی شما نتوانسته‌اید کسی را پیدا کنید که نظری در موردش داشته باشد، پس نمی‌توانید مطمعن باشید.

به همین خاطر PageRank ابداع شد. PageRank یک قسمت از الگوهای هسته گوگل است که به خاطر یکی از مواسسین گوگل به نام لری پیج، پیج‌رنک نامیده شد. پیج‌رنک اهمیت یک صفحه را با اندازه‌گیری کیفیت و کمیت بک‌لینک‌ها، تخمین می‌زند. فرض بر این است که هرچه صفحه شما بیشتر مرتبط باشد، مهم‌تر باشد و ارزشمند‌تر باشد، لینک‌های بیشتری را هم به خودیه خود جذب می‌کند.

هرچه بک‌لینک‌هایی که از وبسایت‌های بزرگ می‌گیرید طبیعی‌تر باشند، شانس شما برای کسب رتبه بهتر در نتایج جستجو بیشتر می‌شود.

نقشی محتوا در سئو

هیچ دلیلی برای داشتن لینک‌هایی که از جستجوگر را به چیزی نرساند وجود ندارد، این چیز محتواست! محتوا فراتر از یک سری کلمه است، محتوا هر چیزیست که توسط جستجوگر مصرف می‌شود. ما محتوای ویدیوئی، تصویری و متنی داریم. اگر موتورهای جستجوگر پاسخ دهنده هستند، محتوا چیزیست که موتورها به عنوان پاسخ ارائه می‌دهند.

هر موقع که کسی جستجویی می‌کند، هزاران نتیجه احتمالی وجود دارد. سوال اینجاست که موتور جستجوگر چگونه تصمیم می‌گیرد که ارزشمند‌ترین پاسخ کدام است؟

بخش بزرگی از تعیین اینکه آیا صفحه شما برای یک عبارت خاص رتبه می‌گیرد یا نه، محتوای شماست. به بیان دیگر، صفحه شما باید با کلماتی که جستجو شده بودند، هماهنگ باشد.

به خاطر اینکه هدف رضایت کاربر است، هیچ معیار سخت‌گیرانه‌ای برای طول محتوای شما و تعداد دفعاتی که کلمات‌کلیدی به کار برده شوند وجود ندارد. همه این‌ها می‌توانند به شما کمک کنند که صفحه شما به خوبی در میان نتایج دیده شود، ولی تمرکز شما باید بر روی کاربرانی باشد که محتوا را مطالعه می‌کنند.

امروزه با وجود صدها یا حتی هزاران سیگنال رتبه‌بندی، سه معیار اصلی کاملا ثابت باقی مانده اند. لینک‌هایی که به وبسایت شما اشاره دارند، محتوای درون صفحه و RankBrain

RankBrain چیست؟

RankBrain جزئی از تکنولوژی یادگیری ماشین الگوی هسته گوگل است. یادگیری ماشین یک برنامه کامپیوتری است که طی گذر زمان و دیدن داده‌های بیشتر، پیش‌بینی‌هایش بهتر می‌شوند. به بیان دیگر، همیشه در حال یادگیریست و به خاطر اینکه همیشه یاد می‌گیرد، نتایج جستجو همواره باید بهتر شوند.

برای مثال اگر RankBrain متوجه شود که یک لینک با رتبه پایین، محتوای بهتری را از لینک‌هایی که رتبه عالی دارند فراهم می‌کند، با شما شرط می‌بندیم که RankBrain نتایج را تنظیم می‌کند. به این صورت که محتوای مرتبط‌تر را بالاتر می آورد و دیگر نتایج را به عنوان نتایج جانبی تشخیص می‌دهد.

ًRankBrain چیست؟مثل بیشتر مسائل مربوط به موتور جستجوگر، ما دقیقا نمی‌دانیم که RankBrain دقیقا چه می‌کند، حتی ظاهرا خود کارمندان گوگل هم به این نتیجه رسیدند که درک RankBrain برای خودشان هم سخت شده است.

این برای صنعت سئو به چه معناست؟

چون گوگل برای نشان دادن مرتبط‌ترین و بهترین نتیجه به نفوذ در RankBrain ادامه می‌دهد، ما باید بیشتر از قبل به قصد کاربر از جستجو در گوگل تمرکز کنیم. باید بهترین اطلاعات و تجربه کاربری را برای جستجوگری که وارد وبسایت شما شده، فراهم کنیم. با انجام این کار، شما قدمی بزرگ در جهت عملکردی خوب در دنیای RankBrain برداشته‌اید.

معیارهای مشارکت: همبستگی، رابطه علت و معلولی، یا هر دو؟

در رتبه‌بندی گوگل، معیارهای مشارکت به دو بخش “همبستگی و علیت” تقسیم می‌شوند.

وقتی در مورد معیارهای مشارکت صحبت می‌کنیم، منظورمان داده‌هاییست که نشان می‌دهند جستجوگران چگونه با وبسایت شما تعامل دارند. از جمله آن‌ها می‌توان به موارد زیر نام برد:

  • کلیک‌ها (کلیک‌هایی که از طریق جستجو بدست آمده‌اند)
  • زمان حضور در صفحه (مقدار زمانی که کاربر در یک صفحه قبل از خروج از آن سپری می‌کند.)
  • Bounce rate (درصدی از بینندگان وبسایت را نشان می‌دهد که تنها یک صفحه از سایت را دیده‌اند)
  • Pogo-sticking (عملی که طی آن کاربر بر روی یک نتیجه کلیک می‌کند و سپس بلافاصله به صفحه نتایج بر می‌گردد که نتیجه دیگری را ببیند.)

تست‌های بسیاری نشان داده اند که معیارهای مشارکت با رتبه بالاتر هماهنگی دارند. اما درک رابطه علت و معلولی آن به شدت زیر سوال است. آیا حضور در میان نتایج اول باعث مشارکت شده است؟ یا اینکه یک وبسایت چون توانسته معیارهای مشارکت خوبی داشته باشد میان نتایج اول است؟

گوگل در این مورد چه می‌گوید؟

اگرچه گوگل هرگز در مورد سیگنال‌هایی که مستقیما روی رتبه تاثیر می‌گذارند چیزی نگفته، گوگل به صورت واضحی اشاره کرده که برای چیدن نتایج برای عباراتی که جستجو می‌شود، از داده‌های مربوط به تعداد کلیک استفاده می‌:ند.

طبق گفته اودی مانبر، مدیر سابق کیفیت سرچ گوگل:

“رتبه‌بندی خودش بر اساس کلیک‌ها تاثیر می‌؛یرد. اگر ببینیم که برای یک جستجوی خاص، ۸۰ درصد از مردم روی نتیجه دوم کلیک می‌کنند و ۱۰ درصد روی اولی، بعد از مدتی متوجه می‌شویم که احتمالا نتیجه دوم چیزیست که مردم می‌خواهند، پس آن‌ها را جابه‌جا می‌کنیم.”

ادموند لائو که در گذشته جزو مهندسین گوگل بوده نیز عنوان کرده:

“کاملا واضح است که هر موتور جستجوگری از داده‌های تعداد کلیک بر روی نتایجش جهت بهبود رتبه‌بندی استفاده می‌کند. مکانیک استفاده از این داده‌ها معمولا خصوصی است، ولی گوگل کاملا روشن کرده که از کلیک‌ها استفاده می‌کند.”

چون گوگل نیاز به حفظ و بهبود کیفیت جستجو دارد، به نظر می‌رسد که قطعا معیارهای مشارکت چیزی فراتر از یک هماهنگی ساده هستند.

نتایج تست‌ها چه چیزی را تایید کرده است؟

تست‌های مختلف نشان داده که گوگل نتایج صفحه SERP را طبق مشارکت کاربران نمایش می‌دهد.

  • تست Rand Fishkin در سال ۲۰۱۴ انجام شد. نتیجه شماره ۷ بعد از کلیک ۲۰۰ نفر در صفحه جستجوی گوگل بر روی آن، به نتیجه ۱ تغییر کرد. جالب اینجاست که اکثر این افراد در امریکا حضور داشتند و این باعث شد که فقط در کشور امریکا این پیشرفت حاصل شود و اثری از بهبود آن در گوگل استرالیا یا کانادا دیده نشد.
  • مقایسه Larry Kim بین صفحات برتر نشان داد که اگر مردم زمان کمی را در صفحات سپری کننده، رتبه کسب شده از بین می‌رود.
  • تست Darren Shaw نشان داده که رفتار کاربران بر روی جستجوی منطقه‌ای اثر می‌گذارد.

از آنجا که مشارکت کاربران به وضوح جهت تنظیم کیفیت صفحه نتایج جستجو استفاده می‌شود و رتبه به عنوان یک مسئله جانبی تغییر می‌کند، می‌توان با خیال راحت گفت که سئو باید برای مشارکت کاربران بهینه‌سازی شود. مشارکت کیفیت صفحه شما را تغییر نمی‌دهد، ولی نشان‌دهنده ارزش صفحه شما نسبت به دیگران برای کلمات کلیدی مورد نظر است.  به همین خاطر بدون تغییر صفحه یا بک‌لینک‌هایش، ممکن است رتبه شما به خاطر رفتار کاربران که نشان می‌دهد صفحه دیگران بهتر است، کاهش یابد.

در رتبه‌بندی صفحات، معیارهای مشارکت مثل یک تست برای واقعیت عمل می‌کنند. اول فاکتورهایی همچون لینک و محتوی هستند که باعث رتبه گرفتن صفحه می‌شوند، سپس معیارهای مشارکت به گوگل جهت تنظیم بهتر صفحه نتایج کمک می‌کنند.

تکامل نتایج جستجو

اگر به زمانی برگردیم که موتورهای جستجوگر از تکاملی که امروزه دارند برخوردار نبودند، همان ۱۰ لینک آبی‌رنگ ساختار صفحه نتایج جستجو را نشان می‌داد.  هر موقع چیزی جستجو می‌شد، گوگل با ارائه صفحه‌ای از ۱۰ نتیجه ارگانیک در یک فرمت یکسان نمایش می‌داد.

کسب رتبه شماره ۱ در این صفحه کعبه آمال سئو بود. ولی بعدها اتفاقی رخ داد. گوگل شروع به اضافه کردن فرمت‌هایی دیگر در صفحه نتایج جستجو کرد که به SERP features مشهور شد. بعضی از این امکانانت عبارتند از:

  • تبلیغات پولی
  • خلاصه‌های برجسته یا همان featured snippet
  • جستجوهای مرتبط
  • نمایش نقشه محل
  • پنل دانش
  • لینک سایت‌ها

و اینکه گوگل همواره در حال اضافه کردن ویژگی‌های جدید است. اضافه کردن چنین ویژگی‌هایی در ابتدا باعث ترسیدن سئوکاران به دو علت اصلی شد.

دلیل اول این است که چنین ویژگی‌هایی باعث شد که بسیاری از نتایج ارگانیک در SERP پایین کشیده شوند. یکی دیگر از اتفاقات جانبی این است که جستجوگران کمتر روی نتایج جستجو کلیک می‌کنند چون روزانه پرس‌وجوهای بیشتری توسط خود صفحه SERP پاسخ داده می‌شوند.

پس چرا گوگل این کار را می‌کند؟ همه این‌ها به تجربه کاربر از جستجو مربوط می‌شود. رفتار کاربر نشان می‌دهد که برای برخی از پرس‌وجوها، ارائه محتوای متفاوت بهتر است. توجه داشته باشید که ویژگی‌های صفحه SERP بستگی به عبارتی دارند که کاربر جستجو می‌کند.

در قسمت سوم بیشتر در مورد اهداف کاربر صحبت می‌شود، ولی در حال حاضر مهم است که بدانید پاسخ‌ موتور جستجوگر می‌تواند فرمت‌های مختلفی داشته باشد و اینکه شما چگونه محتوای خود را معماری می‌کنید، بر روی فرمتی که در نتایج جستجو نشان داده می‌شود، تاثیر می‌گذارد.

جستجوی محلی

موتور جستجوگری همچون گوگل، فهرست خصوصی خودش را از لیست کسب‌وکارهای محلی دارد که می‌تواند نتایج جستجوی محلی را تحویل بدهند.

اگر از Local Seo یا همون سئو محلی برای کسب‌وکاری که محلی فیزیکی برای حضور مشتریان دارد استفاده می‌کنید یا کسب‌وکارتان به گونه‌ایست که با توجه به مکان مشتریانتان جا‌به‌جا می‌شوید، مطمعن شوید که در لیست کسب‌وکار گوگل خود را معرفی کنید. هرچند متاسفانه کشور ما به دلیل تحریم نمی‌تواند از این امکان استفاده کند. پس به این مورد نمی‌پردازیم زیرا تمام امکانات آن برای ما در دسترس نیست.

لازم نیست که شما همه جزئیات الگوهای گوگل را بدانید (این یک راز باقی می‌ماند!)، ولی حالا علم پایه‌ لازم در مورد اینکه موتور جستجوگر چگونه محتوا را پیدا می‌کند، درک می‌کند، ذخیره می‌کند و رتبه می‌دهد را دارید. حال که به این علم تجهیز شده‌اید، بیایید سراغ قسمت سوم (جستجو و انتخاب کی‌ورد یا همان کلمه‌کلیدی) برویم.

پاسخ دادن

دیدگاه خود را وارد کنید
لطفا نام خود را وارد کنید