نوشته شده توسط : زهرا مرزبان

توضیحات در ارتباط با هر بخش وبمسترتولز، هرچقدر آسان و کاربردی اما به همان میزان ممکن است کمی پیچیده باشد چراکه هر چند وقت یک بار، گوگل ابزار جدیدی را به این قسمت اضافه می کند. طوری که کاربر فکر می کند حتما چنین چیزی را نیاز داشته و می بایست از مدت ها پیش این ابزار خاص به زیرمنوهای یکی از قسمت های وبمسترتولز اضافه می گشت.

اما این بار تقریبا وبمسترتولز سر ناسازگاری عجیب و شگفت انگیزی با وبمستران برداشته است: واکنش یا جریمه دستی!

به توضیحاتی در این مورد توجه کنید. اینکه مدیران بخش مبارزه با اسپم گوگل چه می کنند و وبمستران باید چه کنند تا با واکنش دستی گوگل مواجه نشوند!

ولی پیش از این موضوع به مطلبی دیگر اشاره می کنیم تا بدانید واکنش دستی چیست و در کجا از آن استفاده می شود!

اطلاعات ما برگرفته از توضیحات بخش Support گوگل و مقالۀ Image Mismatch می‏باشد.

Image Mismatch (عدم همخوانی یا تطابق تصویر):

اگر این پیام را در صفحۀ واکنش دستی می‏بینید، بدین معناست که برخی از تصاویر سایت شما ممکن است به صورت متفاوتی در صفحات نتایج جستجوی گوگل با زمانیکه در سایت خودتان نمایش داده می شوند وجود داشته باشد.

در نتیجه، گوگل یک واکنش دستی را در بخش های این چنینی سایتتان ثبت کرده است که باعث می شود بدانید که تصاویرتان چگونه در گوگل نمایش داده شده اند. اطلاعات مربوط به این اتفاق به صورت کامل در لیستی زیر تطابقات وسیع سایت (site-wide matches) آورده شده اند. همچنین اتفاقاتی نظیر این اگر تنها در بخشی از سایت رخ داده باشد می توانید اطلاعات مربوط به آن را نیز به صورت لیست شده و تحت نام تطابقات کوچک (partial matches) مشاهده نمایید.

پیشنهادهایی برای بهتر شدن

  1. مطمئن شوید که سایتتان دقیقا همانطور تصاویر را به کاربران نمایش می دهد که در بخش نتایج جستجوی گوگل! این مساله ممکن است به خاطر پلاگین های anti-hotlinking باشد. شاید بد نباشد که نگاهی به کدهای موجود در سرور سایتتان بیندازید.
  2. زمانیکه از نمایش دقیق آنچه که در سایتتان وجود دارد با آنچه که در نتایج جستجوی گوگل می بینید اطمینان پیدا کردید،درخواست بازبینی سایتتان را ثبت کنید.

زمانیکه اقدامات ثبتی و درخواست تجدید نظر را انجام دادید، گوش به زنگ و منتظر یک پیام در اکانت وبمسترتولز خود باشید. ما پس از بازبینی سایت، شما را در جریان خواهیم گذاشت. در صورتیکه محرز گردد که بر اساس راهنمایی های انجام شده، دیگر مواردی را نقض نمی کنید، واکنش دستی را منتفی خواهیم کرد.

و اما واکنش دستی کجاست و چه می کند؟

درحالیکه گوگل مشغول اقدامات لازم بر روی الگوریتم هایش جهت ارزیابی و بهبود مداوم کیفیت جستجو است، ما هم بخشی را با عنوان واکنش دستی که از تکنولوژی ضد اسپمینگ استفاده می کند بر روی سایت ها آورده ایم. این بدین معناست که بخش واکنش دستی بر خلاف بخش های دیگر گوگل که ربات ها بسیار فعالند، در اینجا نیروی انسانی و کارمندان بخش مبارزه با اسپم کار و این بخش را کنترل می کنند. صفحۀ واکنش های دستی اقداماتی از این دست را بر عهده دارد (و البته اقدامات امنیتی دیگر) و به قسمت هایی که از نظر گوگل دچار مساله هستند لینکهایی جهت بررسی و رفع مساله توسط ادمین سایت می دهند. (اگر رنکینگ سایت شما تحت تاثیر فشارهای بخش واکنش دستی قرار گرفت، ما این موضوع را در مرکز پیام خودتان در وبمسترتولز اعلام خواهیم کرد)

 

اگر سایت شما در نتایج جستجو دیده نمی شود، یا آنطور که پیشتر اجرا می شد، اکنون نمی شود، پیشنهاد می کنیم سری به صفحۀ واکنش دستی خود بزنید تا به نشانی های مشکل دار برسید و در جهت رفعشان اقدام کنید.

زمانیکه شما از عملکرد سایتتان در قبال راهنمایی های ما مطمئن شدید، می توانید درخواست یک بازبینی از سایتتان را به صورت مستقیم از صفحه واکنش دستی تان ثبت نمایید. دنیای وب یک دنیای اکوسیستمی است که هر لحظه در حال تغییر است؛ و عملکرد سایت شما هم به عنوان جزیی از دنیای وب در جستجو، تقریبا به طور قطع در گذر زمان در حال نوسان است. بر این اساس حتا اگر درخواست تجدید نظر شما موفقیت آمیز باشد، رنک سایت شما ممکن است به پایینتر (یا بالاتر) از چیزی که قبلا بود برسد.

مروری بر صفحه واکنش دستی

1. در داشبورد وبمسترتولز، روی Search Traffic کلیک کنید.

2. بر روی Manual Actions کلیک کنید.

3. واکنش های دستی لیست شده را در این بخش مرور کنید. هنگامی که مشکلات لیست شده را رفع کردید و اطمینان حاصل نمودید که سایتتان از راهنمای وبمستر (Webmaster Guidlines) پیروی می کند، بر روی Request a review کلیک کنید تا از گوگل درخواست تجدیدنظر سایت شما را ثبت نمایید.

دو بخش مهم در صفحه واکنش دستی وجود دارد:

  • بخش Site-wide matches که اقدامات موثر یک سایت را لیست می کند.
  • بخش Partial matches که وظیفۀ بررسی یک URL خاص یا یک بخشی از سایت را دارد. این موضوع برای صفحاتی از یک سایت مشهور غیر معمول نیست که حداقل چند واکنش دستی دریافت کرده باشد. به خصوص اگر آن سایت مربوط به پلتفرمی برای سرویس دهی به کاربران یا مشاغل در زمینۀ اشتراک گذاری و خلق آثار باشد.

هر بخش شامل اطلاعات زیر می شود:

Reason: دلیل هر خطا و اقدامی که گوگل کشف می کند.

Affect: قسمتی از سایت را نشان می دهد که واکنش دستی را حساس و جلب توجه کرده است. اگر یک واکنش دستی بیش از 1000 آدرس را زیر ذره بین بگیرد، تنها 1000 نشانی اول نمایش داده می شوند.

در مورد گوگل و اسپم

الگوریتم گوگل بسیار خوب در تشخیص اسپم ها عمل می کند و در بیشتر موارد، به صورت اتوماتیک آن را کشف و از نتایج جستجو حذف می کند. به هر حال جهت حفاظت از ایندکس ها، گوگل اراده ای قوی در این موضوع دارد و به همین خاطر بخش واکنش دستی را جهت حذف اسپم و اسپمینگ از نتایج جستجویش ایجاد نمود.



:: بازدید از این مطلب : 20
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : دو شنبه 12 مرداد 1394 | نظرات ()
نوشته شده توسط : زهرا مرزبان

مقالات زیادی در زمینه ی دلایل مهم بودن بهینه سازی سایت و همچنین روش های بهینه سازی سایت گفته شده است. حال در اینجا می خواهیم تا شما را با اشتباهات رایج در بهینه سازی وب سایت آشنا کنیم.

  • کلمات کلیدی: همانطور که قبلا گفته شد استفاده از کلمات کلیدی می تواند در بهینه سازی سایت تاثیر مثبتی بگذارد ولی عدم استفاده از keyword stuffing (اضافه کردن کلمات کلیدی بدون دلیل) و به صورت اسپم گونه را keyword stuffing میگویند . این کار باعث بالا رفتن چگالی کلمات کلیدی شما درون یک صفحه به صورت اسپم می شود و میتواند باعث افت وب سایت شما شود این اشتباه زمانی رخ می دهد که تعداد تگ ها بیش از حد باشد.استفاده بیش از حد از کلمات کلیدی می تواند نمونه ای از keyword stuffing باشد.
  • لینک ها: ایجاد لینک های مخفی و غیر معتبر می توان در سئو سایت تاثیر منفی داشته باشد به صورتی که کاربران به لینک ها دسترسی نخواند داشت.همچنین تجربه نشان داده که خرید و فروش لینک کاملا باعث پنالتی شدن سایت شما میشود.
  • محتوای تکراری: بارها گفته شده که سعی کنید در سایت خود از مطالب مفید و کاربردی استفاده کنید و حرفی تازه برای گفتن داشته باشید.استفاده از محتوای تکراری از مهمترین اشتباهات رایج در بهینه سازی وب سایت می باشد.
  • Page Cloakong :Page Cloakong تکنیکی است که محتوای نمایش داده شده با روبات موتورهای جستجو و کاربر با هم همخوانی ندارند به عبارتی چیزی که کاربر می بیند با موتورهای جستجو فرق دارد.این روش هم می تواند یکی دیگر از اشتباهات بهینه سازی سئو می باشد.
  • برگه‌های Doorway: این برگه ها همان صفحاتی هستند که وقتی یک عبارت را جست و جو میکنید و بر روی یک نتیجه کلیک میکنید ، صفحه ای باز میشود که نتیجه جست و جوی عبارت مورد نظر شما درون آن سایت را نمایش میدهد . این صفحات کاملا میتوانند وبسایت شما را به صفحات ۳۰ و شاید بیشتر انتقال دهند !.اگر از این صفحات استفاده میکنید ، همین الان خواندن این مطلب را کنار بگذارید و ابتدا آن صفحات را از بین ببرید.

 



:: بازدید از این مطلب : 19
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : دو شنبه 12 مرداد 1394 | نظرات ()
نوشته شده توسط : زهرا مرزبان

با توجه به تعدد پرسشهای کاربران محترم، امروز مقاله ای را تحت عنوان ذکر شده خدمتتان ارائه می کنیم.

 

همانطور که پیشتر اشاره کردیم، گوگل پس از ارائۀ الگوریتم پنگوئن و سپس پنگوئن 2، ضد اسپم خود را تا جای ممکن فعال و بخشی را تحت عنوان واکنش دستی که توسط کارمندان

گوگل مدیریت می شود ارتقا داد و موضوع بک لینک ها و بک لینک فروشی نیز حداقل در این حالتی که جا افتاده بود حذف و غیر کارآمد شد.

برای بازدید گرفتن و رسیدن به جایگاه مطلوب خود در گوگل، راه هایی را نظیر نوشتن به عنوان میهمان و فعالیت حرفه ای (و نه اسپم گونه) هم در مقالات پیشین بدان اشاره شد و هم بیشتر در این ارتباط خواهیم نوشت.

امروز اما، در خدمتتان هستیم و در ارتباط با بک لینک های غیر واقعی و در واقع تقلبی گفتگو می کنیم.

مدت تقریبا قابل توجهی است که فروختن بک لینک به یک بیزینس بدون دردسر و البته با کلاه گذاشتن بر سر ربات های گوگل تبدیل شده است. بدین معنی که فرض بفرمایید اگر یک زمانی وبمستران و بلاگرهای ایرانی تنها از روی عشق و علاقه و ایجاد رابطه ای چند سویه بدون توجه به موضوعاتی چون سئو، پیج رنک، رتبه و جایگاه گرفتن در نتایج گوگل، یکدیگر را لینک می کردند، امروز اما شرایط به گونۀ دیگریست. سایتهایی به وجود آمدند که پشت سرشان ممکن بود صد یا هزار عدد وبلاگ و سایت با یک سری محتوای تکراری، بی خاصیت و غیر مفید وجود داشته باشند.

مدیران این تارنماها، پس از مدتی که از گوگل رنک می گرفتند، لینک تمامی سایتهایشان را به یک صفحۀ استاتیک و ساده منتقل می کردند و برای درج تبلیغ شما (یا همان بک لینک معروف غیر واقعی) بر اساس رنکی که از خود گوگل گرفته بودند، اقدام به فریب گوگل نموده و بر اساس همان رنک دریافت شده به سایر مدیران سایت ها و وبلاگ ها تعرفه می دادند؛ و این مدیران ساده اندیش و بدون اطلاع بودند که کمترین تجربه ای در زمینۀ سئو و بک لینک نداشتند و گرفتار مسائل و سختی های سئو می شدند. چراکه اگر کوچکترین اطلاعی از موضوع سئو می داشتند، این هزینه، امید و وقتشان را بر روی سئوی حرفه ای سایتشان می گذاشتند تا برایشان نتیجه بخش باشد.

امروزه اما همانطور که گفته شد گوگل این نوع سایت ها و وبلاگ ها را جریمه خواهد کرد.

طبق مقاله ای که توسط بخش وبمسترتولز نوشته شده، نگاهی داریم به لینک های غیر واقعی و مشکلاتی که برای یک کاربر غیر وارد ممکن است به وجود آید. هر نوع پیوندی که تنها به صرف و هدف افزایش پیج رنک سایت و یا بهبود رتبه بندی شما در نتایج گوگل ایجاد میشود بعنوان لینک غیر طبیعی شناخته خواهد شد و برخلاف راهنمایی ها و اصول وبمستر گوگل است. که شامل لینک های ورودی به سایت و خروجی از آن میشود.

بک لینک های غیر طبیعی مخرب هستند

یک مثال و راه حل: وبسایت یا وبلاگی تنها به قصد بک لینک شدن و فروختن بک لینک ایجاد می شود و مطالبی غیر مفید بر روی خروجی آن درج می شود. در صورتیکه این تارنما و تارنماهای مشابه، پس از مدتی از آغاز فعالیت شروع به لینک دادن به یک سایت خاص کنند، نه تنها بک لینک ها (که شکلی شبیه به یک سایت معمولی دارند) جریمه می شوند (طبق آخرین آپدیت الگوریتم گوگل) که سایت لینک داده شده نیز در معرض خطر ربات های جستجوگر گوگل قرار خواهند گرفت.

راه حل

در یک واژه Disavow کردن این لینک ها و این سایت ها را می توان پیشنهاد نمود.

اما Disavow links چیست؟ و چگونه عمل می کند؟

وبمستر می تواند برای اطلاع دادن به ربات های جستجوگر در این مورد که آن لینک مورد نظر، مخرب است و سایت وی تمایلی به لینک شدن سایت خود ندارد، با تکمیل نمودن فرمی این مساله را به اطلاع ربات های گوگل می رساند و خود را از گزند لینک های مخرب حفظ می کند.

نحوۀ عملکرد Disavow links در وبمسترتولز

 

  1. به صفحۀ اصلی وبمسترتولز بروید و بر روی سایت مورد نظرتان کلیک کنید.

  2. در قسمت داشبورد، روی Search Traffic کلیک کنید و سپس Links to Your Site را برگزینید.

  3. زیر عبارت Who links the most، بر روی More کلیک کنید.

  4.  روی Download more sample links کلیک کنید. اگر روی Download latest links کلیک کنید نیز آخرین تاریخ ها را نیز مشاهده خواهید کرد.

زمانیکه در حال دیدن لینک های سایت خود در وبمسترتولز هستید، ممکن است بخواهید هر دو نسخۀ دومین با www و بدون www را تایید کنید. برای گوگل این دو کاملا متفاوت هستند. نگاهی به اطلاعات هر دو بیندازید.

به ترتیب زیر می توانید لینک های مورد نظر را Disavow کنید.

  1. به صفحۀ diwavow links tool page بروید.

  2. سایت خود را انتخاب کنید.

  3. بر روی Disavow links کلیک کنید.

  4. بر روی Choose file کلیک کنید.

نکته: بارگذاری یک فایل جدید باعث از بین رفتن بارگذاری های پیشین و جایگذاری فایل جدید با فایل قدیمی خواهد شد.

 



:: بازدید از این مطلب : 17
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : دو شنبه 12 مرداد 1394 | نظرات ()
نوشته شده توسط : زهرا مرزبان

دلایل زیادی وجود دارد که دسترسی ربات گوگل به صفحات و یا کل یک سایت محدود و یا کاملا قطع شده باشد. یکی از این دلایل می تواند تنظیمات DNS دامین یا ایجاد مشکلاتی در سرور سایت باشد. این قبیل اتفاقات می‏تواند به Seoی سایت شما آسیب بزند و در موارد بسیاری، موتور جستجوگر و ربات گوگل نتواند صفحات سایت را ایندکس کند.

برای یافتن اینکه آیا در تنظیمات DNSتان مشکلی وجود دارد یا خیر، گوگل در سلسلۀ ابزارهای وبمستر (Webmaster/tools...) به شما کمک خواهد کرد. برای پیدا کردن وجود یک مشکل در بخش DNS سایت خود به صفحه وبمسترتولز خود بروید و از مسیر Crawl، می توانید گزارشی از 90 روز قبل تا کنون را توسط این ابزار و این بخش مشاهده کنید.

 جان مولر در این ارتباط می‏گوید:

این قبیل اتفاقات ممکن است در مدت کوتاهی بر سئو سایت شما تاثیر گذار باشد ولی در دراز مدت به جایگاه قبلی خود باز خواهید گشت. زمانیکه دسترسی روبات های گوگل به صفحات سایت شما ممکن شده و به بازخوانی مجدد و ایندکس آنها بپردازند دوباره جایگاه خود را در نتایج گوگل کسب خواهید کرد. ولی این امر نیازمند گذشت زمان خواهد بود. البته توجه داشته باشید که برگشت به جایگاه قبلی در صورتی رخ خواهد داد که تغییری اساسی در الگوریتم های گوگل در این زمان ایجاد نشده باشد.

این سخنان بدان معناست که سرور هر سایتی ممکن است حتا با توجه به آپتایم 99 درصدی، در مواقعی (حتی دقایقی) با قطعی مواجه شود و یا با تنظیمات اشتباه و دسترسی‏ها و محدودیت‏ها با استفاده از فایل robots.txt، موجب بروز خسارتی چون عدم ایندکس شدن صفحات سایت توسط ربات گوگل گردد که با استفاده از یکی دیگر از امکانات وبمسترتولز یعنی بخش Crawl Errors نیز تا حد قابل توجهی حل شدنیست.

برای رفع این موضوع به بخش Crawl و زیرمنوی Crawl Errors بروید و لیست صفحاتی که به دلیل عدم وجودشان، خطا گرفته و ایندکس نشده اند را در دو نسخۀ وب و گوشی هوشمند، مشاهده نمایید. در 95 درصد از مواقع، این صفحات، صفحاتی هستند که دیگر وجود ندارند و همان خطای معروف 404 را با خود به یدک می کشند.

 

2 راه برای رفع این مساله وجود دارد: 1- نشانی های مورد نظر را محتوادار نموده و سپس Mark as fixed کنیم. 2- و یا از طریق حذف لینک ها به 3 روش (که توضیح آن از حوصلۀ این جستار خارج است) از وجود لینک های اضافی در سایت خود جلوگیری کنیم.

سپس می توانید از طریق گزینۀ Fetch as Google تا 500 دفعه، دستور دوباره ایندکس شدن صفحۀ اصلی و یا تمام صفحات سایت را وارد کنید تا مجددا گوگل، سایت شما را بازبینی و ایندکس نماید.



:: بازدید از این مطلب : 21
|
امتیاز مطلب : 0
|
تعداد امتیازدهندگان : 0
|
مجموع امتیاز : 0
تاریخ انتشار : دو شنبه 12 مرداد 1394 | نظرات ()

صفحه قبل 1 2 3 4 صفحه بعد