Як підготувати свій сайт до оновлення алгоритму Google

Я сподіваюся, вам ніколи не доводилося відчувати біль від того, що вас застало зненацька чергове оновлення алгоритмів. Прокинувшись одного ранку, ви виявляєте, що ваш трафік знищений, а трекер позицій усіяний червоними стрілками. Алгоритмічні фільтри – аж ніяк не та тема, яку я готовий тривіалізувати, тому приклади з практики, якими я збираюся тут поділитися, відрізняються від тих, про які ви чули раніше.

Це тематичне дослідження є свідченням твердої віри укупі з важкою роботою в світлі величезного зсуву в SEO-ландшафті. На жаль, з основними алгоритмічними оновленнями ви не можете просто взяти і поміняти пару опцій і при цьому очікувати негайного відновлення рейтингу. Найкраще, що ви можете зробити – це підготуватися до наступного раунду оновлень. Якщо ви зробили все правильно, то отримаєте вигоди, яких ніколи не бачили раніше.

Навіть якщо ви ніколи не стикалися з алгоритмічними фільтрами, вам слід подбати про ці оновлення.

Роблячи те, що слід, і залишаючись на крок попереду, ви зможете забезпечити гарні позиції вашого сайту і отримати величезні переваги при розгортанні алгоритму.

Так що ж таке «робити те, що слід»? Що необхідно зробити, щоб налаштувати ваш веб-сайт на підвищення рейтингу при зміні алгоритмів?

Ми покажемо це на прикладі мого агентства Search Initiative (https://thesearchinitiative.com)

Завдання: девальвація «Медичного алгоритму»

Я хочу почати це дослідження з того, що повернуся до витоків.

1 серпня 2018 року відбулося велике оновлення алгоритму. Багато SEO-оптимізаторів назвали його тоді «Медичним оновленням», оскільки воно було спрямовано на величезну кількість сайтів, пов'язаних зі здоров'ям і медициною.

Як виглядає оновлення алгоритму?

Почнемо з декількох фактів.

Факт №1: Google постійно проводить пошукові експерименти.

Цитата з офіційної сторінки Google (https://www.google.com/intl/en_uk/search/howsearchworks/mission/users/):

«Пошукові експерименти: від ідей до реалізації

У наших інженерів є багато ідей з приводу того, як зробити ваші результати більш продуктивними. Але ми не керуємося лише здогадками або ж думкою експертів. Ми покладаємося виключно на всебічне тестування і проводимо суворий процес оцінки, щоб проаналізувати показники і вирішити, чи слід реалізовувати запропоновані зміни. Дані цих оцінок і експериментів ретельно аналізуються досвідченими інженерами і пошуковими аналітиками, а також іншими експертами в області права і конфіденційності, які потім визначають, чи варто схвалювати цю зміну для запуску. У 2018 року ми провели понад 654 680 експериментів з навченими зовнішніми оцінювачами пошуку і тестами в режимі реального часу, що призвело до більш, ніж 3234 поліпшень пошуку».

Ось офіційні дані,що стосуються пошукових експериментів, які проводилися в минулому році:

Факт №2: Google випускає покращення алгоритмів кожен день і поновлення ядра кілька разів на рік!

Таким чином, Google випускає покращення алгоритму практично кожен день.

Порахуємо ...

3234 релізу в рік/365 днів на рік = 8,86 змін в день!

 Вони також підтвердили, що випускають оновлення ядра кілька разів на рік:

Переклад:

Кожен день Google зазвичай випускає одну або кілька змін, спрямованих на поліпшення результатів. Деякі з них спрямовані на конкретні поліпшення. Деякі є загальними змінами. Минулого тижня ми випустили широке оновлення алгоритму ядра. Ми робимо це з періодичністю кілька разів на рік ...

Коли вам здається, ніби щось відбувається, ви можете переконатися в цьому, просто запустивши свій улюблений датчик SERP, щоб перевірити коливання:

Протягом цього періоду рейтинги, як правило, коливаються і в кінцевому підсумку стабілізуються. Як на скріншоті нижче:

Багато SEO-оптимізаторів (включно зі мною) вважають, що на етапі «сильної флуктуації» Google вносить корективи у щойно введені зміни.

Це схоже на те, як ви готуєте суп.

Спочатку ви додаєте всі інгредієнти, кладете трохи спецій і не чіпаєте суп деякий час.

Потім ви пробуєте його і додаєте більше солі, перцю або що ви там ще кладете, щоб надати йому необхідний смак.

Нарешті, ви отримуєте те, що вам подобається.

(Я ніколи не готував суп, крім рамена, так що, сподіваюся, ця аналогія має сенс.)

Факт №3: Спочатку буде більше шуму, ніж сигналу.

Як тільки з'явиться оновлення алгоритму, особливо офіційно підтверджене, багато початківців-оптимізаторів почнуть писати в блозі повідомлення про те, які саме зміни були зроблені.

Чесно кажучи, краще все залагодити, перш ніж теоретизувати:

Переклад:

Іноді ми вносимо широкі зміни в наш основний алгоритм. Ми інформуємо про них, тому що єдина дієва порада полягає в тому, що «виправляти» по суті нічого, і ми не хочемо, щоб власники контенту помилково намагалися змінити те, що не викликає проблем…
__________________________________________________________________________________

На цьому тижні ми випустили широке оновлення основного алгоритму – так само, як ми робимо це кілька разів на рік. Наша інструкція по таким оновленням залишається тією ж, що і в березні, як ми висвітлювали тут: twitter.com | searchliaison | ...

Будучи власниками веб-сайтів, у нас є одна сильна сторона – нас багато, і даних, які збираються веб-майстрами на форумах і в Твіттері, іноді буває досить, щоб вказати, які зміни можна внести в сайти.

Проте, зазвичай цього не достатньо, і навіть коли досить, як правило, важко сказати, чи є те, що повідомляють веб-майстри, дійсно правильним.

Слідкуйте за тими, кому ви довіряєте, щоб отримати від них слушну пораду.

Адже ...

На цьому етапі з'являється більше чуток, «міських легенд» і людей, охочих похвалитися – все це скоріше породжує галас, ніж дає розумне керівництво до дії.

У моєму агентстві ми завжди збираємо багато даних і доказів, перш ніж робити які-небудь висновки ... і ви повинні робити так само.

Дуже скоро ми доберемося до цих самих даних.

Питання: Алгоритмічний фільтр або девальвація?

Коли в процесі алгоритмічного поновлення у вас щось йде не так, багато SEO-оптимізаторів називають це «алгоритмічним фільтром».

У Search Initiative ми НЕ ЗГОДНІ з цим визначенням!

Фактично, те, чим це є насправді, так це зміною в тому, що робить пошукова система на рівні ядра.

Будемо використовувати прості терміни:

У будь-якому випадку, як би ви це не називали, оновлення алгоритму ядра, яке вас зачепило, означає, що Google знецінив ваш сайт з точки зору якості.

Алгоритмічні зрушення, що впливають на ваш сайт, не варто називати фільтром. Це слід розглядати як девальвацію.

Ви не були об'єктом, але маса чинників змінилася, і кожен сайт, який не відповідає цим новим факторам, буде знецінюватися однаково.

Приємно те, що як тільки ви визначите ці фактори і візьмете їх до уваги, ви зможете отримати користь від наступного оновлення.

Як дізнатися, що ви постраждали від поновлення алгоритму?

У деяких випадках раптове зниження трафіку дає зрозуміти очевидні речі, як, наприклад, з цим конкретним сайтом, який я хотів би розглянути більш детально.

Але ми повернемося до цього через секунду.

Взагалі, якщо ваш трафік з кожним днем ​​падає, ви повинні переглянути інструменти моніторингу алгоритму (як показано нижче), і перевірити групи Facebook і Twitter.

Блоки контролю зміни алгоритму Google:

Корисні групи в Facebook:

Корисні акаунти в Twitter:

Об'єкт дії: сайт нашого клієнта

Клієнт прийшов до нас після «Серпневого поновлення», від якого вони постраждали.

Вони приєдналися до TSI до кінця жовтня.

Це було «Серпневе оновлення-2018», про яке ми говорили – і до цього часу ніхто на 100% не впевнений в його специфіці.

Однак у нас є кілька серйозних зауважень.

Тип сайту і ніші

А зараз давайте познайомимось з нашим об'єктом дії.

Він являє собою партнерський сайт з близько 700 проіндексованими сторінками.

Свою нішу базує навколо здоров'я, дієт і спалювання жиру.

Симптоми

Оскільки в даній індустрії все ще далеко не спокійно, очевидно, що знайти швидке рішення проблеми було нереально.

По правді кажучи, найімовірніше, більше ніколи і не вдасться винайти будь-якого швидкого вирішення при широких алгоритмічних оновленнях.

Те, з чим нам довелося працювати, було:

Ви можете бачити, що в даному конкретному випадку кількість користувачів, які відвідують сайт, скоротилося на 45% в липні-серпні.

Перефразую себе: половина трафіку пішла за тиждень.

Якщо подивитися на жовтень, коли ми проводили весь наш аналіз і створювали план дій, органічний трафік виглядає ще більш песимістичним:

Маючи дані про ніші, місце та строки, ми можемо легко прийти до наступного висновку:

100% збіг з «Медичним оновленням»

Як ми це відновили – що таке «робити те, що слід»?

Щоб контекстуалізувати наші рішення за цим проектом, коротко викладемо те, що ми знаємо, і те, що ми знали тоді:

 Що ми знали тоді

 Що ми знаємо зараз

Швидке лагодження?

На жаль, на відміну від дій, які виконуються вручну, ви не можете слідувати рекомендаціям, щоб просто «включити» свій рейтинг.

https://www.youtube.com/watch?v=DUjPQtK975E

Алгоритмічна девальвація є продуктом змін, якими керують дані. По суті, це означає, що те, що ви робили раніше, більше не вважається тим, що потрібно користувачам, коли вони шукають терміни, за якими ви раніше ранжувались. Це більше не правильно.

Я збираюся узагальнити це в дуже простому твердженні (яке стало нашим девізом):

 РОБИ ВСЕ!

Давайте обговоримо, що таке «робити все» ...

Інструменти, необхідні для аудиту

Аудит сайтів – це ітеративний процес.

Доступ до інструментів, необхідних для ретельного і швидкого аудиту сайту, дійсно корисний, коли немає очевидної, конкретної проблеми, яку потрібно виправити, і вам потрібно виправити все.

 Ось основні інструменти, які ми використовували, і як ми їх використали.

Google Search Console (Те, без чого не обійтися)

 Вкладка покриття на лівій панелі навігації – вам на допомогу.

Я більш докладно зупинюся на використанні GSC Coverage Report нижче.

Використовуючи інструмент перевірки URL, ви можете перевірити сторінку за сторінкою, щоб визначити, чи є які-небудь проблеми зі сторінкою.

Або, якщо ви просто хочете дізнатися, чи був ваш сайт перенесений на мобільну індексацію:

Ahrefs (Ніндзя)

Якщо у вас є підписка Ahrefs, їх новий інструмент аудиту сайтів – відмінний спосіб повторного аудиту вашого сайту.

Деякі з основних помилок і попереджень, які ви шукаєте за допомогою Ahrefs – це проблеми швидкості сторінки, проблеми з оптимізацією зображення, внутрішні помилки 4xx або 5xx, внутрішні прив'язки і т. д.

Що мені найбільше подобається в цьому, так це те, що ви можете запланувати запуск сканування щотижня, і Ahrefs покаже вам все поліпшення (і будь-які «падіння») у міру їх виникнення.

Ось знімок екрана клієнта, для якого ми проводимо щотижневий періодичний аналіз Ahrefs і прагнемо підтримувати показник здоров'я на рівні 95% +.

Вам слід робити те ж саме.

Зрозуміло, ми також використовували наш ніндзя- інструмент (Ahrefs) для аналізу посилань (див. нижче), але хто цього не робить?

Sitebulb

Можливо, ви здогадалися, про кого йде мова, якщо прочитали моє дослідження алгоритмічних санкцій (https://diggitymarketing.com/algorithmic-penalty-recovery-case-study/).

Sitebulb особливо гарний тим, що конкретизує ваші проблеми. Це інструмент аналізу, а також сканер.

Ось кілька «класних» прикладів проблем, які Sitebulb може виявити для вас:

Ось повний список порад, які ви можете знайти в Sitebulb:

 https://sitebulb.com/hints/

Ефективність цих «підказок» не викликає сумнівів. Ви отримуєте інформацію, що дозволяє об'єднати прості проблеми з основною проблемою, щоб ви могли виправити їх всі відразу, а не окремо.

Моя команда обожнює Sitebulb. Цей сервіс виявився неймовірно корисним для стратегії інтерактивного аудиту.

Якщо ви не знаєте, що таке Sitebulb, я б порекомендував вам спробувати його.

Surfer SEO (SERP Агент 007)

Я закохався в Surfer SEO, як тільки почав його використовувати.

Він став основним інструментом в Search Initiative.

Незабаром ви дізнаєтеся все про те, як використовувати Surfer SEO для оптимізації вашого контенту.

Відновлення, оптимізація та впровадження

Контент

Оскільки ми знали, що велика частина оновлення – це контент, ми почали посторінковий аналіз, ретельно вивчивши кожну сторінку на сайті клієнта.

Обрізка вмісту

Під час останньої SEO-конференції в Чіанг Мей (https://chiangmaiseoconference.com), всього через 3 місяці після оновлення, наш директор по SEO Рад розповів про деякі найбільш поширені проблеми, що впливають на останнє оновлення.

Кілька оновлень, які ми спостерігали протягом цих трьох місяців, показали, що однією з найбільших проблем була канібалізація контенту.

Нижче перераховані 10 найпоширеніших, на думку Рада, питань, які, як ми з'ясували, найбільше вплинули на «Серпневе оновлення»:

1. Створення персонажів, яких нелегко відстежити.

2. Забезпечити хорошу деревоподібну навігацію.

3. EAT (Expertise, Authoritativeness or Trustworthiness) – це не просто біографія автора і соціальні мережі.

4. Не писати «водянисті» тексти.

5. Не набивати рекламу і партнерські посилання усіма можливими способами.

6. Дотримуватися конфіденційності дій.

7. Уникати канібалізації контенту.

8. Позбавлятися від сторінок, які не несуть важливості.

9. Подивитися на управління індексом.

10. Економити краулінговий бюджет.

«Щасливий» Номер 7: Уникайте канібалізації контенту. Не потрібно писати одне і те ж л**но в кожній статті.

Маючи це на увазі, ми почали переглядати сайт, пост за постом, реструктурувати контент.

Ви можете підійти до цього двома способами:

 1. Консолідація сторінок – тут ви визначаєте сторінки (за допомогою ручного перегляду), що охоплюють одні й ті ж теми, і поєднуєте їх.

Як тільки контент буде консолідований, перенаправте сторінку з меншою кількістю ключових слів на сторінку з великою кількістю.

 Кілька прикладів того, які пости ви можете об'єднати:

або:

 2. Обрізка – тут ви вибираєте сторінки, що відповідають зазначеним нижче критеріям, і перенаправляєте їх у відповідні категорії:

 Приберіть з сайту будь-який контент, який може вплинути на загальну якість.

 Переконайтеся, що кожна сторінка на сайті служить визначеній меті.

Поліпшення сигналів E-A-T

У «Медичному оновленні» ви могли багато чути про E-A-T (Expertise-Authoritativeness-Trustworthiness, в перекладі: Експертиза-Авторитетність-Надійність).

Справа в тому, що Google дійсно цінує унікальний, високоякісний контент, написаний авторитетним експертом. E-A-T також досить хороший у визначенні авторитету і якості, поряд з усіма іншими сигналами релевантності.

Наскільки б неправдоподібно це не звучало, алгоритм (а не реальні люди) може виявити ці сигнали E-A-T, ми припускаємо, що алгоритм може вловити деякі з них.

 Отже, давайте повернемося до виконання «всього».

 Ось, що було рекомендовано:

 Ось як це виглядало спочатку – деякі пости мали CTA кожні 2 абзаци:

Теги заголовків

На сайті нашого клієнта заголовки H3 на багатьох сторінках позначалися як H2. Деякі заголовки H1 були помічені як H2.

Перегляньте всі ваші опубліковані статті і переконайтеся, що структура кожної сторінки розмічена правильно з точки зору SEO.

 

Неправильно:                                   Правильно:

Це не газета, тому вам не потрібно завжди дотримуватися правильної ієрархієї заголовків.

Але, будь ласка, хоча б не допускайте хаосу.

Це дійсно допомагає Google вловити більш важливі фрагменти контенту і семантичну ієрархію розділів.

 Налаштування контенту

Суть полягає в тому, щоб написати контент, який буде найкращим з можливих.

Це вимагає від вас аудиту того, що вже займає місце на сторінці 1, щоб зробити все ще краще.

Це означає, що вам доведеться періодично проводити цей аудит, оскільки сторінка 1 постійно змінюється.

Вищезгаданий інструмент – Surfer SEO – виявився відмінним програмним забезпеченням. Без цього ми не змогли б провести повний, глибокий аналіз, подібний цьому, за розумний час.

Давайте використаємо приклад ключового слова «кращі партнерські мережі» з 800 щомісячними пошуками тільки в США.

Мій сайт вже добре працює в топ-10, але він не займає перше місце.

По-перше, запустіть Surfer для цього ключового слова та встановіть цільову країну на свій розсуд – в моєму випадку, США.

Запуск аналізу у вас займе хвилину. Як тільки це буде зроблено, перейдіть до звіту:

Те, що ви бачите тут:

 1. Доступні чинники ранжирування – від кількості слів на сторінці до кількості підзаголовків, кожен фактор вимірюється. Ви можете швидко побачити, наскільки важливі ці фактори для верхніх позицій на сторінці 1. Surfer автоматично розрахує кореляцію кожного вимірювання, яке відображається у вигляді невеликого значка «сила сигналу» поруч з кожним фактором. Висока потужність сигналу означає, що цей фактор важливий для ранжирування на верхніх позиціях.

 2. Основна діаграма для обраної метрики – в даному випадку кількість слів у тілі. Як видно з графіка, результати в верхніх 3 позиціях містять значно більше слів, ніж інші.

1. Налаштування графіка – мені подобається, коли Surfer показує середні значення по 3 позиціях. Це допомагає мені краще зрозуміти ці самі середні значення.

Можливо, ви помітили лінію на графіку, що показує значимість 4933 слів. Це точна релевантність для мого сайту, яку я забезпечую тут:

1. Введіть свій домен в поле пошуку під діаграмою.

2. Він повинен бути знайдений в результатах пошуку.

3. Натисніть піктограму "око", щоб відобразити його на графіку.

Але це навіть не найкраща частина Surfer SEO.

Функція аудиту – Surfer може провести аудит вашої сторінки на основі 5 кращих конкурентів і показати вам корелюючі фактори, проаналізовані для цієї сторінки.

Ось як це виглядає для сторінки «Кращі партнерські мережі» на моєму сайті:

(Якщо ви хочете ознайомитися з повним аудитом – він доступний тут https://app.surferseo.com/audit/K7KGdT5aVprMN_hqFyvv83JoEZW9GFuG).

Тепер я можу детально розглянути рекомендації, такі як рекомендована кількість слів у тілі:

Перші 2 сторінки мають значно ширший контент. Тому спочатку в списку завдань варто додати ще кілька слів.

Перш ніж я піду і зроблю це, я хотів би переконатися, що я використовую всі поширені слова і фрази.

І ви можете побачити це тут, докладно:

Заголовки сторінок і мета-описи

Оптимізуйте теги заголовків, щоб відповідати передовій практиці SEO:

Обов'язково виправте відсутні, занадто короткі або занадто довгі мета-описання, щоб швидко виграти загальний показник якості.

Оптимізація розміру зображення

Оптимізуйте всі важливі зображення розміром понад 100 КБ шляхом стиснення за допомогою ShortPixel (https://shortpixel.com/image-compression-test). Ваші сторінки тепер будуть використовувати меншу пропускну здатність і завантажуватися швидше.

Ось повний звіт про нашу оптимізацію за допомогою Shortpixel для цього клієнта:

Альтернативні описи

Кожне зображення повинно мати альтернативний текст – це догма, якої я не завжди дотримуюся, оскільки що може піти не так, якщо пропустити непарний тег alt?

Однак альтернативний текст – це не просто щось, що у вас є «про всяк випадок», він може допомогти Google зрозуміти, що зображено на картинці. Він також додає важливі сигнали релевантності вашому контенту.

До того ж, ми «робимо все», чи не так?

В даному випадку ми оптимізували зображення, додавши більше описових, природних альтернативних текстів. Крім того, ми переконалися, що всі зображення їх мають.

Оптимізація структури сайту

Відновлення внутрішніх посилань

Ми знайшли багато внутрішніх посилань, які були просто невірні.

Іноді вони посилалися на сторінку, яка була перенаправлена на 301 (іноді кілька разів).

В інших випадках вони посилалися на мертві сторінки (404).

 Щоб знайти їх, ми використовували один з наших улюблених сканерів – Sitebulb:

 1. Пройдіть аудит, потім перенаправте.

 2. Подивіться на кількість внутрішніх перенаправлень.

 3. Відкрийте «Підказки».

4. Зі списку підказок ви можете побачити всі внутрішні редіректи.

5. Використовуйте кнопку «Експорт рядків» для експорту даних в Excel.

Потім ми виправили непрацюючі посилання і оновили їх, щоб вони вказували на правильні сторінки.

Непрацюючі зовнішні посилання

Ми знайшли непрацюючі URL-адреси, на які приходили природні посилання.

У випадку зі сторінками з кодом статусу 404 посилання на подібну сторінку є тупиком, яка не додає ніякої авторитетності або цінності вашим реальним сторінкам.

 Вам не потрібні «пустушки»!

 Ось де їх можна знайти в Ahrefs:

 1. Перейти на сторінки → Кращі за посиланнями.

 2. Потім виберіть потрібний код стану (в нашому випадку – 404).

 3. Список є!

Ви можете впорядкувати його за кількістю доменів (в порядку убування), щоб побачити найважливіші з них у верхній частині.

Далі створіть карту перенаправлення з найбільш підходящими пунктами призначення і перманентно (301) перенаправьте їх, щоб відновити втрачені посилання.

Технічне SEO

Оптимізація швидкості сторінки

Ось розподіл трафіку нашого клієнта відповідно до типу використовуваних девайсів:

Дивлячись на такі значення, вам ДОВЕДЕТЬСЯ зосередитися на показниках швидкості вашої сторінки. Це не «можливо», це – абсолютна необхідність.

Швидше за все, ваш сайт і ніша збігаються.

До:

Після:

Що ми зробили? Відповідь та сама: ВСЕ!

Здебільшого ці плагіни були абсолютно безцінні:

Покриття індексу Google

 Цього можна досягти двома способами:

Google насправді має досить пристойну інструкцію з усіх питань, показану на скріншоті нижче:

 https://support.google.com/webmasters/answer/7440203?hl=en

Вам дійсно потрібно переглянути всі помилки і попередження – виправити їх непросто.

 Однак в Search Initiative ми буквально одержимі наступними пунктами:

 Є багато причин для цього:

 1. Сторінки не мають внутрішніх посилань.

 2. Google не вважає, що вони повинні бути проіндексовані в якості пріоритету.

 3. У вас занадто багато сторінок, і в індексі більше немає місця для них. (Дізнайтеся, як виправити бюджет сканування https://diggitymarketing.com/site-crawlability/).

 Як би там не було, для невеликого сайту (> 1000 сторінок) ця категорія повинна бути порожньою.

Duplicate, submitted URL not selected as canonical (Сторінка продубльована, запропонований URL не обраний як канонічний) – в цей розділ включені всі URL-адреси, для яких Google не згоден з вашим канонічним вибором. Вони можуть не збігатися, або Google просто знайшов їх корисними, якщо вони проіндексовані самостійно.

Перевірте всі і постарайтеся звести кількість помилок до абсолютного мінімуму.

Структуровані дані

В процесі у нас виникали деякі проблеми з існуючими мікроданими.

Ви можете з'ясувати, чи є у вас проблеми, додавши свою сторінку в Інструмент тестування структурованих даних Google (https://search.google.com/structured-data/testing-tool/u/0/):

Щоб виправити це, нам довелося видалити деяку розмітку з файлу header.php в WordPress.

Ми також видалили розмітку коментарів з постів – в постах все одно не було коментарів.

Після виправлення проблем ми вирішили застосувати розмітку огляду для сторінок огляду.

Команда протестувала кілька плагінів (включаючи kk Star Ratings -https: //wordpress.org/plugins/kk-star-ratings/ – який дуже легко застосувати), але в кінцевому підсумку ми впровадили розмітку JSON-LD.

Юзабіліті

Консоль Google повідомила про безліч помилок сайту при його відкритті на комп'ютерах і пристроях з невеликим екраном.

Вони повинні бути розглянуті, сторінка за сторінкою.

Як правило, це проблеми дизайну, які можуть бути усунені шляхом переміщення елементів (якщо вони розташовані дуже близько), збільшення/зменшення розміру шрифту і використання пропозицій Sitebulb для мобільних пристроїв.

Всі помилки в GSC були помічені як виправлені. Потім ми стежили, чи з'являться вони знову.

Можливості сканування

Всі розділи сайту і файли, які не потрібно сканувати, були заблоковані роботами пошукової системи.

Одна з найбільших проблем, з якою ми зіткнулися на ранній стадії аудиту, полягала в тому, що всі партнерські посилання перенаправлялись на 302.

Ось приклад того, як це виглядає в Chrome з використанням розширення Redirect Path (https://chrome.google.com/webstore/detail/redirect-path/aomidfkchockcldhbkggjokdkkebmdll?hl=en) на випадково обраному сайті:

Якщо ви вже давно знайомі з Інтернет-парнерством, то знаєте, що «дружні партнерські посилання» (наприклад, /go/xyz-offer) зазвичай працюють трохи краще, ніж такі, як /?aff=xyz&utm_source=abc). Це особливо справедливо для випадків, коли ви не посилаєтеся на великий, відомий сайт, такий як Amazon.

Крім того, партнерські програми завжди використовують свого роду перенаправлення, щоб встановити cookie, з метою повідомити, що комісія повинна бути віддана вам.

Все це добре, але ...

Що не в порядку?

Не використовуйте Pretty Links з перенаправленням 302.

Ніколи, ніколи, ніколи, пре-ніколи не використовуйте перенаправлення 302, ніколи. Тобто, взагалі ніколи!

Це просто гріх з точки зору SEO!

Що роблять перенаправлення 302? Вони «вказують» Google все одно індексувати урли, з яких йде редирект. Крім того, Google може потім приписати весь контент зі сторінки, на яку ви перенаправляєте, прямо назад сторінці перенаправлення.

Після чого на вашому сайті це виглядає так:

Вгадайте, що відбувається з усім цим контентом в ВАШОМУ домені?

Так, ви маєте рацію – швидше за все, його розглядають як дубльований контент!

Переконфігурація параметрів URL в GSC

Налаштування параметрів URL-адреси – відмінний спосіб дозволити Google краще пізнати, що відбувається на вашому веб-сайті.

Вам необхідно зробити це, якщо у вас є певні сторінки (особливо у великій кількості), які не індексуються, і Google повинен прямо знати, що немає ніякого сенсу індексувати їх.

Скажімо, ви є веб-сайтом електронної комерції, і ваші категорії використовують параметр URL «sort» для визначення способу замовлення (найкраще продається, новий, алфавітний, ціна і т. д.). Як магазин Playstation тут:

Ви можете прямо сказати Google, що їм не потрібно індексувати (і сканувати) ці URL-адреси.

Ось як ви це робите в консолі пошуку Google:

Перейдіть до «старого» GSC → Сканування → Параметри URL, і ви повинні побачити щось схоже на скріншот нижче.

Щоб виправити будь-який з них, натисніть «Змінити», і з'явиться невелике спливаюче вікно – схоже на те, що показано нижче.

Всі доступні параметри конфігурації:

Не забудьте поглянути на приклади URL-адрес, які Google відстежує по кожному параметру. Зміни, вибрані в формі, будуть відображати, які URL будуть чи не будуть проіндексовані.

Ось приклад іншого клієнтського сайту, де нам потрібно було індексувати тільки 1 конкретне значення для параметра sampleid:

Реалізація

Наведений вище список дій різноманітний і всеосяжний. Приємно, що команда Search Initiative правильно налаштована, щоб відповідати вимогам проекту, подібного до цього.

За допомогою нашого програмного забезпечення для управління проектами – Teamwork (https://www.teamwork.com/?partner=blhxyojliu) – ми розробляємо план дій і швидко приступаємо до його реалізації.

Ось скріншот прикладу кампанії, в якій одночасно задіяно багато рухомих частин SEO:

Коли мова йде про аудит і впровадження, ключовим є наявність високих стандартів. Рішення проблеми при посередній роботі гірше, ніж правильне рішення менш важливої ​​проблеми.

Результати: алгоритмічне відновлення

Отже ... Як виглядає повернення до SERP?

Завдяки ітеративному підходу, після серії циклів, сайт клієнта був налаштований так, щоб в наступний раз, коли алгоритм буде запущений, він виявився у вигідному становищі.

Цей прорив за ключовими словами стався за 1 тиждень:

І ми побачили збільшення рейтингу в усіх напрямках – ключові слова стрибнули на верхні позиції, нові ключові слова почали ранжування з нізвідки ... все.

Ось результати порівняння до-медичного і після-березневого оновлень. Ми зловили хвилю, і маємо хороші шанси досягти рекордного рівня трафіку в наступному місяці.

А ось графік Ahrefs, який візуалізує падіння і підйоми:

 

На наведеному вище скріншоті я спеціально згадую етап сумісності, оскільки кожен проект в TSI розділяється на три трирічних періоди:

Етап сумісності з Google – зазвичай перші 3-4 місяці.

Це передбачає, що ми встановлюємо основи кампанії, готуючи сайт для більш значного збільшення результатів.

Або, як у даному випадку, ми робимо все можливе, щоб відновити трафік після будь-яких неприємних сюрпризів від Google.

Етап Google-авторизації – для середньої кампанії цей етап починається через 5-8 місяців.

Тут ми починаємо орієнтуватися на ключові слова з більш високою конкурентоспроможністю.

Етап розширеної Google-авторизації – зазвичай від 8 місяців до року.

На цьому етапі ми використовуємо вже набутий авторитет, збільшуючи кількість сторінок, які займають високі позиції. Ми оптимізуємо сторінки для подальших конверсій і збільшення доходів.

Знадобилося кілька місяців, щоб повністю отримати вигоду з роботи, яку ми вклали в кампанію. Багато власників сайтів не такі терплячі і не завжди хочуть чекати цього славетного моменту.

Але це добре. Це полегшує життя тим з нас, хто це робить.

У нашому випадку відновлення збіглося з другим великим оновленням алгоритму 12 березня.

Звичайно, ви можете прочитати його і сказати: «Гей, це алгоритм відкату назад. Ви могли нічого не зробити і отримати ці вигоди».

Ось їхні конкуренти, які нічого не зробили:

Конкурент 1:

Конкурент 2:

Конкурент 3:

Висновки

У міру того, як світ SEO розвивається, і Google стає все більш і більш витонченим, основні якісні поновлення неминуче стануть частішими.

У цьому тематичному дослідженні ви отримали з перших рук інформацію від Search Initiative про те, як налаштувати свій сайт, щоб в дійсності отримувати вигоду від майбутніх алгоритмічних оновлень.

У той час як використовувані стратегії SEO життєво важливі для постійного успіху будь-якої кампанії, є ще одна важлива частина – людський фактор.

Якщо ви не дотримуєтеся плану і нетерплячі, ви навряд чи побачите плоди своєї роботи.

Незважаючи на гаряче бажання кинути, ви завжди повинні бути готові до того, щоб ...

 ... БУТИ терплячим І ВСЕ ВИПРАВИТИ.

Джерело: diggitymarketing.com

Підпишіться на новини

Залиште ваш e-mail, щоб отримувати новини.

Обговоримо ваш проект?
Dog